Overblog
Editer l'article Suivre ce blog Administration + Créer mon blog
UNIV PERSO - Blog de Philippe Clauzard

Cours universitaires et travaux de recherche sur les questions d'apprentissage des jeunes et des adultes, science du développement humain, sciences du travail. Philippe Clauzard MCF Université de La Réunion - Composante ESPE Analyste du travail et didacticien - Tous les contenus de ce blog sont sous licence Creative Commons.

COURS FT : Sur les algorithmes

Publié le 15 Décembre 2021

Qu’est-ce qu’un algorithme ?
Les algorithmes permettent de résoudre des problèmes mathématiques et informatiques. Shubham Dhage, Unsplash, CC BY
Jean Cardinal, Université Libre de Bruxelles (ULB)

Le mot « algorithme » est utilisé couramment dans la presse pour désigner le fonctionnement opaque des moteurs de recherche et des réseaux sociaux.

Mais de quoi parlons-nous exactement ? Qu’est-ce qu’un algorithme ? Cette notion a traversé l’histoire, depuis Euclide jusqu’aux algorithmes des GAFAM. Les algorithmes peuvent-ils résoudre n’importe quel problème ? Quelles garanties a-t-on sur leur comportement ? Quels sont leurs impacts sociétaux ?

Au IXe siècle, en Perse

Première page du « Kitāb al-mukhtaṣar fī ḥisāb al-jabr wa-l-muqābala », considéré comme le premier manuel d’algèbre. Wikimedia

L’étymologie fait remonter l’histoire des algorithmes au savant persan Muhammad Ibn Mūsā al-Khuwārizmī, qui aux alentours de l’an 800 a publié les premiers manuels de résolution d’équations. Ses méthodes, à l’origine de l’algèbre, concernent typiquement des problèmes de calcul pratiques : des questions d’héritage ou de mesure.

Ses ouvrages sont traduits en latin au cours du XIIe siècle et popularisés par des personnalités telles que le mathématicien italien Leonardo Fibonacci. C’est son nom, latinisé en « algoritmi » ou « algorismi », qui est à l’origine du terme « algorithme ». Près d’un millénaire avant lui, Euclide avait décrit dans les Éléments une méthode pour calculer le plus grand diviseur commun de deux nombres.

Au XXe siècle, la notion d’algorithme construit des branches des mathématiques

Il faut pourtant attendre le début du XXe siècle pour que la notion d’algorithme soit formalisée. Dans son célèbre discours au deuxième congrès international des mathématiciens à Paris en 1900, le mathématicien allemand David Hilbert propose 23 problèmes ouverts, 23 défis à relever pour la communauté mathématique, dont les énoncés auront une influence considérable sur le développement des mathématiques dans les décennies suivantes. Le dixième problème porte sur l’existence d’une « méthode par laquelle, au moyen d’un nombre fini d’opérations, on pourra déterminer l’existence d’une solution en nombres entiers à une équation polynomiale à coefficients entiers » (les équations « Diophantiennes »). C’est bien de l’existence d’un algorithme qu’il s’agit.

C’est par les travaux fondateurs d’Alan Turing et d’Alonzo Church, entre autres, que les algorithmes deviennent des objets mathématiques à part entière. Dans son article de 1936, Alan Turing donne sa définition de la « calculabilité » d’une fonction : il doit exister une machine qui donne sa valeur en un nombre fini d’étapes élémentaires, guidées par un système de transitions et le contenu d’un ruban, qui joue le rôle de mémoire. C’est la célèbre « machine de Turing ».

Alan Turing comprend le lien entre la calculabilité d’une fonction et le caractère démontrable d’une assertion mathématique dans un système d’axiomes. L’informatique théorique devient une branche des mathématiques.

Un dispositif matérialisant la machine fictive de Turing, définition mathématique d’un algorithme. Wikimedia

On circonscrit la puissance des algorithmes, et certains problèmes sont démontrés indécidables : aucun algorithme n’existe pour les résoudre. En 1970, Julia Robinson et Youri Matiiassevitch résolvent finalement le dixième problème de Hilbert : la résolution des équations diophantiennes est un problème indécidable !

Au cours des années 1970, on établit des hiérarchies de problèmes en fonction du temps et de l’espace qu’un algorithme requiert pour les résoudre : c’est la théorie de la complexité.

Comment se présente un algorithme ?

Les algorithmes sont souvent comparés à des recettes de cuisine : une suite d’instructions précises permettant d’obtenir un résultat en un nombre fini d’étapes.

Cette image est juste, mais occulte sans doute un aspect fondamental, le fait qu’un algorithme reçoit des données à traiter (nombres, texte, relations), et certaines instructions sont conditionnelles : les étapes suivies dépendent de ces données, et les exécutions peuvent suivre un cours difficilement prévisible. On peut donner ces instructions sous différentes formes bien définies (organigramme, langage de description), ou même, avec les précautions de rigueur, en langage naturel.

Nous avons tous appris l’algorithme de multiplication de deux nombres à l’école primaire, sans l’aide d’un formalisme avancé. Les algorithmes sont en principe destinés à être mis en œuvre sous forme de programme, dans un langage de programmation compréhensible par un ordinateur. Mais l’algorithme existe indépendamment de cette traduction.

Pour cerner la portée des algorithmes dans nos vies modernes, il faut distinguer leurs familles

Pour mieux comprendre les enjeux et les défis actuels autour des algorithmes, il est important de cerner leur portée et les propriétés que nous sommes à même de garantir sur leurs résultats et leurs comportements. Une typologie des algorithmes est indispensable à cette compréhension.

On peut d’abord distinguer une famille d’algorithmes tellement omniprésents dans notre quotidien qu’ils y sont presque devenus invisibles. Il s’agit d’algorithmes exacts pour des tâches parfaitement bien définies, dont le résultat est facilement vérifiable : multiplier deux nombres, trier une liste de noms par ordre alphabétique, stocker et retrouver efficacement une information, effectuer la conversion d’un signal analogique vers un signal numérique, interpréter un programme.

Le boulier, un instrument d’aide au calcul permettant de faire des additions, soustractions, multiplications et divisions ainsi que l’extraction de racine carrée. HB

Il s’agit là des algorithmes fondamentaux étudiés depuis les balbutiements des sciences informatiques. Ils ne font pas moins pour autant l’objet de recherches actuelles, tant des mystères subsistent autour de la complexité de certaines opérations fondamentales. La complexité exacte du problème de multiplication de deux nombres entiers, par exemple, est d’un point de vue théorique encore ouverte : nous sommes actuellement incapables de démontrer que la multiplication prend nécessairement plus de temps que l’addition ! Le meilleur algorithme de multiplication connu n’a été publié que très récemment.

Les algorithmes d’optimisation constituent une deuxième famille importante. Ils résolvent des problèmes dans lesquels on cherche à identifier des paramètres ou une configuration qui maximise ou minimise une valeur, appelée « fonction objectif ». Les applications concrètes consistent par exemple en la recherche d’un chemin le plus court entre deux points, l’ordonnancement des phases d’un projet pour en minimiser la durée, le choix des emplacements d’antennes pour couvrir à moindre coût une zone donnée, ou celui des paramètres des routeurs d’un réseau pour en minimiser la latence.

Les objectifs des algorithmes de ces deux familles sont quantifiables et leurs résultats sont mathématiquement garantis. Les méthodes formelles permettent de vérifier rigoureusement les propriétés d’un algorithme. Les algorithmes d’optimisation linéaire sont bien compris.

Une troisième famille d’algorithmes, plus spécialisés, est celle des algorithmes cryptographiques, destinés à garantir la sécurité des communications et transactions. Cette sécurité repose souvent sur des hypothèses liées à la complexité de problèmes algorithmiques. Le célèbre algorithme RSA (du nom de ses inventeurs : Ronald Rivest, Adi Shamir et Leonard Adleman), par exemple, fait reposer la sécurité des transactions commerciales électroniques sur l’hypothèse qu’il n’existe pas d’algorithme efficace pour décomposer un nombre en ses facteurs premiers.

Certaines procédures issues des recherches en intelligence artificielle, en revanche, ne se soumettent pas facilement à une analyse rigoureuse.

Les algorithmes changent de nature avec l’intelligence artificielle

Parmi ceux-ci, les algorithmes de classification cherchent à placer les données reçues en entrée dans une catégorie correspondant à une réalité extérieure. Un algorithme de reconnaissance d’animaux, par exemple, recevra en entrée une image sous forme d’un tableau de pixels, et devra déterminer si cette image représente plutôt un chat ou un dauphin. Cette tâche n’est pas formellement bien définie : on peut probablement trouver une image ambiguë pour laquelle les réponses fournies par des humains pourraient être différentes. Le caractère correct de ces algorithmes dépend d’une réalité extérieure, qui n’est pas formalisée, et leur exactitude, ou précision, ne peut être établie qu’expérimentalement.

De la même manière, les algorithmes de prédiction cherchent à anticiper l’évolution de certaines quantités mesurées dans le monde physique, ou des comportements dans une population. Ils sont utilisés par exemple en finance pour prédire l’évolution des marchés, ou en marketing, pour présenter aux visiteurs d’un site web les produits ou publicités les plus susceptibles d’attirer leur attention. La pertinence des résultats est ici encore validée empiriquement, et non mathématiquement. À tel point qu’en 2006, la société Netflix a lancé un concours pour améliorer les performances de son algorithme de prédiction d’évaluations de films, avec un prix d’un million de dollars à la clé.

Le développement des ces algorithmes fait massivement appel à des modèles probabilistes, mais aussi à des structures difficilement analysables rigoureusement. C’est le cas en particulier pour les algorithmes de réseaux de neurones artificiels utilisés dans ce qu’on appelle désormais l’« apprentissage profond », en référence au nombre de couches utilisées dans ces réseaux. Ces réseaux encodent implicitement la mémoire des données fournies lors d’une phase d’apprentissage, et permettent de classifier de nouvelles données en entrée.

Que pouvons-nous exiger des algorithmes ?

L’omniprésence des algorithmes fait légitimement l’objet de craintes. Quelles sont les garanties que nous pouvons exiger ?

Un premier type de garantie porte sur l’efficacité. Combien de temps doit-on attendre pour avoir une réponse ? De quelle quantité de mémoire doit-on disposer ? Ces questions sont bien étudiées et ont des formulations et des réponses rigoureuses, mais partielles. Les lacunes dans notre compréhension de la complexité algorithmique laissent en particulier ouverte la possibilité d’attaques inédites mettant en péril la cryptographie basée sur l’algorithme RSA.

La question traditionnelle des performances est intimement liée aux questions de consommation de ressources, qui ont des impacts écologiques. On peut donner à cette question un cadre plus large, et s’interroger sur les ressources consommées par les logiciels, les serveurs. Dans le domaine des algorithmes cryptographiques, certains mécanismes au cœur du fonctionnement des cryptomonnaies, en particulier le principe de la « preuve de travail », ont un impact énergétique dramatique.

Lorsque les objectifs sont facilement vérifiables, comme dans le cas d’un algorithme de tri, ou quantifiés explicitement, comme dans le cas d’un algorithme d’optimisation, il existe une mesure objective de la qualité de la solution. Dans le cas des algorithmes d’optimisation, cependant, le choix de la fonction objectif, la quantité que l’on optimise, peut avoir un impact humain considérable.

Des questions d’éthique

Les questions d’équité et de transparence des algorithmes de classification et de prédiction deviennent pressantes. Dans un ouvrage devenu classique, Cathy O’Neil alerte sur les dérives des systèmes de prise de décision dans les domaines de la justice, de l’action policière, des assurances, de l’évaluation des enseignants, entre autres.

L’algorithme de Gale-Shapley, utilisé par la plate-forme Parcoursup satisfait des propriétés d’optimalité, mais garantit également qu’un comportement stratégique de la part des postulants est impossible.

Interview de Claire Mathieu : Parcoursup : les dessous de l’algorithme. Source : Le Blob, l’extra-media.

Les méthodes d’apprentissage supervisé pour la classification consistent classiquement en une collection d’exemples, de paires « entrée-sortie », dont on espère qu’ils peuvent être généralisés, de façon qu’une nouvelle donnée en entrée puisse être associée à une réponse en sortie qui fasse sens. En ne fournissant que des exemples connus lors de ces phases d’apprentissage, on inculque au système tous les biais présents de facto dans les exemples dont on dispose, et l’on apprend ainsi à la machine à les reproduire. C’est le thème du documentaire Coded Bias, relatant l’expérience d’une étudiante du MIT avec les algorithmes de reconnaissance faciale.

Le caractère parfois inexplicable des résultats termine d’expliquer le glissement sémantique récent du mot algorithme : de simple méthode de calcul, l’algorithme est perçu comme une boîte noire omnipotente, dont le fonctionnement interne est inaccessible, et dont les réponses finissent par se substituer à la réalité. Cette perception s’explique notamment par la résurgence des méthodes de réseaux de neurones, dont la complexité défie toute analyse formelle. Les succès expérimentaux dans les tâches confiées aux réseaux profonds sont indéniables et fascinants. Mais certaines expériences mettent en évidence leur fragilité : des chercheurs ont montré qu’en modifiant de manière imperceptible quelques pixels bien choisis d’une image, on peut changer du tout au tout la réponse fournie. En l’absence d’explicitation de la réponse (« c’est un chat, car il a des oreilles pointues et des moustaches »), les questions de confiance et de responsabilités se posent.

La communauté de recherche en intelligence artificielle et en apprentissage automatique s’est emparée des questions d’équité et d’explicabilité : le développement de méthodes d’apprentissage incluant des critères d’équité (fairness in AI) est en plein essor, tandis que le domaine de l’intelligence artificielle « explicable » (explainable AI) traite de la justification des résultats et de la confiance.

Al-Khuwārizmī aurait sûrement été surpris de la postérité de son patronyme !The Conversation

Jean Cardinal, Professeur, Département d'informatique, Faculté des Sciences, Université Libre de Bruxelles (ULB)

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

L’intelligence artificielle peut-elle créer une poésie d’un genre nouveau ?
La boîte à poésie. RAFFARD ROUSSEL
Thierry Poibeau, École normale supérieure (ENS) – PSL

Il existe des centaines de programmes de génération de poésie sur Internet – c’est-à-dire des systèmes capables de produire de la poésie automatiquement –, mais à quoi peuvent-ils servir ? Ces programmes ont-ils un intérêt, au-delà de celui de satisfaire leur concepteur ?

On a beaucoup entendu parler de GPT2 ou GPT3, ces énormes programmes informatiques capables de produire des textes très réalistes, et même de la poésie. GPT2 et GPT3 sont en fait des « modèles », des espèces de bases de connaissances, alimentés par des milliards de phrases et de textes glanés sur Internet, et « digérés » afin de pouvoir produire des textes nouveaux, inspirés des textes anciens, mais en même temps très différents.

Ajouter des contraintes

Pour produire de la poésie, il « suffit » d’y ajouter des contraintes : surveiller les rimes et la longueur des vers, respecter la structure globale, l’absence de répétition en position rimée, etc. Les systèmes de génération automatique connaissent un certain succès (on en trouve un nombre phénoménal sur Internet) car la tâche est amusante, ludique, mais aussi complexe si on veut produire des textes avec du sens (et encore plus si on veut contrôler ce qui est dit).

On a donc ici un cadre idéal pour expérimenter (souvent hors contrainte de financement) : la génération de poésie est souvent un loisir et un passe-temps, chez le chercheur comme chez l’amateur éclairé.

Une question se pose toutefois. Ces systèmes sont-ils dignes d'attention ?

Sur le plan littéraire, la plupart des systèmes sont encore, il faut bien l’avouer, assez rudimentaires et ont du mal à rivaliser avec du Baudelaire ou du Rimbaud. Les plus avancés sont toutefois bluffants, et c’est avant tout la base d’entraînement qui joue un rôle crucial (c’est-à-dire l’ensemble des textes qui ont permis au système d’apprendre. On peut en effet fournir à un système un jeu de données réduit, mais spécialisé (des œuvres de poètes du XIXe siècle par exemple) pour « spécialiser » un système, l’adapter à moindre coût. On peut alors obtenir des systèmes qui rédigent des paragraphes à la manière de Balzac, ou de la poésie à la manière de Baudelaire.

Il faut toutefois noter que les résultats apparaissant dans la presse (qu’il s’agisse de génération de prose ou de poésie) sont souvent le fruit de multiples essais, voire le fruit d’un travail de postédition de la part du journaliste.

Le projet Oupoco

Le projet Oupoco (Ouvroir de poésie combinatoire) que nous avons développé avec une équipe du laboratoire LATTICE, avait un but plus modeste. À l’image de l’expérience de Queneau dans Cent mille milliards de poèmes, notre ambition première était de produire des milliards de poèmes simplement en recombinant des vers issus d’un corpus poétique français représentatif.

Cent mille milliards de poèmes, Raymond Queneau, 1961. Musée Médard

À cette fin, nous avons assemblé une base de plus de 4000 sonnets d’auteurs allant du début du 19e jusqu’au début du XXe siècle. Alors que tous les vers de Queneau riment ensemble, il nous a fallu déterminer automatiquement la rime de chaque vers afin de pouvoir produire de la poésie avec rimes. Le projet était donc dès l’origine davantage un projet d’analyse qu’un projet de génération (comme en témoigne cette vidéo.

Ce projet peut paraître dommageable, en ce qu’il ferait passer la poésie pour du « n’importe quoi ». Mais le but est évidemment bien différent. Des expériences concrètes et la rencontre avec le public nous ont montré que cette crainte est en grande partie injustifiée. Le public (jeunes et vieux, femmes et hommes) est amusé, intrigué, veut en savoir plus. Un public d’ordinaire peu attiré par la poésie s’intéresse à ce qui est produit. Le public n’est pas naïf, même quand il s’agit d’enfants : il voit bien le caractère fabriqué, étrange et ludique de l’affaire. Il sait que derrière ce qui est produit se cachent d’autres textes et l’incongruité d’un vers hors norme pousse souvent à aller voir le contexte original, c’est-à-dire le poème d’origine.

Un exemple de poésie (Oupoco) – en rouge, les passages présentant un problème de cohérence. Oupoco, Fourni par l'auteur

Le générateur de poésie, avec les dispositifs de diffusion qui vont avec (comme la Boîte à poésie, une œuvre d’art conçue par l’Atelier Raffard-Roussel et permettant d’obtenir un objet portatif intégrant le générateur de poésie d’Oupoco), permettent à un public large de renouer avec la poésie, alors que c’est une forme souvent délaissée même par les lecteurs régulier.

Quant aux expériences en génération pure (où la poésie produite n’est pas composée à partir de vers préexistants, mais est réellement conçue par ordinateur), elles amènent à réfléchir à d’autres aspects. Sur le texte lui-même : quelle est la richesse du texte produit ? Qu’est-ce qui fait la valeur d’un texte poétique ? Si on est dans le cadre d’une génération « à la manière de » (de façon similaire à la production de musique « à la manière de »), on peut s’interroger sur la valeur du résultat, sur les caractéristiques d’un auteur, sur ce qui fait le style d’un auteur, finalement.

Différents niveaux de créativité

Ces questions amènent enfin à s’interroger sur la notion de créativité elle-même. Margaret Boden, une informaticienne anglaise ayant développé une théorie sur la question, distingue trois niveaux de créativité, chez les humains comme chez les ordinateurs : la « créativité exploratrice », qui consiste juste à étendre un peu ce qui existe déjà (écrire un poème à la façon de Hugo) ; la « créativité combinatoire », qui consiste à combiner de façon originale des éléments existants autour de nous, mais de nature éloignée (les travaux de l’Oulipo, mêlant littérature et contraintes mathématiques sont probablement de cet ordre). La troisième forme de créativité, qualifiée de « transformationnelle », est d’une autre nature, elle change radicalement la façon de voir la réalité et produit généralement toute une nouvelle lignée d’œuvres. Margaret Boden parle de l’invention du cubisme par Picasso ; on peut penser à l’abandon des codes du roman dans les années 1950, autour du nouveau roman, mais la notion de rupture en littérature serait un concept à discuter en lui-même.

Le système Oupoco, recombinant juste des vers existants, est indéniablement de nature exploratrice, même si cette exploration est fondée sur la combinatoire. Le Graal de la créativité par ordinateur serait d’atteindre la créativité transformationnelle, au sens que Boden accorde à ce mot. Un ordinateur serait-il capable d’atteindre ce niveau ? On peut en douter, car ce niveau implique une certaine conscience de soi, une prise de recul par rapport au réel, pour imaginer des mécanismes complètement nouveaux. L’apprentissage artificiel, à la source de la plupart des développements récents et médiatiques en matière d’IA (intelligence artificielle), est très bon pour généraliser et recombiner les milliards de données reçues en entrée, mais est incapable de « faire un pas de côté », pour réellement transformer le réel.

Notons enfin que les humains apprennent aussi à partir de stimulis et par imitation. La nature et la réalité de la créativité transformationnelle n’est pas complètement prouvée. Peut-être qu’à partir des milliards de perceptions reçues au cours de sa vie l’homme est capable de recombiner de manière suffisamment libre pour donner l’impression d’une créativité transformationnelle. On est alors au cœur de la cognition !


Ont participé à Oupoco les personnes suivantes : Claude Grunspan, Mylène Maignant, Clément Plancq, Frédérique Mélanie Becquet, Marco Naguib, Yann Raphalen, Mathilde Saurat, ainsi que l’Atelier Raffard-Roussel.The Conversation

Thierry Poibeau, DR CNRS, École normale supérieure (ENS) – PSL

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

L’intelligence artificielle, une artiste à part entière ?
Un détail du portrait d'Edmond de Belamy. Collectif Obvious.
Amélie Boutinot, Université de Strasbourg et Helene Delacour, Université de Lorraine

Le 25 octobre 2018, Christie’s, la célèbre maison de vente aux enchères, a mis en vente le portrait d’Edmond de Belamy « peint » par un programme d’intelligence artificielle (IA) mis au point par le collectif français Obvious. La vente a été couronnée de succès, puisque le portrait de ce jeune homme fictif, aux allures de notable du XIXe siècle avec un visage flou, a été adjugé pour 432 500 dollars, alors qu’il avait été estimé à 7 000 dollars. Malgré le succès de cette vente, une question se pose : l’intelligence artificielle peut-elle être considérée comme un artiste ?

Une définition en quatre points

Selon le sociologue américain Becker (1982), tout artiste se trouve inclus dans un « monde de l’art » qui regroupe des artistes producteurs d’une œuvre, mais aussi tous les acteurs et les métiers participant directement ou indirectement à leur création : par exemple, les peintres ne peuvent pratiquer leur art sans pinceau ni toile et vendre sans galerie, ni salon de peinture. Tous ces acteurs comme les critiques, les collectionneurs, les conservateurs, les historiens de l’art, etc. interagissent de manière régulière autour du « monde de l’art ».

La notion de « monde de l’art » implique qu’un artiste recherche la reconnaissance non pas auprès d’un seul public (généralement les pairs) mais bien auprès d’une pluralité de publics en lien direct ou indirect avec une œuvre d’art, chacun avec son référentiel et ses valeurs. À ce propos, Bowness révèle qu’un artiste bâtit sa reconnaissance auprès de quatre cercles concentriques : auprès de ses pairs, puis auprès des critiques d’art ou culturels, ensuite du marché, enfin auprès du grand public, connaisseur ou novice dans la discipline concernée. C’est quantitativement le public le plus important mais avec qui l’artiste a cependant très peu de contacts.

Dans les activités créatives, telles que la peinture ou le chant, la reconnaissance auprès d’un large public peut être perçue comme un moteur pour un artiste, mais doit être établie sur le long terme. En effet, l’accès trop rapide au succès auprès du grand public ne permet pas d’établir une reconnaissance légitime aux yeux des artistes ; un tel succès serait la marque d’un manque de création.

D’autres auteurs ont développé cette relation particulière avec la reconnaissance auprès d’un large public comme nécessaire mais très complexe.

À l’instar de Baxandall (1985) qui rappelait l’incertitude des acheteurs vis-à-vis des artistes peintres de la Renaissance, où ce n’est que lors de la transaction qu’ils pourront juger la qualité des œuvres commandées, Caves (2000) souligne que l’évaluation par le prix fonctionne difficilement dans des activités artistiques.

Dans le monde de l’art contemporain, pour détecter le talent esthétique d’un artiste, un classement par prix de vente des œuvres (notamment dans les salles des ventes telles que Sotheby’s ou Christie’s) permet de repérer les artistes en vogue, sur lesquels les clients investissent].

De la même manière, le Kunst Compass (Boussole de l’Art), est une sorte d’échelle de reconnaissance des artistes qui propose une mesure aussi objective que possible du degré de reconnaissance d’un artiste par le biais de différents critères pondérés. Parallèlement, les salons et foires d’art indiquent aux collectionneurs sur quels artistes investir et les médiateurs, en tant qu’intermédiaires culturels et/ou critiques, guident par leurs articles les clients potentiels vers l’artiste en vogue.

L’IA, une artiste comme un autre ?

Partant de ce constat, si l’IA ne peut pas encore être considérée comme une artiste à part entière, au sens traditionnel du terme, elle en partage néanmoins certaines caractéristiques. Tout d’abord, il convient de souligner que l’IA ayant réalisé le portrait d’Edmond de Belamy a, même sans réelle conscience, ni intention propres aux artistes humains, créé quelque chose qui n’existait pas avant.

Comme le souligne Hugo Caselles-Dupré, l’un des fondateurs du collectif Obvious : « l’intelligence artificielle peut être créative. […] On l’oblige à créer un visuel inédit ». De plus, le tableau en question s’ancre dans un genre déjà connu, celui du portrait, dont les codes ont été étudiés par le programme IA et ce, sur 15 000 peintures remontant jusqu’au Moyen-Âge. Il peut, de ce fait, être catégorisé et labellisé, que ce soit par les artistes, les acheteurs, les collectionneurs, ou encore les critiques.

Ce même tableau a également été vendu chez Christie’s, maison de vente aux enchères mondialement connue et reconnue – et donc intégrée dans un « monde de l’art ». Parallèlement, un autre portrait conçu par cette IA a également été vendu pour près de 10 000 euros en 2018 à un collectionneur avant-gardiste, autre audience influente et intégrée dans le « monde de l’art ». Au-delà de cette appartenance au « monde de l’art », cette collection de portraits démontre que l’IA en question n’a pas généré une seule mais plusieurs « peintures ». Le portrait d’Edmond de Belamy fait effectivement partie d’un ensemble « d’œuvres », avec onze portraits de cette famille fictive, les Belamy, à partir du même algorithme.

De plus, le portrait est signé de l’équation du programme l’ayant généré, revendiquant ainsi la paternité de la conception et de la réalisation. Enfin, le portrait est revendiqué comme appartenant au mouvement du « ganisme » (GAN pour generative adversarial networks, c’est-à-dire la technologie utilisée), des mouvements artistiques.

Un champ de réflexion complexe

Toutefois, les deuxième et troisième caractéristiques liées à la quête de reconnaissance ouvrent un champ de réflexion plus complexe. En effet, le terme même de quête n’est pas adapté en soi pour une IA, fondée pour l’instant sur une interaction homme-machine, où c’est l’homme (ici le collectif Obvious) qui peut chercher une forme de reconnaissance.

Concernant la quête de reconnaissance à long terme, le collectif Obvious, dans sa volonté de démocratisation, ne s’est pas exprimé sur un souhait de reconnaissance à long terme (oeuvrant ainsi à sa postérité, à celle de l’IA), ni à court terme. Si les œuvres créées par des IA peuvent générer un certain buzz médiatique, cela n’est pas gage de postérité.

Dans le cas qui nous intéresse, c’est aussi l’homme qui met en scène et promeut les réalisations de l’IA, et possède l’intention propre aux artistes.

Enfin, concernant la caractéristique de l’incertitude propre à la détection des artistes, l’enjeu pour une IA n’est pas tant de valoriser par ses réalisations, que d’évaluer les ressources techniques et financières pour réaliser les œuvres créées numériquement. En effet, la fabrication d’un tableau généré par une telle puissance de calcul coûte cher. Le collectif n’ayant pas de soutien financier à proprement parler, l’appartenance au « monde de l’art » apparaît comme nécessaire pour trouver des ressources financières.

L’IA n’est donc pas une artiste comme les autres. Mais ce n’est pas pour autant que l’IA n’est pas artiste, si l’on considère que les frontières de ce terme peuvent évoluer. Les avancées du GAN permettront certainement de résoudre le problème, en octroyant une capacité créative propre aux IA. Demain, un nouveau profil d’artiste pourrait bien émerger, avec des caractéristiques plus numériques. L’IA ne serait ainsi plus considérée comme un super pinceau ou un outil technique à la solde de l’homme, mais bien comme une entité génératrice de créativité artistique. La question sera alors : quels seront les nouveaux profils d’artistes ?

Avant d’en arriver à cela, les acteurs des « mondes de l’art » devront d’abord certainement répondre à d’autres questions, d’ordre juridiques. En effet, la paternité de l’œuvre, qui se pose déjà vis-à-vis du programme ou du collectif, s’étend à un autre artiste, Robbie Barrat, ayant déposé le code source en open source début 2018… Et qui demande à ce qu’on l’intègre dans les réflexions.The Conversation

Amélie Boutinot, Associate Professor in Management Science. PhD, HDR, Université de Strasbourg et Helene Delacour, Professeur en sciences de gestion, Université de Lorraine

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.