
Sociologue, professeur émérite à Sciences Po Paris, co-fondateur avec Bruno Latour et ancien coordonnateur scientifique du médialab de Sciences Po (2009-2013), Dominique Boullier est également ancien directeur du Social media Lab de l’École polytechnique fédérale de Lausanne (EPFL). Son travail s’attache notamment à analyser le numérique et l’Internet comme des formes de mutation culturelle. À ce titre, il a publié un ouvrage de synthèse très complet intitulé Sociologie du numérique [2019] dans lequel il invite à un renouvellement de l’appareillage méthodologique et théorique des sciences sociales pour aller vers des sciences humaines et sociales de « 3e génération ». Ouvrage prolongé par Propagations. Un nouveau paradigme pour les sciences sociales (Armand Colin, 2023).
1/ Vous assurez la conférence inaugurale de la Biennale du numérique consacrée aux usages de l’intelligence artificielle. Pouvez-vous nous dire comment le sociologue que vous êtes aborde la question de l’Intelligence Artificielle ?
Mon premier souci serait d’éviter d’employer le terme IA beaucoup trop connoté et de lui préférer celui de Machine Learning qui est le processus technique derrière toutes les applications de la dite IA. Mais l’affaire semble désespérée après le coup marketing de Chat GPT qui a mis un certain type d’IA (générative) à disposition gratuite du grand public et forcé littéralement le marché et l’opinion publique à s’initier à cette technique. Ce premier cadrage fournit aussi un éclairage sur les conditions marchandes de l’émergence de ces solutions (qui constituent par ailleurs des pistes de recherche académiques ou d’activistes pour les communs mais qui tendent à perdre en visibilité face à LA solution). J’ai plaidé depuis des années pour réencastrer l’IA et le calcul en général dans leurs conditions de production et dans leurs environnements organisationnels au moment même de leur conception, ce qui permettrait aux experts métiers des domaines mais aussi à d’autres personnes concernées par les solutions proposées de contribuer à ces développements. Or, c’est tout le contraire qui se passe puisque l’IA qu’on met en avant dépend de plus en plus de la collecte de données massives, et de modèles comportant des milliards de paramètres nécessitant des capacités de calcul inaccessibles à la plupart des entreprises et des services publics. La domination des GAFAM en ressortira renforcée, comme Microsoft avec son investissement dans Open AI. Cela tue l’innovation, la compétition et contribue à fausser totalement les termes du débat sur quelle IA, quelles limites et quelles conditions d’appropriation.
2/ Certains auteurs parlent de l’IA comme d’une « révolution » (il en va par exemple ainsi de ChatGPT en 2023). Dans quelle mesure peut-on parler de « révolution » ? Et alors, de quelle révolution parle-t-on ?
Je n’emploie jamais le terme révolution car il faudrait l’employer tous les dix ans avec le numérique et je prolonge ainsi les méthodes de Elisabeth Einsenstein parlant de l’imprimerie (qu’elle qualifie pourtant de révolution !) ; pour elle, avec l’imprimerie, et comme le savent tous ceux qui fréquentent l’Enssib, l’imprimé a amplifié tous les processus qui étaient déjà en marche dans les sociétés mais certains ont été amplifiés plus que d’autres. Pour l’IA générative actuellement en débat, cette amplification se traduit par deux sauts majeurs, qui sont cependant déjà présents dans tous les développements précédents.
D’abord, il s’agit d’une nouvelle ère des interfaces homme-machine, mobilisant des archétypes de la conversation, y compris pour guider des calculs ou l’utilisation d’API puisque ces IA agiront désormais comme de orchestrateurs de procédures complexes. Or, nous avons déjà vécu plusieurs changements radicaux sur ce plan (qui finalement sont à chaque fois dépassés) : le Wysiwyg et le PC (1980-84), le lien hypertexte et le Web (1991), le wiki et Wikipédia et tout le web 2.0 (2002), le smartphone et les applications (2007) dont celles de réseaux sociaux. Ce mouvement vers une interface dite de plus en plus « intuitive » bascule désormais vers l’interface conversationnelle (écrite mais en fait vocale très vite puisque les assistants vocaux étaient déjà présents). Ce changement amplifie l’immédiateté et le couplage avec la machine qui étaient déjà en cours depuis les débuts du numérique. Mais il y manque encore un terminal spécifique, qui sera sans doute les lunettes de réalité augmentée. Tant que ces deux faces ne sont pas réunies, interfaces et terminal, l’usage restera limité en ce qui concerne le grand public.
Mais la seconde dimension amplifiée porte sur les connaissances et leur organisation. Je parle toujours de technologies cognitives à propos du numérique. Pour chacune des phases d’interface, correspondent des architectures de connaissance que je ne vais pas détailler ici. L’architecture des agents conversationnels repose sur des LLM, qui sont un type de structuration des connaissances très particulier puisque orienté vers la fourniture de réponse (pas de nouvelles questions ou de directions comme un moteur de recherche mais de réponses, et Google est d’ailleurs devenu depuis 10 ans et Hummingbird, un moteur de réponses). Quitte à inventer les réponses, on le sait désormais, avec ces inventions de fake qui seront reprises désormais par les moteurs de recherche comme cela a été montré pour Google et pour Bing. Cette connaissance totale, sans contrôle, sans hiérarchie, sans sources, et immédiate constitue un fantasme d’ingénieurs mais présente de nombreux risques comme on le voit. Le coup commercial de ChatGPT a forcé la main à tous les acteurs dont la plupart étaient conscients des risques, alors qu’un nouvel entrant ne craint rien selon sa philosophie libertarienne disruptive et donc irresponsable.
3/ Le stock de mots, de phrases, de formules et de connaissances des algorithmes de l’IA générative est aujourd’hui égal ou supérieur à celui qu’un humain peut posséder. Pourtant, les productions littéraires de l’IA par exemple semblent rester décevantes. Selon vous, pour quelle(s) raison(s) ce résultat est-il décevant aux yeux des lecteurs ?
La déception ne s’observe que dans les réactions des experts car pour ce qui est du jeu avec l’interface, car il s’agit bien d’un jeu, ressort essentiel de la diffusion des innovations numérique (voir The Game de Alessandro Barrico), le public est très content. Lorsque vous voulez faire des textes « à la manière de », un des jeux favoris avec ces IA, ou encore des résumés, ça marche très bien mais évidemment sans créativité puisqu’il faut copier par principe. Mais la copie est au principe même de ces IA qui traitent statistiquement les corpus qui les entrainent, aussi larges soient-ils. Ils cherchent à optimiser les probabilités de la phrase suivante, ce qui aboutit à produire des énoncés moyens (sauf si on les contraint mais ce sera toujours une moyenne selon cette contrainte). Et cela convient à toute une part de nos activités de production de contenus. C’est cela que la séduction de ces IA génératives révèle : toute une partie des contenus produit actuellement (hors IA) est vide, sans intérêt, de pure conformité et n’est lue par personne si ce n’est des algorithmes qui vérifient précisément la conformité ou détectent l’élément saillant. Les métiers de la communication, de la publicité, des organisations internationales, du consulting produisent des contenus sans saveur, des rapports qui justifient leur existence avant tout mais qu’une IA peut très bien produire en effet puisqu’il n’y a aucune valeur ajoutée en termes de connaissance (et quand il y en a c’est qu’elle est fake !). Le pire, c’est que les académiques sombrent de jour en jour un peu plus dans ce même abime, celui du « publish or perish », avec infobésité d’articles scientifiques très conformistes, sans intérêt, bien formatés, qui ne sont lus par personne, à part les résumés et encore mais qui se propagent par les règles de la citationnite aigue qui détruit la vie intellectuelle de la communauté. Tout cela pour les beaux yeux d’un ranking jugé délirant mais pourtant respecté. L’IA générative ne peut qu’amplifier tout cela et contaminer tout le côté fake de ces contenus automatisés, que d’autres automates « liront », indexeront, classeront, citeront, sans qu’il y ait besoin d’humains dans la boucle si ce n’est des croyants ou des naïfs.
4/ Qu’est-ce qui fait alors la différence entre la machine et l’humain dans la capacité créative ? La socialisation, l’expérience individuelle et collective ?
La différence saute aux yeux après ce que je viens de dire. La capacité créative est nulle, malgré ce que disent mes amis artistes qui se réjouissent de pouvoir jouer avec ces outils. La combinaison / recombinaison d’éléments préexistants est certes une des composantes de la créativité, l’essai au hasard aussi dans certains courants. Ce qui veut dire aussi que finalement, il n’existe pas tant que ça de moments créatifs chez les humains, même parmi les plus créatifs. De même l’éducation écrase délibérément la création au profit de la répétition conforme et de l’imitation, il ne faut donc pas s’étonner que l’on trouve géniales des productions d’une IA générative puisque par nécessité productive, par influence éducative, par visée politique, ces humains sont entrainés eux-mêmes à perdre leur créativité. La pente est déjà présente et ce type d’IA ne fera, là encore, que l’amplifier si on ne bifurque pas à temps.
5/ Quel sera le sens de votre intervention à la Biennale du numérique ? Qu’avez-vous l’intention de dire en substance aux professionnels du livre et de l’information ?
Au-delà de ce constat que je reprendrai dans ses grandes lignes, j’insisterai sur la nécessité politique, culturelle et économique, de ne pas céder aux diktats des disrupteurs fous qui prétendent nous obliger à vivre et travailler avec des outils mal conçus et dangereux. Pour cela il faut regarder ailleurs ce qui se fait dans d’autres courants de l’IA. Je pense notamment à ceux qui ont développé depuis des années des IA explicables, ou des boites blanches, souvent à base d’IA symbolique mais pas toujours. Car il existe plusieurs types d’IA, plusieurs façons de les mobiliser et de les encastrer dans un design organisationnel spécifique. Non il ne faut pas nous adapter (aux IA) ! Il faut se les approprier et les faire plier à nos façons de faire, à nos objectifs et à nos valeurs. Ce message subliminal de l’adaptation est une défaite de la pensée et une défaite culturelle qui suppose qu’on ne rentre pas dans la diversité des choix possibles, au profit d’une servitude volontaire aux présuppposés d’une classe vectorialiste californienne et libertarienne. Certains autres travaillent en Europe sur des bases de données d’entrainement publiques, ou encore sur des modalités coopératives d’appropriation des IA, on peut donc sortir d’une logique binaire (s’adapter ou disparaitre) pour favoriser des alternatives en termes de modèles, pour des raisons écologiques notamment (une consommation délirante de ressources énergétiques que des modèles plus petits devraient réduire) mais aussi pour des raisons culturelles d’architectures de connaissance contrôlées et socialement utiles.
Propos recueillis par Emmanuel Brandl
Le 02 novembre 2023