Sélectionner la langue

French

Down Icon

Sélectionnez un pays

Portugal

Down Icon

Les limites des robots

Les limites des robots

Andrew Smart est l'une des voix les plus provocatrices et originales du débat sur les liens entre technologie, philosophie et cognition. Auteur des livres Autopilot: The Art and Science of Doing Nothing (2013) et Beyond Zero and One: Machines, Psychedelics, and Consciousness (2015) – non publié en portugais –, Smart envisage l'intelligence artificielle (IA) comme il a toujours envisagé les illusions de l'esprit humain : avec une grande rigueur.

Titulaire d'un doctorat en philosophie et d'un master en sciences cognitives, il combine son expérience au sein de grandes entreprises comme Novartis et Twitter avec des recherches sur la conscience et la technologie. Il est actuellement chercheur senior chez Google à San Francisco, où il étudie les impacts sociaux de l'IA.

Dans cette interview, réalisée par appel vidéo, Smart discute de la différence entre la perception humaine et l'hallucination algorithmique, des paradoxes de la créativité artificielle, de l'idéologie de la Silicon Valley et des dilemmes du soi-disant capitalisme cognitif - une phase dans laquelle la connaissance, la créativité et les données deviennent les principaux moteurs de la production et du contrôle social.

Le scientifique et philosophe Andrew Smart, chercheur chez Google, voit l'IA utilisée pour enrichir les personnes déjà riches – Image : Médias sociaux

CartaCapital : Pour commencer, pourriez-vous nous expliquer votre travail ? Andrew Smart : Je travaille généralement sur ce que l’on appelle « l’IA responsable », même si, dans le contexte politique actuel aux États-Unis, les termes « équité » ou « diversité » sont évités. Je me consacre à la recherche sur les impacts sociaux de l’IA et sur la façon dont les technologies d’apprentissage automatique affectent les individus et les groupes. Je m’intéresse également aux questions philosophiques, comme la théorie de l’esprit et le débat sur la capacité de ces systèmes à développer un jour la capacité d’expériences subjectives. Lorsque j’ai publié Beyond Zero and One, l’idée d’une IA sous LSD était presque une provocation philosophique. Aujourd’hui, ces idées me semblent moins absurdes.

CC : Vous avez soutenu que les machines ne pouvaient pas halluciner comme les humains. Le pensez-vous toujours ? AS : Parler d’« hallucination » des modèles revient à anthropomorphiser la machine, c’est-à-dire à lui attribuer des caractéristiques humaines, ce que je critique. En même temps, notre propre perception est, d’une certaine manière, une hallucination, la quête de notre cerveau pour s’aligner sur la réalité. Tout ce que produisent les IA est une forme d’hallucination statistique : elles génèrent des séquences de mots basées sur la probabilité de jetons. Il ne s’agit pas de connaissance, mais de modélisation probabiliste.

CC : Mais considérez-vous aussi les humains comme des producteurs de symboles statistiques, puisque nous sommes façonnés par le langage ? AS : La recherche en IA a tendance à considérer le cerveau comme un système reproductible sur un autre support, comme des puces de silicium. Mais je ne suis pas d’accord. Je crois que la biologie est importante. Remplacer les neurones par des puces électroniques n’est pas neutre. L’expérience humaine, notre relation au monde, est corporelle. Les modèles statistiques ne sont que cela : des modèles. Ils ne sont pas la réalité et n’existent pas sans nous.

« L'expérience humaine se manifeste à travers notre corps. Les modèles statistiques ne sont que cela : des modèles. Ils ne représentent pas la réalité. »

CC : C’est un grand débat dans la communauté scientifique, n’est-ce pas ? AS : Oui. Certains pensent que l’IA peut reproduire tout ce qu’un humain fait. D’autres, comme moi, pensent qu’il y a des limites à ce que les statistiques et l’apprentissage automatique peuvent accomplir en termes d’expérience humaine.

CC : En matière d'art, pensez-vous que l'IA puisse créer quelque chose d'avant-gardiste ? AS : Non. L'art communique des expériences humaines vécues corporellement. L'art implique la culture, la société et le symbolisme – des éléments qui ne peuvent être reproduits par la seule modélisation statistique. CC : Pensez-vous que l'IA puisse développer de l'affection, de l'obsession ou de l'attention pour quelqu'un ? AS : Certains affirment que si une IA semble ressentir, c'est suffisant. Mais je crois que sans corps et sans expérience, il n'y a pas de véritable expérience. L'IA peut simuler l'affection, mais pas les sentiments. Certaines entreprises embauchent des « responsables bien-être IA », comme si les modèles pouvaient souffrir – c'est ridicule. Les gens sont tellement fascinés qu'ils oublient que les modèles ne sont que des logiciels, qu'ils n'ont pas de conscience et ne souffrent pas.

CC : Récemment, un représentant de Meta au Brésil a avancé un argument quasi foucaldien : dès la naissance, nous sommes immergés dans une situation symbolique et cognitive et nous ignorons l’origine exacte des codes et des symboles qui nous aident à organiser nos pensées. C’est un point de vue intéressant, mais je continue de croire que nous, les humains, réagissons à l’environnement de manière adaptative et incarnée. Je me demande donc : est-ce ce qui nous distingue des machines ? AS : C’est la question centrale. Il existe une vision dominante dans l’industrie technologique et la recherche en IA, appelée « fonctionnalisme computationnel ». Elle soutient que les fonctions cérébrales – comme la vision, le calcul, le langage – peuvent être implémentées sur n’importe quel substrat, biologique ou non. Selon ce courant de pensée, peu importe que le calcul se fasse dans des neurones ou des puces de silicium. Je ne pense pas qu’un matériau puisse donner naissance à l’expérience. Les modèles et les statistiques sont d’excellents outils, mais ils ne sont pas réels et n’existent pas en dehors de nous.

L'ère du capitalisme cognitif. À San Francisco, aux côtés des géants du numérique, la pauvreté règne – Image : iStockphoto

CC : À SXSW cette année, la futurologue Amy Webb a présenté des expériences d’IA réalisées à partir de matériel biologique, comme des neurones cultivés en laboratoire. Avez-vous vu ce genre de recherche ? Que pensez-vous de ces tentatives de combiner l’IA et la matière organique ? AS : Je n’ai pas encore vu ce travail, mais l’idée d’une intelligence hybride – mi-biologique, mi-artificielle – existe depuis des décennies. Nous disposons déjà d’implants cérébraux pour la maladie de Parkinson, par exemple. Nous les utiliserons peut-être un jour pour améliorer la mémoire et la cognition. Mais nous savons encore très peu de choses sur la manière d’intervenir en toute sécurité.

CC : Pensez-vous que l’IA est davantage un produit capitaliste ou quelque chose qui transformera véritablement l’humanité, comme l’ordinateur personnel ? AS : Les grandes entreprises visent le profit et la compétitivité. L’IA est utilisée pour enrichir ceux qui sont déjà riches. Certains croient que l’IA guérira des maladies, résoudra les crises climatiques, éliminera le travail – une sorte d’utopie – et d’autres, pessimistes, pensent qu’elle nous détruira. J’en suis sceptique. L’IA est puissante, mais elle n’a rien de magique.

CC : Dans de nombreux récits sur l’IA, on semble s’attendre à une quête de progrès sans limites, comme s’il était possible de dépasser les limites humaines, voire la mort. Pensez-vous que cette quête d’immortalité et de contrôle absolu fasse partie de l’imaginaire technologique qui anime la Silicon Valley ? AS : L’IA est programmée pour rechercher des récompenses, tout comme nous. Dans la Silicon Valley, il y a une obsession pour l’éternité ; pour coloniser Mars ; pour devenir une machine immortelle. Ils veulent sauver l’humanité, mais pour la remplacer par l’IA.

Dans la Silicon Valley, beaucoup ne veulent pas s'attaquer aux inégalités, ils les évitent. Et ils se croient toujours progressistes.

CC : J’ai étudié le comportement des managers de grandes entreprises qui n’appartiennent pas directement à la classe capitaliste, mais qui ne se considèrent pas non plus comme des travailleurs. Pensez-vous que cette couche de dirigeants risque de plus en plus de perdre des opportunités d’emploi ou de devenir précaires ? AS : Absolument. Je participe à un collectif ici dans la Silicon Valley appelé Collective Action in Tech. De nombreux travailleurs du secteur technologique ne se considèrent pas comme des travailleurs et sont hostiles à l’idée de droits du travail. Nous bénéficions certes de nombreux privilèges, mais nous risquons constamment de sombrer dans la précarité et de devenir des « pilotes d’applications ».

CC : C’est un éloignement salarial et symbolique de la classe ouvrière. La professeure Elizabeth Currid-Halkett appelle cela la somme de petites choses vertueuses : le yoga, le kombucha, les voitures électriques… Un mode de vie progressiste qui exclut les pauvres. Cela vous rappelle quelque chose ? AS : Absolument. À San Francisco, il y a un sérieux problème de sans-abrisme. Dans la Silicon Valley, beaucoup ne veulent pas s’attaquer aux inégalités, ils les évitent. Et ils se croient toujours progressistes.

*Journaliste, enseignant-chercheur en Communication et Culture Numérique.

Publié dans le numéro 1373 de CartaCapital , le 6 août 2025.

Ce texte apparaît dans l'édition imprimée de CartaCapital sous le titre « Les limites des robots »

CartaCapital

CartaCapital

Nouvelles similaires

Toutes les actualités
Animated ArrowAnimated ArrowAnimated Arrow