Os limites dos robôs

Andrew Smart é uma das vozes mais provocativas e originais dentro do debate sobre as intersecções entre tecnologia, filosofia e cognição. Autor dos livros Autopilot: The Art and Science of Doing Nothing (2013) e Beyond Zero and One: Machines, Psychedelics, and Consciousness (2015) – não publicados em português –, Smart olha para a Inteligência Artificial (IA) como sempre olhou para as ilusões da mente humana: com muito rigor.
Doutor em Filosofia e mestre em Ciência Cognitiva, ele combina a experiência em grandes corporações, como Novartis e Twitter, com pesquisas sobre consciência e tecnologia. Atualmente, é pesquisador sênior no Google, em São Francisco, onde estuda os impactos sociais da IA.
Nesta entrevista, concedida por videochamada, Smart discute a diferença entre percepção humana e alucinação algorítmica, os paradoxos da criatividade artificial, a ideologia do Vale do Silício e os dilemas do chamado capitalismo cognitivo – uma fase na qual o conhecimento, a criatividade e os dados tornam-se os principais motores da produção e do controle social.
Cientista e filósofo. Pesquisador no Google, Andrew Smart vê a IA sendo usada para enriquecer quem já é rico – Imagem: Redes Sociais
CartaCapital: Para começar, o senhor poderia explicar o seu trabalho?Andrew Smart: Trabalho, de forma geral, com o que chamamos de “IA responsável”, embora, com o clima político atual nos EUA, expressões como “equidade” ou “diversidade” estejam sendo evitadas. Dedico-me à pesquisa sobre os impactos sociais da IA e sobre como tecnologias de machine learning (aprendizado da máquina) afetam diferentes pessoas e grupos. Também continuo interessado em questões filosóficas, como a teoria da mente e o debate sobre se esses sistemas poderiam, algum dia, desenvolver capacidade de ter experiências subjetivas. Quando publiquei Beyond Zero and One, a ideia de IA sob efeito de LSD era quase uma provocação filosófica. Agora, essas ideias parecem menos absurdas.
CC: O senhor argumentava que máquinas não poderiam alucinar como humanos. Ainda acha isso?AS: Falar de “alucinação” de modelos é antropomorfizar a máquina, ou seja, atribuir à máquina características humanas – o que critico. Ao mesmo tempo, nossa própria percepção é, de certo modo, uma alucinação, uma busca do nosso cérebro por se alinhar à realidade. Tudo que as IAs produzem é uma forma de alucinação estatística: elas geram sequências de palavras com base na probabilidade de tokens. Não é conhecimento, e sim modelagem probabilística.
CC: Mas o senhor também vê os humanos como produtores simbólicos estatísticos, já que somos formados por linguagem?AS: Há uma tendência na pesquisa em IA de tratar o cérebro como um sistema que poderia ser replicado em outro suporte, como chips de silício. Mas eu discordo. Acredito que a biologia importa. Substituir neurônios por microchips não é neutro. A experiência humana, nossa relação com o mundo, é corpórea. Modelos estatísticos são apenas isso: modelos. Eles não são a realidade e não existem sem nós.
“A experiência humana se dá por meio do nosso corpo. Modelos estatísticos são apenas isso: modelos. Eles não são a realidade”
CC: Esse é um grande debate no meio científico, não?AS: Sim. Há quem acredite que a IA pode replicar tudo o que um humano faz. Outros, como eu, acreditam que há limites para o que estatísticas e machine learning podem alcançar em termos de experiência humana.
CC: Em termos de arte, o senhor acha que a IA pode criar algo à frente de nosso tempo?AS: Não. A arte comunica experiências humanas vividas corporalmente. A arte envolve cultura, sociedade e simbolismo – elementos que não podem ser reproduzidos apenas com modelagem estatística.CC: O senhor acha que a IA pode desenvolver afeto, obsessão, cuidado com alguém?AS: Há quem argumente que, se uma IA aparenta sentir, isso é suficiente. Mas acredito que, sem corpo e vivência, não há experiência real. A IA pode simular afeto, mas não sentir. Há empresas contratando “oficiais de bem-estar da IA”, como se os modelos pudessem sofrer – isso é ridículo. As pessoas ficam tão fascinadas que esquecem que os modelos são apenas softwares, que não têm consciência e não sofrem.
CC: Recentemente, uma representante da Meta no Brasil argumentou algo quase foucaultiano: que, desde o nascimento, estamos imersos em uma situação simbólica e cognitiva e que não sabemos de onde vêm exatamente os códigos e símbolos que nos ajudam a organizar o pensamento. É um ponto de vista interessante, mas ainda acredito que nós, humanos, respondemos ao ambiente de maneira adaptativa e corporal. Então, pergunto: essa é a nossa diferença em relação às máquinas?AS: Essa é a questão central. Existe uma visão dominante na indústria de tecnologia e na pesquisa em IA chamada “funcionalismo computacional”. Ela sustenta que as funções do cérebro – como visão, cálculo, linguagem – podem ser implementadas em qualquer substrato, seja biológico ou não. Segundo essa linha, tanto faz se a computação ocorre em neurônios ou chips de silício. Não acho que qualquer material possa dar origem à experiência. Modelos e estatísticas são ótimas ferramentas, mas não são reais e não existem fora de nós.
Era do capitalismo cognitivo. Em São Francisco, ao lado das big techs, está pobreza – Imagem: iStockphoto
CC: No SXSW deste ano, a futurista Amy Webb apresentou experimentos de Inteligência Artificial construídos com material biológico, como neurônios cultivados em laboratório. O senhor já viu esse tipo de pesquisa? O que pensa sobre essas tentativas de combinar IA com matéria orgânica?AS: Ainda não vi esse trabalho, mas a ideia de inteligência híbrida – parte biológica, parte artificial – está por aí há décadas. Já temos implantes cerebrais para Parkinson, por exemplo. Talvez cheguemos a usar isso para aprimorar memória, cognição. Mas ainda sabemos muito pouco sobre como intervir com segurança.
CC: O senhor acha que a IA está mais para um produto capitalista ou algo que vai realmente transformar a humanidade, como o computador pessoal?AS: Grandes empresas visam lucro e competitividade. A IA está sendo usada para enriquecer quem já é rico. Há quem acredite que a IA vai curar doenças, resolver crises climáticas, acabar com o trabalho – um tipo de utopia – e há os doomers, que acham que ela vai nos destruir. Sou cético quanto a isso. A IA é poderosa, mas não mágica.
CC: Em muitas narrativas sobre IA, parece haver um impulso por avanço ilimitado – como se fosse possível vencer os limites humanos, até mesmo a morte. O senhor acha que essa busca por imortalidade e controle total é parte do imaginário tecnológico que move o Vale do Silício?AS: A IA está sendo programada para buscar recompensas, exatamente como nós. Há, no Vale do Silício, uma obsessão por eternidade; por colonizar Marte; por virar uma máquina imortal. Querem salvar a humanidade apenas para substituí-la por IA.
“No Vale do Silício, muitos não querem lidar com a desigualdade, mas apenas evitá-la. E ainda acham que são progressistas”
CC: Tenho pesquisado o comportamento de gestores em grandes empresas que não pertencem diretamente à classe capitalista, mas também não se veem como trabalhadores. O senhor sente que esse estrato de líderes está cada vez mais em risco de perder oportunidades de trabalho ou se precarizar?AS: Totalmente. Participo de um coletivo aqui no Vale chamado Collective Action in Tech. Muitos tech workers não se veem como trabalhadores e são hostis à ideia de direitos trabalhistas. Temos, de fato, muitos privilégios, mas estamos em constante risco de cair numa situação precária e virarmos motoristas de aplicativos.
CC: É um distanciamento salarial e simbólico da classe trabalhadora. A professora Elizabeth Currid-Halkett chama isso de soma das pequenas coisas virtuosas: ioga, kombucha, carros elétricos… Um modo de vida progressista que exclui os pobres. Isso lhe soa familiar?AS: Totalmente. Em São Francisco, há um problema grave de pessoas em situação de rua. No Vale do Silício, muitos não querem lidar com a desigualdade, mas apenas evitá-la. E ainda acham que são progressistas. •
*Jornalista, professor e pesquisador em Comunicação e Cultura Digital.
Publicado na edição n° 1373 de CartaCapital, em 06 de agosto de 2025.
Este texto aparece na edição impressa de CartaCapital sob o título ‘Os limites dos robôs’
CartaCapital