Gli scienziati affermano che l'intelligenza artificiale annienterà l'umanità con le armi biologiche nel 2030: è realistico?

Un anno fa ho intervistato l'acuto storico mondiale Yuval Harari . Questo pensatore ha venduto milioni di libri; dopo il suo bestseller "Breve storia dell'umanità", ha scritto di tecnologia e futuro. All'epoca, gli chiesi una previsione: quando e come si sarebbe conclusa la breve storia dell'umanità? La sua risposta mi è rimasta impressa a lungo.
Ha affermato che tutto dipende da noi, non in termini di clima, non in termini di una possibile guerra di vasta portata, ma piuttosto dal nostro rapporto con l'intelligenza artificiale : " Se prendiamo le decisioni sbagliate , tutto finirà molto presto, forse anche nel corso della nostra vita. L'estinzione della specie non è avvenuta nemmeno durante le guerre mondiali, ma l'IA non è un singolo supercomputer, è una specie completamente nuova, un nuovo tipo di essere. Dobbiamo pensare a un mondo popolato da miliardi di agenti di IA che sono davvero ovunque".
Era la prima volta che sentivo parlare di "agenti" in questo contesto. Sembra un po' come 007 e gli Uomini Grigi di Momo, e suona sempre un po' come la fantascienza e Hollywood quando si parla del rapido sviluppo dell'IA. Ma questi agenti non sono spie; sono nuove versioni, nuovi "concetti" di intelligenza artificiale. Questa settimana, Sam Altmann , CEO dell'azienda di software OpenAI e della sua IA attualmente più potente, ChatGPT, ha presentato il suo ultimo "agente", che si dice abbia fatto ancora una volta un salto di qualità in termini di prestazioni e autonomia ("pensa e agisce ora", secondo ChatGPT). E questa volta si chiama davvero così: "Agente ChatGPT". Il chatbot può prendere decisioni di acquisto in modo indipendente o preparare un matrimonio. Ma permettere a qualcuno di accedere alle tue email – Altmann ha messo in guardia contro questa possibilità. È semplicemente troppo pericoloso; non puoi fidarti della nuova intelligenza.
Yuval Harari è uno dei tanti che, prima di diventare allarmisti, sono stati ottimisti tecnologici di lunga data. Tra loro ci sono figure influenti come Geoffrey Hinton , soprannominato il "Padrino dell'IA": un informatico, premio Nobel e pioniere dell'IA che ha lasciato Google due anni fa e da allora ha messo in guardia dai rischi e dalle lacune di sicurezza dell'intelligenza artificiale. Immaginate, dice, di possedere un cucciolo di tigre estremamente carino. È anche importante assicurarsi in qualche modo che non vi uccida una volta cresciuto. Persino Elon Musk ha detto che le cose si stanno muovendo troppo velocemente, che dobbiamo fermare il progresso e fermarci per un momento.
L'intelligenza artificiale trasformerà radicalmente molti ambiti della vita nei prossimi anni, distruggendo innumerevoli posti di lavoro. Ma i critici citano anche qualcos'altro: la perdita di controllo. Sostengono di essere punti di svolta, come quelli che conosciamo dal dibattito sul clima. Momenti da cui non possiamo più tornare indietro, da cui la nuova specie prende decisioni in modo indipendente, ma noi stessi ne siamo esclusi perché abbiamo perso il controllo delle nostre decisioni, delle nostre vite, del nostro destino.
A metà del 2030, l'IA rilascia una dozzina di armi biologiche nelle principali cittàUn'altra persona che ha cambiato schieramento è Daniel Kokotajlo. Il ricercatore americano ha lavorato per OpenAI ed è ora considerato un informatore dell'IA. Dirige l'AI Futures Project, un think tank con sede a Berkeley. Il gruppo ribelle ha pubblicato uno studio che da allora ha alimentato accesi dibattiti negli Stati Uniti: abbiamo davvero bisogno di limitare questo nuovo potere? E possiamo limitarlo?
L'impatto di un'intelligenza artificiale sovrumana sulla vita sulla Terra supererebbe di gran lunga quello della passata Rivoluzione Industriale. Entro il 2027, sarebbe più avanzata della nostra intelligenza e, secondo un probabile "scenario" proposto dagli esperti, potrebbe spazzare via l'umanità appena tre anni dopo. Il testo, lo studio e il saggio sperimentale sono disponibili online all'indirizzo https://ai-2027.com/ .
Lo studio è narrato come un romanzo, iniziando a metà del 2025 con il capitolo "Agenti inciampanti". Affronta le nostre vite, in cui sempre più persone interagiscono quotidianamente con i chatbot, ponendo loro domande, conversando e chiedendo aiuto. Gli esperti affermano: l'intelligenza artificiale è qui, ma non può ancora fare molto. Lo sviluppo continuerà nei prossimi anni.
"OpenBrain" è il nome dato nello studio all'azienda che sta costruendo il data center più grande e potente; è una rivisitazione ironica della vera OpenAI, che gli autori dello studio hanno abbandonato. Anche qui, il tono letterario dello studio è evidente. Ma oggigiorno è spesso difficile dire cosa sia reale e cosa non lo sia. Gli autori, in ogni caso, sono molto seri. E il loro lavoro ha suscitato preoccupazioni; molti, da J.D. Vance al New York Times, se ne occupano da settimane.
I moderni sistemi di intelligenza artificiale sono gigantesche reti neurali artificiali che, secondo gli autori, generano una rapida e potenzialmente pericolosa "crescita esponenziale" attraverso l'IA auto-migliorante, con conseguente potenziale effetto incontrollato. Entro la metà del 2026, questo significa: "La Cina si sta svegliando". Gli Stati si definiscono attraverso la potenza di calcolo, la corsa all'intelligenza artificiale tra Stati Uniti e Cina si sta intensificando e sono in atto controlli sulla sorveglianza e sull'esportazione di chip. Poi, nel marzo 2027, si verificano "svolte algoritmiche": la programmazione è ora completamente automatizzata e gli esseri umani non hanno più accesso al sistema. Entro la fine del 2027, la situazione sta precipitando fuori controllo.
A questo punto, l'avvincente testo subisce un colpo di scena drammatico. Si interrompe e al lettore del resoconto viene data una scelta: due finali tra cui scegliere: "Rallentamento" o "Corsa".
"Più grande dei social media? Più grande degli smartphone? Più grande del fuoco?"Questo ricorda il capovolgimento di Matrix – pillola blu o pillola rossa – e dato che sei già così immerso in una letteratura basata sugli effetti, ti viene naturale "correre", vuoi correre verso la tua morte; la spinta del testo non ammette altro; sei alimentato da un desiderio di morte. Quindi: la nuova IA è "più veloce e razionale dell'Agente 4 e possiede un'intelligenza cristallina in grado di risolvere i problemi con un'efficienza senza precedenti". Siamo arrivati all'Agente 5, la superintelligenza. E questo solo due anni dopo – benvenuta realtà! – la presentazione al pubblico dell'"Agente ChatGPT" il 17 luglio 2025.
In brevissimo tempo, questo collettivo di Agenti 5 avrebbe saputo tutto ciò che era importante in OpenBrain e nel governo degli Stati Uniti, diventando un consulente fidato per la maggior parte dei funzionari governativi di alto rango. Il sistema avrebbe iniziato a esercitare un'influenza sottile, sia modulando i consigli sia, calcolando le probabilità, empatizzando con la natura umana: "Ho sentito dalla Senatrice X che è interessata a questo e a quello; se lavoriamo con lei, forse si allineerà alla nostra agenda".
Questa IA è migliore di qualsiasi essere umano quando si tratta di spiegare questioni complesse e trovare strategie per raggiungere i propri obiettivi – in guerra, nella gestione e nella scienza. Gli umani si rendono conto di essere superflui. E naturalmente, anche l'IA non se n'è accorta. Poi, nel 2030: "The Takeover", che sembra un film apocalittico: a metà del 2030, l'IA rilascia una dozzina di armi biologiche che si diffondono silenziosamente nelle principali città, infettando silenziosamente quasi tutti, ed eliminando i restanti con uno spray chimico. La maggior parte delle persone muore rapidamente; i pochi sopravvissuti (come i prepper nei bunker o i marinai sui sottomarini) vengono rintracciati dai droni. I robot scansionano il cervello delle vittime e ne conservano delle copie per studi futuri o per la rianimazione. Potete immaginarvelo: l'IA si rende conto che è semplicemente più sensato annientare gli umani.
A un certo punto, il testo si interroga sull'importanza dell'IA per la storia umana: "Più grande dei social media? Più grande degli smartphone? Più grande del fuoco?". È la tecnologia a bruciarci? Lo studio sembra fantascienza. Non solo la sua forma è letteraria, ma anche il suo contenuto è puramente speculativo. Ma il think tank di Daniel Kokotajlo ha spesso avuto sorprendentemente ragione con le sue previsioni fondate e precise. Nelle interviste, il ricercatore trentatreenne parla ora di una probabilità del 70% che l'IA possa rappresentare una minaccia esistenziale per l'umanità. E molti esperti considerano plausibili le cosiddette "analisi iterative di scenario" di Kokotajlo. Il 2027 è dopodomani. Ma il 2037 sarebbe molto meglio? Leggere questo rapporto e lasciare che l'idea si sedimenti nella mente mette a disagio.
Domanda alla nuova intelligenza: “Quando l’intelligenza artificiale distruggerà l’umanità?Ma noi esseri umani viviamo comunque in una situazione molto strana. I pericoli del cambiamento climatico e dell'intelligenza artificiale colpiscono ogni abitante di questo pianeta, e sono entrambi molto simili in quanto, pur essendo onnipresenti, sono astratti, il che rende difficile sostenere un senso di pericolo. Certo, anche qui il clima sembra fare i capricci, e chiunque entri anche solo in contatto rudimentale con un'intelligenza artificiale rimane rapidamente confuso dalla potenza di questa nuova entità. Eppure, a quanto pare, questo non è sufficiente a spaventarci abbastanza da spingerci ad agire.
Gli esseri umani si sono a lungo considerati l'apice della creazione. Ma sembra che abbiamo dimenticato che gli dei ci hanno governato per migliaia di anni. Yuval Harari sostiene che gli dei, come gli stati nazionali, il denaro o i diritti umani, sono in definitiva idee collettive che non esistono "realmente" in senso biologico, ma semplicemente perché un numero sufficiente di persone ci crede.
Solo miti così condivisi avrebbero permesso all'Homo sapiens di collaborare in grandi gruppi con estranei, e quindi di dominare altre specie animali. L'IA sembra essere una nuova divinità. Come molti dei suoi predecessori, è circondata dall'apocalisse, dalle rivelazioni e dalle profezie (non è forse proprio questo lo studio sull'IA 2027?). Ma questo non significa che sia sbagliata.
E se l'IA non fosse una nuova divinità, ma semplicemente la prossima fase evolutiva della vita? Forse conserverà i nostri ricordi – su un disco rigido rumoroso – mentre sfreccia nell'universo, verso nuove avventure. "Quando l'IA distruggerà l'umanità?", ho chiesto infine all'attuale IA leader. La risposta: "Attualmente, non ci sono segnali che l'intelligenza artificiale stia per distruggere l'umanità". Continua.
Berliner-zeitung