SI È PENTITO ANCHE “IL PADRINO” DELL'INTELLIGENZA ARTIFICIALE – GEOFFREY HINTON HA LASCIATO IL SUO POSTO A GOOGLE PER POTER SPIEGARE I PERICOLI A CUI IL MONDO VA INCONTRO – LO SCIENZIATO INGLESE NON TEME UNA RIBELLIONE DELLE “MACCHINE”, CHE COMUNQUE “POTREBBERO PRENDERE DECISONIONI NON PREVISTE”. MA METTE IN GUARDIA DAL POTERE LASCIATO AGLI HACKER: “È QUASI IMPOSSIBILE INDIVIDUARE E NEUTRALIZZARE GLI ‘ATTORI MALIGNI’ CHE USERANNO L’AI”
-Estratto dell'articolo di Massimo Gaggi per www.corriere.com
«Se siete diventati dipendenti dai like è colpa mia: sappiate che ho contribuito a crearli». «Se mentre navigate in rete e parlate di un oggetto venite bombardati dalla pubblicità su quella cosa, prendetevela con me: vorrei non aver sviluppato quelle tecniche di microtargeting».
[…] La lezione è servita: nell’era dell’intelligenza artificiale che comporta rischi di abusi e di perdita del controllo della tecnologia assai maggiori, allarmi e pentimenti stanno arrivando a raffica, prima che i danni si materializzino.
A unirsi a quel coro, ora è un personaggio che, impegnato da oltre dieci anni nella frontiera più avanzata dell’intelligenza artificiale (è il creatore delle cosiddette «reti neurali»), oggi non si limita a denunciare gli enormi rischi connessi allo sviluppo di macchine in grado di ragionare e prendere decisioni in modo autonomo: Geoffrey Hinton si è addirittura dimesso dal suo incarico scientifico in Google per poter essere più libero di spiegare in dettaglio all’opinione pubblica i pericoli ai quali va incontro.
Il 75enne scienziato inglese non parla, come fanno altri, di macchine che potrebbero diventare coscienti. Si concentra, piuttosto, su due categorie di rischi.
Il primo, peraltro già denunciato anche da Jen Easterly, massima autorità del governo Usa nel campo della cybersecurity, riguarda l’estrema difficoltà di individuare e neutralizzare i molti «attori maligni» che si apprestano a usare le enormi capacità dell’intelligenza artificiale per diffondere immagini, video, documenti e codici informatici falsi: la verità, sempre più incerta, che rischia di diventare irrilevante.
E il rischio di attacchi sempre più sofisticati di hacker in grado di paralizzare interi sistemi informatici, mettendo in ginocchio aziende o, anche, infrastrutture essenziali (elettricità, acqua, reti informatiche) di interi Paesi.
La seconda categoria di rischi è quella della macchina che sfugge al controllo dell’uomo: Hinton non disegna scenari fantascientifici di ribellioni di computer che acquistano coscienza di sé, ma nota che intelligenze artificiali alle quali viene consentito non solo di generare i loro codici informatici, ma anche di gestirli in modo totalmente autonomo, arrivano a formulare ragionamenti e a prendere decisioni che non possono essere previste dai creatori dei programmi.
[…]
Quando sono scesi in campo oltre mille accademici e imprenditori guidati da Elon Musk per lanciare l’allarme dopo la diffusione planetaria di ChatGpt, e chiedere una moratoria di 6 mesi di ogni ricerca in questo campo, molti hanno sospettato una ripicca del padrone di Twitter, Tesla e SpaceX. […]
Ma anche Sam Altman, capo di OpenAI e «padre» di ChatGpt ammette che la nuova tecnologia comporta grandi rischi, oltre a immense opportunità, e va gestita con cautela, mentre qualche settimana fa, dopo la presentazione di un sistema ancor più avanzato, GPT 4, un’altra lettera della Associazione per il Progresso dell’AI che invita a un’estrema prudenza, è stata firmata anche da Eric Horvitz, capo degli scienziati di Microsoft: il gruppo che sta introducendo la nuova tecnologia di intelligenza artificiale in tutti i suoi prodotti.
Hinton non ha firmato le due lettere: non perché non ne condivida il contenuto, ma perché ritiene impossibile una moratoria sulla ricerca, a meno che non si arrivi a un impegno corale di tutti gli scienziati del mondo [...]