Estratto da www.open.online
[…] Tra i maggiori sostenitori della necessità di una regolamentazione globale dell’IA spiccava Sam Altman, Ceo di OpenAI, ovvero la società che ha sviluppato ChatGPT. Ma secondo quanto riporta il Time, anche questo conclamato impegno sarebbe stato artificiale. O quantomeno, incoerente con il suo operato dietro le quinte. Secondo quanto emerso dai documenti visionati dal Time, infatti, OpenAI avrebbe fatto pressioni affinché elementi significativi dell’AI Act dell’Ue (ovvero la legislazione sull’IA più completa al mondo), venissero annacquati in modo da ridurre l’onere normativo per l’azienda.
Il testo finale approvato dal Parlamento Europeo lo scorso 14 giugno, infatti, avrebbe risentito di diverse modifiche proposte dalla società. Ora il documento procederà a un round finale di negoziati prima di concludere il suo iter a gennaio.
Nello specifico, OpenAI avrebbe insistentemente ribadito ai funzionari europei che due dei suoi sistemi (GPT-3, il precursore di ChatGPT, e il generatore di immagini Dall-E 2) non avrebbero dovuto essere considerati «ad alto rischio». Etichetta che si sarebbe trascinata dietro severe implicazioni legali, tra cui il rispetto dei requisiti di trasparenza, tracciabilità e supervisione umana.
Ma, sostiene la società, l’alto rischio non è intrinseco ai programmi, i quali possiedono semplicemente «capacità che possono essere potenzialmente impiegate in casi d’uso ad alto rischio». Un’argomentazione analoga a quella sollevata da Microsoft, che ha investito 13 miliardi di dollari nel suo laboratorio di intelligenza artificiale, e da Google.
[…] Altman era persino arrivato a minacciare (salvo poi ritrattare) che Open AI avrebbe potuto considerare la cessazione delle sue attività in Europa, se messa nelle condizioni di non poter rispettare il Regolamento.
Sam Altman in audizione al senato usa
In ogni caso, le pressioni sembrano essere andate a buon fine. A differenza delle bozze precedenti, la formulazione finale approvata dal Parlamento Ue non contiene la formulazione secondo cui i sistemi di IA generici dovrebbero essere considerati intrinsecamente ad alto rischio.
Viene piuttosto richiesto ai fornitori dei sistemi di rispettare requisiti più blandi, tra cui la prevenzione della generazione di contenuti illegali, rivelando se un sistema è stato addestrato su materiale protetto da copyright, e l’esecuzione di valutazioni del rischio. […]
A giugno 2022, tre membri dello staff di OpenAI hanno incontrato per la prima volta a Bruxelles i funzionari della Commissione europea per discutere della questione. Una fonte interna alla Commissione ha raccontato che la società temeva «un’eccessiva regolamentazione», senza specificare il tipo di regolamento che avrebbe reputato adeguato. […]