STATI UNITI E CINA SVILUPPANO L’INTELLIGENZA ARTIFICIALE, L’UNIONE EUROPEA PROVA A REGOLAMENTARLA (DELLA SERIE: L’ARBITRO SERVE, MA NON VINCE MAI) - SARANNO VIETATE LE APPLICAZIONI CHE HANNO UN “RISCHIO INACCETTABILE”, OVVERO CHE VIOLANO I VALORI EUROPEI. TRA QUESTE CI SONO I SISTEMI DI “PUNTEGGIO SOCIALE”, GLI STRUMENTI DI POLIZIA PREDITTIVA, I SISTEMI DI RICONOSCIMENTO DELLE EMOZIONI IN AMBITO LAVORATIVO O SCOLASTICO - PROIBITI ANCHE I SISTEMI CHE POSSONO SFRUTTARE CARATTERISTICHE VULNERABILI DI UN INDIVIDUO E QUELLI DI RICONOSCIMENTO BIOMETRICO IN LUOGHI PUBBLICI…

-


1 - LE REAZIONI (POSITIVE) DI INDUSTRIA E RICERCA MA I TEMPI SONO STRETTI

Estratto dell’articolo di Paolo Ottolina per “il Corriere della Sera”

 

riconoscimento facciale 3

Con l’AI Act i cittadini europei ottengono uno scudo contro gli utilizzi potenzialmente più dannosi dell’intelligenza artificiale. Ma cosa cambia per chi già ora usa l’AI per fare impresa o ricerca? Roberto Ventura, managing director and partner di Bcg, ci ricorda che non c’è tempo da perdere: «Il vero lavoro per le aziende inizia ora. Avranno all’incirca solo 6-12 mesi per prepararsi alla maggior parte delle regole. I tempi sono molto stretti soprattutto per i fornitori di sistemi considerati ad alto rischio […]».

 

riconoscimento facciale 2

[…] Alan Perotti, ricercatore e data scientist in Centai, il laboratorio per la ricerca avanzata nel campo dell’intelligenza artificiale fondato a Torino […] individua anche un punto critico: «L’Europa si sta ritagliando un ruolo da arbitro in una sfida tecnologica guidata da America e Cina: l’arbitro nelle competizioni serve, ma non vince mai. È importante che questa parte normativa venga appaiata con investimenti sulla ricerca, altrimenti finiamo a fare i legislatori di prodotti altrui».

 

[…] Per qualcuno l’AI Act è una pietra miliare. […] Non mancano però posizioni più critiche, come quella di Marco Trombetti, co-fondatore di Translated (tra le altre cose effettua con l’aiuto dell’AI le traduzioni in decine di lingue di Airbnb): «Vedo più di un aspetto problematico: da come dovranno essere i “dataset” per allenare gli algoritmi, alle sanzioni che trovo sproporzionate […] alcuni rischi veri non sono regolamentati: in primis le armi autonome. Ma anche la trasparenza dietro l’“allineamento”, che è la capacità degli algoritmi di restituire agli utenti risposte allineate con le loro preferenze e potenzialmente in grado di influenzarne […] opinioni e comportamenti». […]

FACEBOOK DATI BIOMETRICI

 

2 - QUAL È L’OBIETTIVO E QUALI APPLICAZIONI SARANNO VIETATE. IL REGOLAMENTO SARÀ EFFETTIVO ENTRO IL 2026

Estratto dell’articolo di Michela Rovelli per il “Corriere della Sera”

 

1 Cos’è e qual è l’obiettivo dell’AI Act?

L’AI Act vuole «proteggere i diritti fondamentali e la democrazia dall’intelligenza artificiale ad alto rischio, stimolando al contempo l’innovazione». È il primo regolamento al mondo che indica delle norme vincolanti per lo sviluppo di questa tecnologia. Si applica a tutti i Paesi membri dell’Unione europea. Prevede quattro livelli di rischio dell’AI: inaccettabile, alto, limitato e minimo.

 

2 Perché alcune applicazioni dell’AI sono vietate?

riconoscimento biometrico

Vengono proibite le applicazioni che hanno un «rischio inaccettabile», ovvero che violano i valori europei. Tra queste ci sono i sistemi di social scoring, gli strumenti di polizia predittiva, i sistemi di riconoscimento delle emozioni in ambito lavorativo o scolastico.

Vengono proibiti anche i sistemi che possono sfruttare caratteristiche vulnerabili di un individuo: l’età, una disabilità, una specifica situazione sociale. Infine, sono vietati i sistemi di riconoscimento biometrico in luoghi pubblici, con una eccezione: previa autorizzazione giudiziaria, le forze dell’ordine potranno usarli in caso di persone scomparse o per prevenire un attacco terroristico.

dati biometrici

 

3 Cosa sono i sistemi ad alto rischio?

Sono sistemi che possono avere un impatto dannoso sulla salute, la sicurezza e i diritti fondamentali dei cittadini. Non vengono proibiti ma si chiede una precisa serie di requisiti. Tra questi, una valutazione dei rischi e una documentazione delle scelte tecniche ed etiche. Devono permettere l’intervento umano e garantire la sicurezza informatica. Si richiede infine la trasparenza sul funzionamento degli algoritmi […]

 

4 Quali sono le regole per l’AI generativa come quella dietro a ChatGpt?

L’AI generativa rientra nei sistemi ad alto rischio. […] si richiede che venga dichiarato in modo evidente, con una etichetta, ogni contenuto (audio, video, immagine) generato e che si spieghi nel dettaglio quali dati sono stati usati per allenare i modelli di linguaggio, perché vengano rispettate le leggi europee sul copyright.

 

riconoscimento biometrico 2

5 Che sanzioni sono previste per chi viola l’AI Act?

Le sanzioni arrivano fino a 35 milioni di euro o fino al 7 per cento dei ricavi annuali della società responsabile.

 

6 Quando entra in vigore?

[…] L’AI Act sarà pienamente effettivo entro 24 mesi dall’entrata in vigore, quindi nel 2026, ma il divieto dei sistemi a rischio inaccettabile è prevista entro sei mesi.