AI-POCALYPSE NOW? - PROTESTE SOTTO LA SEDE DI OPENAI CONTRO LO SVILUPPO DI "AGI", IL PROGRAMMA DI IA DI PROSSIMA GENERAZIONE DI SAM ALTMAN - A PREOCCUPARE È IL "DIETROFRONT" DELL'AZIENDA SUL DIVIETO DI APPLICARE I MODELLI PER SCOPI DI GUERRA E IL CONTRATTO DI COLLABORAZIONE CON IL PENTAGONO: "SE I LORO LIMITI ETICI POSSONO ESSERE RIVISTI PER COMODITÀ, NON CI SI PUÒ FIDARE DI LORO" - LA SOCIETÀ HA ANNUNCIATO CHE IL SUO CHATBOT AVRA' MEMORIA: "RICORDERA'" LE PRECEDENTI INTERAZIONI CON GLI UTENTI...
-
1. USA, PROTESTE CONTRO L'USO DELL'IA A SCOPO MILITARE
(ANSA) - Decine di manifestanti si sono radunati fuori dalla sede di Open AI a San Francisco protestando contro lo sviluppo dell'intelligenza artificiale di prossima generazione, chiamata Agi, da parte dell'azienda. L'iniziativa è stata organizzata da due gruppi - Pause AI e No Agi - che hanno apertamente chiesto agli ingegneri di OpenAI di abbandonare il loro lavoro su sistemi di intelligenza artificiale avanzati.
A gennaio, la compagnia aveva cancellato dalle sue politiche di utilizzo il divieto di applicare i modelli per scopi di guerra, una scelta poco ponderata in tempi di tanti conflitti mondiali. Subito dopo era arrivata la notizia di un contratto di collaborazione con il Pentagono. Il messaggio arrivato dal collettivo statunitense nella giornata di lunedì è stato chiaro: fermare lo sviluppo dell'intelligenza artificiale che potrebbe portare a un futuro in cui le macchine supereranno l'intelligenza umana, astenendosi da qualsiasi ulteriore affiliazione militare.
"Il 12 febbraio abbiamo chiesto a OpenAI di porre fine al suo rapporto con il Pentagono e di non accettare alcun cliente militare" si legge nella descrizione dell'evento "Se i loro limiti etici e di sicurezza possono essere rivisti per comodità, non ci si può fidare di loro". Sia Pause AI che No Agi condividono l'obiettivo comune di fermare lo sviluppo della nuova intelligenza artificiale ma i loro metodi divergono. La prima è aperta all'idea di una tecnologia realizzata con confini e limiti, ossia in modo sicuro, mentre No Agi si oppone fermamente alla sua creazione, sottolineando le potenziali minacce psicologiche e la perdita di significato che ne deriverebbe per la vita dell'uomo.
2. CHAT GPT, ADESSO IL CHATBOT DI OPEN AI HA LA "MEMORIA"
(ANSA) - Una delle principali mancanze di Chat Gpt, il famoso chatbot sviluppato da Open AI era la memoria. L'intelligenza artificiale OpenAI ha annunciato ieri sera una novità in merito, ossia la possibilità dell'IA di "ricordare" le precedenti interazioni con il singolo utente. In questo modo, si potrà dire al chatbot di memorizzare un aspetto particolare, da tenere a mente per le conversazioni successive. Un esempio fornito dalla stessa Open AI riguarda il proprio lavoro, tipologia e mansioni.
Così, se si chiede al programma di stilare un elenco puntato con gli argomenti del giorno, saprà già da dove riprendere, suggerendo informazioni utili. Per preservare i dati forniti, si può disattivare nelle impostazioni di Chat Gpt la memorizzazione, così che l'intelligenza artificiale non utilizzi i ricordi. Allo stesso modo, si può dire al chatbot di dimenticare gli aspetti precedentemente ricordati, così da azzerare quello che l'IA sa e fornire nuove istruzioni a riguardo. La software house ha addestrato Chat Gpt per non salvare, anche se attivata la funzione di memoria, le chat con i medici, soprattutto quelle che riguardano le informazioni sensibili.
Ad ogni modo, come spiega l'azienda "se desideri avere una conversazione senza utilizzare la memoria, utilizza la chat temporanea. Le chat temporanee non appariranno nella cronologia, non utilizzeranno la memoria e non verranno utilizzate per addestrare i nostri modelli". Anche gli sviluppatori che creano chatbot personalizzati, cosiddetti Gpt, potranno inserire l'opzione di memoria per i loro progetti, dovendo fornire però un modo semplice e veloce per disabilitarla a seconda delle preferenze degli utenti.