AIUTO, L'INTELLIGENZA ARTIFICIALE STA DIVENTANDO STUPIDA – UN POOL DI RICERCATORI DI STANFORD E BERKELEY HA RISCONTRATO UNA “REGRESSIONE” DA PARTE DI CHATGPT, CHE ORA FATICA DI PIÙ NEL RISOLVERE PROBLEMI. LA SOCIETÀ SMENTISCE IN MANIERA GENERICA – TRA LE IPOTESI CHE CIRCOLANO: CHE SIANO STATI INTRODOTTI FILTRI “POLITICALLY CORRECT” CHE RALLENTANO L’AI. OPPURE CHE CHAGPT SIA SOLO UN PROGETTO-PILOTA, IN ATTESA DI LANCIARE IL “PRODOTTO” VERO E PROPRIO…
-Estratto dell’articolo di Filippo Santelli per www.repubblica.it
Qualcuno la trova “più pigra”. Altri, senza giri di parole, “più stupida”. La sostanza è che ChatGPT, l’intelligenza artificiale che ha stupito il mondo per la sua capacità di conversare come un uomo, di capire e farsi capire, sembra diventata all’improvviso meno intelligente. Molto meno.
[…] è spuntato addirittura un paper, non ancora vagliato e pubblicato, di tre ricercatori di Stanford e Berkeley, che questo deterioramento sostengono di averlo misurato: rispetto al suo antenato di marzo, l’incarnazione più recente e in teoria più avanzata di ChatGpt, datata giugno, è meno capace di risolvere un problema matematico, meno capace di scrivere un codice funzionante, e se si rivela più attenta a non rispondere a domande politicamente scorrette, è meno capace di spiegare il motivo.
Tutto contestabile, considerato che la misurazione dell’intelligenza artificiale è essa stessa disciplina agli albori. E in effetti contestato dalla stessa OpenAI, la società che ha creato ChatGPT, intervenuta per rassicurare che “no, non abbiamo reso ChatGPT più stupida, al contrario ogni versione è più intelligente”, e che potrebbe forse essere il fatto che gli utenti la frequentano più assiduamente che fa scoprire loro dei limiti di cui all’inizio non si erano accorti.
Una replica piuttosto generica, che non è bastata ad arginare l’impressione crescente e qualificata di tanti utenti, molti dei quali programmatori, che negli scorsi mesi avevano trasformato l’intelligentissimo ChatGPT nel loro assistente personale, salvo vederlo regredire a livello scolaretto. […]
Circolano varie ipotesi, tutte plausibili, nessuna definitiva. La prima sostiene che ChatGPT fosse fin dall’inizio un grande test, se non addirittura uno specchietto per le allodole, non il vero prodotto da vendere.
L’assistente virtuale chiacchierone era un modo per mostrare al mondo le potenzialità dell’AI, di creare una bolla di aspettative, di testare le reazioni e il mercato, salvo poi applicare l’intelligenza che lo anima – cioè il cosiddetto grande modello linguistico di nome GPT - ad applicazioni più lucrative come quelle appena annunciate da Microsoft, finanziatrice di OpenAI, per i clienti “premium” della sua Office. ChatGPT sarebbe insomma su un binario morente, di obsolescenza e demenza programmatica.
[…]
Anche la seconda ipotesi mette al centro la ricerca di profitto, ma è più tecnica. Diversi esperti hanno ipotizzato che OpenAI abbia modificato in silenzio il modello di funzionamento di GPT: da un unico grande modello addestrato sullo scibile umano a otto, se non addirittura sedici modelli più piccoli e agili, specializzati in singoli campi, sollecitati di volta in volta a seconda delle richieste degli utenti.
Sarebbe un modo per fornire risposte più veloci – cosa in effetti notata dagli utenti – e soprattutto risparmiare potenza di calcolo, energia e costi. Ma che nella fase di transizione potrebbe aver compromesso l’efficacia dello strumento.
La terza ipotesi si affianca alle precedenti senza escluderle. Sostiene qualcuno che per porre delle barriere alle ben note e pericolose cantonate che prende ChatGPT, dalle risposte sbagliate, alle allucinazioni ai pregiudizi discriminatori, gli sviluppatori abbiano aggiunto filtri di prudenza e di “politicamente corretto” molto più stringenti, ma al punto da aver lobotomizzato l’algoritmo, rendendolo meno pronto a lanciarsi nelle sue risposte. […]