venerdì 24 novembre 2023

Mi tranquillizza alquanto...

 

INTELLIGENZA ARTIFICIALE
L’azzardo di Altman OpenAI e il progetto Q* per la mente sovrumana
DI PIER LUIGI PISA
ROMA - Qualche giorno prima che Sam Altman venisse licenziato da OpenAI, alcuni ricercatori hanno comunicato al consiglio di amministrazione dell’azienda una scoperta scientifica che - stando alle fonti citate da Reuters nel riportare la notizia in esclusiva - potrebbe costituire un pericolo per l’umanità. La loro lettera avrebbe innescato un “colpo di stato” da parte del consiglio, che all’epoca era composto da Altman e altre cinque persone.
Almeno in quattro - il direttore scientifico di OpenAI Ilya Sutskever, la sostenitrice dell’Altruismo effettivo Helen Toner, l’esperta in robotica Tasha McCauley e l’imprenditore Adam D’Angelo hanno votato per rimuovere con urgenza l’ad dell’azienda, Sam Altman, preoccupati dal fatto che potesse commercializzare una potente tecnologia senza valutare i suoi rischi. Vale la pena ricordare che proprio Altman, alla guida dell’azienda dal 2019, ha trasformato OpenAI da laboratorio sull’intelligenza artificiale non profit ad azienda a caccia di profitti del valore di mercato di 86 miliardi di dollari.
Nella lettera dei ricercatori di OpenAI - che Reuters non ha avuto modo di leggere - si farebbe riferimento a un nuovo progetto dell’azienda, chiamato Q* (si legge Q Star), che riguarderebbe un tipo di intelligenza artificiale molto vicina all’AGI: così viene chiamata l’intelligenza artificiale generale che un giorno si pensa potrà replicare - e in alcuni casi sorpassare - le capacità umane. OpenAI, fondata a San Francisco nel 2015 da un gruppo di ricercatori e imprenditori, tra cui Sam Altman ed Elon Musk, è diventata famosa nel mondo per la sua intelligenza artificiale generativa capace di scrivere (ChatGpt) e creare immagini (Dall-E) come farebbe un essere umano. Ma la sua vera missione, fin dall’inizio, è quella di raggiungere l’AGI «per il bene dell’umanità». OpenAI definisce l’AGI come un sistema autonomo che supera gli esseri umani «nella maggior parte delle attività che hanno unvalore economico». Mentre l’intelligenza artificiale generativa si basa su modelli predefiniti, e imita la creatività umana senza comprendere realmente il significato di ciò che crea, l’AGI è un tipo di intelligenza artificiale più avanzato che può adattarsi a nuove situazioni senza dover essere addestrata in modo specifico per ognicompito. Alcuni ricercatori di OpenAI credono che Q* sia vicino alle capacità dell’AGI perché è stata in grado di risolvere problemi matematici che normalmente si affrontano alle scuole elementari; ma per OpenAI questo risultato avrebbe un’importanza davvero enorme.
Sappiamo, infatti, che ChatGptè molto brava a scrivere testi - le cui risposte alla stessa domanda variano ogni volta - mentre commette numerosi errori in matematica, dove è ammessa una sola risposta esatta. Questa capacità di Q*, secondo i ricercatori di OpenAI avvicinerebbe l’intelligenza artificiale alle capacità di ragionamento della mente umana. Nello specifico, dunque, Q* non sarebbe una tecnologia “letale” per l’uomo. Ma può essere un primo passo verso l’IA in grado di pensare e agire come un uomo. Un’intelligenza artificiale che un giorno, proprio per la capacità di ragionamento e adattamento, potrebbe prendere decisioni autonome.
Il 6 novembre scorso, in occasione del DevDay, Sam Altman ha chiuso la giornata dedicata da OpenAI agli sviluppatori affermando: «Nel 2024 quello che abbiamo lanciato oggi - si riferiva alle intelligenze artificiali personalizzate chiamate GPT - vi sembrerà antiquato rispetto a ciò che stiamo costruendo per voi».
Evidentemente questa non era solo una frase buona per il marketing. Il 16 novembre scorso, partecipando a un convegno a San Francisco, lo stesso Altman ha fatto riferimento in modo criptico a nuovi importanti avanzamenti nelle conoscenze di OpenAI: «Nelle ultime due settimane, ho avuto l’opportunità di essere nella stanza nel momento in cui abbiamo spinto indietro il velo dell’ignoranza e abbiamo spostato in avanti la frontiera della scoperta».
Sul social network X, inoltre, circola anche la clip di un discorso che si dice sia stato pronunciato da Altman sempre il 16 novembre scorso, ma in un’occasione diversa. Gli utenti di X lo condividono sottolineando una sua frase: «Quello che abbiamo creato è uno strumento o una creatura?». Ma Altman in realtà sembra riferirsi all’attimo “di timore” che ha provato chi ha usato ChatGpt per la prima volta. Il giorno dopo questo intervento, Sam Altman è stato licenziato dal consiglio di amministrazione. Il suo “esilio” è durato cinque giorni, poi è tornato al suo posto. Più forte di prima. Se questo sia un bene o un male per il futuro dell’IA, non è dato saperlo.

Nessun commento:

Posta un commento