L’Ue pensa alla Guerra, ma la nuova bomba è l’ia
DI DANIELA RANIERI
Il Nobel per la Fisica 2024 è stato assegnato a Geoffrey Hinton, considerato il padre dell’Intelligenza artificiale. E già questo è interessante: un inventore di cose artificiali vince il Nobel per una materia, la fisica, la cui etimologia greca è “natura”. Dunque si è ormai assunto che l’IA fa parte del mondo naturale e della nostra realtà al pari della gravità, dell’elettromagnetismo, dell’atomo (anzi, la fisica quantistica è molto più metafisica degli algoritmi). Nel 2023 Hinton si è licenziato da Google, per cui lavorava, per non trovarsi in conflitto di interessi: voleva essere libero di mettere in guardia dal rischio che l’Intelligenza artificiale diventi più intelligente, e dunque più potente, di quella naturale. A Repubblica ha detto: “L’IA sarà molto positiva per la medicina, l’ambiente… Ma non c’è modo di fermarne lo sviluppo. E un giorno diventerà più intelligente di noi… Non so come gli umani potranno rimanere al potere”. Che vuol dire che diventerà più intelligente di noi? Una macchina può “apprendere” assorbendo una mole spaventosa di dati (il processo di machine learning), ma si è sempre pensato che non potesse “comprendere” e dunque agire. Hinton sostiene il rischio che impari a farlo.
Quanto al rischio che l’IA sostituisca gli umani, in parte sta già accadendo: in molti settori il lavoro prima svolto da persone ora viene svolto da algoritmi. In questo la Rivoluzione dell’IA sarebbe uguale alla Rivoluzione industriale: macchine hanno sostituito gli umani nel lavoro manuale; macchine li sostituiranno in quello cognitivo. Bene: avremo più tempo libero! Ciò sarebbe vero se: 1) i lavori affidati alle macchine fossero rimpiazzati da altri lavori in modo da non aumentare la disoccupazione; 2) il salario fosse lo stesso con la diminuzione delle ore lavorate. L’istruzione e l’apprendimento possono essere facilitati o addirittura evitati da questi super-Bignami digitali. L’IA potrebbe dispiegare potenzialità enormi di conoscenza, ma anche inibirle: se chiedo a un bot di indicarmi i maggiori testi storici sul Novecento, potrebbe censurare Marc Bloch, storico e protagonista della Resistenza francese, e propormi il Mein Kampf. Lo strumento che ci libera dal lavoro e dallo studio faticoso non è così democratico come pensano le anime candide, finché i codici sono in mano ai monopoli digitali.
Il dubbio di Hunting è che la macchina possa decidere autonomamente e non solo se istruita da Homo sapiens. Ma se anche fosse plausibile solo la seconda ipotesi: vi pare poco? Turing disse che non è vero che le macchine non pensano: pensano “in modo diverso” e faranno cose che gli umani non sanno fare. Ma la macchina potrebbe acquisire coscienza e voler usurpare il nostro potere? Potrebbe essere buona o cattiva (come in 2001 Odissea nello spazio)? Intanto si sono già registrate nell’IA alcune abilità cosiddette “emergenti”, cioè reazioni imprevedibili e per ora inspiegabili a input dati. Stephen Hawking nel 2015 disse che l’IA ci “spazzerà via come formiche” ed è “la prossima bomba nucleare”. Il Future of Life Institute ha parlato di “rischio esistenziale” dell’IA. Secondo Hunting i bot potrebbero imparare a scriversi i codici da soli. A meno che non gli si mettano dei limiti, cosa che non sta avvenendo per un concorso di colpa tra Capitale e governi: i colossi dell’IA “avevano detto che avrebbero dirottato molti fondi per la ricerca sulla sicurezza, ma non lo stanno facendo. Serve che i governi intervengano per costringere le big tech a cambiare corso”.
I governi non hanno alcuna intenzione di mettere i bastoni tra le ruote ai giganti del Capitale digitale, di cui sono servi. Per i sempliciotti alla Blair e alla Renzi l’IA non rappresenta un pericolo, ma solo un’opportunità: i neoliberisti vogliono sempre più crescita in termini di Pil e di sviluppo, non di progresso; ogni innovazione è buona (ma anche lo Zyklon B, il gas che i nazisti mettevano nelle docce delle camere di sterminio, era tecnicamente un’innovazione). Invece di investire nella produzione e nel commercio di armi e continuare a imbottire di artiglieria l’Ucraina e Israele, i governi europei dovrebbero dedicarsi alla tutela dell’umano. Purtroppo l’altro giorno la ultra-bellicista presidente della Commissione europea Ursula von der Leyen ha detto che tra le questioni più urgenti da affrontare “al primo posto c’è l’Ucraina” (“First, Ukraine”), cioè un Paese che manco fa parte della Ue. Sì, è stata firmata una Convenzione quadro, all’acqua di rose, “per un’intelligenza artificiale affidabile e innovativa, compatibile coi valori democratici”, ma senza vincoli per le big tech. Al primo posto delle priorità dell’Europa, e di un Occidente ormai preda del nichilismo, c’è la guerra. Forse l’IA potrà superarci in intelligenza, ma mai potrà superarci in stupidità, e questo è uno dei motivi per cui il potere delle macchine, in mano agli umani, deve essere limitato.
Nessun commento:
Posta un commento