Model collapse, ovvero quando l’Ai perde contatto con la realtà: il rischio è soprattutto psicologico
C’è una parola che sembra uscita da una cartella clinica e invece descrive un processo industriale: model collapse. È il momento in cui un sistema di intelligenza artificiale, nutrito sempre più da contenuti generati da altre macchine, comincia lentamente a perdere contatto con la realtà. Non crolla, non esplode, non fa rumore: sbiadisce. Come una fotocopia della fotocopia che, copia dopo copia, smarrisce il dettaglio fino a diventare un’ombra.
Il giornalista Osvaldo De Paolini lo spiega con lucidità. Non c’è pericolo che le macchine diventino più intelligenti di noi, ma che il potere economico interpreti il pensiero umano come un costo da comprimere. Dietro la retorica della democratizzazione dell’informazione sta nascendo un oligopolio cognitivo fatto di pochi modelli, scarse e univoche visioni del mondo. Così l’efficienza diventa un criterio culturale, e ciò che non corre viene lasciato indietro.
In questo clima prosperano i movimenti neoluddisti contrari allo sviluppo incontrollato dell’AI. Negli Stati Uniti gruppi come StopAI e PauseAI propugnano apertamente disobbedienza civile parlando di punto di non ritorno e intrecciando la questione tecnologica con quella sociale. Secondo il centro di ricerca no-profit Pew Research Center, oltre metà degli americani vorrebbe un maggiore controllo sull’uso dell’AI, mentre l’opposizione ai data center cresce a causa del loro massiccio impatto energetico e ambientale. Non è più solo una discussione tra ingegneri, ma una tensione politica e culturale che attraversa territori, lavoro, consumi.
Eppure, il rischio più sottovalutato non è solo economico o ambientale, ma soprattutto psicologico. L’intelligenza artificiale sceglie le parole in base a probabilità statistiche – il famoso “pappagallo stocastico” descritto da Bender e Gebru – mentre gli esseri umani le scelgono con un atto intenzionale. Ogni parola porta con sé una responsabilità. Delegando alle macchine sintesi, selezione e linguaggio, non stiamo solo accelerando i processi produttivi, stiamo esternalizzando una parte del giudizio. Una risposta pronta prende il posto di una domanda scomoda, un riassunto sostituisce il conflitto intellettuale, l’algoritmo diventa una scorciatoia cognitiva.
Questo passaggio coincide con l’arrivo della Generazione Beta, i bambini nati ora, in piena era AI, che non conosceranno mai un mondo in cui la conoscenza, la creazione umana, non siano mediate da una macchina. Per loro l’AI non sarà uno strumento ma un ambiente, non un supporto ma un filtro permanente.
Il premio Nobel per la Fisica, Geoffrey Hinton, l’ha descritto come un sistema potenzialmente incontrollabile, Bill Gates invita a governare l’AI prima che sia lei a governare noi. Ma il nodo non è apocalittico, è più sottile perché, in realtà, il pericolo non è la ribellione delle macchine ma la nostra rinuncia a pensare in modo autonomo. Un mondo che ottimizza tutto rischia di cancellare ciò che non è misurabile, il dubbio, l’immaginazione, l’errore fecondo, la serendipità.
Probabilmente non sarà un collasso improvviso, ma una lenta convergenza all’uniformità. In un oceano di contenuti automatici, la vera conoscenza sarà un bene sempre più raro. E ciò che è raro, nei mercati come nella vita, acquista valore.
L’intelligenza artificiale resta uno strumento formidabile, ma amplifica ciò che trova. Se trova pensiero, amplifica pensiero; se trova pigrizia, amplifica pigrizia. Alla fine, il vero rischio non è tecnologico, ma umano. Confondere l’efficienza con l’intelligenza e scoprire troppo tardi che non sono la stessa cosa.
L'articolo Model collapse, ovvero quando l’Ai perde contatto con la realtà: il rischio è soprattutto psicologico proviene da Il Fatto Quotidiano.