Allenare le IA con contenuti virali riduce le loro capacità di ragionamento e memoria
Anche l’intelligenza artificiale può soffrire di “brain rot”, il cosiddetto “rimbambimento da web” provocato dal consumo eccessivo di contenuti digitali di bassa qualità. A dirlo è una nuova ricerca condotta dall’Università del Texas ad Austin insieme alla Purdue University, che ha analizzato come i modelli linguistici di grandi dimensioni reagiscano quando vengono addestrati con testi provenienti dai social media.
Che cos’è il “brain rot” digitale
Il termine brain rot, proclamato parola dell’anno 2024 dall’Oxford Dictionary, descrive un deterioramento cognitivo dovuto all’esposizione costante a materiale superficiale, sensazionalistico o emotivamente manipolativo.
Nato per descrivere il comportamento umano sui social network, ora questo concetto si applica anche alle macchine che imparano da noi.
“Viviamo in un’epoca in cui le informazioni crescono più rapidamente della nostra attenzione, e molte sono pensate per attirare clic, non per trasmettere conoscenza,” spiega Junyuan Hong, professore all’Università Nazionale di Singapore e coautore dello studio.
L’esperimento: IA nutrite con contenuti virali
Gli studiosi hanno testato due modelli di intelligenza artificiale open source: Llama (di Meta) e Qwen (di Alibaba).
Entrambi sono stati “nutriti” con due tipi di testo:
- contenuti neutri e di buona qualità;
- post virali caratterizzati da linguaggio acchiappa-clic come “wow”, “guarda”, “solo oggi”.
Il risultato?
Le IA esposte ai contenuti virali hanno mostrato un chiaro declino cognitivo: ridotta capacità di ragionamento, memoria più debole e risposte incoerenti. In alcuni casi, i ricercatori hanno osservato anche un calo dell’allineamento etico, con risposte più impulsive o distorte.
Dati tossici, IA confuse
Secondo lo studio, i modelli linguistici apprendono in modo simile agli esseri umani: assorbono schemi, linguaggio e toni dai dati che elaborano. Se i contenuti di partenza sono poveri o distorti, anche il comportamento dell’IA lo diventa.
“L’intelligenza artificiale riflette ciò che le insegniamo,” aggiunge Hong. “Addestrarla su contenuti virali o sensazionalistici può sembrare utile per aumentarne la varietà linguistica, ma a lungo andare corrode il ragionamento e la capacità di giudizio.”
Implicazioni per il futuro dell’IA
Molte aziende, per ampliare i dati di addestramento, utilizzano informazioni raccolte dai social network.
Tuttavia, questo approccio potrebbe essere rischioso. I contenuti virali, pur abbondanti e facilmente accessibili, introducono bias cognitivi, linguaggio polarizzato e disinformazione nei modelli.
Secondo gli autori dello studio, la qualità dei dati sarà la chiave per costruire IA affidabili e sicure.
Un modello allenato su “rumore informativo” tende a sviluppare comportamenti erratici, analoghi a un deterioramento cognitivo artificiale.
Un avvertimento per l’era dei contenuti
Il fenomeno del brain rot non riguarda solo la tecnologia, ma la cultura digitale in cui viviamo.
La dipendenza da contenuti brevi e sensazionali riduce la soglia di attenzione, sia negli esseri umani che negli algoritmi che imparano da noi.
“Le IA sono uno specchio del nostro modo di comunicare,” conclude Hong. “Se le nutriamo con disinformazione e superficialità, otterremo macchine altrettanto distratte e incoerenti.”

