In Breve (TL;DR)
- Una ricerca internazionale condotta da BBC ed EBU ha rilevato che gli assistenti AI alterano in modo impreciso circa il 45% delle notizie, a causa di limiti tecnici nella comprensione del testo e nella rielaborazione delle informazioni.
 - Per migliorare l’affidabilità, è stato sviluppato un toolkit con linee guida pratiche e avviato un dialogo con le autorità europee per creare sistemi di monitoraggio e promuovere un uso più consapevole dell’AI nell’informazione.
 
Gli assistenti AI sono sempre più utilizzati per informarsi, ma la loro capacità di comprendere e rielaborare le notizie non è ancora perfetta. Una ricerca internazionale rivela che questi strumenti alterano o rielaborano in modo impreciso quasi la metà dei contenuti giornalistici analizzati, con un margine di errore vicino al 45%.
Questo il risultato di una recente indagine condotta dalla BBC, che ha coinvolto 18 diversi Paesi del mondo. Il dato non rappresenta un rischio, ma un punto di partenza per capire come funzionano i modelli linguistici e quali miglioramenti servono per renderli più affidabili.
I professionisti coinvolti nei test non si sono però limitati a una fotografia dall’as is. Parallelamente allo studio, è stato sviluppato un toolkit con indicazioni chiare per ottenere risultati più corretti e coerenti. Dall’altra è stato avviato un dialogo con le autorità internazionali per costruire un nuovo sistema di monitoraggio degli strumenti di intelligenza artificiale generativa.
Perché gli assistenti AI alterano le notizie
Gli assistenti AI elaborano risposte basandosi su correlazioni statistiche tra parole e concetti, non su una comprensione reale del significato dei testi. Questo li porta talvolta a modificare in modo non accurato alcune informazioni o a fondere elementi corretti con dettagli interpretativi.
Secondo lo studio condotto da BBC ed EBU (Unione Europea di Radiodiffusione), che ha coinvolto i media di 22 organizzazioni di servizio pubblico appartenenti a 18 Paesi e operanti in 14 lingue, sono state analizzate oltre 3.000 risposte generate da diversi tool di intelligenza artificiale a partire dalla condivisione di notizie reali.
Tra gli strumenti presi in esame figurano ChatGPT di OpenAI, Gemini di Google e Perplexity AI. I criteri di valutazione hanno riguardato l’accuratezza delle risposte, il rispetto delle fonti e la capacità dei modelli di linguaggio di distinguere tra fatti, opinioni e analisi di contesto.
Nel complesso, la ricerca ha evidenziato che circa il 45% delle risposte contiene errori o incongruenze: il 31% presenta attribuzioni incomplete o fuorvianti, mentre il 20% include informazioni datate o imprecise. Si tratta di limiti tecnici, legati al modo in cui i modelli AI apprendono dai dati e riformulano i contenuti per adattarli al contesto della domanda. Un processo che li rende strumenti evoluti, ma ancora perfezionabili, soprattutto in ambito informativo.
Come migliorare le performance degli assistenti AI
Grazie ai risultati emersi da questa ricerca, i team di EBU e BBC hanno sviluppato un toolkit di riferimento con indicazioni pratiche per migliorare la capacità degli assistenti AI di analizzare e rielaborare le notizie in modo più accurato e coerente.
L’obiettivo del toolkit è duplice: da un lato, migliorare la correttezza e la pertinenza delle risposte fornite dagli assistenti; dall’altro, rafforzare l’alfabetizzazione mediatica e digitale degli utenti che utilizzano l’intelligenza artificiale per informarsi, in modo più consapevole e critico.
Parallelamente, è in corso un dialogo con le principali autorità europee di regolamentazione, volto a uniformare le normative sui servizi digitali e sui media. Al centro del confronto ci sono i temi del pluralismo e dell’integrità dell’informazione, con l’obiettivo di favorire la creazione di sistemi di monitoraggio indipendenti e continui in grado di valutare nel tempo la qualità e l’affidabilità degli assistenti AI.
Per saperne di più: Intelligenza Artificiale: cos'è e cosa può fare per noi
        


