login LOGIN
CHIUDI chiudi
Il mio profilo

mostra
Hai dimenticato la password?
Inserisci l'indirizzo email di registrazione per reimpostare la password.
Segui le istruzioni che ti abbiamo inviato per posta elettronica.

Cosa succede quando l’AI impara da se stessa? Il caso ChatGPT e Grokipedia

Ascolta l'articolo

Cosa cambia per l’affidabilità delle risposte se ChatGPT cita come fonte Grokipedia, l’enciclopedia di xAI con contenuti generati dalle AI senza controllo umano

interfaccia di chatgpt di openai Shutterstock

In Breve (TL;DR)

  • I test del Guardian hanno mostrato che GPT-5.2 può usare come fonte anche Grokipedia, l’enciclopedia generata da AI sviluppata da xAI, riaprendo il dibattito sull’affidabilità delle risposte delle intelligenze artificiali.
  • Il caso evidenzia i rischi legati all’addestramento dei modelli su contenuti generati da AI: errori, bias e allucinazioni possono essere confermati e riproposti nel tempo, rendendo il controllo umano e il grooming dei dati sempre più importanti.

Cosa accade quando un’intelligenza artificiale costruisce le proprie risposte attingendo a contenuti prodotti da altri modelli AI? La domanda emerge dai test condotti dal The Guardian sul modello GPT-5.2 di OpenAI, che hanno mostrato come ChatGPT possa utilizzare anche informazioni provenienti da Grokipedia, l’enciclopedia generata da AI sviluppata da xAI, la società di Elon Musk.

Negli ultimi anni ChatGPT è diventato un vero e proprio motore di risposta, tanto da arrivare ad affiancare i motori di ricerca come Google e le fonti tradizionali come Wikipedia, se non addirittura a sostituirle, nelle abitudini di ricerca online degli utenti.

Se però le intelligenze artificiali iniziano a fondare le proprie risposte su fonti artificiali, il dibattito sull’affidabilità delle risposte dell’AIe sulla governance dell’addestramento degli LLM entra nel vivo. Un aspetto che non può essere considerato di secondo piano, ora che il web si popola sempre più di contenuti generatidai modelli linguistici. L’aspetto più rischioso riguarda il possibile aumento di allucinazioni e bias, dovuti al fatto che i modelli vengono allenati con risposte sbagliate che, però, sembrano sempre più coerenti e corrette.

ChatGPT cita Grokipedia, cosa è successo nel test

Secondo quanto riportato dal Guardian, durante una serie di prove condotte sul modello GPT-5.2 di ChatGPT, le risposte generate hanno attinto anche a Grokipedia, soprattutto per argomenti dove la copertura di fonti tradizionali, come Wikipedia o altri siti di informazione, è inferiore. C’è però un dettaglio: Grokipedia, a differenza delle enciclopedie collaborative, è composta da contenuti interamente generati da AI, senza un processo editoriale umano strutturato che permetta di rilevare errori, bias o allucinazioni.

Ciò sottolinea un aspetto cruciale nella veridicità delle informazioni che vengono immesse online e che, soprattutto, sono alla base delle risposte generate. Anche modelli linguistici presentati come più affidabili, come GPT-5.2, in realtà hanno dei limiti e possono utilizzare fonti generative quando queste sono disponibili. Inoltre, le AI rispondono con un linguaggio sempre più fluido e coerente, rafforzando la percezione di autorevolezza della risposta, e rendendo più difficile per gli utenti distinguere tra informazioni verificate e contenuti rielaborati da altri sistemi AI.

Grooming dei dati e affidabilità risposte, cosa cambia se le fonti sono AI?

Il caso “GPT-Grokipedia” porta l’attenzione sul tema del grooming dei dati, ovvero il processo di selezione, filtraggio e controllo delle fonti utilizzate nell’addestramento e nel funzionamento degli LLM. In un panorama in cui la quantità di contenuti generati dall’AI è in continuo aumento, e senza il fact checking umano, il rischio non è l’errore occasionale, ma che questi errori si protraggano nel tempo.

Se un modello linguistico si allena o rielabora contenuti prodotti da altre AI, errori, bias e allucinazioni possono essere rimacinati e trasformati in pattern ricorrenti. Il fatto che GPT-5.2, nonostante l’obiettivo dichiarato di maggiore affidabilità, possa attingere a fonti artificiali conferma quanto il controllo umano resti centrale nella gestione dell’intelligenza artificiale generativa, perché capace di bilanciare innovazione, controllo umano e affidabilità delle informazioni.

Per saperne di più: A cosa serve e come funziona ChatGPT

Domande frequenti (FAQ)

  • Cos’è Grokipedia e perché fa discutere?
    Grokipedia è un’enciclopedia interamente generata da AI, senza un processo editoriale umano strutturato. Il suo utilizzo come fonte solleva dubbi sulla verificabilità delle informazioni.
  • Cosa succede se un’AI si addestra su contenuti prodotti da altre AI?
    Errori, bias e allucinazioni possono essere riprodotti e amplificati nel tempo, trasformandosi in pattern difficili da correggere.
  • Cosa cambia nel grooming dei dati e nell'affidabilità delle risposte se le fonti sono AI?
    Senza il controllo umano nel processo di selezione e filtraggio delle fonti, gli errori, bias e allucinazioni provenienti da fonti AI possono diventare pattern ricorrenti, mettendo a rischio l'affidabilità delle informazioni nel tempo.
A cura di Cultur-e
Addestramento IA non consentito: É assolutamente vietato l’utilizzo del contenuto di questa pubblicazione, in qualsiasi forma o modalità, per addestrare sistemi e piattaforme di intelligenza artificiale generativa. I contenuti sono coperti da copyright.
Intelligenza Astrale
Intelligenza Astrale
Immagine principale del blocco
Intelligenza Astrale
Fda gratis svg
L’oroscopo di Fastweb Plus generato con l’Intelligenza Artificiale
Leggi l’oroscopo gratuito

Iscriviti
all'area personale

Per ricevere Newsletter, scaricare eBook, creare playlist vocali e accedere ai corsi della Fastweb Digital Academy a te dedicati.