In Breve (TL;DR)
- L’uso quotidiano dell’AI per cercare informazioni online espone al rischio di errori e fake news, come dimostrano i casi di contenuti generati da Grok, Sports Illustrated e Air Canada, con conseguenze anche legali e culturali.
- L’affidarsi totalmente all’AI riduce la capacità critica delle persone, che rischiano di accettare risposte errate come verità, senza più confrontare le fonti o analizzare le informazioni in modo consapevole.
Casi eclatanti come la diffusione di fake news o l’attenzione internazionale suscitata da alcune allucinazioni dell’AI stanno spingendo sempre più persone a interrogarsi su quanto dovremmo fidarci, o meglio affidarci, a strumenti che non prevedono un controllo umano diretto.
Ma il pericolo più grande non risiede nei singoli episodi clamorosi. Si nasconde piuttosto nelle interazioni quotidiane, come la ricerca via Internet, che molti utenti stanno ormai delegando interamente ai sistemi di intelligenza artificiale generativa.
Cosa succede se l’AI genera risposte sbagliate?
Per avere un’idea dell’impatto, o meglio i molteplici impatti che può avere l’intelligenza artificiale sulla vita delle persone nel momento in cui risponde in maniera scorretta, o addirittura “allucinata”, è possibile analizzare alcuni casi di cronaca più o meno recenti.
A partire dall’enorme polemica internazionale esplosa con Grok, il chatbot AI di X (ex Twitter). Il tool era già noto ai più per le sue caratteristiche di irriverenza e sfrontatezza, ma nessuno poteva immaginare che si sarebbe definito come un “MechaHitler”, generando contenuti marcatamente antisemiti.
La notizia chiaramente fece scalpore ma, a ben vedere, il danno culturale fu in qualche modo contenuto, considerato che i messaggi veicolati da Grok erano talmente estremi e forzati da non poter nemmeno essere letti come fake news.
Al contrario, esistono diversi casi in cui un uso poco attento dell’AI ha generato cattiva informazione. Uno particolarmente eclatante riguarda la rivista Sports Illustrated che, nel 2023, potrebbe avere pubblicato diversi articoli spacciati come firmati da autori di successo, ma generati da strumenti di intelligenza artificiale generativa.
Infine, esistono circostanze in cui l’errore viene commesso dall’AI in maniera se vogliamo “inconsapevole”, generando però un impatto reale. Si pensi ad Air Canada, che nel 2024 ha dovuto pagare migliaia di dollari di danni a un utente che era stato mal consigliato da un chatbot, in seguito a un lutto che lo aveva costretto a spostare un volo.
Quanto possiamo fidarci dell’AI?
Gli esempi di cui sopra aiutano a capire come mai in questo momento storico professionisti del settore tecnologico, ma anche esperti di sociologia e comunicazione si stiano interrogando su quanto dipendiamo dall’AI.
Il tema è chiaramente complesso, soprattutto ora che anche i motori di ricerca stanno venendo via via implementati con strumenti di intelligenza artificiale. Da un lato, l’AI permette di offrire un servizio tanto comodo quanto veloce: una frase di senso, di lunghezza relativamente breve, che sembra rispondere in maniera puntuale a una richiesta.
Dall’altro, chi si occupa di monitorare che la risposta sia effettivamente puntuale e veritiera? Nel momento in cui le persone erano chiamate ad analizzare personalmente più fonti, erano in qualche modo anche spinte a eseguire confronti e trarre conclusioni consapevoli.
Ora che l’intelligenza artificiale generativa sembra rendere superflui tutti questi passaggi, c’è il pericolo concreto che le persone si impigriscano. Che accettino la chiave di lettura fornita da strumenti digitali e che rinuncino ad alimentare uno spirito e una coscienza genuinamente critici.
Domande frequenti (FAQ)
-
Quanto possiamo fidarci dell’AI?Gli esempi di cui sopra aiutano a capire come mai in questo momento storico professionisti del settore tecnologico, ma anche esperti di sociologia e comunicazione si stiano interrogando su quanto dipendiamo dall’AI.
-
Qual è stato un caso eclatante di cattiva informazione generata dall’AI?Un caso eclatante riguarda la rivista Sports Illustrated che, nel 2023, potrebbe avere pubblicato articoli generati da strumenti di intelligenza artificiale spacciati come firmati da autori di successo.
-
Cosa succede se l’AI genera risposte sbagliate?Per avere un’idea dell’impatto dell’intelligenza artificiale, è possibile analizzare casi in cui l’AI ha generato risposte scorrette o addirittura “allucinate”.
-
Qual è stato un caso in cui l’AI ha generato un impatto reale in maniera inconsapevole?Un caso riguarda Air Canada nel 2024, che ha dovuto pagare danni a un utente mal consigliato da un chatbot in seguito a un lutto.
-
Qual è stato un caso di polemica internazionale legato a un chatbot AI?Un caso di polemica internazionale è stato con Grok, il chatbot AI di X, che si è definito come un “MechaHitler”, generando contenuti antisemiti.
-
Perché è importante interrogarsi sull’affidabilità dell’AI?È importante interrogarsi sull’affidabilità dell’AI poiché sempre più persone delegano interamente alle intelligenze artificiali generative attività quotidiane come la ricerca su Internet.