In Breve (TL;DR)
- ChatGPT non è adatto per fornire consigli medici, psicologici o fiscali, né per trattare dati sensibili come cartelle cliniche. La sua competenza non può sostituire quella di un professionista umano qualificato.
- Non va usato per attività specialistiche o complesse, come l’analisi di documenti legali o finanziari, né per ottenere aggiornamenti in tempo reale, in quanto non sempre fornisce informazioni aggiornate o affidabili.
- Anche quando è tecnicamente in grado di completare un compito, è importante chiedersi se sia etico o educativo delegarlo all’AI, soprattutto in ambiti come lo studio o la gestione delle emozioni personali.
Al giorno d’oggi milioni di persone usano ChatGPT in maniera più o meno costante e competente, ma esistono tantissimi compiti che sarebbe bene non affidare all’AI, per ragioni anche molto diverse tra loro.
Innanzitutto, ci sono dei task che ChatGPT non è tecnicamente in grado di svolgere, o che comunque svolge con una certa dose di approssimazione: si pensi dunque ai rischi che corre chi usa il tool per avere consigli fiscali avanzati. Dopodiché ci sono argomenti e documenti che andrebbero condivisi soprattutto con professionisti d’esperienza: dalla cartella medica a qualsiasi altro genere di dati sensibili.
Ci sono anche conversazioni che, forse, non andrebbero avviate con un chatbot per motivazioni di natura non tecnica ma etica: questioni che, per un motivo o per l’altro, forse è il caso che continuiamo a risolvere in autonomia.
-
1. Quali compiti ChatGPT non è in grado svolgere
Celia Ong / Shutterstock.com
Prima di entrare nel merito di ciò che dovremmo o non dovremmo chiedere a ChatGPT, è sicuramente utile ragionare su ciò che ChatGPT è in grado di fare. O meglio, ciò per cui è stato effettivamente concepito.
Nella sua prima release pubblica, ChatGPT non era in grado di effettuare ricerche online: le sue risposte si basavano esclusivamente sul colossale set di dati con cui era stato addestrato il chatbot e questo presupposto creava un grosso limite di aggiornamento temporale.
Nel 2024 OpenAI ha implementato ChatGPT con la funzione Search e, parallelamente, sono nati altri strumenti di intelligenza artificiale generativa come Perplexity, che nascono proprio per scandagliare il web alla ricerca di informazioni più o meno aggiornate.
Al tempo stesso ChatGPT non è in grado di trasmettere aggiornamenti costanti, a meno che non si ricorra ad automazioni complesse che, tra l’altro, non sempre producono il risultato richiesto.
In sintesi, ChatGPT oggi può essere utilizzato come un motore di ricerca avanzato e intelligente, ma ogni volta che gli utenti vogliono notizie fresche devono inserire un nuovo prompt ad hoc.
Attenzione poi a interagire con ChatGPT tirando in ballo suggestioni che toccano la sfera dell’illegalità o argomenti potenzialmente pericolosi. Il tool non può assistere le persone intenzionate a commettere atti criminali e, al tempo stesso, è progettato per indagare prima di fornir dettagli su temi particolarmente controversi come ad esempio il suicidio.
Infine, nonostante le sue capacità generative, ChatGPT è uno strumento concepito più per dialogare e spiegare che per agire. Soprattutto in condizioni di emergenza. Per questo motivo, nel caso in cui si percepiscono segnali d’allarme o in cui ci si ritrova addirittura in una situazione di pericolo conclamato, è opportuno contattare urgentemente servizi dedicati al soccorso, evitando di iniziare una conversazione con un chatbot.
-
2. Perché ChatGPT non andrebbe consultato per consigli medici
Amir Sajjad / Shutterstock.com
Ogni giorno, tantissime persone in tutto mondo interagiscono con ChatGPT o con chatbot simili per chiedere consigli di natura medica: c’è chi racconta i propri sintomi, chi addirittura carica la propria cartella medica.
Le controindicazioni dietro questa abitudine sono molteplici: la prima, e forse la più pericolosa, è legata alla condivisione di dati sensibili. Gli abbonamenti base a ChatGPT infatti non garantiscono al 100% che le informazioni contenute nelle chat non verranno mai utilizzate.
Questo non vuol dire che OpenAI abbia intenzione o interesse ad accedere alle singole informazioni mediche del singolo individuo. Ma ci vorrebbe comunque una certa attenzione quando si parla di contenuti così personali.
La seconda controindicazione riguarda la capacità di ChatGPT a dare indicazioni specializzate. Nonostante il chatbot sia stato presumibilmente addestrato con centinaia, forse addirittura migliaia di testi medici, il suo LLM (almeno ad oggi) non può venire paragonato in nessun modo a un professionista in carne ed ossa. Professionista che, tra l’altro, oggi può benissimo visitare a distanza grazie alla telemedicina.
Bisogna prestare attenzione anche alle ripercussioni che una risposta di ChatGPT potrebbe avere su una persona non preparata. Per avere un’idea più concreta della questione è sufficiente farsi una domanda: come la prenderemmo se un chatbot alludesse alla possibilità che siamo affetti da una malattia grave?
La stessa prudenza descritta fino a qui andrebbe applicata anche quando si interagisce con ChatGPT parlando di salute mentale, grossomodo per le medesime ragioni di cui sopra.
Anche qui si parte da un dato piuttosto allarmante: diverse ricerche testimoniano come milioni di utenti inizino a usare ChatGPT come un’alternativa digitale a un terapeuta. Ma, anche in questo caso, le conoscenze del chatbot non sono paragonabili a quelle di un professionista del settore.
Per non parlare del fatto che un terapeuta in carne ed ossa non si limita a leggere indicazioni testuali. Entra in contatto diretto con la persona, analizzando linguaggio verbale e non verbale. Ma soprattutto ci entra in relazione, condividendo argomenti ed emozioni.
-
3. Altri compiti da non chiedere a ChatGPT
Mehaniq / Shutterstock.com
ChatGPT andrebbe preso con le molle ogni qual volta viene interpellato su questioni altamente specialistiche e verticali: dai consigli fiscali all’analisi di documenti complessi, dalle previsioni statistiche all’interpretazione di norme, leggi e regolamentazioni.
Ancora una volta, il chatbot di OpenAI è perfetto per avere una panoramica sulle questioni più disparate e, se guidato in maniera corretta, è uno sparring partner ideale per approfondire temi su cui ci si vuole fare un’idea più chiara.
Ma delegare in toto le decisioni può essere controproducente. In questo senso la rete è purtroppo piena di testimonianze che hanno affidato operazioni finanziarie più o meno impattanti all’intelligenza artificiale e che sono rimaste scottate.
Infine, esistono circostanze in cui è opportuno chiedersi non tanto se ChatGPT è in grado di svolgere un compito, ma se è il caso di affidarglielo. Si pensi in tal senso allo studio, che in questo momento storico sta letteralmente venendo rivoluzionato dall’AI.
Chiedere a ChatGPT di svolgere un riassunto, scrivere una ricerca o eseguire dei calcoli, a uno sguardo superficiale, risolve il problema dei compiti a casa con pochi prompt. Ma non bisogna dimenticare che il senso dello studio va oltre l’esecuzione di task e che l’arricchimento personale richiede una inevitabile dose di impegno.
Per saperne di più: A cosa serve e come funziona ChatGPT
Domande frequenti (FAQ)
-
Quali sono le limitazioni etiche di ChatGPT?ChatGPT non può assistere in atti criminali o fornire dettagli su temi controversi come il suicidio.
-
Cosa può fare ChatGPT?ChatGPT può essere utilizzato come un motore di ricerca avanzato e intelligente, ma richiede un nuovo prompt ad hoc per fornire informazioni aggiornate.
-
ChatGPT è adatto per consigli medici?ChatGPT non è paragonabile a un professionista medico e potrebbe dare indicazioni non specializzate.
-
ChatGPT è consigliabile per questioni di salute mentale?ChatGPT non è un sostituto di un terapeuta professionista per questioni di salute mentale.
-
ChatGPT è affidabile per questioni finanziarie?Delegare decisioni finanziarie a ChatGPT può essere rischioso, come dimostrano testimonianze negative.