A chi utilizza regolarmente ChatGPT sarà successo almeno una volta di vedere improvvisamente apparire nella chatbox un messaggio di errore a causa delle restrizioni che OpenAI ha imposto alla piattaforma, soprattutto nella versione gratuita. Magari dopo che si sono spesi 10 minuti per formulare un prompt di tutto rispetto e si decide finalmente di darlo in pasto all’intelligenza artificiale oppure nel bel mezzo di una conversazione che sta per prendere una piega davvero interessante.
Il motivo per cui succede è che OpenAI ha settato un limite di caratteri rispetto al testo che si può inserire nella casella di input e un limite di token per conversazione. La soglia è la stessa: 4096. Ma occorre sottolineare che un token su ChatGPT non corrisponde necessariamente ad un singolo carattere. Anzi i token vengono calcolati in modo diverso, ma generalmente si può prendere come per vera questa regola: quattro caratteri corrispondono all’incirca a un token.
Ma per evitare di perdere tempo a calcolare e scoprire precisamente quanti token utilizza una query che abbiamo strutturato per ChatGPT, uno strumento utile è il Tokenizer online di GPT, che consente di effettuare la conversione esatta da caratteri a token.
Per fare ciò, basta visitare la pagina web del Tokenizer e nella casella di testo, inserire la domanda completa. Appena sotto il riquadro, comparirà il numero di token che quella porzione di testo richiede e anche il numero totale di caratteri.
Il risultato che si ottiene è utile per farsi un’idea rispetto alla necessità o meno di accorciare la richiesta da sottoporre a ChatGPT. Tuttavia, se il prompt supera il limite consentito, ma si desidera comunque ottenere una risposta per quel quesito, bisogna comunque modificarla per rientrare nel limite. Ma come?
Una prima opzione è tentare di essere il più possibile specifici. Se, infatti, si pone una prompt generico a ChatGPT, l’AI restituirà una risposta altrettanto vaga, aumentando la possibilità di superare il limite di caratteri consentito.
Per risolvere questo problema è importante cercare di definire con chiarezza il risultato che si vuole ottenere senza troppi fronzoli, ma con tutti i parametri del caso. Per fare un esempio, invece di chiedere a ChatGPT di scrivere un articolo sugli elefanti, possiamo chiedergli di scrivere un articolo di 500 parole sugli elefanti asiatici. La specificità del prompt indurrà ChatGPT a fornire un output molto più focalizzato sulla query.
Un altro modo per assicurarsi di rispettare il limite di caratteri di ChatGPT è suddividere un grande compito in task più piccoli. Anche se si riceve un errore in questo caso, si può sempre avviare una nuova conversazione e utilizzare le singole attività per ottenere risposte adeguate.
Dunque, invece di chiedere a ChatGPT di scrivere un intero articolo, possiamo dargli l’ordine di scrivere l'introduzione per poi proseguire sezione per sezione. E se succederà di riscontrare qualche problema, si potrà sempre avviare una nuova chat e riprendere da dove si era rimasti, senza troppe ripercussioni.
Infine, se ChatGPT interrompe improvvisamente la risposta che stava elaborando per la domanda che gli abbiamo posto e compare un errore di limite di caratteri, si può chiedere di generarne una nuova selezionando il pulsante "Regenerate response". In questo modo, il chatbot sarà costretto a fornire nuovamente un output.
Per saperne di più: ChatGPT, cos'è, come funziona, a cosa serve, come usarla gratis