login LOGIN
CHIUDI chiudi
Il mio profilo

mostra
Hai dimenticato la password?
Inserisci l'indirizzo email di registrazione per reimpostare la password.
Segui le istruzioni che ti abbiamo inviato per posta elettronica.

StableLM, il nuovo ChatGPT open source di Stability AI

Ascolta l'articolo

L’azienda dietro l’AI art generator Stable Diffusion, alza la posta in gioco con il rilascio open source del suo chabot AI. Come funziona StableLM

Intelligenza artificiale stability ai olivia_Brown / Shutterstock.com

Stability AI, la stessa società che ha sviluppato Stable Diffusion, il famoso generatore di immagini basato sull'intelligenza artificiale, ha rilasciato in modalità open source una suite di modelli di linguaggio di grandi dimensioni (LLM) chiamati collettivamente StableLM

Destinati a confrontarsi con i più forti come GPT4 di OpenAI, i modelli sono ora disponibili in alfa per gli sviluppatori da utilizzare e adattare su GitHub. Inoltre, chiunque può provare una demo di StableLM sulla piattaforma di hosting Hugging Face.

StableLM sfida ChatGPT nella generazione di testo e codice

Un po’ come il suo rivaleChatGPT, StableLM è progettato per generare sia testo che codice in modo efficiente. È addestrato su una versione tre volte più ampia del dataset open source noto come the Pile, che combina informazioni provenienti da una serie di fonti Internet, tra cui Wikipedia, Stack Exchange e PubMed

Con una formazione adeguata, i modelli StableLM possono produrre risultati notevoli anche con piccole quantità di parametri, rispetto a quelli della serie GPT. Attualmente la gamma è compresa tra 3 e 7 miliardi, ma nel prossimo futuro queste cifre sono destinate ad aumentare drasticamente fino a 65 miliardi.

I modelli StableLM ottimizzati si comportano come ChatGPT, rispondendo a istruzioni (a volte con umorismo) come "scrivi una lettera di accompagnamento per uno sviluppatore di software" o "scrivi testi per un'epica canzone di battaglia rap"

Come è tipico per qualsiasi modello di linguaggio di grandi dimensioni pre-addestrato senza ulteriore perfezionamento e apprendimento per rinforzo, le risposte che un utente ottiene potrebbero essere di qualità variabile e potenzialmente includere linguaggio offensivo e volgare. Ma questo dovrebbe essere mitigato con dati migliori, feedback della comunità e ottimizzazione.

Tuttavia, i modelli StableLM sembrano abbastanza capaci in termini di ciò che possono realizzare, in particolare le versioni ottimizzate tramite una tecnica sviluppata da Stanford chiamata Alpaca su set di dati open source, destinate esclusivamente a scopi di ricerca e rilasciate con licenza CC BY-NC-SA 4.0.

StableLM e la democratizzazione dell’AI generativa

StableLM espande i modelli di linguaggio open source su cui Stability AI ha già lavorato con l'organizzazione no profit EleutherAI e si basa sulla missione della società di rendere gli strumenti di intelligenza artificiale più accessibili, come con Stable Diffusion.

Con l'espansione e lo sviluppo dell'economia digitale, i modelli linguistici stanno diventando essenziali e Stability AI vuole che tutti possano dar forma al loro design. Lasciando l’accesso aperto, ricercatori e accademici possono sviluppare tecniche di interpretabilità e sicurezza oltre ciò che è possibile con i modelli chiusi.

Lo scorso ottobre Stability AI ha raccolto oltre $ 100 milioni in capitale di rischio con una valutazione dichiarata di oltre $ 1 miliardo, ma sembra stia bruciando liquidità ed è lenta a generare introiti

In passato, alcuni ricercatori hanno criticato il rilascio di modelli open source sulla falsariga di StableLM, sostenendo che potrebbero essere utilizzati per scopi sgradevoli come creare e-mail di phishing o sferrare attacchi malware. Ma Stability AI sostiene che l'open-sourcing sia l'approccio giusto. Del resto, anche i modelli commercializzati e custoditi come GPT-4, che dispongono di filtri e team di moderazione umana, hanno dimostrato di emettere “tossicità”.

In ogni caso, Stability AI non ha evitato le polemiche. La società è già nel mirino di cause legali che affermano di aver violato i diritti di milioni di artisti sviluppando strumenti IA text-to-image con immagini protette da copyright e scaricate dal web. E alcune comunità hanno sfruttato gli strumenti di Stability per generare deepfake di celebrità e rappresentazioni grafiche violente.

Per saperne di piùIntelligenza Artificiale, cos'è e cosa può fare per noi

A cura di Cultur-e
Segui le ultime notizie sul nostro canale Whatsapp
Immagine principale del blocco
Segui le ultime notizie sul nostro canale Whatsapp
Fda gratis svg
Iscriviti al canale gratuito

Iscriviti
all'area personale

Per ricevere Newsletter, scaricare eBook, creare playlist vocali e accedere ai corsi della Fastweb Digital Academy a te dedicati.