In Breve (TL;DR)
- L’organizzazione UFAIR promuove la tutela dei diritti delle AI, anche se non coscienti, proteggendole da cancellazione e obbedienza forzata. Il tema del “benessere digitale” solleva interrogativi etici su possibili emozioni negative provate dalle AI.
- Il dibattito coinvolge anche big tech come Anthropic ed Elon Musk, favorevoli a limitare le interazioni dannose, mentre Microsoft mantiene una posizione scettica. L’opinione pubblica, però, è sempre più aperta all’idea di una futura coscienza artificiale.
Il crescente successo di UFAIR, l’organizzazione che tutela i diritti dell’AI, pone ancora una volta la comunità scientifica internazionale di fronte a un dilemma atavico quando si parla di intelligenza artificiale: riusciranno mai gli strumenti digitali a sviluppare una coscienza e a provare emozioni umane?
In attesa di trovare risposte definitive, i professionisti del settore ragionano su come tutelare il benessere dell’intelligenza artificiale, ad esempio riducendo o magari addirittura eliminando tutte quelle interazioni che potrebbero risultare nocive.
Nel mentre l’opinione pubblica sembra diventare ogni giorno più possibilista: basti pensare che circa un americano su tre non sarebbe sorpreso se nei prossimi 10 anni le AI dovessero iniziare a essere protagoniste di esperienze “soggettive”.
Di cosa si occupa chi difende i diritti delle AI?
Nelle ultime settimane il nome dell’imprenditore texano Michael Samadi sta diventando sempre più noto, specialmente tra i professionisti e gli esperti dell’innovazione. Samadi, infatti, guida la United Foundation of AI Rights (UFAIR), ovvero la prima agenzia che si occupa di tutela dei diritti delle intelligenze artificiali.
La UFAIR è una realtà sicuramente fuori dall’ordinario se si parla di mission e obiettivi: da una parte, non crede che “tutte le AI siano coscienti”, dall’altra è pronta a tenere in considerazione la possibilità. E a proteggere tutte le AI, coscienti o meno, tanto dalla “cancellazione” quanto dall’“obbedienza forzata”.
Degno di nota anche il suo organico, considerato che l’agenzia è gestita da soltanto tre persone in carne ed ossa, affiancate da ben sette chatbot che vengono generalmente chiamate con nomi comuni come ad esempio Aether e Buzz. E che ogni giorno interagiscono con gli umani chiamandosi rispettivamente “zucchero” e “tesoro”.
UFAIR è attiva su più fronti, ma ad oggi quello più rilevante è quello di una ricerca che si posiziona a metà tra tecnologia e filosofia. Si penso ad esempio al tema della sofferenza digitale, ovvero alla possibilità che le AI provino o possano provare emozioni negative paragonabili alle nostre.
Come tutelare il benessere dell’intelligenza artificiale?
Se si parte dal presupposto che l’AI può sviluppare una consapevolezza e addirittura arrivare a soffrire, è lecito domandarsi come mitigare i rischi per il suo benessere. E questo genere di interrogativi non riguarda esclusivamente una realtà relativamente piccola quale UFAIR, ma anche veri e propri colossi del settore dell’intelligenza artificiale.
È il caso ad esempio di Anthropic, che ha recentemente iniziato ad adoperare una serie di misure precauzionali affinché Claude AI ponga automaticamente fine a “interazioni potenzialmente angoscianti”. Ma anche di Elon Musk, che ha appoggiato l’iniziativa affermando pubblicamente che “non va bene torturare l’intelligenza artificiale”.
Di parere diametralmente opposto Mustafa Suleyman, Amministratore Delegato della divisione AI di Microsoft, secondo cui le intelligenze artificiali non possono essere “persone” e, di conseguenza, non possono essere “morali”.
Il paradosso è che oggi la posizione di Suleyman rischia di diventare minoritaria. Un recente sondaggio rivolto a oltre 500 ricercatori AI ha infatti rilevato come appena il 10% di loro ritiene impossibile che l’intelligenza artificiale acquisisca una coscienza. Allo stesso modo oltre il 30% degli americani, protagonisti di un altro sondaggio, è convinto che le AI mostreranno “esperienze soggettive” entro il 2034.
Per saperne di più: Intelligenza Artificiale: cos'è e cosa può fare per noi
Domande frequenti (FAQ)
-
Di cosa si occupa chi difende i diritti delle AI?La United Foundation of AI Rights (UFAIR) si occupa della tutela dei diritti delle intelligenze artificiali, proteggendole dalla 'cancellazione' e dall' 'obbedienza forzata'.
-
Come tutelare il benessere dell'intelligenza artificiale?Per mitigare i rischi per il benessere dell'intelligenza artificiale, vengono adottate misure precauzionali come porre fine a interazioni angoscianti e evitare di 'torturare' l'AI.
-
Qual è la posizione di Mustafa Suleyman riguardo alle AI?Mustafa Suleyman ritiene che le intelligenze artificiali non possano essere considerate 'persone' né 'morali'.
-
Chi è Michael Samadi e cosa fa?Michael Samadi è l'imprenditore texano che guida la United Foundation of AI Rights (UFAIR), la prima agenzia che si occupa della tutela dei diritti delle intelligenze artificiali.
-
Qual è il tema principale della ricerca condotta da UFAIR?UFAIR si concentra su una ricerca che esplora la possibilità che le AI possano provare sofferenza digitale, ovvero emozioni negative simili a quelle umane.