L’intelligenza artificiale fa già parte della vita di moltissimi cittadini di tutto il mondo. In questo momento storico infatti sono diverse le tecnologie, gli strumenti e i servizi che ricorrono a una o più branche dell’artificial intelligence: strumenti e servizi che costruiti sul machine learning, sul deep learning e/o sulle reti neurali.

Il risultato è che tantissime persone sfruttano l’intelligenza artificiale quotidianamente, anche senza rendersene conto; anche se magari, di fronte a una richiesta esplicita, non saprebbero spiegare l’intelligenza artificiale cos’è.

Proprio per questo è importante iniziare a conoscere in maniera più approfondita il funzionamento e le applicazioni di uno dei fenomeni scientifici più importanti del presente.

L’Intelligenza artificiale si presta infatti a utilizzi legati ai settori più disparati: si va quelli in ambito Vendite & Marketing a quelli in ambito Cybersecurity.

E, ancora, si va dalle applicazioni nella Logistica a quelle nella Sicurezza Pubblica e persino nella Sanità. Il tutto senza mai dimenticare che il fenomeno intelligenza artificiale continuerà a crescere, aumentando i suoi ambiti d’uso e, di conseguenza, caratterizzando sempre di più il futuro di tutti.

Un futuro all’insegna di nuove incredibili possibilità, ma anche di alcuni rischi in cui si potrebbe incappare, specie nel caso in cui l’intelligenza artificiale si continuasse a sviluppare senza adeguate forme di controllo.

  • 0. Cosa si intende e cos’è l’intelligenza artificiale

    intelligenza artificiale

    L’intelligenza artificiale è una particolare branca dell’informatica che si pone un obiettivo davvero molto ambizioso. Lo scopo ultimo dell’intelligenza artificiale infatti consiste nella progettazione e nell’elaborazione di sistemi, tanto hardware quanto software, capaci di donare prestazioni apparentemente umane a un elaboratore elettronico.

    Come è facile intuire, non è affatto semplice catalogare dei criteri univoci che permettano di stabilire quanto il comportamento di un computer può essere considerato simile a quello di un essere umano.

    Da questo punto di vista esistono infatti diversi approcci e diverse classificazioni specifiche, che aiutano a capire quando si possa effettivamente parlare di AI: un acronimo inglese che sta per artificial intelligence, ovvero intelligenza artificiale.

    Ad esempio, si parla di AI nel caso in cui l’elaboratore sia in grado di agire umanamente, ovvero nel caso in cui il risultato di un’operazione compiuta da un sistema intelligente non possa essere distinto da quello raggiunto da un essere umano. E, ancora, è possibile parlare di intelligenza artificiale nel momento in cui l’elaboratore elettronico riesca a pensare umanamente, ovvero nel caso in cui risolva un qualunque problema ricalcando il processo di pensiero dell’essere umano.

    Lo stesso discorso vale per il pensare razionalmente: un’ulteriore dicitura facente riferimento al processo che porterà sia l’elaboratore elettronico sia l’essere umano a risolvere il problema di cui sopra, rifacendosi alla logica. Ultimo, ma non ultimo, si parla di intelligenza artificiale nel caso in cui la macchina riesca ad agire razionalmente, ovvero nel caso in cui arrivi a ottenere il miglior risultato possibile, sulla base delle informazioni disponibili.

    Oltre a capire l'intelligenza artificiale cos’è, occorre poi comprendere quali siano (o meglio, quante siano) le applicazioni possibili di questa disciplina. Lo sviluppo di machin learning, deep learning e reti neurali può infatti portare a risultati semplicemente straordinari.

    Allo stesso tempo però, l’intelligenza artificiale genera da anni un dibattito che coinvolge sia gli scienziati che i filosofi e i sociologi. Diverse eccellenze del pensiero internazionale (una su tutte Stephen Hawking) hanno infatti più volte espresso dei dubbi in merito alla AI, mettendo il pubblico in guardia riguardo a tutta una serie di pericoli più o meno gravi che potrebbero derivare proprio da una sua crescita incontrollata.

  • 1. Breve storia dell’intelligenza artificiale

    intelligenza artificiale

    La storia dell’intelligenza artificiale è molto più antica di quanto non si potrebbe immaginare. Si consideri infatti che i primi esperimenti che hanno portato alla realizzazione di macchine in grado di effettuare calcoli matematici risalgono addirittura al XVII secolo. Detto questo, il primo modello di calcolatore concettualmente simile a quelli contemporanei è la cosiddetta “macchina analitica”: uno strumento prodotto dallo scienziato proto-informatico Charles Babbage, tra il 1834 e il 1837.

    Se si parla di padri fondatori dell’artificial intelligence è poi impossibile non citare Alan Turing: un matematico, ma anche un filosofo che, nel 1936, pose le basi del concetto di “calcolabilità” e del concetto di “computabilità”.

    Definizioni che risultano fondamentali ancora ai giorni nostri e che avrebbero permesso la realizzazione della celebre macchina di Turing: un modello astratto, che definiva una macchina capace di eseguire tutte le elaborazioni che potevano venire effettuate dai modelli di calcolo conosciuti all’essere umano. 

    La nascita ufficiale di una disciplina nota col nome di “intelligenza artificiale” sarebbe però arrivata soltanto vent’anni dopo: era infatti il 1956 quando il Dartmouth College del New Hamsphire organizzò un convegno da cui sarebbe uscita proprio l’espressione “intelligenza artificiale”.

    Sempre in questa occasione, venne messo su un team di dieci persone a cui venne commissionata la realizzazione di una macchina che fosse capace di simulare i vari aspetti dell’intelligenza umana. Purtroppo però, per tutti gli anni ’50 e ’60 la Storia dell’AI sarebbe stata caratterizzata più da problemi e ostacoli che da successi: intanto perché anche gli scienziati più esperti erano ancora acerbi dal punto di vista della conoscenza semantica dei domini trattati da una macchina.

    Ma soprattutto perché gli hardware allora disponibili non erano ancora in grado di ospitare tutta la memoria necessaria a immagazzinare una quantità sufficiente di dati e informazioni. Ci si scontrava dunque di fronte all’impossibilità di trasformare algoritmi funzionanti a livello teorico, in programmi capaci di calcolare effettivamente la soluzione proposta.

    Non a caso, i primi sistemi di artificial intelligence utilizzati in ambito commerciale sarebbero arrivati soltanto nel 1982.

    Sempre nel corso degli anni ’80 sarebbe poi stato interamente ripensato l’algoritmo per l’apprendimento delle reti neurali: un nuovo modello connessionista, che sostituì il precedente modello “simbolico”.

    Da allora, l’intelligenza artificiale si è sviluppata in maniera impressionante, generando diverse branche come ad esempio il machine learning o il deep learning (uno specifico campo di ricerca del sopracitato “apprendimento automatico”).

    La crescita dell’intelligenza artificiale va di pari passo con limiti e problematiche di natura sociale, culturale, etici e persino militari, inserite recentemente (nel 2017) in un vademecum promosso dal “Future of Life Institute” e sottoscritto da migliaia di esperti.

  • 2. Intelligenza artificiale debole e forte: cosa sono e in cosa si distinguono

    intelligenza artificiale

    Come visto in precedenza, per capire un’intelligenza artificiale cos’è bisogna innanzitutto riuscire a catalogare le diverse tipologie di azione o di funzione tipiche dell’essere umano, che un elaboratore dovrebbe essere in grado di replicare.

    Azioni e funzioni che sono state storicamente organizzate all’interno di quattro macro-categorie: l’agire umanamente, il pensare umanamente, il pensare razionalmente e l’agire razionalmente. Questo insieme di classificazioni e considerazioni ha permesso poi all’artificial intelligence di dividersi ulteriormente all’interno di due grandi filoni di indagine, di ricerca e di sviluppo.

    Il primo è quello dell’intelligenza artificiale debole, anche nota come weak AI o come artificial narrow intelligence. Questa definizione fa riferimento a tutti quei sistemi che siano in grado di simulare soltanto alcune specifiche funzionalità cognitive tipiche dell’essere umano, senza però riuscire a raggiungere una capacità intellettuale complessiva paragonabile a quella umana.

    Si può dunque parlare di intelligenza artificiale debole quando si parla di programmi matematici capaci di problem solving. Allo stesso modo, si può parlare di intelligenza artificiale debole se l’elaboratore si concentra su un unico compito ristretto. È il caso, ad esempio, di tantissimi strumenti e/o servizi utilizzati quotidianamente al giorno d’oggi: da Google Assistant ad Amazon Alexa, da Siri a Translate. 

    Il secondo filone è invece quello dell’intelligenza artificiale forte, nota anche come strong AI o come artificial general intelligence. In questo caso si fa riferimento a dei veri e propri sistemi sapienti, che, in teoria, sono in grado di sviluppare un’intelligenza propria: un sistema di analisi e risoluzione dei problemi totalmente autonomo e che dunque non prevede l’emulazione delle capacità cognitive tipiche dell’essere umano.

    Secondi alcuni scienziati la strong AI potrebbe portare alla realizzazione di macchine coscienti di sé. Secondo altri scienziati, una realizzazione compiuta dell’intelligenza artificiale forte potrebbe addirittura portare alla artificial super intelligence, ovvero al momento in cui le varie forme di AI supereranno l’intelligenza degli esseri umani.

  • 3. Machine Learning e Deep Learning: cosa sono e differenze

    machine learning

    Proprio la distinzione tra il concetto di intelligenza artificiale debole e intelligenza artificiale forte aiuta a capire la differenza che esiste tra machine learning e deep learning: due ambiti di studio che rientrano nel campo dell’artificial intelligence e che, però, spesso vengono confusi l’uno con l’altro.

    Ebbene, il machine learning (termine inglese, traducibile in italiano come “apprendimento automatico”) è una branca dell’AI che sviluppa modelli analitici pensati per permettere alle macchine di imparare nozioni e informazioni.

    Il machine learning prevede che i dati di cui sopra portino l’elaboratore in questione a riuscire a prendere decisioni e ad effettuare predizioni, senza che sia stato direttamente istruito per farlo. Stiamo dunque parlando di un modello di apprendimento che mette la macchina nella condizione di adattarsi indipendentemente a eventuali nuovi set di dati, riuscendo così a risolvere un numero sempre maggiore (e sempre più complesso) di problemi.

    Il deep learning (altro termine inglese, traducibile in italiano con “apprendimento profondo”) è invece uno specifico campo di ricerca del sopracitato machine learning: un insieme di tecniche che si basano sulle reti neurali e che permette un’elaborazione sempre più completa delle informazioni.

    Il deep learning fa riferimento a specifici algoritmi che sono ispirati proprio alla struttura del cervello e alle sue differenti funzioni: algoritmi noti, per l’appunto, col nome di “reti neurali artificiali”. L’obiettivo del deep learning è duplice: da una parte punta a permettere alla macchina di apprendere autonomamente; dall’altra si pone l’obiettivo di permetterle di apprendere in maniera molto più profonda, avvicinandola sempre di più al regime dell’intelligenza artificiale forte.

    Per approfondimento: Machine Learning e deep learning: intelligenze artificiali a confronto

  • 4. Reti neurali: come funziona l’intelligenza artificiale

    reti neurali

    In biologia, le reti neurali sono dei circuiti formati da neuroni: gruppi di unità cellulari che si occupano di funzioni fisiologiche specifiche. È grazie alle reti neurali che l’essere umano è in grado di compiere attività complesse: dal riconoscimento di suoni e immagini all’apprendimento nuove informazioni; dalla capacità di effettuare dei calcoli, a quella di pensare le proprie azioni.

    Come già anticipato in precedenza, gli esperti di intelligenza artificiale si sono posti l’obiettivo di replicare il funzionamento del cervello umano e sono così arrivati allo sviluppo delle cosiddette reti neurali artificiali: dei particolari modelli matematici che vengono utilizzati per risolvere diversi problemi nell’ambito dell’artificial intelligence.

    Anche le reti neurali hanno una storia molto più lunga di quanto non si potrebbe immaginare: il primo neurone artificiale infatti venne proposto addirittura nel 1943.

    Da allora, ovviamente, la scienza ha fatto passi da gigante e proprio lo sviluppo delle reti neurali ha reso possibile un profondo ripensamento degli algoritmi alla base delle branche più avanzate dell’intelligenza artificiale (machine learning, deep learning ecc.).

    Il sopracitato modello connessionista dell’AI si costruisce infatti proprio sopra l’interconnessione dei neuroni artificiali: più precisamente sul PDP, ovvero sull’elaborazione a parallelismo distribuito delle informazioni.

    Le reti neurali sono in grado di modificare la loro struttura, ovvero i loro nodi e le loro interconnessioni, sulla base di dati esterni e/o di informazioni interne: dunque ricevono stimoli e reagiscono di conseguenza, proprio come le reti neurali biologiche (almeno da un punto di vista concettuale).

    Una rete neurale, di base, è formata da tre strati principali, che possono coinvolgere anche decine di migliaia di connessioni ciascuno: lo strato degli ingressi, anche noto come strati I - Input, che riceve ed elabora il segnale in ingresso; lo strato nascosto, anche noto come strato H - Hidden, che si occupa dell’elaborazione; lo strato di uscita, anche noto come strato O - Output, che adatta il risultato dell’elaborazione alle richieste successive.

  • 5. Esempi di intelligenza artificiale nei vari ambiti

    intelligenza artificiale

    L’intelligenza artificiale ha un numero tale di possibili applicazioni che sarebbe semplicemente impossibile riassumerle tutte in poche righe. Detto questo, è comunque utile indicare, a mo’ di bullet points, per lo meno alcuni esempi di utilizzo contemporaneo di artificial intelligence, machine learning, deep learning e reti neurali. Già in questo momento storico infatti esistono diversi processi e/o sistemi che ricorrono alla AI e che magari molte persone utilizzano senza nemmeno rendersene conto.

    Si pensi, in tal senso, al mondo delle Vendite e del Marketing e all’uso delle varie applicazioni di Recommendation: algoritmi che analizzano il comportamento degli utenti e che poi li guidano verso la finalizzazione di un acquisto.

    In alternativa, si pensi alla Sanità, alla Cybersecurity e alle applicazioni di Intelligent Data Processing: algoritmi utilizzati nell’ambito dell’analisi predittiva, ma anche in quello del rilevamento di eventuali elementi non conformi e/o di frodi.

    E, ancora, si pensi alla Logistica: un settore che ricorre abitualmente all’intelligenza artificiale, sia per quello che riguarda la tracciabilità delle spedizioni, sia per quello che riguarda l’assistenza al cliente.

    Diversi Virtual Assistant e/o Chatbot sono infatti in grado di compiere operazioni molto complesse (dalla memorizzazione di informazioni alla comprensione del tone of voice dell’utente) proprio grazie all’AI.

    C’è poi la Sicurezza Pubblica, che utilizza tecnologie basate sull’artificial intelligence da ormai molto tempo: è il caso, ad esempio, dei processi di Image Processing e, più in generale, dei tanti software utilizzati nell’ambito della videosorveglianza.

    Infine, parlare di intelligenza artificiale significa anche parlare di tanti strumenti e di tanti servizi che ormai sono entrati a far part della vita quotidiana di milioni di persone. Da questo punto di vista, basta pensare ai sistemi di traduzione simultanea o agli assistenti vocali smart: strumenti e servizi che, al giorno d’oggi, vengono dati per scontati, ma che in effetti sono stati resi possibili proprio dallo sviluppo dell’artificial intelligence.

    Per approfondimento: Applicazioni di Intelligenza Artificiale, marketing e vendite: conosci il tuo cliente

  • 6. Intelligenza artificiale: scenari futuri e rischi

    intelligenza artificiale

    Quelli analizzati sin qui sono soltanto alcuni degli utilizzi possibili dell’intelligenza artificiale. Detto ciò, non va mai dimenticato che questo particolare ramo dell’informatica è in crescita continua: dunque è lecito immaginare che, in futuro, le applicazioni dell’AI continueranno ad aumentare in maniera esponenziale. 

    In tal senso, un primo aspetto da tenere in considerazione è l’evoluzione dei modelli di linguaggio e, più precisamente, del numero di parametri che saranno in grado di contare. Ad oggi i modelli più performanti riescono a contare quasi 2 bilioni di parametri, ma, in un futuro non troppo lontano, si potrebbe arrivare a modelli di linguaggio capaci di contare addirittura centinaia di bilioni di parametri. Una rivoluzione tecnologica che permetterebbe di gestire il linguaggio da parte delle macchine a un livello altissimo.

    Parlare di evoluzione dell’artificial intelligence significa però anche parlare dei tanti rischi legati allo sviluppo di machine learning, deep learning e reti neurali.

    In tal senso, una minaccia potenziale che già caratterizza il presente è quella legata alla diffusione di software capaci di creare i cosiddetti deepfake: delle sintesi di un’immagine umana, basate proprio sull’intelligenza artificiale.

    La tecnica deepfake permette di sovrapporre immagini e/o video su modelli preesistenti con una verosimiglianza impressionante: ciò vuol dire, ad esempio, sostituire il volto di un qualunque essere umano con quello di qualunque altro.

    Allo stesso modo, diverse autorità si stanno interrogando sull’opportunità di ricorrere al riconoscimento facciale dal vivo: un’applicazione figlia dell’AI, che però rischia di interferire con diritti e libertà individuali alla base di tante democrazie.

    Per questi motivi e per tantissimi altri, è fondamentale che il progresso dell’intelligenza artificiale vada di pari passo con una discussione approfondita sui pro e i contro di questa tecnologia. Una discussione che metta la scienza nella condizione di progredire, ma che, al tempo stesso, ponga dei paletti, per tutelare la serenità e la sicurezza dei cittadini globali.

A cura di Cultur-e Costruisci il tuo futuro con la connessione Fastweb