login LOGIN
CHIUDI chiudi
Il mio profilo

mostra
Hai dimenticato la password?
Inserisci l'indirizzo email di registrazione per reimpostare la password.
Segui le istruzioni che ti abbiamo inviato per posta elettronica.

Microsoft presenta 3 punti etici per lo sviluppo dell'AI

Ascolta l'articolo

Microsoft ha identificato tre principi che descrivono l’impegno nei confronti dei clienti per lo sviluppo etico dei sistemi di intelligenza artificiale

sede di Microsoft JeanLucIchard / Shutterstock.com

L'intelligenza artificiale sta rivoluzionando il business in tutti i settori, offrendo opportunità senza precedenti per la crescita e l'innovazione di aziende di qualsiasi dimensione. L’AI permette di aumentare la produttività, promuovere l'innovazione, ma anche di affrontare sfide globali critiche come la ricerca di cure per malattie rare e la lotta al cambiamento climatico.

Tuttavia, accanto a queste incredibili prospettive, si frappongono valide preoccupazioni sul potenziale uso improprio di questa tecnologia. Non è un caso che i governi di tutto il mondo stiano esplorando attivamente come applicare le leggi esistenti e considerando di varare nuove normative per garantire un utilizzo responsabile dell'AI.

E la creazione di un ecosistema etico in materia di intelligenza artificiale richiede la collaborazione di tutte le organizzazioni, non solo delle grandi aziende tecnologiche e dei governi. In questa prospettiva, Microsoft si impegna a promuovere lo sviluppo responsabile dell'AI, mettendo a disposizione risorse e principi guida per aiutare i suoi clienti a sfruttare appieno il potenziale dell'AI nel rispetto delle normative vigenti.

Microsoft apre la strada allo sviluppo responsabile dell'AI

Nello specifico, l’azienda ha identificato tre principi fondamentali o meglio treAI Customer Commitments che descrivono il suo impegno nello sviluppo etico di questi sistemi. Prima di tutto condividerà la sua conoscenza in materia di AI responsabile, un percorso che porta avanti dal 2017 con un team dedicato di esperti che guida il processo di progettazione e implementazione, cercando di aiutare i clienti a ottenere le medesime competenze.

Nello specifico, si occuperà di mettere pubblicamente a disposizione documenti e linee guidachiave per lo sviluppo etico, come ha fatto con il Responsible AI Standard, l'AI Impact Assessment Template, l'AI Impact Assessment Guide e le Transparency Notes. Sarà anche trasparente nel condividere il percorso di formazione dedicato ai dipendenti Microsoft, al fine di creare una cultura responsabile dell'AI. Investirà poi in risorse specializzate per rispondere alle domande dei clienti sulle modalità più idonee per sviluppare e utilizzare i modelli.

Importante è garantire la compliance e gestire i rischi potenziali

Il secondo punto riguarda la creazione di un programma di AI Assurance per convalidare le applicazioni di intelligenza artificiale sviluppate dai clienti in base alle normative in vigore. Un appoggio fondamentale soprattutto nel settore pubblico e nelle industrie altamente regolamentate.

Altresì il colosso di Redmond sosterrà le aziende nell'individuare e risolvere eventuali problemi normativi e condividerà l’esperienza di implementazione del framework per la gestione del rischio legato all’AI. Si tratta dell'AI Risk Management Framework sviluppato dal National Institute of Standards and Technology (NIST) degli Stati Uniti.

Infine, organizzerà degli incontri con i clienti per collaborare nella scelta del miglior modo per sviluppare i servizi e si impegnerà attivamente nel campo legislativo, lavorando a fianco delle istituzioni per promuovere normative efficaci che favoriscano la crescita aziendale senza essere d’intralcio.

L’obiettivo di costruire un ecosistema di AI responsabile

Per finire, l’azienda ha in programma di assistere nella creazione e implementazione di programmi di intelligenza artificiale responsabile per l'intero ecosistema dei clienti, fornitori e partner. A questo scopo, sarà istituito un team di esperti legali di intelligenza artificiale in diverse regioni del mondo che aiuteranno le realtà associate a Microsoft a navigare nelle complessità della governance responsabile dell'AI e garantire la conformità delle proprie attività.

Un supporto che sarà rafforzato dalla definizione di linee guida e best practice definite in collaborazione con i partner aziendali che hanno già sviluppato metodologie complete per valutare, testare, adottare e commercializzare soluzioni di intelligenza artificiale responsabile. PwC ed EY sono i partner di lancio per questo programma.

L'obiettivo di Microsoft è lodevole, ma è ancora troppo presto per determinare se e in che misura funzionerà. Le tecnologie si evolvono sempre più rapidamente e non è assolutamente facile delineare dei confini precisi per limitare tutti i rischi.

A cura di Cultur-e
Addestramento IA non consentito: É assolutamente vietato l’utilizzo del contenuto di questa pubblicazione, in qualsiasi forma o modalità, per addestrare sistemi e piattaforme di intelligenza artificiale generativa. I contenuti sono coperti da copyright.
TecnologicaMente
Quanto sai adattarti alle nuove tecnologie?
Immagine principale del blocco
Quanto sai adattarti alle nuove tecnologie?
Fda gratis svg
Scopri se sei un utilizzatore impulsivo ed entusiasta o preferisci avvicinarti alla tecnologia in maniera più calma, controllando prima che sia sicura
Fai il test gratuito

Iscriviti
all'area personale

Per ricevere Newsletter, scaricare eBook, creare playlist vocali e accedere ai corsi della Fastweb Digital Academy a te dedicati.