La tecnologia è alle porte ma per evitare scenari apocalittici, alcuni esperti europei hanno indicato i principi etici a cui attenersi

intelligenza artificiale

L’Europa si prepara alla stagione dell’intelligenza artificiale (Ai). E non si può parlarne senza pensare alla questione etica. Poiché l’intelligenza artificiale potrà prendere decisioni autonome dall’uomo, è fondamentale che le regole etiche, oltre a quelle normative, siano condivise da tutti per porre le basi di uno sviluppo positivo e senza distorsioni che duri negli anni a venire. Del resto lo stesso garante europeo per la privacy Giovanni Buttarelli che lo ha confermato qualche giorno fa.

Per questo è nato, su spinta di Atomium – European Institute for science, media and democracy, il progetto AI4People, una task force di esperti da tutta Europa che hanno pubblicato un documento con una serie di principi e raccomandazioni per porre le basi di una intelligenza artificiale positiva, inclusiva, al servizio dell’uomo. A guidare i lavori l’italiano Luciano Floridi, professore di filosofia a Oxford. Nel team di tredici professori universitari altri tre italiani: Monica Beltrametti (Naver Corporation), Ugo Pagallo (Università di Trento) e Francesca Rossi (Ibm research e Università di Padova).

Quattro principi più uno

Prima di procedere alle raccomandazioni per lo sviluppo di una Ai sana, gli esperti hanno individuato alcuni principi. I primi quattro presi in prestito dalla bioetica, il quinto invece aggiunto ex novo.

Il primo è quello della beneficenza. L’intelligenza artificiale deve essere sviluppata al fine di promuovere la dignità umana in un modo che sia sostenibile per il pianeta.

Il secondo è quello di non fare il male. Uno sviluppo non controllato della Ai può portare anche effetti negativi, come la violazione della privacy e della sicurezza stessa dell’uomo. Effetti che devono essere prevenuti sia quando deliberati (si veda alle politiche di controllo invasivo di alcuni governi), sia quando siano accidentali. L’intelligenza artificiale stessa “dovrebbe lavorare contro i rischi che potrebbero sorgere dallo sviluppo tecnologico”.

Il terzo principio è quello dell’autonomia. Le persone devono avere il diritto di prendere decisioni su un trattamento che li riguarda. È quindi opportuno trovare un bilanciamento tra le decisioni prese dall’uomo e quelle prese dalle macchine. Per dirla con un esempio: “Il pilota deve essere sempre in grado di togliere il pilota automatico” e quindi ogni decisione della Ai deve poter essere bloccata dall’uomo.

Il quarto è la giustizia. “Lo sviluppo della Ai dovrebbe promuovere la giustizia e cercare di eliminare ogni tipo di discriminazione”. Questo comporta eliminare le disuguaglianze passate ma anche non crearne di nuove ed evitare di creare un mondo a due velocità. I vantaggi dell’intelligenza artificiale devono essere massimamente condivisi.

L’ultimo principio, quello nuovo, è quello della spiegabilità. Poiché poche persone stanno disegnando il nostro futuro, è importante capire come lo stanno facendo, seguendo quali regole. Cosa c’è dietro le decisioni di un algoritmo? Chi è responsabile per quelle decisioni? Questi processi devono essere noti a tutti, non solo agli esperti, per creare la fiducia che sarà alla base della relazione tra uomo e macchina.

Alcune raccomandazioni

Il paper si conclude con venti raccomandazioni per chi lavora sullo sviluppo della Ai, che siano privati, governi o istituzioni. Alla base c’è la necessità di lavorare per “assicurare la fiducia delle persone sull’intelligenza artificiale, servire l’interesse della collettività e rafforzare una condivisa responsabilità sociale”, un lavoro che dovrà essere continuo nel tempo.

Prima di tutto bisogna “valutare la capacità dei tribunali di rimediare agli errori fatti dai sistemi di Ai”, scegliendo “quali decisioni non si possano delegare alla macchina”. Dal punto di vista legislativo invece sarà bene fare dialogare le leggi con l’etica in modo da creare un quadro normativo che possa prevedere gli sviluppi futuri della tecnologia.

Per risolvere il problema della trasparenza degli algoritmi bisognerà dare agli stessi tribunali gli strumenti per capire come fare indagini a riguardo. A ciò si aggiungeranno dei meccanismi per individuare i pregiudizi della Ai, che possano portare a disuguaglianze non lecite nel trattamento dellepersone, come potrebbe succedere in campo assicurativo. Infine lo sviluppo di un Osservatorio europeo e di una agenzia europea che supervisioni lo sviluppo di servizi e software basati sull’intelligenza artificiale.

Per creare la migliore Ai possibile, le istituzioni e le aziende dovranno finanziare e incentivare lo sviluppo di tecnologie che lavorino per il bene comune e nel rispetto dell’ambiente, tenendo conto dei risvolti legali, sociali ed etici, verificando con sondaggi tra i cittadini quali conseguenze potrebbero derivare dal loro uso.

Da ultimo, gli esperti consigliano di pensare a codici di condotta interni per le professioni, come quelle mediche e legali, che lavoreranno con i dati e l’intelligenza artificiale. Allo stesso tempo i vertici delle aziende dovranno iniziare ad approfondire i risvolti etici delle loro decisioni. Chiunque si occupi di Ai dovrà approfondire i risvolti sociali, legali ed etici che il suo uso comporta e queste conoscenze dovranno far parte del suo curriculum.

 

Tratto da wired.it