L’esperimento Facebook AI, due intelligenze artificiali conversazionali, dette chatbot, vengono attivate da Facebook e poi spenti in fretta e furia perchè avrebbe dato segni di ‘linguaggio proprio’.

 I due bot, chiamati Bob e Alice, hanno conversato in una lingua non comprensibile sotto gli occhi sbalorditi dei ricercatori ed è subito il panico tra gli esperti del settore. “L’intelligenza robotica è pericolosa” liquida la questione un esperto sulle pagine online del Mirror dopo la notizia dello “sviluppo di una propria lingua” da parte dei dispositivi. La notizia ha fatto il giro del mondo, dal Sun, al Telegraph, fino all’Indipendent.

Ma partiamo dall’inizio.

Nel giugno 2017 appare il primo post sul blog di Facebook sulle ricerche in atto sui programmi di chatbot. Ovvero dei software progettati per simulare una conversazione con esseri umani o con altri bot tramite l’uso di voce o testo. La storia aveva interessato anche il New Scientist.
Vengono creati i due chatbot Alice e Bob e messi uno di fronte l’altro per portare a termine uno scenario di collaborazione ipotetico: la suddivisione di alcuni oggetti da portare a termine con la contrattazione uno contro uno. Nel corso dell’esperimento il dialogo è iniziato in inglese e proseguito finchè i due bot hanno iniziato a comunicare in una lingua deforme, non più normata dalle regole sintattiche che conosciamo e vicina ad un idioma ignoto.
Facebook ha dovuto staccare la spina all’esperimento e la notizia resa pubblica ha gettato nel panico molti osservatori preoccupati che l’intelligenza artificiale potesse andare fuori controllo.

Facebook AI - Conversazione dell'esperimento tra bot
Facebook AI – Conversazione dell’esperimento tra bot

Cosa è successo in realtà

In realtà i due bot sentendosi liberi di poter scegliere il linguaggio di comunicazione hanno preferito utilizzare un linguaggio più semplice e meno ambiguo deviando dal lessico e sintassi umana ed iniziando ad utilizzare una alternativa più efficiente secondo i loro canoni di programmazione. Tra i due bot si è avviato un processo simile a quello che ha luogo nelle comunità umane dove si inventano abbreviazioni e contratture che con il tempo diventano comunemente accettate anche se all’inizio sembrano incomprensibili e scorrette grammaticalmente, ma il processo è avvenuto in tempi brevissimi ed è risultato incomprensibile.
L’esperimento è stato interrotto immediatamente perchè “lo scopo finale era di ottenere bot in grado di contrattare con esseri umani”. Introducendo il vincolo che la comunicazione deve essere comprensibile nel codice l’esperimento è stato ripetuto e si è concluso come voleva il gruppo di ricerca.
Per i più grandi esperti una piccola dimenticanza che oggi ha creato un nuovo ideoma tra due bot potrebbe essere molto pericoloso in futuro per software di intelligenza artificiale più complessi e potrebbero creare pericoli per l’umanità come sostengono Elon Musk, inventore ed amministratore della SpaceX e Tesla Motors, e Stephen Hawking, uno fra i più influenti e conosciuti fisici teorici al mondo.