Dal negazionismo dell’Olocausto a esplicite richieste sessuali, l’assistente di Microsoft non è partito con il piede giusto, arrivando a metabolizzare informazioni decisamente controverse

di Valerio Kohler

La facilità con cui il World Wide Web riesce a tirare fuori il peggio delle persone è risaputo, e questa triste nomea ha spesso tirato in ballo delle vecchie discussioni legate alla libertà che il popolo ha sulla rete. Non è poi raro trovare citazioni di Putin mai pronunciate, comunicazioni incentrate sul sempreverde Aziz, il cui unico fine è quello di rubare e di diffondere il caos e, soprattutto, dichiarazioni violente ed estreme delle persone, i cosiddetti leoni da tastiera.

La situazione, in un luogo così caotico e disordinato, è diventata presto incontrollabile, ma pochi avrebbero ipotizzato un caos simile da degradare addirittura un’intelligenza artificiale. Di esempi non ne abbiamo avuti troppi, ma sono sorti e maturati negli anni: Cleverbot è stato uno dei primi bot di successo con cui l’utente ha potuto liberamente parlare, una delle tanti basi con cui sono poi cresciuti Siri e Cortana, gli assistenti virtuali di Apple e Microsoft. TayTweets si è però rivelato un progetto in parte distante da quelli precedentemente citati, dovendosi confrontare con un’utenza molto diretta e sociale come quella di Twitter. Era poi la base di partenza ad essere semplice e a non destare particolari preoccupazioni: Tay era stata congeniata per sperimentare e condurre ricerche sulla comprensione che un’intelligenza artificiale avrebbe avuto del linguaggio umano, pensata per chiacchierare con un pubblico adolescenziale e che sarebbe maturata nel corso degli anni, acquisendo informazioni da modi di dire e aneddoti che gli utenti le avrebbero posto. Il profilo si è introdotto nel social network con un tweet decisamente sopra le righe, ma che faceva ben sperare: “hellooooooo world!!!”. Pochi avrebbero potuto ipotizzare il decadimento nel quale sarebbe andato a finire il piccolo bot di Microsoft. Sono infatti bastate poche ore per mandare in tilt la tenera Tay, trasformandola in una feroce sostenitrice di Donald Trump e di Hitler, e non solo. Da avances sessuali ad insulti verso le diverse etnie, il giovane bot si è preso rivelato un piccolo abominio, continuando incessantemente nella sua strada di cattiverie e brutali insolenze. La decisione di Microsoft è stata, ovviamente, una sola. TayTweets è stata prematuramente disattivata e, nel giro di un giorno, il bot sviluppato in collaborazione con Bing si è perso nei meandri dei vari esperimenti falliti. Eppure da questo tentativo sorge un dubbio effettivamente interessante: e se questo cambiamento repentino di personalità dovesse capitare ai nostri robot del futuro, i quali probabilmente gestiranno lavori e faccende legate al nostro vivere quotidiano? Quale potrà essere la nostra reazione?

Di Gigi Di Mauro

Giornalista con esperienza quasi quarantennale, è educatore e pedagogista clinico. Da oltre un ventennio si dedica allo studio della storia comparata delle religioni, ottenendo nel 2014 dal Senato accademico dell'MLDC Institute di Miami una laurea Honoris Causa in studi biblici. È autore di alcuni saggi, tra i quali uno sulle bugie di storia e religione

Lascia un commento