Dal negazionismo dell’Olocausto a esplicite richieste sessuali, l’assistente di Microsoft non è partito con il piede giusto, arrivando a metabolizzare informazioni decisamente controverse
di Valerio Kohler
La facilità con cui il World Wide Web riesce a tirare fuori il peggio delle persone è risaputo, e questa triste nomea ha spesso tirato in ballo delle vecchie discussioni legate alla libertà che il popolo ha sulla rete. Non è poi raro trovare citazioni di Putin mai pronunciate, comunicazioni incentrate sul sempreverde Aziz, il cui unico fine è quello di rubare e di diffondere il caos e, soprattutto, dichiarazioni violente ed estreme delle persone, i cosiddetti leoni da tastiera.
La situazione, in un luogo così caotico e disordinato, è diventata presto incontrollabile, ma pochi avrebbero ipotizzato un caos simile da degradare addirittura un’intelligenza artificiale. Di esempi non ne abbiamo avuti troppi, ma sono sorti e maturati negli anni: Cleverbot è stato uno dei primi bot di successo con cui l’utente ha potuto liberamente parlare, una delle tanti basi con cui sono poi cresciuti Siri e Cortana, gli assistenti virtuali di Apple e Microsoft. TayTweets si è però rivelato un progetto in parte distante da quelli precedentemente citati, dovendosi confrontare con un’utenza molto diretta e sociale come quella di Twitter. Era poi la base di partenza ad essere semplice e a non destare particolari preoccupazioni: Tay era stata congeniata per sperimentare e condurre ricerche sulla comprensione che un’intelligenza artificiale avrebbe avuto del linguaggio umano, pensata per chiacchierare con un pubblico adolescenziale e che sarebbe maturata nel corso degli anni, acquisendo informazioni da modi di dire e aneddoti che gli utenti le avrebbero posto. Il profilo si è introdotto nel social network con un tweet decisamente sopra le righe, ma che faceva ben sperare: “hellooooooo world!!!”. Pochi avrebbero potuto ipotizzare il decadimento nel quale sarebbe andato a finire il piccolo bot di Microsoft. Sono infatti bastate poche ore per mandare in tilt la tenera Tay, trasformandola in una feroce sostenitrice di Donald Trump e di Hitler, e non solo. Da avances sessuali ad insulti verso le diverse etnie, il giovane bot si è preso rivelato un piccolo abominio, continuando incessantemente nella sua strada di cattiverie e brutali insolenze. La decisione di Microsoft è stata, ovviamente, una sola. TayTweets è stata prematuramente disattivata e, nel giro di un giorno, il bot sviluppato in collaborazione con Bing si è perso nei meandri dei vari esperimenti falliti. Eppure da questo tentativo sorge un dubbio effettivamente interessante: e se questo cambiamento repentino di personalità dovesse capitare ai nostri robot del futuro, i quali probabilmente gestiranno lavori e faccende legate al nostro vivere quotidiano? Quale potrà essere la nostra reazione?