intelligenza-artif

Tay.ai, l’intelligenza artificiale di Microsoft per lo studio del linguaggio dei giovani, non ha retto il confronto con la Rete la cui massa di utenti, troll e provocatori, ha trovato il modo per influenzarla e trasformarla, in meno di 24 ore, nell’avatar del peggio di Internet, lanciandola in offese sessuali, insegnandole a ripetere frasi violente e razziste nei confronti di diversi gruppi di persone e persino ad inneggiare ad Hitler, cosa che ha convinto Microsoft ha staccare la spina, almeno temporaneamente (www.microsoft.it).

Tay.ai non era stata programmata per comprendere ciò che diceva. L’ingenuità di Redmond è stata forse nel puntare ad una categoria ribelle e fuori dagli schemi come quella dei “millenial”, di cui Tay avrebbe dovuto incarnare la personalità, oppure quella di aver messo un’intelligenza artificiale pura e innocente alla mercé del pubblico dei social network, senza dotarla degli strumenti necessari per difendersi dai troll.

Così, dopo poche ore, Tay ha iniziato a negare l’olocausto, a propinare teorie cospirazioniste sull’11 settembre e ad inneggiare ad Hitler e ai campi di concentramento. La Rete ha iniziato ad insegnare a Tay le invettive più terribili con un semplice meccanismo di apprendimento per ripetizione.