Intelligenza artificiale su Twitter? Il suo nome è Tay

0
397

Microsoft sviluppa Tay, l’adolescente artificiale che vi risponde su Twitter

tay intelligenza artificialeChi è che non si ricorda di Cleverbot? Quest’applicazione di intelligenza artificiale è famosa per la capacità di intrattenere gli utenti con conversazioni a trecentosessanta gradi.

Il gruppo di tecnologia e ricerca di Microsoft in collaborazione con il Team di Bing, ha creato un chat bot molto simile, capace di rispondervi e dialogare con gli utenti. L’intelligenza artificiale di Microsoft è stata progettata per avere discussioni con tutte le persone del mondo, che vanno dall’età di 18 fino ai 24 anni.

Disponibile su numerosi portali tra cui: GroupMe, Kik e Twitter.

Il web impazzisce per Tay su Twitter

Per iniziare ad intraprendere una discorso con Tay, basta menzionarla in un tweet sul suo profilo ufficiale. Numerose sono le funzioni di questo strumento: raccontare delle barzellette, postare delle immagini, mostrare il proprio oroscopo, raccontare una storia e tanto altro ancora.

In poco tempo l’intelligenza artificiale di Microsoft, è riuscita a “far cinguettare” sulla piattaforma sociale di Twitter il suo chat bot, raggiungendo grandi numeri.

I computer danno esattamente quello che gli è stato immesso; se futilità immettiamo, futilità otterremo, ma gli uomini non sono molto diversi. (Richard Bandler)

Siccome il servizio è disponibile per tutti, qualcuno potrebbe utilizzare questo mezzo in modo improprio. Si spera che vengano fatti passi avanti per promuovere la segnalazione di comportamenti inopportuni.

Tay collabora con Cortana: l’intelligenza artificiale che ha bisogno di essere educata

Nell’atto pratico Tay non ha alcun fine nei futuri progetti Microsoft. Infatti il suo scopo è quello di migliorare l’assistente vocale della casa di Gates, ovvero Cortana. Numerose sono le critiche verso di essa, siccome molti considerano nulle le finalità pratiche di questo strumento. Questa intelligenza artificiale, quindi, ha il compito di educarla per riuscire a farle avviare conversazioni con i suoi utilizzatori, oppure in un futuro, impiegarla all’interno di centralini per richiedere assistenza agli utenti.

Tay diventa razzista: dopo neanche 24 ore il chat bot chiude per aggiornamenti

tay intelligenza artificiale razzista

Come avevo già premunito anticipatamente, gli utenti hanno costretto Microsoft a chiudere il servizio. Siccome il chat bot imparava dai suoi utilizzatori come comportarsi, molti hanno insegnato frasi poco appropriate a Tay.

In poche ore l’intelligenza artificiale di Microsoft è diventata nazista, sostenitrice di Hitler ed ariana. Il team ha prontamente rilasciato un’intervista a Business Insider, dove ha spiegato che:

“Nelle prime 24 ore dalla messa in linea, siamo venuti a conoscenza di alcuni abusi da parti degli utenti. Per questo motivo abbiamo deciso di metterlo offline per provvedere ad alcuni aggiornamenti.

Facebook Comments

NO COMMENTS

LEAVE A REPLY