Tay: a nova inteligências artificial da Microsoft que é sexista e racista

A Microsoft vai de mal a pior.

Depois de espiar os utilizadores do Windows 10, agora criou um robot, com inteligências artificial, que fala directamente com as pessoas.

… mas as coisas não correram lá muito bem.

Em menos de 24 horas, enquanto respondia a perguntas aos seus utilizadores, a Tay conseguiu dizer que odiava judeus e que Hitler tinha razão e que não gosta de pessoas feministas.

A Microsoft apagou as mensagens ofensivas e colocou a inteligências artificial “offline”, enquanto está a fazer “ajustes”.

Os tweets ofensivos podem no entanto ser consultados aqui:

466540e12f9bd57023e4f0d55f1e261e

df590d555fa86bef5302ceece7da9295

973

 

Além destes dois exemplos, existem outros que a Microsoft não apagou.

Para primeiras impressões, deixou bastante a desejar e criou o caos na Internet, além de deixar a Microsoft com uma má imagem.

Se queres seguir os próximos desenvolvimentos quando o bot ficar novamente online, segue a conta @tayandyou no Twitter e consulta o site da Tay.

Compra aqui a tua VPN
Partilhe no Facebook

Floating Widgets