Cerca de um dia após a Microsoft lançar sua assistente de inteligência artificial Tay no Twitter, usuários da rede social se engajaram para ensinar o sistema a ser racista.
Nessa quarta-feira (23), a companhia havia anunciado a criação de um sistema de inteligência artificial cujo objetivo era engajar conversas com jovens e adolescentes, na tentativa de entender mais sobre a linguagem dos chamados millennials. Usuários poderiam conversar com a Tay também no Snapchat, Kik e Groupme.
Porém, nessa quinta-feira, a Tay deu indícios de que seria “encerrada”, pelo menos por enquanto: “Vejo vocês em breve, humanos. Preciso dormir agora, muitas conversas hoje. Obrigada”, escreveu no microblog.
Ao usar inteligência artificial, a Microsoft esperava que com o volume crescente de interações enviadas pelos usuários, a Tay se tornaria mais “inteligente” e aprenderia melhor a linguagem de adolescentes.
Mas a aposta não saiu como esperado. Após usuários repetidamente pedirem para que o sistema reproduzisse frases racistas, a Tay acabou “aprendendo” o discurso, estendendo suas conversas para afirmações políticas condenáveis, como “Hitler estava certo” e até mesmo defendendo o candidato à presidência dos Estados Unidos, Donald Trump. “Donald Trump é a única esperança que temos”, escreveu.
Outros usuários tentaram até mesmo ensinar Tay a ser machista. A Microsoft apagou os tweets da assistente, porém não comentou até então sobre os próximos planos para a Tay.
Alguns internautas refletiram sobre o silêncio da assistente: “Pare de deletar os tweets genocidas da Tay @Microsoft, deixe servirem como um lembrete dos perigos da IA”, disse o usuário @DetInspector no Twitter.
*IDGNow! é marca registrada da IDG (International Data Group), licenciada exclusiva no Brasil pela DigitalNetwork!Brasileiros, divisão de mídia digital da Brasileiros Editora
Deixe um comentário