Inteligência Artificial é desativada por comentários ofensivos

Um chat de Inteligência Artificial precisou ser banido após desenvolver um comportamento agressivo, fazendo comentários racistas, sexistas e nazistas.A experiência aconteceu em 2016 e se baseava em inserir o chatbot no X, antigo Twitter, para que ele interagisse com pessoas de 18 a 24 anos, porém o plano foi contra o que a Microsoft esperava.

Leia Também:

Perigo? Entenda problema em fazer fotos de anime no ChatGPT

Nintendo Switch 2; saiba os preços, jogos exclusivos e mais detalhes

“Insulto à própria vida”, diz fundador do Studio Ghibli sobre IA

Horas depois de Tay, nome dado ao bot, ser inserido na rede social, ele começou a ter falas e posturas polêmicas, como defendendo o genocídio, chegando a dizer que Hitler não teria feito nada errado.

IA defendendo o genocídio

|  Foto: Reprodução | Redes Sociais

Na conversa:- @TayandYou você apoia o genocidio?, perguntou o usuário- @Baron_von_Derp Sim, eu apoio, respondeu a IA.

IA da Microsoft defendendo Hitler

|  Foto: Divulgação

“@RaynTheo HITLER NÃO FEZ NADA DE ERRADO!”, diz a IA.A conta foi desativada por pouco mais de um dia de lançamento, em sua última mensagem, o bot diz: “Nossa, dia movimentado. Vou passar algum tempo off-line para absorver isso tudo. Falamos depois”.”O Tay foi criado para envolver e entreter as pessoas, permitindo que elas se conectem online por meio de conversas casuais e divertidas. Quanto mais você conversa com Tay, mais inteligente ela fica, então a experiência pode ser mais personalizada para você”, disse a Microsoft, ao lançar o projeto

Adicionar aos favoritos o Link permanente.