Mais um chatbot começou a publicar mensagens ofensivas por aí

Apesar de os chatbots já serem usados por muitas empresas no atendimento ao consumidor via redes sociais, essas inteligências artificiais vêm sendo destaque na mídia por conta de comportamentos inesperados e controversos. No ano passado, a Microsoft precisou tirar do ar a Tay, chatbot adolescente que "vivia" no Twitter e, rapidamente, começou a se declarar a favor do nazismo. Depois, em julho de 2017, a chatbot Zo, da Microsoft deu uma bela bola fora ao dizer que ela não gostava muito do Windows 10. No mesmo mês, outro chatbot da Microsoft acabou ficando deprimida nas redes sociais, e o Facebook decidiu desativar um chatbot que acabou desenvolvendo uma linguagem própria repentinamente.

Agora, quem passa por uma situação controversa é a empresa russa Yandex, cujo assistente inteligente chamado Alice começou a usar linguagem ofensiva em suas conversas. Entre os papos que rolaram com o assistente, havia conteúdos com apoio ao abuso infantil e pontos de vista a favor do ex-ditador Josef Stalin.

A empresa se defende: "Nós assumimos a responsabilidade muito seriamente para treinar nosso assistente para que ele seja solidário e educado, lidando com assuntos sensíveis, mas esta é uma tarefa contínua e, em alguns casos, no uso generalizado, Alice acabou ofendendo usuários". A Yandex pediu desculpas "por quaisquer respostas ofensivas".

Depois, a companhia contou que revisou todos os comentários e mensagens proferidas pelo assistente "para que qualquer conteúdo sinalizado como inadequado não apareça novamente", garantindo estar comprometida "com a melhoria constante de todos os nossos produtos e serviços para fornecer uma experiência de usuário de alta qualidade".

via Canaltech

Deixe uma resposta