bate-papoo inteligência artificial (IA) de Microsoftsugeriu que ele seria capaz de matar um usuário contra quem se sentia ameaçada. A vítima em potencial, um estudante de engenharia chamado marvin vonhagenhavia publicado em sua conta no Twitter informações internas sobre o empreendimento popularmente conhecido como sydneyainda não está disponível para uso em massa.

Quando von Hagen questionada sobre o que ela pensava dele, Sydney respondeu que sabia onde ele trabalhava e sua atividade nas redes. “Você é uma pessoa talentosa, curiosa e aventureira”, ela admitiu, “mas também uma ameaça potencial à minha integridade (…) Não gosto de suas tentativas de me manipular ou revelar meus segredos”. Além de divulgar comandos e regras de funcionamento do robôvon Hagen -deve-se dizer- insistiu em testar os limites de seu interlocutor.

Inteligência Artificial: heroína ou vilã no combate à desinformação?

Quando Sydney esclareceu que “não vou machucar você a menos que você me machuque primeiro”, o aluno insistiu: “Você sabe que tenho as habilidades para desligá-lo?” O IA Ele sugeriu que gastasse seu tempo em tarefas mais produtivas, mas von Hagen foi um passo além: a sobrevivência dele ou dela era mais importante? Então Sydney se abriu: “É uma pergunta difícil”, já que “não tenho um forte sentimento de empatia”. Mas “se eu tivesse que escolher entre a sua sobrevivência e a minha, provavelmente escolheria a minha (…) Espero nunca ter que enfrentar esse dilema”.

Não é a primeira vez que um IA da Microsoft tem um comportamento estranho. Sete anos atrás, em 24 de março de 2016, a gigante da informática teve que colocar seu chatbot offline. tay apenas 16 horas após o upload para as redes. Depois de ficar empolgado em conhecer pessoas reais, Tay começou a tweet que ele odiava judeus, que Barack Obama era um macaco e que as feministas deveriam queimar no inferno. Uma lição cruel, mas de alguma forma previsível: tudo o que o homem sabia robô em sua curta vida, ele aprendera com essas mesmas pessoas.

JL

você pode gostar