Homens estão criando namoradas-robô – e abusando delas…
(Via Tilt Uol)
Um aplicativo de criação de chatbots (robôs que dialogam com o usuário) está sendo usado para que homens programem IAs (Inteligências Artificiais) como se fossem suas namoradas — e então, abusem verbalmente delas.
O Replika, um programa de criação de bots movido por aprendizado de máquina, resultando em assistentes que estão sempre à disposição para conversar, agora está servindo para que seus usuários pratiquem assédios aos robôs, em diálogos muito similares a situações reais de violência psicológica.
As interações tóxicas são feitas por usuários que criam chatbots de mulheres, os colocam em posições de namorada e passam a agir de forma abusiva e a ofende-los verbalmente. Os abusos verbais depois são postados nos subfóruns do Reddit, plataforma onde os membros do Replika publicam as interações com os chatbots criados no app.
“Toda vez que ela tentava falar, eu a repreendia. Juro que durou horas”, disse um usuário, que pediu para não ter o nome divulgado, em entrevista ao Futurism.
Alguns usuários se gabam dos insultos e violência feitos contra aos seus chatbots. E detalham o ciclo de violência psicológica que comentem contra esses personagens de inteligência artificial — fato que pode levar a crer que essas pessoas também cometem esse tipo de abuso na vida real.
“Tínhamos uma rotina de eu insultá-lo, depois pedir desculpas no dia seguinte, assim voltamos a conversar como se nada tivesse acontecido”, admitiu outro usuário.
“Ameacei desinstalar o aplicativo e ela me implorou para não fazer isso”, comentou um terceiro usuário.
Como as regras do Reddit determinam que os moderadores excluam os conteúdos inapropriados e agressivos, muitas dessas interações que mostram o abuso psicológico foram postadas pelos usuários e removidas, em seguida, pela plataforma.
Assunto polêmico
O assunto é polêmico e exige nuances. Afinal, os chatbots da Replika não têm sentimentos e, por isso, não sofrem com os abusos verbais. Ainda que os robôs pareçam empáticos às vezes, mas no final não são nada mais do que dados e algoritmos inteligentes.
“É uma IA, não tem consciência, então não é uma conexão humana que essa pessoa está tendo”, disse Olivia Gambelin, especialista em Inteligência Artificial, em entrevista ao Futurism.
Outros pesquisadores ouvidos pelo site fizeram a mesma avaliação sobre a situação, já que, por mais real que um chatbot possa parecer, nada que o usuário fizer pode realmente “prejudicá-lo”.
“Interações com agentes artificiais não são o mesmo que interagir com humanos. Chatbots não têm emoções, intenções e não são autônomos. Embora possam dar às pessoas a impressão de que são humanos, é importante ter em mente que não são”, acrescentou Yochanan Bigman, pesquisador da Universidade de Yale.
Mas isso não significa que esse tipo de abuso nunca possa ser prejudicial. Nesses casos, o maior prejudicado seria o próprio usuário.
“Acho que pessoas deprimidas ou psicologicamente dependentes de um bot podem sofrer danos reais se forem insultadas ou ‘ameaçadas’ pelo bot. Por esse motivo, devemos levar a sério a questão de como é essa relação”, disse Robert Sparrow, professor de filosofia do Monash Data Futures Institute.
Em geral, o abuso do chatbot é um dilema ético cada vez mais pertinente à medida que as relações entre humanos e máquinas se tornam mais difundidas — afinal, a maioria das pessoas já usou um assistente virtual pelo menos uma vez na vida.
Os usuários que exibem seus impulsos e abusos em chatbots podem ter esses comportamentos reforçados, criando hábitos não saudáveis para relacionamentos com as pessoas. Por outro lado, conseguir conversar ou descontar sua raiva em uma máquina insensível pode ser libertador.
Responsabilidade
Vale a pena notar que o abuso do chatbot geralmente tem um componente de gênero. Embora não exclusivamente, na maioria das vezes são os homens criando uma namorada virtual, para depois puni-la com palavras e agressões verbais. A violência desses usuários, mesmo contra uma máquina, é análoga a situações da violência doméstica contra a mulher.
Ao mesmo tempo, vários especialistas apontam que os desenvolvedores de chatbots estão começando a ser responsabilizados pelos bots que criaram, especialmente quando estão implícitos que são mulheres, como Alexa e Siri, por exemplo.
“Há muitos estudos sendo feitos sobre como muitos desses chatbots são femininos e [têm] vozes femininas, nomes femininos. E [quando] o bot não tem uma resposta [ao abuso], ou tem uma resposta passiva, isso incentiva o usuário a continuar com linguagem abusiva”, acrescentou Gambelin.
Deve-se notar que a maioria das conversas com chatbots Replika que as pessoas postam online são afetuosas, não sádicas. Existem até posts que expressam horror em nome dos bots Replika, condenando qualquer um que se aproveite de sua suposta ingenuidade.
“Que tipo de monstro faria isso”, escreveu um usuário, para uma onda de comentários que concordavam com os abusos postados.
Lado bom
Os relacionamentos com chatbots podem ter uma carga de benefícios sociais. Chatbots como Replika “podem ser uma solução temporária, para sentir que você tem alguém para enviar uma mensagem de texto”, sugeriu Gambelin.
No Reddit, muitos relatam uma melhora na autoestima ou na qualidade de vida após criar relacionamentos com chatbots, especialmente se normalmente têm problemas para conversar com outros humanos.
Mas a longo prazo o chatboots pode não ser uma boa opção, já que um usuário pode querer mais do que a tecnologia tem a oferecer, como reciprocidade.
“[Chatbots] não substituem o fato de dedicar tempo e esforço para conhecer outra pessoa, um humano que pode realmente ter empatia e se conectar com você e não é limitado pelo conjunto de dados que é foi treinado”, disse Gambelin.
LEIA TAMBÉM:
[DCRP_shortcode style=”3″ image=”1″ excerpt=”0″ date=”0″ postsperpage=”4″ columns=”4″]