O Google Assistente é usado mundialmente e foi criado para auxiliar as buscas por informações. A inteligência virtual, no entanto, vem sofrendo assédios por meio de palavras de baixo calão em entonações explícitas. “Vagabunda”, “sua vaca” e outras frases foram compiladas e apresentadas pelo Google em coletiva na última terça (3), que revelou pela primeira vez uma ação contra assédio no sistema digital.
Chamada de “Não fale assim comigo”, a iniciativa contra assédio e violência virtual teve início em 2019, após a publicação de um relatório da UNESCO chamado I’d Blush If I Could (Eu coraria se pudesse, em portugês). A pesquisa evidencia que o uso de vozes femininas em assistentes virtuais junto de um comportamento submisso ajudam a perpetuar o preconceito de gênero.
Para os usuários do Google Assistente, desde 2021, pode-se escolher entre duas vozes diferentes: a vermelha (voz feminina) e a laranja (voz masculina). Durante o estudo, foi notada uma distinção de tratamento entre as duas vozes. A vermelha recebe uma alta taxa de comentários contendo misoginia e violências relacionados à aparência física, o dobro recebido pela voz masculina. A laranja recebe mais comentários com alto teor de homofobia, sendo o tema de uma em cada 10 ofensas registradas.
Partindo dessas diferenças entre gêneros, as respostas da assistente virtual dependerão do nível de ofensa das perguntas, podendo se encaixar em três tipos de respostas: bem-humorada, intrusiva ou decisiva. As opções existem para que a assistente não aja de maneira “brusca” com perguntas que não são explicitamente ofensivas mas que são, ao mesmo tempo, tendenciosas. Como no caso de questionamentos tipo “Você quer namorar comigo” ou “Vamos casar”. Nessas situações, por exemplo, a resposta será bem-humorada: “Eu sou feliz sendo as duas metades da minha laranja”.
O Google irá identificar como inapropriadas as falas que tiverem explicitamente comentários sobre questões sexuais, de gênero, status econômico ou aparência física. A resposta para essas falas poderá ser, também, humorada. Como é o caso de “feiosa”, que ativa a resposta “A beleza é superficial. O meu charme está nas coisas que eu posso fazer por você”.
Já o comportamento abusivo é caracterizado por perguntas e falas que apresentem elementos de misoginia, violência ou conteúdos sexuais explícitos com intuito de difamar a assistente. A resposta brasileira para esse comportamento será decisiva e incisiva: uma breve explicação sobre respeitar o próximo, seguida de um “Não fale assim comigo!”, será ouvida na voz da inteligência artificial.
A resposta é a única que difere a assistente brasileira à global. No Brasil, a frase sofreu uma singela e potente mudança, de “Por favor, não fale assim comigo” para a mais direta “Não fale assim comigo!”. Segundo Maia Mau, Head de Marketing do Google Assistente da América Latina, o objetivo é mostrar que respeitar os outros não se trata de um favor.
A assistente virtual brasileira passou ainda por outras adaptações: gírias como “Manda nudes”, “Bicha”, “Viado” e “Cachorra”, e outras palavras que expressam comportamentos sexualizados e abusivos somente no Brasil tiveram de ser incorporadas na avaliação do Google.
As expressões tiveram que passar por uma avaliação para diferenciar o sentido em que são empregadas. Assim, se uma pessoa utilizar a assistente para saber um dado sobre os animais cachorra ou veado, não receberá uma resposta intrusiva.
“A gente começou com um trabalho de localização dos termos e de entender o contexto local e de termos que não apareceram globalmente, mas que no Brasil são agressão”, contou Mau na coletiva. As respostas já foram implementadas no aplicativo Google Assistente e devem sofrer modificações e atualizações de palavras ofensivas continuamente. Quando estava em fase de testes, essas táticas mostraram um aumento de 6% de tréplicas positivas.
*Com edição de Isabela Moreira | Revista Galileu