Imagem da campanha publicitária do Bradesco sobre as respostas da Bia. Foto: Bradesco.

O Bradesco reprogramou o seu chatbot de atendimento aos clientes, que passou a dar respostas mais contundentes para contatos de clientes considerados ofensivos ou de assédio sexual.

Batizado de BIA e representado com traços femininos, o chatbot já recebeu 95 mil mensagens com conteúdo desse tipo só em 2020, revela o Bradesco. 

A decisão foi divulgada em um vídeo publicado nesta segunda-feira, 05, apresentando as novas respostas. 

Antes, o chatbot, ou inteligência artificial, como prefere o Bradesco, respondia “Não entendi, poderia repetir?”, para interações inapropriadas.

Agora, as devolutivas abordam diretamente a conduta do cliente e incluem respostas como “Essas palavras não podem ser usadas comigo e com mais ninguém” e “Para você pode ser uma brincadeira. Para mim, foi violento”.

Desde o lançamento em 2018, a atendente virtual já realizou 185 milhões de interações nos aplicativos Bradesco celular, app do NEXT, o banco digital do Bradesco, Facebook Messenger, Google Assistente, WhatsApp e Amazon Alexa em português. A base de dados tem 16 mil respostas.

Já existe toda uma mobilização contra o assédio sexual de assistentes virtuais, que, na sua imensa maioria, são apresentados ao público como personagens com traços femininos (mais sobre isso adiante).

A Organização das Nações Unidas para a Educação, a Ciência e a Cultura (Unesco), lançou uma iniciativa sobre o assunto, batizada de “Hey Update My Voice”.

A Unesco sugeriu às empresas um conjunto de recomendações para atualizarem as respostas de suas assistentes, com o objetivo de combater situações de violência e preconceito e ajudar a educar.

O Bradesco fará anúncios, ativações nas redes sociais com vídeos de funcionárias do banco mostrando os bastidores do projeto e uma landing page com o manifesto do posicionamento, conteúdos sobre as formas de assédio, canais de denúncia e projetos sobre o tema.

“Através dessa iniciativa, o Bradesco amplifica ainda mais as vozes da sociedade e joga luz sobre um tema que precisa ser combatido com coragem, sem hesitação, promovendo atitudes mais respeitosas frente a situações de assédio”, comenta Márcio Parizotto, diretor de Marketing do banco.

O Bradesco parece ter boas intenções, mas alguns críticos apontam que na verdade o problema é anterior às interações ofensivas, que no final das contas são uma parte mínima do total e são dirigidas contra um software, que dá respostas oriundas de um catálogo por meio de palavras chave.

O problema real é que quase todos os atendentes virtuais de empresas, uma tendência em alta nos últimos anos, são representados como mulheres. Alexa, Google Home e Siri, todos assistentes que vêm de fábrica com vozes femininas, são as mais famosas, mas existem dezenas de outros exemplos.

Eles incluem por exemplo, a Aura, assistente da Telefônica, a Carol (Totvs), Lia (Leroy Merlin), Duda (Algartech), Vivi (Vivo) e Júlia (TAM), só para citar algumas.

Os nomes e personagens masculinos são a exceção da regra, como o Roque, do Roque in Rio, o Edu, da Anima Educação, ou ainda, aquele que é o melhor nome de chatbot do Brasil na opinião do Baguete: o Paraná Inteligência Artificial (PIÁ), do governo no Paraná.

Para estudiosos do assunto, essa prevalência de personagens femininos entre os chatbots se explica pela percepção de que o papel das mulheres é atender os desejos de outros, o que reforça os chamados problemas de gênero.

Essa teoria é reforçada pelo fato de que quando uma empresa de tecnologia desenvolve uma AI que quer destacar pela inteligência, com perdão da redundância, o nome e a voz são masculinos, como o Watson da IBM (cinéfilos podem citar também o HAL9000, de Uma odisséia no espaço, que não existe na vida real, mas tudo bem). 

Alan Winfield, pesquisador do laboratório de robótica da universidade de West England, autor de um livro sobre princípios éticos em robótica, afirma que robôs (ou chatbots), no caso, não deveriam ser "desenhados para enganar".

Em outras palavras, seria melhor que um robô se parecesse com um robô, e não algum tipo de personagem simpático, com traços femininos. Mas essa é a proposta de um acadêmico, e não é bem assim como a vida real funciona.

Mesmo assim, estão surgindo respostas para a problemática de gênero. O UP Consórcios, fintech da Embracon, acaba de lançar o que chama de "o primeiro assistente virtual não binário do Brasil".

Não binário no caso não quer dizer que o robô prescinde do princípio binário por trás dos programas de computador (o que pode ser até impossível), mas que ele tem uma identidade de gênero não necessariamente masculina ou feminina.  

Assim, de acordo com a UP, o chabot não deve ser tratado fazendo uso dos artigos definidores de gênero “o” e “a”, e apenas por “Lupi”, sem nada precedendo o nome. 

"Ao pensarmos em um bot sabíamos que ele precisaria representar a missão do UP, de ser inclusivo em todas as suas esferas. Assim nasceu Lupi, preto e não binário”, afirma Lorelay Lopes, head de Negócios do UP Consórcios. 

O novo vocabulário da Bia e o gênero não binário de Lupi parecem ser o começo de um novo capítulo em uma longa discussão.