exameinformatica

Uma parceria VISÃO

Siga-nos nas redes

Perfil

Mercados

Assistentes pessoais com vozes femininas reforçam estereotipos negativos

Um estudo das Nações Unidas conclui que a utilização de vozes femininas nos assistentes pessoais serve para reforçar estereotipos negativos e reccomenda às tecnológicas que parem de incluir estas vozes por default.

  • 333

Exame Informática

O relatório Closing Gender Divides in Digital Skills Through Education, da ONU, pede às tecnológicas como Google, Amazon, Apple e Microsoft que parem de colocar vozes de jovens femininas por default nos aparelhos como Alexa, Google Home ou Siri. O ideal, segundo aquele estudo, é tornar as vozes assexuadas, de forma a não reforçar estereotipos negativos de que as mulheres jovens tem uma voz dócil e que estão sempre disponíveis para agradar aos utilizadores. O documento pede ainda que as empresas tecnológicas ajudem a combater a desigualdade digital de género, uma vez que é 25% menos provável que as mulheres tenham competências digitais do que os homens.

Os investigadores ilustram o texto com uma tabela com as respostas que as assistentes pessoais dão aos utilizadores quando são ofendidas ou discriminadas com termos como “boa”, “bonita”, “marota” ou “rameira”. Mais vezes do que seria expectável, a IA responde alegando não ter percebido, agradecendo ou fazendo uma piada.

Com a proliferação e expansão de soluções de Inteligência Artificial, cada vez mais pessoas irão interagir com comandos de voz com estes aparelhos, o que, se nada mudar, servirá para aumentar o fosso e reforçar os esterotipos.

As tecnológicas envolvidas ainda não produziram qualquer declaração sobre o estudo.

  • 333