exameinformatica

Uma parceria EXPRESSO

Siga-nos nas redes

Perfil

Ciência

Google estuda perigos dos bots domésticos

Num cenário em que as ferramentas de Inteligência Artificial estão cada vez mais desenvolvidas, uma equipa de especialistas da Google e outras instituições está a estudar quais as formas seguras de as operar. O perigo pode estar até em robôs que limpam a casa.

  • 333

Investigadores da Universidade de Stanford, da UC Berkeley, da OpenAI de Elon Musk e da Google AI estão a analisar como é que os humanos podem interagir e confiar nos sistemas de Inteligência Artificial. Hoje em dia, há receios sobre o que pode acontecer se estas máquinas começarem a tomar decisões por si só. Atualmente, o cenário não é tão perigoso, uma vez que uma má decisão pode trazer poucas consequências, mas à medida que estes sistemas se tornem cada vez mais ubíquos, o risco pode aumentar. «Estamos a entrar em áreas cinzentas. Não sabemos sempre quais os inputs que geram determinados outputs. Somos incapazes de perceber o que a máquina está a fazer», alerta Alexander Reben, um especialista em robótica, citado pela Wired.

A equipa da Google analisou o exemplo de um robô que aprende a limpar a casa. O risco ainda não é catastrófico neste caso, mas o robô pode aprender, por exemplo, que partir um vaso é a forma mais rápida de limpar e passar a agir sempre dessa forma ou tentar limpar tomadas elétricas com uma esfregona molhada. A solução para um caso pode nem sempre aplicar-se a todas as situações, mas as respostas passam por alertar o robô para os «efeitos negativos» de partir qualquer coisa e pela «exploração segura», não colocando itens molhados em tomadas elétricas.

Há o exemplo clássico de um sistema desenvolvido para jogar Tetris sozinho e que descobriu que pausando o jogo, nunca perderia, passando a agir sempre dessa forma.

Por outro lado, a equipa da DeepMind, que desenvolveu o AlphaGo, está também a estudar a possibilidade de se integrar um «botão de pânico» que possa ser ativado para evitar que a máquina comece a agir fora do controlo humano.

  • 333