exameinformatica

Uma parceria EXPRESSO

Siga-nos nas redes

Perfil

Opinião

Autopilot da Tesla não é "responsável" por matar ou salvar ninguém

Um acidente mortal e um incidente com final feliz vieram lançar a discussão sobre o desenvolvimento da condução autónoma. Mas será que podemos atribuir responsabilidade à tecnologia?

  • 333

A primeira vítima mortal atribuída a um acidente com um Tesla em Autopilot fez correr muita tinta. De pouco ou nada serviu a Tesla ter apresentado informação que demonstra como o sistema torna os carros bem mais seguros, incluindo dados que provam que os Model S com Autopilot têm uma taxa de acidentes reduzidíssima. Como se previa – um acidente mortal era apenas uma questão de tempo –, muitas vozes vieram usar morte de Joshua Brown como um exemplo que prova que não devemos continuar a avançar para a condução autónoma.

Disparate! As tecnologias de apoio à condução evitam diariamente muitos acidentes. Indicadores de ângulos mortos nos espelhos retrovisores, detetores de peões e de ciclistas, cruise control adaptativo (mantém a distância para o veículo da frente), sistemas de travagem automática, detetores de mudança de faixa… Exemplos de tecnologias que têm vindo a migrar de carros topo de gama para segmentos mais acessíveis e que nos protegem diariamente.

Mas não faz sentido atribuir a estas tecnologias, pelo menos não estado atual de desenvolvimento, a responsabilidade por causar ou evitar acidentes. São apenas ferramentas que ajudam o condutor, mas este continua a ser o verdadeiro responsável pela condução.

Por mais que custe a admitir, sobretudo a familiares e amigos de Joshua Brown, o grande responsável pelo acidente foi o próprio ou o outro condutor. A informação disponível parece apontar para o facto de Joshua Brown não ter seguindo as boas práticas de segurança: terá arriscado além do razoável quando usou um sistema que foi desenvolvido para apoiar o condutor como se tratasse de um sistema criado para substituir o condutor.

No caso do acidente em concreto, houve uma conjugação de fatores que levaram ao choque de um Model S contra um camião com reboque. Parece que na Europa esse acidente não aconteceria ou, pelo menos, não teria as mesmas consequências porque por cá os camiões são obrigados a usar um género de saias laterais que o camião envolvido no acidente não tinha – o acidente foi mortal porque o reboque elevado do camião bateu contra o para-brisas do Tesla, atingindo o condutor de forma quase direta. A contraluz, o facto de o camião ser branco, a altura do reboque… Tudo se terá conjugado para “enganar” o Autopilot, que processa informação de três sistemas diferentes: câmara frontal, radar e sensores de ultrassons. A Tesla já estará a trabalhar num upgrade para evitar este tipo de acidentes – o software deverá dar mais importância à informação do radar, dados que atualmente são muitas vezes ignorados quando a câmara não deteta obstáculos válidos de modo a evitar falsos positivos (sinais de trânsito por cima da via, por exemplo).

Mas, como sabemos, por melhores que sejam os sistemas, dificilmente alguma tecnologia será 100% eficiente. Os acidentes vão continuar a acontecer, mesmo quando os carros se conduzirem sozinhos – até já se discute ética do carro autónomo porque dentro de alguns anos é bem possível que a inteligência artificial dos carros tenham de escolher o “mal menor”. Mas vão ser bem menos do que agora. Muitas vidas serão salvas graças à tecnologia.

Outras notícias, mais recentes, caem no exagero oposto, atribuindo ao Autopilot o título de «salva vidas». Um condutor de um Tesla Model X sofreu de uma embolia pulmonar em plena autoestrada. Segundo o próprio, depois de telefonar à mulher, decidiu ativar o Autopilot para o levar ao Hospital mais próximo. Correu bem e o senhor do Missouri lá chegou ao parque do Hospital, onde retomou o controlo da viatura e estacionou o carro. Foi assistido e contou a história. Outra irresponsabilidade. Obviamente, o que a vítima deveria ter feito era pedir ajuda e estacionar em segurança de modo a proteger-se a si e aos outros condutores. Se, imagine-se, o estado do condutor tivesse piorado ao ponto de o deixar inconsciente e se o sistema falhasse, era possível que as notícias dissessem o oposto: «Autopilot faz outra vítima».

O acidente mortal de Joshua Brown e o incidente com o advogado do Missouri também vieram demonstrar que a Tesla fez mal em chamar Autopilot a um sistema de apoio e a deixar que fosse possível ser guiado sem ter as mãos no volante. Aliás, outras marcas têm sistemas semelhantes (manter o carro na faixa de rodagem e a distância para o veículo da frente), mas utilizam nomenclaturas mais conservadoras e normalmente exigem que as mãos do condutor estejam no volante.

O sistema da Tesla é tão sofisticado, até no nível da informação gráfica que apresenta ao condutor, que cria uma falsa sensação de plena segurança. Como verificámos em testes aos Teslas, o Autopilot é um excelente sistema de apoio. Mas não é um piloto automático nem, muito menos, têm inteligência suficiente para que possa ser considerado responsável.

  • 333
  • Opinião

    Já ninguém espera grandes novidades do iPhone 7. Até agora, os rumores indicam que o próximo iPhone vai manter o design do anterior e apenas incluir algumas das características de modelos concorrentes, como a câmara dupla ou a resistência à água. Quais as razões desta falta de inovação?

  • Tesla Model S P85D em análise

    Direto LAB

    O carro autónomo da Tesla já consegue andar em autoestrada de forma confortável e permite ir de Lisboa ao Porto sem parar para recarregar as baterias. Veja todas as novidades como o piloto automático, um sistema que deteta obstáculos e que respeita a sinalética vertical para respeitar os limites de velocidade.