A revista semanal dos entusiastas | jorn. resp. MTB 0088750/SP
FlatOut!
Image default
Pensatas

Este é o primeiro acidente fatal com um Tesla Model S no modo autônomo

Um homem de 45 anos morreu depois que seu Tesla Model S com o modo Autopilot ativado se envolveu em um grave acidente com um caminhão. Este não é o primeiro acidente envolvendo carros autônomos ou semi-autônomos, mas é primeira vez que uma pessoa morre em um desses acidentes.

O acidente aconteceu na cidade de Willinston, na Flórida. Joshua Brown, de 45 anos, estava no banco do motorista do seu Tesla Model S 2015 com o modo semi-autônomo ativado quando uma carreta fez uma conversão em frente ao carro, que acabou batendo embaixo do reboque do caminhão, matando Brown na hora. O carro ainda continuou em linha reta por cerca de 400 metros, arrebentando duas cercas e derrubando um poste de energia elétrica antes de parar a 30 metros da pista.

Captura de Tela 2016-07-01 às 17.34.22

Croqui do acidente divulgado pela polícia local. Via: Gizmodo.com

O motorista do caminhão, Frank Baressi, de 62 anos, disse em entrevista à Associated Press que ao chegar no carro havia um filme de Harry Potter sendo reproduzido na tela Tesla. Baressi também disse que o carro passou tão rápido por baixo da carreta que ele sequer conseguiu vê-lo. O departamento de segurança viária dos EUA (NHTSA) anunciou nesta que já iniciou as investigações com uma equipe de peritos para examinar o carro e o local do acidente.

A Tesla divulgou uma nota intitulada “Uma perda trágica” em seu blog oficial. Na declaração, a Tesla afirma que trata-se da primeira morte relacionada ao sistema Autopilot em mais de 200 milhões de quilômetros rodados por seus clientes, e reconhece que o sistema está em evolução e que o motorista deve estar sempre alerta. De acordo com a Tesla, o sistema Autopilot nem o motorista conseguiram identificar a lateral branca da carreta contra a luz do sol e por isso os freios sequer foram acionados. A Tesla também admite que o sistema está em fase beta de testes públicos — ou seja, ainda não é uma versão final, com eventuais problemas identificados e sanados.

gti2gblzljmjnpywpvrk

Obviamente o acidente reacendeu as discussões sobre a segurança e confiabilidade e até mesmo aceitação dos carros autônomos. Um estudo publicado em maio deste ano pela Universidade de Michigan, revelou que 80% dos entrevistados preferem não usar carros totalmente autônomos.

A pesquisa, intitulada “As Preferências dos Motoristas por Diferentes Níveis de Automação Veicular”, visava examinar a preferência dos motoristas em relação aos diferentes tipos de automação dos carros (daí seu nome) levando em consideração também o nível de interação e suas preocupações, e concluiu que “a preferência mais frequente em relação à automação dos veículos é que não haja capacidade de direção autônoma, seguida por veículos parcialmente autônomos”. A opção menos preferida foram os veículos totalmente autônomos. O estudo foi realizado ad continuum por dois anos, e não registrou uma mudança no padrão de opiniões durante este período.

Brown demonstra o Autopilot em curvas

Por outro lado, os fabricantes e entusiastas da tecnologia acreditam que os sistemas autônomos, previstos para chegar para valer no fim desta década, são fundamentais para reduzir o risco de acidentes de trânsito. Há até quem diga que este acidente fatal com o Tesla no modo Autopilot seja uma boa prova de que a solução para os sistemas autônomos seja eliminar a possibilidade de interferência humana. O Gizmodo US publicou hoje um artigo no defendendo a teoria de que a ação humana como backup para o sistema autônomo é problemática, pois permitir que um humano retome o controle de um carro que já “tomou uma decisão” para evitar um acidente, pode acabar causando o acidente.

Neste vídeo o Autopilot “salva” o Tesla de Josh Brown

 

O argumento é plausível. Basta lembrar o voo 447 da AirFrance, que caiu em 2009 no Oceano Atlântico depois de partir do Rio de Janeiro. As investigações do acidente descobriram que o comandante Marc Dubois deixou a cabine de comando e foi dormir, deixando um co-piloto novato no comando. O avião passou por uma zona de convergência inter-tropical que pode ter causado sua perda de sustentação. Quando o comandante Dubois foi chamado, os instrumentos que medem a velocidade do ar já estavam inativos havia quase um minuto e meio. Sem referências anteriores à falha (por não estar presente monitorando o voo), em vez de baixar o bico da aeronave, o comandante fez o movimento contrário, causando a perda total de sustentação (stall ou estol) e derrubando o avião.

Por outro lado, o acidente corrobora o conselho de Elon Musk: o motorista do Tesla Model S deve estar alerta no modo autônomo. Apesar de liberar o motorista do comando do carro, ele deve sempre estar atento ao que está acontecendo justamente para tomar a decisão correta em caso de emergência. Mas considerando o hábito humano de dirigir fazendo coisas “mais importantes”, a tendência é que cenas como essa abaixo se tornem o padrão no mundo dos carros autônomos:

E isso não é mera suposição nossa: uma pesquisa do site britânico What Car? descobriu que 26% dos motoristas entrevistados gostariam de dormir em um carro autônomo. 

Além disso, os sistemas totalmente autônomos estão sujeitos a um questionamento ainda maior sobre um certo dilema moral: em situações extremas ele deve proteger seus ocupantes ou terceiros?

hal_9000_by_chancedirossi

Em “2001, Uma Odisseia no Espaço”, o Dr. David Bowman e o Dr. Frank Poole estão a bordo da nave Discovery One em direção ao planeta Júpiter com outros três cientistas em hibernação criogênica. A Discovery é uma nave semi-autônoma, controlada por uma Inteligência Artificial extremamente avançada chamada HAL9000. Tão avançada que a tripulação chega a dizer que Hal parece ter emoções verdadeiras, como um humano.

Em certo ponto da história, contudo, Hal começa a apresentar falhas de funcionamento e também de auto-diagnóstico — atribuindo esta última falha a um erro humano. Diante da situação os cientistas decidem desativá-lo em uma conversa fora do alcance dos sensores de voz de Hal. O problema é que a câmera do computador identificou o plano por leitura labial e passou a assumir a presença humana como um fator de risco para a sobrevivência da missão. Já consegue imaginar o que a máquina tenta fazer com a tripulação?

Pois é mais ou menos o que pode acontecer no trânsito. Suponha que seu carro autônomo detecta o risco iminente de colisão, mas ao desviar detecta um grupo de pessoas no caminho. Qual será a decisão tomada? O sistema, o Hal de cada carro protegerá a si mesmo e seus passageiros atropelando as pessoas? Ele protegerá os pedestres sacrificando a si mesmo e seus ocupantes? Quem terá culpa pelo acidente: o fabricante ou o proprietário? Como atribuir a culpa pelos eventuais acidentes? Sim, eles poderão ser menos frequentes, mas ainda vão acontecer.

A situação é tão confusa que foi difícil até mesmo descrever o acidente do sr. Brown: um carro autônomo causa um acidente ou deixa de evitá-lo? A culpa é do motorista do caminhão que cruzou a pista ou do motorista que entregou o comando do carro ao modo autônomo?

 

Matérias relacionadas

Não seja um babaca no trânsito: aprenda com o contra-exemplo

Gustavo Henrique Ruffo

Por que precisamos humanizar a fiscalização de trânsito

Leonardo Contesini

Nova lei irá proibir alteração da lâmpada do farol do seu carro

Leonardo Contesini