No início desta semana um veículo autônomo da frota de testes da Uber atropelou e matou uma pedestre naquele que foi o primeiro acidente fatal envolvendo um carro totalmente autônomo. As primeiras informações sobre o caso eram desencontradas: primeiro falava-se que a vítima era uma ciclista; depois foi dito que era uma pedestre que se atirou na frente do carro. A polícia local dizia que não tem autoridade para declarar um culpado, mas antes mesmo da divulgação de mais informações, apressou-se em dizer que “o acidente dificilmente seria evitado” pois a vítima “apareceu repentinamente diante do carro”.
É responsável ter todas as informações em mãos antes declarar culpados e opiniões — o que torna a declaração da chefe da polícia local um tanto irresponsável. Especialmente porque trata-se de uma situação tão inédita e mal sabemos como lidar com ela: um carro que dirige sozinho atingiu uma pedestre e a matou. Qualquer informação equivocada ou mesmo precipitada é suficiente influenciar a percepção do público sobre o acidente, causando distorções na compreensão de um tema que precisa ser analisado sob a frieza da razão.
Com o passar das horas e dos dias chegaram novas informações, mais concretas que uma opinião vaga. Primeiro soube-se que era realmente uma pedestre, e não uma ciclista, uma vez que a bicicleta estava sendo empurrada.
Depois foi divulgado a velocidade do carro no momento do impacto: 61 km/h (38 mph) em uma área com limite de 56 km/h (35 mph). A variação de velocidade está dentro da margem de erro de leitura na maioria dos países, mas também é essencial para entender a dinâmica do acidente. Lembre do número: 61 km/h.
Nesta quinta-feira (22), a polícia local finalmente divulgou os vídeos registrados pelas câmeras do sistema autônomo da Uber, e eles são, até agora, os registros mais reveladores sobre as circunstâncias do acidente. São dois vídeos curtos, editados em um só para facilitar a divulgação e para preservar a vítima e o público do momento do impacto. Um deles é feito pela câmera apontada para a frente do carro; o outro é apontado para o motorista-supervisor. Veja abaixo:
Há uma série de fatores que ficam explícitos nestes dois vídeos, mas o mais importante são os questionamentos que eles levantam sobre os carros autônomos.
Os fatores envolvidos – e as questões não respondidas
O primeiro é que o vídeo contradiz a informação inicial de que a vítima “se atirou na frente do carro” ou que “apareceu do nada”. Também contradiz a informação de que “provavelmente não seria possível evitar o acidente”, como dito pela chefe de polícia. O terceiro fator é que a motorista-supervisora não estava atenta, pois desviava o olhar da pista por longos períodos e desviou o olhar segundos antes do impacto.
Então temos a seguinte situação: Elaine Herzberg estava atravessando uma via de quatro faixas fora da faixa de pedestres. Ela foi atingida por um carro dentro da margem legal do limite de velocidade durante à noite. Se o motorista do carro fosse eu ou você, a responsabilidade pelo acidente certamente recairia sobre a vítima, que estava atravessando em local inseguro e sem marcação de travessia e o carro estava dentro do limite de velocidade. Aceitaríamos como parte da falibilidade humana: “Não a vi porque estava muito escuro”.
Acontece que é justamente para situações em que “não as vimos porque estava muito escuro” que os carros autônomos estão sendo desenvolvidos e são aguardados. Estas máquinas do futuro deveriam conseguir fazer coisas que nós não conseguimos: enxergar no escuro é uma delas. Reagir com uma frenagem em milissegundos é outra. Elas deveriam estar em um patamar de segurança mais elevado que o meu e o seu.
Deveriam porque fazem isso usando três tipos de sistemas: radar, lidar e sensores de câmera (leia mais aqui e aqui). Mas apesar dos três sistemas diferentes, eles não conseguiram enxergar uma pessoa. E diferentemente do que se pensava, a sra. Herzberg não saiu da direita para a esquerda, sem que houvesse tempo de reação. Ela atravessou as três primeiras faixas da esquerda para a direita, e só foi atingida quando estava prestes a concluir a travessia.
Em entrevista ao jornal inglês “The Sun”, Bryant Walker Smith, professor da Universidade da Carolina do Sul, que se dedica aos veículos autônomos, disse que “a vítima não saiu do nada”: “Ela está em uma estrada escura, porém aberta, então o Lidar e o radar deveriam tê-la detectado e a classificado como humana”, disse. “O vídeo não mostra a figura completa, mas sugere fortemente que houve múltiplas falhas no carro da Uber, em seu sistema autônomo e com seu motorista-supervisor.
A opinião é compartilhada por Daniel Sperling, diretor do Instituto de Estudos de Transporte da Universidade da Califórnia: “O carro deveria tê-la detectado. Queremos que os veículos autônomos sejam melhor que nós, e o potencial existe”.
Diante disso, a questão que deve ser feita é, por que estes sistemas não detectaram alguém atravessando a rua e alertaram a motorista com antecipação?
Os sistemas de detecção funcionam com o cruzamento de dados dos diferentes sensores. A câmera detecta o pedestre, se o radar ou o lidar também detectarem, a informação é “validada” e o carro age de acordo. Mas não foi o que aconteceu, e ainda que um dos três sistemas tenha falhado, dois deles são suficientes para esta validação. O advogado americano Jim McPherson especializado na questão dos veículos autônomos até mesmo sugeriu que a programação do carro se baseou no dilema do bonde. O sistema pode ter “decidido” que atropelar a sra. Herzberg era mais seguro para os ocupantes do carro do que tentar uma manobra de evasão. Uma das evidências que o levou à sugestão foi que o carro sequer freou — nem automaticamente, nem por intervenção da motorista.
Gráfico por The New York Times
Por falar nela, ela estava distraída por seu celular em uma situação que exige atenção. Em um congestionamento é até aceitável que ela dê uma olhada no celular a bordo de um carro autônomo. Mas à noite, em um ambiente escuro e com a pista vazia, ela deveria estar alerta não só à rua, mas as reações do carro. Ela é uma supervisora de um protótipo de testes, afinal.
E isso nos traz de volta à afirmação da chefe de polícia, de que o acidente dificilmente teria sido evitado devido à forma que a sra. Herzberg apareceu na frente do carro. Ainda que o vídeo estivesse mostrando precisamente as condições reais de luminosidade do momento em que a vítima “surge” na área iluminada pelos faróis do carro até o momento do impacto, se passaram dois segundos. A 60 km/h são aproximadamente 30 metros de distância.
Reflexo do tênis mostra o primeiro momento em que se pode ver a sra. Herzberg
Os estudos usados para embasar as reduções de limites de velocidade recentes consideram que o tempo de reação do motorista — desde o momento em que se percebe a necessidade de reagir, ao início da reação — é de 1,5 segundo. Meio segundo é pouco, mas a 60 km/h, após uma reação a um imprevisto, estamos falando de 5 a 8 metros. Motoristas humanos tendem a reagir mesmo antes de entender o que se passa. Será que, caso a motorista supervisora estivesse atenta, o acidente seria mesmo “inevitável em qualquer modo de condução”? E se o sistema tivesse detectado o risco e acionado os freios automaticamente — como o Tesla Autopilot, que “antecipa” acidentes?
Caça às bruxas
Apesar de a discussão pública ter se voltado para uma caça às bruxas que quer, a todo custo, encontrar um culpado pelo acidente, não se trata de incriminar os carros autônomos ou a vítima. A questão é tão fria quanto uma máquina: o sistema não evitou a morte de uma pessoa quando esperávamos que fosse evitar. Se queremos usar os carros autônomos no futuro, isso precisa ser corrigido não apenas por questões de segurança, mas pelo simples desenvolvimento e aperfeiçoamento da tecnologia — que é a aposta das fabricantes para um futuro próximo.
E embora seja possível argumentar estatisticamente que, enquanto o autônomo da Uber matou uma pessoa, humanos em carros comuns mataram milhares de outras, temos à questão da falibilidade humana e a confiança na infalibilidade das máquinas: nós aceitamos acidentes causados por erro humano porque espera-se que humanos errem. Mas os autônomos não deveriam falhar porque são programados para ser melhores que nós.
Aqui voltamos ao início desse papo: considerando a lei americana e as declarações da polícia local deixam claro que a sra. Herzberg foi irresponsável e poderá ser a culpada pelo acidente, dado que atravessou fora de uma faixa de pedestres — uma prática chamada “jaywalking” que é punida com multas nos EUA. Mas seria errado não admitir ou não atribuir alguma responsabilidade ao carro autônomo — ou ao menos não investigar a fundo o que aconteceu com o sistema. Ele tem capacidade para evitar o acidente, porém não evitou e não cumpriu o único propósito de um carro autônomo: trazer mais segurança e salvar vidas.
Para funcionar e, acima de tudo, serem aceitos, está claro que os carros autônomos ainda terão uma longa evolução quanto à imprevisibilidade do trânsito e a falibilidade humana em certos cenários. Mas no fim das contas o “problema” dos autônomos jamais poderá ser os humanos. Nós somos a finalidade dos carros autônomos. Se eles não conseguem nos salvar, não há razão para tê-los.