FlatOut!
Image default
Car Culture

“Eventos estranhos” – ou “como fazer um carro autônomo achar que você é um cone”

A questão da responsabilidade por um acidente causado por um carro autônomo parece ter sido resolvida com o caso do Volvo XC90 do Uber e de sua motorista/operadora que atropelaram uma pedestre empurrando uma bicicleta nos EUA.

Apesar do sistema de reconhecimento estar parcialmente desativado, a responsabilidade pelo acidente recaiu sobre a operadora pois ela estava distraída e não agiu para evitar o atropelamento. É o mesmo tipo de atribuição de responsabilidade em casos de acidentes aéreos, ferroviários ou náuticos com sistemas autônomos: o motorista ativou o sistema, é ele quem se responsabiliza pelo ocorrido.

Agora… ainda há uma questão que, apesar dos milhões de quilômetros rodados em testes ainda não foi resolvida: os “exemplos contraditórios”.

O termo não significa nada se você não estiver por dentro da tecnologia de Inteligência Artificial, por isso vamos chamá-lo de “eventos estranhos” — que ainda não diz muito, mas fica mais compreensível. São situações em que os softwares não conseguem processar as informações recebidas da forma esperada e acabam, literalmente, se confundindo. Em palavras fáceis o computador não entende o que está vendo/ouvindo e, por isso, reage de forma inesperada.

Para entender, pense em como você reage a uma ilusão de óptica: em um primeiro momento você fica confuso e precisa pensar por um instante sobre o que está vendo. Como você é um ser dotado de raciocínio, em determinado momento saberá como reagir. O computador não. Ele “aprende”, mas somente da forma que foi programado para aprender. Ao topar com uma “ilusão de óptica”, ele irá reagir de acordo com o que está “enxergando”.

Estas ilusões para enganar Inteligência Artificial (IA a partir daqui, ok?) são conhecidas há pouquíssimo tempo pelos cientistas e já são exploradas nos enredos de ficção científica e para driblar sistemas de reconhecimento facial, citando um exemplo prático e real. Na trilogia Zero History, de William Gibson, há uma passagem em que um personagem usa “a camiseta mais feia do mundo” porque ela confunde as câmeras de vigilância e o torna invisível a elas.

E não pense que é preciso fazer algo muito complexo para enganar um sistema de IA: basta mudar padrões de cores e texturas para que se instale o caos eletrônico. Em 2016 um grupo de cientistas da universidade Carnegie Mellon conseguiram enganar um sistema comercial de reconhecimento facial usando apenas óculos coloridos. No experimento, um pesquisador de 41 anos conseguiu ser identificado como a bela atriz/modelo Milla Jovovich com uma precisão de 87,87%, enquanto uma pesquisadora de 24 anos com origem asiática foi reconhecida como o ex-secretário de estado dos EUA Colin Powell, um afro-americano de 79 anos.

Em outros estudos, pequenos adesivos tornaram placas de “PARE” invisíveis às câmeras e, mais recentemente, um grupo de estudantes da Bélgica imprimiu um desenho que os torna invisíveis às câmeras — e eles até fizeram um vídeo mostrando como o sistema simplesmente para de enxergar o portador do desenho.

Esta, portanto, é uma das grandes preocupações dos sistemas autônomos dos automóveis. Como os padrões que se formam naturalmente no ambiente urbano/rodoviário são imprevisíveis, estatisticamente é provável que em algum momento os carros acabarão não enxergando um obstáculo. Imagine, por exemplo, que um poste coberto por resíduos de adesivos e cartazes acabe com um padrão que cause um evento estranho para a IA. Sem uma outra referência, o carro entenderá que não há obstáculo e acabará colidindo — ou chegando muito perto, uma vez que além de câmeras ele tem radares e sensores de proximidade. Isso pensando em um poste.

No sentido horário, começando pela esquerda: rifle, estetoscópio, relógio digital, bola de futebol, remo, aspirador de pó, acordeão e chave de fenda

Mas imagine a seguinte situação ocorrida no Brasil recentemente: um Tesla identificou um garoto vestindo camiseta laranja como um cone de sinalização. O carro, que certamente foi importado de forma independente, estava em um condomínio e supervisionado por seu proprietário, que felizmente estava apenas observando como o Autopilot identificaria o garoto. Primeiro ele identificou como uma pessoa segurando um cone, mas depois mudou a identificação para um cone. E embora o programa seja programado para desviar do cone, um carro autônomo em situação de conflito (como o dilema do trem), poderia desviar de um pedestre considerando o impacto com o cone — que, na verdade, era uma criança.

Não apenas isso: os sistemas de reconhecimento por IA já são realidade em estádios de futebol, festas e eventos populares, grandes concertos, estações de metrô e aeroportos. Como a busca pela privacidade é algo natural, também será natural que estes padrões acabem sendo explorados comercialmente — ainda que seja razoavelmente fácil reprogramar os softwares para identificá-los. Contudo, imagine uma situação em que pedestres que não querem ser reconhecidos por estes sistemas estejam caminhando em ruas de carros autônomos que não podem enxergá-los. Isso pensando apenas no trânsito. Em situação de guerra, por exemplo, seria possível forjar alvos.

O que os cientistas de IA pretendem fazer em um futuro próximo é desenvolver formas de fazer os softwares reconhecerem que estão sendo enganados e saberem como contornar esta situação, um processo que leva tempo e dinheiro, e que deve retardar ainda mais a chegada dos carros com nível 5 de autonomia às ruas.

Isso porque os carros autônomos ainda estão sendo testados em ambientes ideais como as cidades americanas ou pequenas cidades europeias. Em situações como o trânsito russo, onde há muitos carros, camadas espessas de neve, pistas escorregadias e motoristas imprevisíveis, a chance de haver eventos estranhos é maior.

Enquanto esta limitação da IA não for contornada, a adesão aos autônomos será limitada aos ambientes perfeitos — onde eles não são realmente necessários.