Imagine a situação. Você é dono de um carro autônomo e está dentro dele enquanto se desloca para o trabalho. Durante o caminho, uma criança distraída corre atrás de uma bola na rua. Inesperadamente ela atravessa o caminho, fazendo com que o carro desvie para evitar o acidente. Como consequência, ele atravessa o muro de uma casa, destruindo tudo que vê pela frente. Quando o desastre acaba, seu nariz está sangrando e alguns ossos possivelmente estão quebrados.
E agora, quem foi o culpado pelo acidente? E quem vai pagar seu hospital?
O cenário parece fantasioso, mas são grandes as chances que esse seja o típico acidente automobilístico da próxima década. Antes de falar sobre esse caso, vamos começar falando sobre o que já sabemos que é realidade.
Na noite do último domingo, um carro autônomo do Uber atropelou e matou uma mulher no Arizona. Esse foi considerado o primeiro acidente com pedestres ocasionado por veículos sem motorista. Mas não foi o primeiro acidente geral com mortes.
Há pouco menos de 1 ano, na Florida, o software do Tesla Model S, um carro semiautônomo, falhou em distinguir um trailer branco do brilho do céu. Ele foi direto em direção ao trailer, ocasionando a morte do dono do Tesla. O carro estava ligado no piloto automático.
No caso do Uber, as suspeitas são de que a mulher atravessou fora da faixa. Já no caso do Tesla, embora estivesse no piloto automático, o motorista deveria ter mantido as mãos ao volante, já que é um carro semiautônomo. Entretanto, o escopo aqui não é julgar caso a caso o que houve. Tentaremos entender quem é – ou deveria ser – o responsável final pelos acidentes.
Voltando ao exemplo hipotético da criança. A primeira conclusão inferida é que o surgimento do carro autônomo – e de outros robôs – trouxe enormes dilemas éticos.
Um carro por si só não toma decisões. Quem decide o que fazer é seu software, que, por sua vez, foi desenvolvido por engenheiros do Vale do Silício. Muitos dos quais sequer têm 30 anos de idade. Eles que irão determinar, em última instância, qual deve ser a prioridade do carro: a vida do seu dono, da criança distraída ou a integridade do muro de uma casa.
E esse não é um assunto do futuro, pelo contrário, o futuro já está aí: atropelando pessoas e batendo em caminhões. Portanto, as montadoras e demais empresas que produzem robôs não podem se dar ao luxo de adiarem essas discussões.
Inclusive, algumas cidades já estão proibindo testes com robôs antes que algo mais grave aconteça. Esse foi o caso de São Francisco, onde políticos recentemente votaram para restringir as áreas da cidade, como calçadas, onde robôs de entrega poderão andar. Esse fato atingiu em cheio a indústria.
Outro ponto importante é: apesar de não ficar cansado nem bêbado como humanos, o carro autônomo não é imune a falhas. Acidentes podem e devem continuar ocorrendo no futuro. Especialmente em situações onde haja imprevisibilidade humana, como o caso da criança.
Por fim, é importante destacar que, embora novos acidentes serão mais frequentes, ao passo que esses veículos forem se disseminando, sua evolução se dará no melhor estilo anti-frágil. Cada situação nova, que sequer foi cogitada pelos engenheiros, será usada para gerar um aperfeiçoamento contínuo dos sistemas e softwares e evitar que ela se repita. Bom, mas isso não é muito diferente do que já aconteceu com qualquer outro veículo ao longo da história, não é?
Agora, o que você precisa ter em mente é que seja qual for a decisão tomada pelo carro, ela já vai ser elaborada anos antes, ainda no desenvolvimento do seu software. E essa decisão pode ser fatal, seja para você, que é dono do veículo, ou para qualquer outro pedestre ou motorista de outro automóvel.
E não é uma decisão fácil. Para ver o quão difícil é decidir sore quem deve morrer e quem deve viver, faça o teste na Máquina da Moral. Este é um quiz desenvolvido pelo MIT que visa determinar como humanos reagiriam em diversas situações. Você optaria por matar 5 pedestres ou os 2 ocupantes do carro? Decida lá!
Spoiler alert: os pesquisadores descobriram que, em média, embora as pessoas achem ético salvar um grupo maior de pessoas a um menor, elas tendem a optar pela autopreservação, seja como pedestres ou como ocupantes dos carros.
Durante alguns anos morei em uma cidadezinha isolada do resto do mundo, no interior do Mato Grosso do Sul. A cidade grande mais próxima ficava a 400km e o único deslocamento era através de uma estrada praticamente reta em sua totalidade.
Mas havia um problema: metade do caminho era pantanal, e repleto de animais na estrada, especialmente durante a noite. Acidentes com morte são frequentes. Além disso, caso você saísse da estrada, era uma queda de mais de 10 metros. Isso tudo em um dos locais mais isolados do país.
Portanto, a ordem era não desviar em caso de animal na pista, já que seu carro poderia acabar capotando. Siga em frente e reze pelo melhor!
Agora imagine que um engenheiro precise desenvolver um software que guiará as decisões do carro. Ele terá que considerar diversas alternativas: a velocidade do carro, o tamanho do animal, o local da estrada onde você se encontra, o que existe ao redor (uma árvore, um caminhão vindo na direção oposta), quantas pessoas têm dentro do carro, entre outros fatores.
E isso porque estamos falando apenas de um dos milhares de cenários que precisariam ser considerados. Com a tecnologia atual, é praticamente impossível criar um algoritmo que pense com a ética humana em cada cenário distinto. Sequer humanos conseguiriam dar uma resposta a todas essas infinitas alternativas.
A verdade é que, pelo menos em um futuro próximo, computadores jamais serão capazes de lidar com o imprevisto. E aí que acidentes poderão ocorrer.
Para começar a responder a essa pergunta, precisamos primeiro analisar casos reais que já existem e tentar extrapolá-los para eventuais acontecimentos hipotéticos. Antes de mais nada, lembro que não sou advogado nem especialista em leis, e só analisarei dados públicos com o que foi divulgado na mídia. Especialistas, por favor me corrijam se estiver errado.
Em 2004, a engenheira Carmem Lúcia Niquel sofreu um acidente em Porto Alegre. Seu air bag não abriu e ela ficou com sequelas no rosto e narinas. Após entrar com ação contra a montadora, recebeu R$ 20 mil como indenização.
Esse é apenas um entre milhares de casos onde a montadora foi responsabilizada pelo dano ao motorista ou a outras pessoas. Tanto no Brasil, como em muitos outros países, quando ocorre uma falha em alguma parte do carro, a responsabilidade legal é da montadora. (Bom, existem outros trâmites, envolvendo inicialmente a seguradora, mas esta, após resolver o impasse, vai atrás da montadora para recuperar sua perda).
Portanto, parece óbvio que a responsabilidade por acidentes que envolvam mal funcionamento do veículo será da montadora. Esta, por sua vez, poderia responsabilizar a empresa desenvolvedora do software, mas ainda não está claro sobre como essa dinâmica deve se desenrolar no futuro.
Agora, no caso hipotético da criança atravessando a rua, imagine o que aconteceria com um carro tradicional e você estivesse dirigindo. Caso atropelasse a criança, mas estivesse dentro do limite legal de velocidade, provavelmente seria inocentado das acusações e o seguro cobriria o dano a terceiros. Caso desviasse para evitar a colisão, mas batesse no muro, o seguro novamente cobriria o muro e sua internação no hospital.
É uma situação bem difícil, sem dúvidas, mas especificamente nesse caso (assim como pode ter ocorrido com o carro da Uber), o fato do carro ser autônomo não acrescenta uma complexidade adicional.
Entretanto, ainda estamos longe de termos carros plenamente autônomos. Mesmo os carros mais modernos requerem que os motoristas permaneçam com as mãos no volante para corrigir eventuais falhas do software. É o caso do Tesla S, cuja função autônoma serve apenas como auxílio ao motorista, e não como substituição ao mesmo.
Dessa forma, em caso de acidentes que poderiam ser evitados, a responsabilidade permanece sendo do motorista. Todavia, à medida que carros se tornem mais autônomos, surge outro problema: o tempo de reação.
Imagine que você está no carro lendo seu jornal e a criança atravessa. Quanto tempo demoraria para pegar no volante, analisar a situação e reagir? Uns 10, talvez 20 segundos? Um carro que viaja a 60km/h percorre aproximadamente 17 metros por segundo. Portanto, somente o tempo de reação seria suficiente para atravessar o campo do Maracanã pelo menos duas vezes.
Para finalizar, vale ainda citar outro caso extremamente plausível: uma invasão hacker. Em 2016, foi descoberto que o carro Outlander da Mitsubishi tinha uma vulnerabilidade no sistema wi-fi que poderia ser explorada por hackers. Já em 2015, a Fiat Chrysler fez um recall de mais de 1 milhão de carros que poderiam ser invadidos remotamente.
Invasões hackers em carros podem gerar uma dificuldade ainda maior, já que a responsabilidade direta, em caso de morte, é do hacker. Entretanto, o sistema provavelmente foi invadido ou por deficiência da montadora de fazer algo mais robusto, ou por desatenção do dono do automóvel.
Nesse cenário, caso fosse provado que a culpa não foi nem da montadora nem do motorista, o hacker seria responsabilizado e deveria sofrer as punições. Isso já ocorre quando alguém rouba um veículo hoje e causa um atropelamento. Mas como indenizar as vítimas?
Bom, além do seguro, uma alternativa é fazer algo que já existe em alguns países como o Reino Unido: um fundo público criado para indenizar os inocentes, considerando que a responsabilidade por capturar o infrator é do poder público.
Decidir quem deve ser responsabilizado por acidentes com um carro autônomo é extremamente complexo. Junte ao que foi discutido o fato de ainda não haver leis definitivas sobre o assunto e que, muito possivelmente, cada país terá uma legislação diferente.
Fica impossível analisar tudo em apenas um curto artigo. Portanto, o objetivo aqui foi só trazer algumas considerações sobre o tema, para que mais pessoas possam ajudar a refletir.
No caso do acidente com o carro do Uber, é inegável que foi um trágico acontecimento, mas temos que ter cautela ao afirmar que carros autônomos são perigosos. Estatisticamente falando, pelos testes que já foram feitos com veículos desse tipo, a quantidade de acidentes é consideravelmente menor do que com carros dirigidos por humanos. E ela só irá reduzir.
Ou seja, quanto mais carros autônomos nas ruas não só veremos menos trânsito, mas também menos gente morrendo em acidentes.
Entretanto, um fator entra em jogo nesse momento: a ilusão do controle. Nós, humanos, temos a tendência de superestimar nossa capacidade de controlar eventos. Da mesma forma que acreditamos que aviões não são um meio de transporte seguro, também acreditamos que carros dirigidos por humanos são mais seguros que os autônomos, pelo simples fato de que nós estamos na direção, portanto somos capazes de reduzir o risco de acidentes. Mas isso é apenas uma doce ilusão.
Quanto ao Uber, ainda é cedo para atribuir a culpa a alguém, mas a empresa já anunciou que está prestando o devido apoio à família.
Essa fatalidade provavelmente adiará por alguns meses, talvez anos, as iniciativas de lançamento desses veículos. Mais regulação virá, assim como novas modificações nos softwares, produzindo versões mais seguras (ainda que, possivelmente, mais burocráticas).
Mas não tenha dúvidas: o carro autônomo já é um futuro inevitável.
►► Gostou do artigo? Te convido a se inscrever no meu newsletter, onde você receberá toda sexta-feira um resumo de tudo que aconteceu de relevante na semana sobre negócios, empreendedorismo e carreira ◄◄