Time Plus News

Breaking News, Latest News, World News, Headlines and Videos

Depoimentos iluminam falhas de programação do Tesla Autopilot

Nos materiais de marketing da Tesla, o sistema de assistência ao motorista Autopilot da empresa é apresentado como uma maravilha tecnológica que usa “câmeras avançadas, sensores e poder de computação” para dirigir, acelerar e frear automaticamente – até mesmo mudar de faixa para “você não ficar preso atrás de carros lentos”. carros ou caminhões.”

Sob juramento, porém, Engenheiro da Tesla, Akshay Phatak no ano passado descreveu o software como bastante básico em pelo menos um aspecto: a forma como dirige sozinho.

“Se houver linhas de pista claramente marcadas, o sistema seguirá as linhas de pista”, disse Phatak durante questionamento em julho de 2023. O sistema inovador de Tesla, disse ele, foi simplesmente “projetado” para seguir linhas de pista pintadas.

O testemunho de Phatak, obtido pelo The Washington Post, veio em um depoimento para um processo por homicídio culposo marcado para julgamento na terça-feira. O caso envolve um acidente fatal em março de 2018, quando um Tesla no piloto automático bateu em uma barreira rodoviária perto de Mountain View, Califórnia, depois de ficar confuso com o que os advogados da empresa descreveram em documentos judiciais como uma linha de pista “desbotada e quase obliterada”.

O motorista, Walter Huang, 38, foi morto. Uma investigação do National Transportation Safety Board posteriormente citado A falha da Tesla em limitar o uso do piloto automático em tais condições foi um fator contribuinte: a empresa reconhecido ao Conselho Nacional de Segurança nos Transportes que o Autopilot foi projetado para áreas com “marcações de faixa claras”.

O testemunho de Phatak marca a primeira vez que a Tesla explica publicamente estas decisões de design, abrindo a cortina de um sistema envolto em segredo pela empresa e pelo seu controverso CEO, Elon Musk. Musk, Phatak e Tesla não responderam aos pedidos de comentários.

Seguir as linhas da pista não é exclusivo da Tesla: muitos carros modernos usam tecnologia para alertar os motoristas quando eles estão derrapando. Mas ao comercializar a tecnologia como “Piloto Automático”, a Tesla pode estar enganando os motoristas sobre as capacidades dos carros – uma alegação central em vários processos judiciais que serão julgados este ano e uma preocupação fundamental das autoridades federais de segurança.

Durante anos, Tesla e os reguladores federais estão cientes dos problemas com o piloto automático seguindo as linhas da pista, incluindo carros sendo guiados na direção errada de viagem e colocada no caminho do tráfego cruzado – com resultados às vezes fatais. Ao contrário dos veículos projetados para serem completamente autônomos, como os carros Waymo ou Cruise, os Teslas atualmente não usam sensores como radar ou lidar para detectar obstáculos. Em vez disso, os Teslas dependem de câmeras.

Após o acidente que matou Huang, a Tesla disse às autoridades que atualizou seu software para reconhecer melhor as marcações de faixa “ruins e desbotadas” e para alertar os motoristas de forma audível quando os veículos pudessem perder o controle de uma pista. pista desbotada. No entanto, as atualizações não forçaram o recurso a ser desativado por conta própria nessas situações. Cerca de dois anos após a morte de Huang, os investigadores federais disseram que não poderiam determinar se essas atualizações teriam sido suficientes para “detectar com precisão e consistência marcações de pista incomuns ou desgastadas” e portanto, evite o ataque de Huang colidir.

Huang, engenheiro da Apple, comprou seu Tesla Model X no outono de 2017 e o dirigia regularmente para trabalhar ao longo da US Highway 101, uma rodovia movimentada de várias pistas que conecta São Francisco aos centros tecnológicos do Vale do Silício. No dia do acidente, seu carro começou a derrapar quando a linha da pista desapareceu. Em seguida, ele pegou uma linha mais clara à esquerda – colocando o carro entre as faixas e em uma trajetória direta para uma barreira de segurança separando a rodovia de uma saída para a State Route 85.

O carro de Huang atingiu a barreira a 71 mph, pulverizando seu front-end, transformando-o em uma pilha irreconhecível. Huang foi declarado morto horas depois, de acordo com documentos judiciais.

Nos meses anteriores ao acidente, o veículo de Huang desviou onze vezes para um local semelhante, de acordo com dados internos da Tesla discutidos pelos advogados de Huang durante uma audiência no tribunal no mês passado. Segundo os dados, o carro se corrigiu sete vezes. Outras quatro vezes foi necessária a intervenção de Huang. Huang supostamente estava jogando em seu telefone quando ocorreu o acidente.

O NTSB concluiu que a distração do motorista e as “limitações do sistema” do piloto automático provavelmente levaram à morte de Huang. Em seu relatório, divulgado cerca de dois anos após o acidente, os investigadores disseram que o “monitoramento ineficaz” da Tesla sobre o envolvimento do motorista também “facilitou a complacência e a desatenção do motorista”.

Os investigadores também disseram que a falha da Patrulha Rodoviária da Califórnia em relatar a barreira de colisão danificada – que foi destruída em uma colisão anterior – contribuiu para a gravidade dos ferimentos de Huang.

A família de Huang processado Tesla, alegando homicídio culposo, e processou o estado da Califórnia por causa da barreira de colisão danificada. O Post obteve cópias de vários depoimentos sobre o caso, incluindo depoimentos que não foram divulgados anteriormente. A Reuters também recentemente relatado em alguns depoimentos do caso.

Os documentos esclarecem uma das maiores frustrações dos reguladores federais e das autoridades de segurança com a Tesla: por que o piloto automático às vezes envolve-se em ruas onde o manual do Tesla diz que não foi projetado para ser usado. Essas áreas incluem ruas com tráfego transversal, ruas urbanas com semáforos e sinais de stop frequentes e estradas sem marcações de faixa claras.

Em seu depoimento, Phatak disse que o piloto automático funcionará onde quer que as câmeras do carro detectem linhas na estrada: “Enquanto houver linhas de pista pintadas, o sistema as seguirá”, disse ele.

Questionado sobre outro acidente envolvendo o software, Phatak contestou a afirmação do NTSB de que o piloto automático não deveria ter funcionado na estrada na Flórida, onde o motorista Jeremy Banner foi morto em 2019, quando seu Tesla bateu em um caminhão e deslizou sob seu trailer. “Se não me engano, aquela estrada tinha faixas pintadas”, disse Phatak. A família de Banner entrou com uma ação por homicídio culposo, que ainda não foi a julgamento.

Musk disse que os carros que operam no piloto automático são mais seguros do que aqueles controlados por humanos, uma mensagem que vários demandantes – e alguns especialistas – disseram criar uma falsa sensação de complacência entre os motoristas da Tesla. A empresa argumentou que não é responsável por acidentes porque deixa claro aos motoristas da Tesla nos manuais do usuário e nas telas do painel que eles são os únicos responsáveis ​​por manter o controle de seu carro em todos os momentos. Até agora, esse argumento prevaleceu no tribunal, mais recentemente quando um júri da Califórnia considerou a Tesla isenta de responsabilidade por um acidente fatal que ocorreu quando o piloto automático estava supostamente acionado.

O piloto automático está incluído em quase todos os Tesla. Ele irá dirigir nas ruas, seguir um curso definido nas rodovias e manter uma velocidade e distância definidas sem intervenção humana. Ele até mudará de faixa para ultrapassar carros e manobrará agressivamente no trânsito, dependendo da direção modo selecionado. Ele não para em sinais de parada ou semáforos. Por US$ 12 mil adicionais, os motoristas podem adquirir um pacote chamado Full Self-Driving, que pode reagir aos sinais de trânsito e dar aos veículos a capacidade de siga as instruções passo a passo nas ruas de superfície.

Desde 2017, funcionários do NTSB instaram a Tesla a limitar o uso do piloto automático a rodovias sem tráfego cruzado, as áreas para as quais os manuais do usuário da empresa especificam que o piloto automático se destina. Questionado por um advogado da família de Huang se a Tesla “decidiu que não fará nada” com base nessa recomendação, Phatak argumentou que a Tesla já estava seguindo a orientação do NTSB ao limitar o uso do piloto automático a estradas com faixas de rodagem.

“Na minha opinião, já estamos fazendo isso”, disse Phatak. “Já estamos restringindo o uso do Autopilot.”

Uma investigação do Washington Post no ano passado detalhou pelo menos oito acidentes fatais ou graves do Tesla que ocorreram com o piloto automático ativado em estradas com tráfego cruzado.

No mês passado, o Gabinete de Responsabilidade do Governo apelou à Administração Nacional de Segurança no Trânsito Rodoviário, o principal regulador da segurança automóvel, para fornecer informações adicionais sobre os sistemas de assistência ao condutor “para clarificar o âmbito da utilização pretendida e a responsabilidade do condutor em monitorizar o sistema e a condução”. ambiente enquanto tal sistema está ativado.”

O testemunho de Phatak também esclareceu outras questões de assistência ao motorista escolhas de design, como a decisão da Tesla de monitorar a atenção do motorista por meio de sensores que medem a pressão no volante. Questionado repetidamente pelo advogado da família Huang sobre quais testes ou estudos a Tesla realizou para garantir a eficácia deste método, Phatak disse que simplesmente o testou com funcionários.

Outras decisões de design da Tesla diferiram das dos concorrentes que buscam veículos autônomos. Por um lado, a Tesla vende os seus sistemas aos consumidores, enquanto outras empresas tendem a utilizar as suas próprias frotas como táxis. Ele também emprega um sistema exclusivo baseado em câmera e impõe menos limites sobre onde o software pode ser usado. Por exemplo, um porta-voz da Waymo, empresa de automóveis autônomos de propriedade da Alphabet, disse que seus veículos operam apenas em áreas que foram rigorosamente mapeadas e onde os carros foram testados em condições que incluem neblina e chuva, um processo conhecido como “geometria”. -esgrima.”

“Projetamos nosso sistema sabendo que as faixas e suas marcações podem mudar, ser temporariamente obstruídas, mover-se e, às vezes, desaparecer completamente”, disse a porta-voz da Waymo, Katherine Barna.

Os reguladores da Califórnia também restringem onde esses carros sem motorista podem operar e a que velocidade eles podem ir.

Quando questionado se o Autopilot usaria GPS ou outros sistemas de mapeamento para garantir que uma estrada fosse adequada para a tecnologia, Phatak disse que não. “Não é baseado em mapas”, disse ele – uma resposta que divergiu da declaração de Musk em uma teleconferência com repórteres em 2016, de que a Tesla poderia recorrer ao GPS como um backup “quando as marcações da estrada puderem desaparecer”. Em uma gravação de áudio da ligação citada pelos advogados da família Huang, Musk disse que os carros poderiam contar com navegação por satélite “por alguns segundos” enquanto procuravam as faixas de rodagem.

A forte dependência da Tesla nas linhas de pista reflete a falta mais ampla de redundância dentro dos seus sistemas quando comparados com os rivais. O Post tem relatado anteriormente que a decisão da Tesla de omitir o radar dos modelos mais recentes, a pedido de Musk, culminou num aumento nos acidentes.

Rachel Lerman contribuiu para este relatório.

Source link