Notebookcheck Logo

Computadores FSD da Tesla hackeados revelam dados brutos alarmantes sobre acidentes mortais com o Autopilot

Placa do sistema de computador FSD da Tesla (Fonte da imagem: WSJ)
Placa do sistema de computador FSD da Tesla (Fonte da imagem: WSJ)
Uma grande investigação que envolveu a desmontagem de computadores FSD da Tesla recuperados e a invasão de seus chips para extrair dados brutos do Autopilot revela como decisões questionáveis do sistema de direção autônoma podem levar a acidentes fatais.

Embora o mais recente Tesla FSD 12.5 da Tesla está sendo lançada para o público, duas grandes publicações de negócios publicaram histórias negativas sobre os sistemas de assistência ao motorista da Tesla.

O artigo da Bloomberg cita evidências anedóticas de um analista de vendas que detalhou sua experiência durante as unidades de demonstração do Tesla FSD em uma nota para clientes. Ele teve que intervir algumas vezes em situações peculiares, como obedecer a sinais de mão de um agente de trânsito, mas também em cenários mais mundanos.

O Tesla Model Y cruzou repetidamente as marcações de faixa ininterruptas, por exemplo, ou acelerou em um cruzamento porque o computador interpretou mal uma situação em que outro carro estava apenas na metade de uma curva à direita. No entanto, o Model Y estava dirigindo com o FSD 12.3.6, e o analista observou algumas melhorias significativas em relação à versão anterior que eles testaram no início deste ano.

O outro artigo negativo sobre as ambições dos veículos autônomos da Tesla, no entanto, apresenta acusações muito mais sérias e está repleto de evidências exclusivas. Os investigadores do Wall Street Journal obtiveram computadores FSD de Teslas recuperados e os enviaram a hackers para extrair os dados brutos do Autopilot.

De outra forma, a Tesla mantém esse tipo de dado em segredo comercial, pois ele mostra como seus algoritmos de assistência ao motorista pensam e reagem rapidamente, já que dependem apenas da interpretação da entrada de alguns Câmeras Tesla Vision câmeras.

Os aprendizados obtidos com a coleta de dados brutos de tomada de decisão do Autopilot foram então combinados com imagens de acidentes das câmeras dos carros da Tesla. O WSJ também comparou relatórios estaduais individuais com o banco de dados federal de acidentes que a NHTSA mantém para sua própria investigaçãoe conseguiu reconstituir 222 acidentes com carros da Tesla.

Em 44 deles, os acidentes ocorreram quando os carros da Tesla no Autopilot "desviaram repentinamente", enquanto 31 aconteceram quando os veículos "não pararam ou cederam" A investigação constatou que esse último fator levou aos acidentes mais graves com Teslas dirigindo no Autopilot.

Especialistas que viram as imagens de tais acidentes e a forma como o sistema Autopilot funciona algoritmicamente disseram que levará tempo para treiná-lo em tudo o que acontece nas estradas. Um dos acidentes fatais, por exemplo, foi causado por uma falha no reconhecimento de um reboque duplo tombado que bloqueava a rodovia.

O sistema não sabia o que era isso e, por isso, bateu a toda velocidade no trailer. Há muitos exemplos em que o Autopilot é confundido pelas luzes de veículos de emergência e também se choca contra eles.

De modo geral, as descobertas indicam que os Teslas autônomos sofrem acidentes por motivos de hardware e software. Os problemas mencionados vão desde atualizações lentas de algoritmos até calibração insuficiente da câmera. No entanto, pode ser necessária uma cobertura mais aprofundada de fontes independentes antes que esse vazamento de dados do Autopilot consiga desafiar a principal suposição de Elon Musk, de que o recurso de direção autônoma da Tesla é, em última análise, mais seguro do que os motoristas humanos.

Obtenha o conector de parede 80A Tesla Gen 2 com cabo de 24' na Amazon

Fonte(s)

Please share our article, every link counts!
> Análises e revisões de portáteis e celulares > Arquivo de notícias 2024 07 > Computadores FSD da Tesla hackeados revelam dados brutos alarmantes sobre acidentes mortais com o Autopilot
Daniel Zlatev, 2024-07-30 (Update: 2024-09- 8)