A tecnologia de direção autônoma da Waymo está enfrentando sérios problemas. A Administração Nacional de Segurança Rodoviária (NHTSA) está pressionando, exigindo mais informações após relatos de que os robôtaxis da Waymo supostamente ultrapassaram ônibus escolares 19 vezes este ano em Austin. Quer dizer, isso não pega bem, especialmente quando crianças estão envolvidas.

Tudo começou com um incidente em Atlanta, onde um veículo da Waymo manobrou em torno de um ônibus escolar parado, com o sinal de parada estendido e as luzes piscando, enquanto as crianças desembarcavam. A Waymo alegou que o ônibus estava bloqueando a entrada e que seu sistema não conseguia ver os sinais. Eles até lançaram uma atualização de software para supostamente corrigir o problema.

No entanto, os problemas não pararam por aí. O Distrito Escolar de Austin relatou vários casos de veículos da Waymo fazendo a mesma coisa, mesmo após a atualização do software. Sério? É como remendar um buraco com fita adesiva e esperar que ele aguente.

O distrito escolar ficou tão irritado que pediu à Waymo para interromper as operações durante os horários de pico das aulas. "Suas atualizações de software não estão funcionando", eles basicamente disseram à Waymo em uma carta. "Não podemos arriscar a segurança de nossos alunos enquanto você mexe com as correções." Duro, mas justo, eu acho.

Resposta da Waymo

A resposta da Waymo? A segurança é sua "prioridade máxima", é claro. Eles até apontaram que seus dados mostram uma redução nos acidentes relacionados a lesões em comparação com motoristas humanos. E isso é verdade, carros autônomos evitam muitos acidentes. No entanto, há muitos acidentes envolvendo tarefas simples, como reconhecer um ônibus escolar.

Parece que a Waymo tem algumas explicações sérias a dar. A NHTSA quer saber se a Waymo realmente interrompeu as operações conforme solicitado, se a correção do software realmente resolveu o problema e se um recall está nos planos. Toda essa situação levanta algumas grandes questões sobre a confiabilidade e a segurança da tecnologia de direção autônoma, especialmente em situações em que decisões em frações de segundo são críticas. Estou preocupado, e você também deveria estar.