Minuto a Minuto

Nacional Neutralizan narcolaboratorio en Sinaloa; sería de Los Chapitos
La Marina y FGR neutralizaron un narcolaboratorio en Sinaloa, presuntamente operado por Los Chapitos para elaborar metanfetamina
Internacional Esfuerzos por alcanzar un alto el fuego entre EEUU e Irán están en “punto muerto”
Fuentes revelaron a The Wall Street Journal detallaron que Irán no está dispuesto a reunirse con funcionarios estadounidenses en Islamabad
Nacional Arranca en Sinaloa el Altata Pachanga Fest
El Altata Pachanga Fest es una iniciativa para impulsar la economía de Sinaloa, a través de un ambiente festivo para toda la familia
Internacional Sismo magnitud 5.8 en Afganistán deja al menos 8 muertos
Afganistán se encuentra en una zona de alta actividad sísmica debido a su ubicación geográfica en la intersección de varias placas tectónicas
Internacional EE.UU. rescata a uno de los dos tripulantes del caza derribado por Irán, según CNN
CNN reportó que EE.UU. logró rescatar a uno de los dos tripulantes del caza derribado en Irán
Falsas expectativas del Autopilot de Tesla causaron accidentes fatales, advierten autoridades de EE.UU.
Vehículo de Tesla. Foto de EFE / Archivo

Una investigación de las autoridades estadounidenses de 467 choques de vehículos de Tesla determinó que una “carencia crítica de seguridad“, que llevaba a los conductores a crearse falsas expectativas, provocó el mal uso del sistema Autopilot y accidentes prevenibles en los que murieron al menos 13 personas y decenas resultaron heridas.

Un informe de la Administración Nacional de Seguridad del Tráfico en la Carretera de EE.UU. (NHTSA, en inglés) publicado este viernes en su web tras tres años de investigaciones concluyó que “el endeble sistema” de Tesla para asegurar que los conductores controlan el funcionamiento de los vehículos con Autopilot “no era apropiado”.

“Este desequilibrio resultó en una carencia crítica de seguridad entre las expectativas de los conductores de las capacidades del sistema L2 y las verdaderas capacidades del sistema”, señaló NHTSA.

“El sistema de controles y avisos de Autopilot fueron insuficientes para un sistema de ayuda a la conducción que requiere la constante supervisión de un conductor humano”, añadió el organismo federal.

La publicación del informe se produce días después de que el consejero delegado de Tesla, Elon Musk, asegurara que la compañía va a conseguir pronto que sus vehículos funcionen de forma autónoma.

Falsas expectativas del Autopilot de Tesla causaron accidentes fatales, advierten autoridades de EE.UU. - tesla-musk-1024x683
Imagen de archivo del logo de Tesla. Foto de EFE/EPA/FILIP SINGER

Musk llegó a afirmar el martes durante una teleconferencia tras la publicación de los resultados económicos del primer trimestre del año que “si alguien no cree que Tesla va a resolver la conducción autónoma, creo que no deberían invertir en la compañía”.

Musk lleva años vendiendo Tesla como una compañía de vehículos autónomos, lo que ha provocado problemas al fabricante.

En 2017 la firma de abogados Hagens Berman anunció una demanda colectiva contra Tesla por supuestamente engañar a los consumidores con respecto a las características de su sistema Autopilot.

Y en 2021, varios senadores solicitaron a la Comisión Federal de Comercio (FTC, en inglés) una investigación sobre la publicidad de Tesla del Autopilot, que calificaron de “engañosa” y “peligrosa”.

A pesar de su nombre, Autopilot, el sistema de ayuda a la conducción de Tesla, es sólo un sistema con un nivel 2 (L2) de autoconducción, en una escala en el que L5 es el máximo posible, cuando el vehículo puede transitar en cualquier condición sin la necesidad de la intervención del conductor.

Otros fabricantes han dotado sus vehículos con sistemas de ayuda a la conducción L2. NHTSA recordó que los automóviles con L2 “deben emplear sistema de interacción con los conductores y controles de uso que son apropiados y suficientes para el diseño del sistema L2 y las expectativas de los conductores”.

En el caso de Tesla, NHTSA concluyó que “los controles de Autopilot no aseguraron la suficiente atención de los conductores y el uso apropiado” al mismo tiempo que “invitaron a una mayor confianza de los conductores”.

NHTSA dijo que sus conclusiones son similares a las que llegó Tesla, que en diciembre de 2023 actualizó el software de alrededor de sus 2 millones de vehículos en Estados Unidos para mejorar el sistema de supervisión.

El organismo federal añadió que abrió una investigación para determinar si el nuevo software soluciona los problemas detectados aunque la agencia señaló que tras la actualización se han producido nuevos accidentes en vehículos que tenían activado el Autopilot.

Con información de EFE