Minuto a Minuto

Nacional Así se movilizó la ‘Marea Rosa’ en distintos estados de México
Bajo las plataformas UNID@S y #MareaRosa, 144 organizaciones convocaron a la ciudadanía y al frente opositor Fuerza y Corazón por México a la manifestación, la tercera desde 2022 de este movimiento
Sin Categoría Instituto electoral de Chiapas alerta por violencia electoral en el estado
El IPEC solicitó a las autoridades la atención “inmediata” para garantizar a los actores en el proceso y a la ciudadanía que puedan ejercer sus derechos políticos electorales
Nacional Ocupación hotelera en México aumentó hasta 60.9 % en primer trimestre de 2024
De acuerdo con datos obtenidos por la plataforma DataTur en 70 distintos centros turísticos, entre enero y marzo pasados llegaron a México 20.3 millones de turistas
Deportes “Si sigo o no en el Mallorca no depende de mí”: Javier Aguirre
Las declaraciones de Javier Aguirre se interpretan como una despedida del Mallorca
Nacional Buenos días a mis hijos en tiempos de elecciones o santificios
Veamos a nuestros hijos como posibles salvadores, no como víctimas de un sistema que los necesita obedientes hasta imbecilizarlos
Falsas expectativas del Autopilot de Tesla causaron accidentes fatales, advierten autoridades de EE.UU.
Vehículo de Tesla. Foto de EFE / Archivo

Una investigación de las autoridades estadounidenses de 467 choques de vehículos de Tesla determinó que una “carencia crítica de seguridad“, que llevaba a los conductores a crearse falsas expectativas, provocó el mal uso del sistema Autopilot y accidentes prevenibles en los que murieron al menos 13 personas y decenas resultaron heridas.

Un informe de la Administración Nacional de Seguridad del Tráfico en la Carretera de EE.UU. (NHTSA, en inglés) publicado este viernes en su web tras tres años de investigaciones concluyó que “el endeble sistema” de Tesla para asegurar que los conductores controlan el funcionamiento de los vehículos con Autopilot “no era apropiado”.

“Este desequilibrio resultó en una carencia crítica de seguridad entre las expectativas de los conductores de las capacidades del sistema L2 y las verdaderas capacidades del sistema”, señaló NHTSA.

“El sistema de controles y avisos de Autopilot fueron insuficientes para un sistema de ayuda a la conducción que requiere la constante supervisión de un conductor humano”, añadió el organismo federal.

La publicación del informe se produce días después de que el consejero delegado de Tesla, Elon Musk, asegurara que la compañía va a conseguir pronto que sus vehículos funcionen de forma autónoma.

Falsas expectativas del Autopilot de Tesla causaron accidentes fatales, advierten autoridades de EE.UU. - tesla-musk-1024x683
Imagen de archivo del logo de Tesla. Foto de EFE/EPA/FILIP SINGER

Musk llegó a afirmar el martes durante una teleconferencia tras la publicación de los resultados económicos del primer trimestre del año que “si alguien no cree que Tesla va a resolver la conducción autónoma, creo que no deberían invertir en la compañía”.

Musk lleva años vendiendo Tesla como una compañía de vehículos autónomos, lo que ha provocado problemas al fabricante.

En 2017 la firma de abogados Hagens Berman anunció una demanda colectiva contra Tesla por supuestamente engañar a los consumidores con respecto a las características de su sistema Autopilot.

Y en 2021, varios senadores solicitaron a la Comisión Federal de Comercio (FTC, en inglés) una investigación sobre la publicidad de Tesla del Autopilot, que calificaron de “engañosa” y “peligrosa”.

A pesar de su nombre, Autopilot, el sistema de ayuda a la conducción de Tesla, es sólo un sistema con un nivel 2 (L2) de autoconducción, en una escala en el que L5 es el máximo posible, cuando el vehículo puede transitar en cualquier condición sin la necesidad de la intervención del conductor.

Otros fabricantes han dotado sus vehículos con sistemas de ayuda a la conducción L2. NHTSA recordó que los automóviles con L2 “deben emplear sistema de interacción con los conductores y controles de uso que son apropiados y suficientes para el diseño del sistema L2 y las expectativas de los conductores”.

En el caso de Tesla, NHTSA concluyó que “los controles de Autopilot no aseguraron la suficiente atención de los conductores y el uso apropiado” al mismo tiempo que “invitaron a una mayor confianza de los conductores”.

NHTSA dijo que sus conclusiones son similares a las que llegó Tesla, que en diciembre de 2023 actualizó el software de alrededor de sus 2 millones de vehículos en Estados Unidos para mejorar el sistema de supervisión.

El organismo federal añadió que abrió una investigación para determinar si el nuevo software soluciona los problemas detectados aunque la agencia señaló que tras la actualización se han producido nuevos accidentes en vehículos que tenían activado el Autopilot.

Con información de EFE