Minuto a Minuto

Nacional Solsticio de invierno 2025: fecha, hora y significado astronómico
Este evento astronómico marca el inicio oficial del invierno en el hemisferio norte y el día con menos horas de luz solar del año
Nacional Tren Interoceánico choca con tráiler en Pichucalco, Chiapas
Un tráiler intento ganarle el paso al Tren Interoceánico en una comunidad de Pichucalco, Chiapas, este sábado 20 de diciembre
Nacional Marina asegura 30 kilos de cocaína en Acapulco, Guerrero
Elementos de la Octava Región Naval, decomisaron unos 30 kilos de cocaína en aguas del puerto de Acapulco, Guerrero
Nacional Quintana Roo rompe récord histórico con 766 operaciones aéreas en un solo día
Dicha cifra confirma la fortaleza de Quintana Roo y la alta demanda de conectividad aérea por parte de visitantes
Nacional Identifican 160 cuerpos del crematorio Plenitud, en Ciudad Juárez
La Fiscalía de Chihuahua informó de los avances en la identificación de cuerpos del crematorio Plenitud de Ciudad Juárez
Inteligencia artificial plantea riesgo de extinción como pandemias y guerra nuclear, advierten expertos
Foto de D koi en Unsplash

La inteligencia artificial (IA) plantea un “riesgo de extinción” comparable al de las pandemias o la guerra nuclear, advierte este martes en una carta un grupo de más de 300 expertos e investigadores de la industria, entre los que se encuentran el director ejecutivo de Google DeepMind, Demis Hassabis; Dario Amodei, director ejecutivo de Anthropic, y el director ejecutivo de OpenAI, Sam Altman, entre otros.

Mitigar el riesgo de extinción de la IA debería ser una prioridad mundial junto con otros riesgos a escala social, como las pandemias y la guerra nuclear”, dice el comunicado de un párrafo publicado por Center for AI Safety, una organización sin fines de lucro con sede en San Francisco.

Otros de los firmantes del comunicado son Geoffrey Hinton -quien fue bautizado como el “padrino” de la IA y tuvo parte de su carrera en Google- y Youshua Bengio, dos de los tres investigadores de IA que ganaron el Premio Turing 2018 -premio conocido popularmente como el Premio Nobel de la informática- por su trabajo en inteligencia artificial.

Desde que el chatbot de OpenAI, ChatGPT, se lanzó en noviembre de 2023 ha aumentado la preocupación sobre las consecuencias que podría conllevar el éxito de esta tecnología, siendo dos de los mayores temores la difusión a gran escala de desinformación y propaganda y la posible eliminación de trabajos de todo tipo.

Por su parte, Hinton, en una reciente entrevista con The New York Times el pasado 1 de mayor, fue un paso más lejos y señaló su preocupación por que esta tecnología supere la capacidad intelectual de un humano.

“La idea de que estas cosas en realidad podrían volverse más inteligentes que las personas, algunas personas lo creían”, explicó en esa entrevista. “Pero la mayoría de la gente pensaba que estaba muy lejos. Yo pensaba que estaba muy lejos. Pensaba que faltaban entre 30 y 50 años o incluso más. Obviamente, ya no pienso eso”, explicó Hinton entonces.

Este mes, Altman, Hassabis y Amodei se reunieron con el presidente de Estados Unidos, Joe Biden, y la vicepresidenta, Kamala Harris, para hablar sobre la regulación de la inteligencia artificial.

Además, el director ejecutivo de OpenAI testificó ante el Senado y advirtió que los riesgos de esta tecnología eran lo suficientemente serios como para justificar la intervención del Gobierno.

En marzo, más de mil empresarios e investigadores del sector tecnológico -entre ellos Elon Musk, quien no firma la carta de hoy- solicitaron en una carta de tono apocalíptico que se suspendan durante seis meses los sistemas de IA “más poderosos que GPT-4” -el último modelo de OpenAI-.

Con información de EFE