Minuto a Minuto

Nacional Solsticio de invierno 2025: fecha, hora y significado astronómico
Este evento astronómico marca el inicio oficial del invierno en el hemisferio norte y el día con menos horas de luz solar del año
Nacional Tren Interoceánico choca con tráiler en Pichucalco, Chiapas
Un tráiler intento ganarle el paso al Tren Interoceánico en una comunidad de Pichucalco, Chiapas, este sábado 20 de diciembre
Nacional Marina asegura 30 kilos de cocaína en Acapulco, Guerrero
Elementos de la Octava Región Naval, decomisaron unos 30 kilos de cocaína en aguas del puerto de Acapulco, Guerrero
Nacional Quintana Roo rompe récord histórico con 766 operaciones aéreas en un solo día
Dicha cifra confirma la fortaleza de Quintana Roo y la alta demanda de conectividad aérea por parte de visitantes
Nacional Identifican 160 cuerpos del crematorio Plenitud, en Ciudad Juárez
La Fiscalía de Chihuahua informó de los avances en la identificación de cuerpos del crematorio Plenitud de Ciudad Juárez
No es perfecto nuestro sistema de inteligencia artificial: Facebook
Revista TNE

Luego de que hace dos días Facebook afirmó que el video de la masacre en la mezquita de Christchurch, Nueva Zelanda, se vio menos de 200 veces en vivo y 4 mil veces en total antes de ser eliminado de la red social. Este jueves reconoció que su sistema de inteligencia artificial para detectar contenido no permitido “no es perfecto” y que falló a la hora de reconocer el video del atentado que causó 50 muertos en dos mezquitas.

El video de 17 minutos de duración, que mostraba a un hombre armado matando a 49 fieles en dos mezquitas mientras se realizaban las oraciones del viernes, se reportó 12 minutos después de que terminó la transmisión.

Para entonces, un usuario de 8chan ya había puesto el clip en un sitio web para compartir archivos. Después de esto, se volvieron a subir millones de copias del video a Facebook.

Guy Rosen, vicepresidente de gestión de producto de Facebook, reconoció, en una entrada en el blog de la compañía, que aunque la inteligencia artificial logró un “progreso masivo en muchas áreas en los últimos años” que les permite ser “proactivos” en la detección de contenidos, el sistema “no es perfecto”.

“La inteligencia artificial se basa en datos de entrenamiento, lo que significa que necesita miles de ejemplos de contenido para que pueda detectar ciertos tipos de texto, imágenes o vídeos”, apuntó Rosen, quien explicó que fue por eso por lo que en el caso de la retransmisión en directo del atentado, el sistema no funcionó.

“Necesitamos proveer a nuestros sistemas de grandes volúmenes de datos, algo que resulta difícil puesto que, afortunadamente, este tipo de sucesos no son habituales“, indicó el vicepresidente Rosen y afirmó que la inteligencia artificial sí funciona en los casos de desnudez, la propaganda terrorista y la violencia gráfica.

Rosen también apuntó que el “reto” consiste en discernir entre contenidos como el del atentado y otros “visualmente similares, pero inocuos”, como las retransmisiones en directo de partidas de videojuegos de disparos.

Con información de López-Dóriga Digital