Minuto a Minuto

Deportes Jornada 11 del Clausura 2026 de la Liga MX: Doblete de la ‘Hormiga’ González y Chivas gana
Armando 'Hormiga' González tuvo una gran tarde en el Akron para darle el triunfo a Chivas en la fecha 11 del Clausura 2026 de la Liga MX
Internacional Díaz-Canel tras protestas en Cuba: “Para el vandalismo y la violencia no habrá impunidad”
Tras las protestas en Morón, el presidente de Cuba, Miguel Díaz-Canel, consideró que es "comprensible el malestar" por los apagones
Nacional Metro CDMX anuncia horario extendido en Línea 9 por Vive Latino 2026
Metro de la CDMX confirmó la ampliación del servicio en la Línea 9 durante dos días, con motivo del evento Vive Latino
Nacional Detienen a la ‘Pastrana’, líder del Cártel de Sinaloa en Cancún
Autoridades de Quintana Roo detallaron la captura de una mujer identificada como la 'Pastrana', líder der una célula del Cártel de Sinaloa
Economía y Finanzas Fortalecen conectividad aérea del Caribe mexicano con la nueva ruta entre Monterrey y Cozumel
Cozumel, Quintana Roo, tendrá un nuevo vuelo directo desde Monterrey, Nuevo León, a partir del 26 de marzo
No es perfecto nuestro sistema de inteligencia artificial: Facebook
Revista TNE

Luego de que hace dos días Facebook afirmó que el video de la masacre en la mezquita de Christchurch, Nueva Zelanda, se vio menos de 200 veces en vivo y 4 mil veces en total antes de ser eliminado de la red social. Este jueves reconoció que su sistema de inteligencia artificial para detectar contenido no permitido “no es perfecto” y que falló a la hora de reconocer el video del atentado que causó 50 muertos en dos mezquitas.

El video de 17 minutos de duración, que mostraba a un hombre armado matando a 49 fieles en dos mezquitas mientras se realizaban las oraciones del viernes, se reportó 12 minutos después de que terminó la transmisión.

Para entonces, un usuario de 8chan ya había puesto el clip en un sitio web para compartir archivos. Después de esto, se volvieron a subir millones de copias del video a Facebook.

Guy Rosen, vicepresidente de gestión de producto de Facebook, reconoció, en una entrada en el blog de la compañía, que aunque la inteligencia artificial logró un “progreso masivo en muchas áreas en los últimos años” que les permite ser “proactivos” en la detección de contenidos, el sistema “no es perfecto”.

“La inteligencia artificial se basa en datos de entrenamiento, lo que significa que necesita miles de ejemplos de contenido para que pueda detectar ciertos tipos de texto, imágenes o vídeos”, apuntó Rosen, quien explicó que fue por eso por lo que en el caso de la retransmisión en directo del atentado, el sistema no funcionó.

“Necesitamos proveer a nuestros sistemas de grandes volúmenes de datos, algo que resulta difícil puesto que, afortunadamente, este tipo de sucesos no son habituales“, indicó el vicepresidente Rosen y afirmó que la inteligencia artificial sí funciona en los casos de desnudez, la propaganda terrorista y la violencia gráfica.

Rosen también apuntó que el “reto” consiste en discernir entre contenidos como el del atentado y otros “visualmente similares, pero inocuos”, como las retransmisiones en directo de partidas de videojuegos de disparos.

Con información de López-Dóriga Digital