No es perfecto nuestro sistema de inteligencia artificial: Facebook

No es perfecto nuestro sistema de inteligencia artificial: Facebook - Revista TNE
Revista TNE

La red social reconoció que su sistema falló a la hora de reconocer el video del atentado que causó 50 muertos en dos mezquitas en Nueva Zelanda

Luego de que hace dos días Facebook afirmó que el video de la masacre en la mezquita de Christchurch, Nueva Zelanda, se vio menos de 200 veces en vivo y 4 mil veces en total antes de ser eliminado de la red social. Este jueves reconoció que su sistema de inteligencia artificial para detectar contenido no permitido “no es perfecto” y que falló a la hora de reconocer el video del atentado que causó 50 muertos en dos mezquitas.

El video de 17 minutos de duración, que mostraba a un hombre armado matando a 49 fieles en dos mezquitas mientras se realizaban las oraciones del viernes, se reportó 12 minutos después de que terminó la transmisión.

Para entonces, un usuario de 8chan ya había puesto el clip en un sitio web para compartir archivos. Después de esto, se volvieron a subir millones de copias del video a Facebook.

Guy Rosen, vicepresidente de gestión de producto de Facebook, reconoció, en una entrada en el blog de la compañía, que aunque la inteligencia artificial logró un “progreso masivo en muchas áreas en los últimos años” que les permite ser “proactivos” en la detección de contenidos, el sistema “no es perfecto”.

“La inteligencia artificial se basa en datos de entrenamiento, lo que significa que necesita miles de ejemplos de contenido para que pueda detectar ciertos tipos de texto, imágenes o vídeos”, apuntó Rosen, quien explicó que fue por eso por lo que en el caso de la retransmisión en directo del atentado, el sistema no funcionó.

“Necesitamos proveer a nuestros sistemas de grandes volúmenes de datos, algo que resulta difícil puesto que, afortunadamente, este tipo de sucesos no son habituales“, indicó el vicepresidente Rosen y afirmó que la inteligencia artificial sí funciona en los casos de desnudez, la propaganda terrorista y la violencia gráfica.

Rosen también apuntó que el “reto” consiste en discernir entre contenidos como el del atentado y otros “visualmente similares, pero inocuos”, como las retransmisiones en directo de partidas de videojuegos de disparos.

Con información de López-Dóriga Digital

Christchurchfacebookinteligencia artificialmezquita