Elecciones 2024
Elecciones 2024
Facebook mejora proceso de eliminación de contenidos de odio
Foto de Mashable

El fundador de Facebook, Mark Zuckerberg, anunció el jueves la creación de un “tribunal de apelación independiente” que decidirá sobre los contenidos controversiales y si estos pueden permanecer en línea o no.

El anuncio se produjo durante una teleconferencia para abordar una nueva controversia que involucra al grupo y a una compañía de relaciones públicas.

Más allá de esta nueva controversia, Zuckerberg y su equipo anunciaron que han aumentado la capacidad de la red social para detectarmensajes de odio” de cualquier tipo.

La compañía señaló que de abril a septiembre, la red social detectó el doble de discursos de odio en comparación a los seis meses previos.

Facebook es acusado regularmente de no hacer lo suficiente para suprimir estos mensajes y reconoce, por ejemplo, que fue demasiado lento para reaccionar ante la propaganda del ejército de Birmania en su sitio web, contra la minoría de los rohinyás.

“Llegué a la conclusión de que no deberíamos tomar tantas decisiones sobre la libertad de expresión o la seguridad”, dijo Zuckerberg.

Los contenidos controvertidos que son detectados a través de la inteligencia artificial o porque son reportados por los usuarios, se revisan a través de un sistema interno.

Pero una especie de “tribunal de apelación” independiente, que debería establecerse el próximo año, será responsable de decidir en caso de litigio.

La composición de la “corte”, así como su grado de independencia, en concordancia con los principios que guían a Facebook, se determinarán en los próximos meses.

A partir del próximo año también, Facebook va a publicar un informe cada tres meses sobre el contenido que se ha eliminado del sitio. La frecuencia es equivalente a la de la publicación de resultados financieros y una forma de demostrar que la empresa se toma el tema en serio.

“Hemos logrado avances en la eliminación del odio, el hostigamiento y el terrorismo de nuestra red”, dijo Zuckerberg, pero “debemos encontrar el equilibrio entre darles voz a las personas y asegurarnos de que están seguras“.

Con información de AFP