Elecciones 2024
Elecciones 2024

Para nadie es novedad que la industria de la pornografía tiene una relación estrecha con la tecnología. Para muestra basta con recordar aquellas épicas batallas, hacia finales de la década de los setenta e inicios de los ochenta, en donde los formatos Beta versus VHS se enfrentaban.

Según la leyenda, Sony se negó a dar apoyo a la industria de la pornografía, mientras que JVC les tendió la mano, terminando por dar la estocada final.

¿A qué voy con todo esto?

Bueno, ayer me topé con una discreta nota con este titular: “Pornhub prohíbe los vídeos porno falsos creados con inteligencia artificial”.

Para entrar en contexto: uno de los usos que se le ha dado a la inteligencia artificial es algo que algunos usuarios de la plataforma Reddit han bautizado como Deepfake.

¿En qué consiste?

Hacia allá voy. Utilizando técnicas avanzadas han logrado cambiar el rostro de actrices porno por el de personalidades como Gal Gadot, Taylor Swift o Katy Perry.

Ante esto Pornhub, el gigante canadiense de la pornografía, brincó y se dijo en contra de estos videos que en muy poco tiempo alcanzan los 75 millones de vistas diarias, catalogándolos como imágenes “no consentidas”.

Básicamente por “imágenes no consentidas” se refiere a acciones como las de cambio de rostro, y que convierten a actrices y cantantes en estrellas del porno. Lo cual, siendo honestos les podría generar demandas millonarias de no ponerle un alto a los millones de fotos y videos que se podrían estar subiendo a la plataforma.

Al momento Pornhub, ha actuado como candidato en campaña política: dicen que van a hacer, pero no aclaran cómo lo harán exactamente para frenarlo.

Mientras esto (no) ocurre, los usuarios de Reddit están colaborando para crear lo que han llamado la FakeApp, una aplicación que busca que las personas sin conocimientos técnicos puedan crear sus propios videos y colocar el rostro que ellos deseen.

De acuerdo a lo que declaró el usuario de Reddit deepfakeapp a Vice y que fue retomado por Hipertextual, lo que buscan es: “simplemente seleccionar un vídeo en su ordenador, descargar una red neuronal correlacionada con una determinada cara de una biblioteca pública, y cambiar el vídeo con una cara diferente con tan solo presionar un botón”.

¿Te imaginas esto usado en casos de porno venganza? ¿Te imaginas la cantidad de demandas que se podrían generar contra este tipo de sitios?

Indudablemente creo que esta tecnología podría ser muy peligrosa, ya que además de usar de gancho la imagen sin permiso de cualquier actriz o actor famoso, esto mismo puede usarse para que tu cara esté en el cuerpo de cualquier actor porno, o incluso en la falsificación de videos que se usen como prueba.

La gente de Pornhub ya ha dado muestra que le gusta usar tecnología.  Por ejemplo, en 2016 mostró el uso de visores 360º que pueden usarse con el Playstation VR de… Sony.

Sin embargo, ninguna de esas tecnologías le da tanto poder al usuario como esta.

¿Lograrán frenar esta moda antes que lleguen las demandas?