Minuto a Minuto

Nacional Niños matan a perro tras colocarle cohetes en su hocico en Sonora
El perro, de nombre Cornelio, murió en una clínica veterinaria derivado de las graves heridas que le provocó la explosión
Nacional Retiran altar dedicado al diablo en calles de Iztacalco
Un altar dedicado al diablo y a la Santa Muerte fue retirado este sábado por autoridades de la alcaldía Iztacalco
Deportes Ravens vencen a Browns y se coronan en la AFC Norte de la NFL
Los Baltimore Ravens vencieron en casa por 35-10 a los Cleveland Browns, triunfo que les asegura el título de la AFC Norte
Nacional Guanajuato registró 14 homicidios el viernes 3 de enero
Entre los homicidios ocurridos el viernes 3 de enero en Guanajuato se encuentra el del músico Fernando 'Colorín' Jiménez
Nacional Abasto de medicamentos en México está garantizado en 2025: Secretaría de Salud
La Secretaría de Salud indicó que la compra consolidada de medicamentos e insumos médicos 2025-2026 es la más gran de la historia

Para nadie es novedad que la industria de la pornografía tiene una relación estrecha con la tecnología. Para muestra basta con recordar aquellas épicas batallas, hacia finales de la década de los setenta e inicios de los ochenta, en donde los formatos Beta versus VHS se enfrentaban.

Según la leyenda, Sony se negó a dar apoyo a la industria de la pornografía, mientras que JVC les tendió la mano, terminando por dar la estocada final.

¿A qué voy con todo esto?

Bueno, ayer me topé con una discreta nota con este titular: “Pornhub prohíbe los vídeos porno falsos creados con inteligencia artificial”.

Para entrar en contexto: uno de los usos que se le ha dado a la inteligencia artificial es algo que algunos usuarios de la plataforma Reddit han bautizado como Deepfake.

¿En qué consiste?

Hacia allá voy. Utilizando técnicas avanzadas han logrado cambiar el rostro de actrices porno por el de personalidades como Gal Gadot, Taylor Swift o Katy Perry.

Ante esto Pornhub, el gigante canadiense de la pornografía, brincó y se dijo en contra de estos videos que en muy poco tiempo alcanzan los 75 millones de vistas diarias, catalogándolos como imágenes “no consentidas”.

Básicamente por “imágenes no consentidas” se refiere a acciones como las de cambio de rostro, y que convierten a actrices y cantantes en estrellas del porno. Lo cual, siendo honestos les podría generar demandas millonarias de no ponerle un alto a los millones de fotos y videos que se podrían estar subiendo a la plataforma.

Al momento Pornhub, ha actuado como candidato en campaña política: dicen que van a hacer, pero no aclaran cómo lo harán exactamente para frenarlo.

Mientras esto (no) ocurre, los usuarios de Reddit están colaborando para crear lo que han llamado la FakeApp, una aplicación que busca que las personas sin conocimientos técnicos puedan crear sus propios videos y colocar el rostro que ellos deseen.

De acuerdo a lo que declaró el usuario de Reddit deepfakeapp a Vice y que fue retomado por Hipertextual, lo que buscan es: “simplemente seleccionar un vídeo en su ordenador, descargar una red neuronal correlacionada con una determinada cara de una biblioteca pública, y cambiar el vídeo con una cara diferente con tan solo presionar un botón”.

¿Te imaginas esto usado en casos de porno venganza? ¿Te imaginas la cantidad de demandas que se podrían generar contra este tipo de sitios?

Indudablemente creo que esta tecnología podría ser muy peligrosa, ya que además de usar de gancho la imagen sin permiso de cualquier actriz o actor famoso, esto mismo puede usarse para que tu cara esté en el cuerpo de cualquier actor porno, o incluso en la falsificación de videos que se usen como prueba.

La gente de Pornhub ya ha dado muestra que le gusta usar tecnología.  Por ejemplo, en 2016 mostró el uso de visores 360º que pueden usarse con el Playstation VR de… Sony.

Sin embargo, ninguna de esas tecnologías le da tanto poder al usuario como esta.

¿Lograrán frenar esta moda antes que lleguen las demandas?