Minuto a Minuto

Nacional Protección Civil anuncia simulacro en el Aeropuerto Internacional de Tampico
El simulacro está programado para este viernes a las 23:30 horas; autoridades piden no alarmarse por la movilización de emergencia
Entretenimiento Los Tigres del Norte escriben un éxito más en su historia de conciertos en Nueva York
Con todas las entradas agotadas, Los Tigres del Norte ofrecerán un concierto este sábado en el Madison Square Garden
Nacional ONG alerta de focos rojos de inseguridad en México tras crimen de funcionarios en la capital
La organización civil México Evalúa advirtió este viernes de la existencia de focos rojos en la seguridad en varios estados, incluida la CDMX
Deportes Estadio de Guadalajara inicia renovación de su cancha rumbo al Mundial 2026
El Estadio de Guadalajara inició su renovación para cumplir con los estándares de la FIFA rumbo al Mundial 2026
Internacional EE.UU. confirma acuerdo con Boeing para evitar juicio penal en los accidentes de los 737 Max
Boeing "pagará o invertirá" más de mil 100 millones de dólares, incluidos 444 millones de dólares para las familias de las víctimas
Suplantan a famosos con deepfakes para manipular a víctimas

Los estafadores digitales se han vuelto más peligrosos que nunca, y ahora no necesitan robar identidades… ¡las fabrican! Gracias al uso de deepfakes (videos o audios manipulados con Inteligencia Artificial para imitar de forma realista a una persona y lograr que diga o haga algo que nunca ocurrió), los ciberdelincuentes están suplantando a personajes famosos para ganar tu confianza y vaciar tus bolsillos. Si creías que podías confiar en lo que ves o escuchas en internet, es momento de pensarlo dos veces y de aprender a distinguir entre lo falso y la realidad.

Y es que el uso de esta tecnología pone en aprietos a muchos internautas mexicanos, pues de acuerdo con una encuesta de Kaspersky, 72% de los encuestados no sabe qué es un deepfake y 62% asegura que tampoco sabe cómo reconocer un contenido de este tipo. Esta falta de conocimiento es ampliamente aprovechada por los ciberdelincuentes, pues las estafas mediante mensajes falsos se incrementaron en 220% en México en 2024, de acuerdo con el Panorama de Amenazas 2024 de Kaspersky, y justamente, una de las principales tendencias es el uso de audios y videos manipulados con IA.

Te puede interesar: Cepal: La guerra arancelaria de Trump es “mucho peor” que la crisis financiera de 2008

Esos contenidos tienen el objetivo de llamar la atención de usuarios de internet quienes, atraídos por el uso de imágenes de gente famosa que promociona “productos milagro” o juegos fraudulentos, suelen morder el anzuelo e ingresar a sitios falsos en donde registran sus datos personales y bancarios o peor aún, realizan compras de supuestas mercancías que jamás reciben pues se trata de una moderna forma de estafa.

1. Pon atención a los ojos y la boca: con frecuencia los deepfakes fallan en replicar los movimientos naturales de los ojos y la boca. Si la persona parpadea muy poco o de forma extraña, o si los labios no están bien sincronizados con el audio, podría tratarse de un video manipulado.

Suplantan a famosos con deepfakes para manipular a víctimas - unnamed-1

2. Presta detalle a la iluminación y las sombras: es aconsejable revisar si la luz en el rostro es similar a la que tiene el resto del cuerpo o el fondo en el que el video ha sido grabado. Las sombras que no coinciden o los brillos extraños pueden delatar una edición artificial.

Suplantan a famosos con deepfakes para manipular a víctimas - unnamed-1-1

3. Escucha el audio con atención: un tono de voz robótico, cortes bruscos o falta de locución natural son señales de que el audio fue generado o editado con IA. Hay incluso, algunas ediciones menos cuidadosas que sobreponen un audio al sonido original que no coincide con el movimiento de los labios.

4. Busca señales como: pixeles borrosos alrededor del rostro, bordes que cambian de forma o incluso gestos corporales poco naturales pueden evidenciar un deepfake malhecho.

Suplantan a famosos con deepfakes para manipular a víctimas - unnamed-2-1

5. Verifica el origen del video: antes de dar crédito al video o de compartirlo, es importante que revises si proviene de una fuente oficial. Puedes hacerlo consultando el perfil oficial de la persona involucrada u otros medios confiables. Si se trata de un video que sólo circula en mensajes reenviados o cuentas sospechosas, ¡es falso!

Suplantan a famosos con deepfakes para manipular a víctimas - unnamed-3

Estas estafas logran su objetivo no solo por lo sofisticado de la tecnología detrás de ellas, sino porque muchas personas aún desconocen su existencia o no saben cómo identificarlas. En un mundo digital que avanza a gran velocidad, mantenerse informado sobre cómo evoluciona la tecnología —y los riesgos que trae consigo— ya no es opcional, es una forma de autoprotección”, señaló Isabel Manjarrez, investigadora de seguridad del Equipo Global de Investigación y Análisis de Kaspersky.