top of page

Experta en seguridad alerta sobre los peligros de las ‘deepfakes’ y comparte cómo protegerse de ellos: ‘La educación es nuestra mejor defensa’

iwebmanager

Esta técnica, impulsada por la inteligencia artificial, posibilita la creación de videos, imágenes y audios fraudulentos.

En una era cada vez más digital, la protección cibernética se ha vuelto una preocupación clave para personas, compañías y autoridades gubernamentales. Las amenazas en el entorno digital están en constante evolución, y una de las más alarmantes en los últimos tiempos es el empleo de deepfakes. 


Esta técnica, impulsada por la inteligencia artificial, posibilita la creación de videos, imágenes y audios fraudulentos que imitan de forma realista los rostros, voces y movimientos de las personas. 


Aunque en un principio fue concebida para fines creativos y de entretenimiento, los 'deepfakes' han demostrado su capacidad para ser utilizados con intenciones maliciosas, especialmente en casos de suplantación de identidad.


Isabel Manjarrez, experta en seguridad en Kaspersky, ofrece su perspectiva sobre este asunto, brindando una serie de consejos para mitigar los riesgos que conllevan los deepfakes y otras amenazas vinculadas al uso indebido de datos biométricos. 


En su intervención, Manjarrez resalta la relevancia de prestar atención a los detalles, adoptar medidas adicionales de seguridad y educar a la sociedad sobre los peligros que la inteligencia artificial puede suponer, particularmente en áreas vulnerables como Perú y otras regiones de América Latina. 


Esta tecnología representa una de las manifestaciones más recientes y sofisticadas de la inteligencia artificial. Los 'deepfakes' utilizan redes neuronales generativas, un tipo de IA capaz de aprender a replicar patrones complejos, como los movimientos faciales o el tono de voz de una persona, a partir de grandes volúmenes de datos. 


Gracias a esta tecnología, se han creado videos en los que figuras públicas parecen decir o hacer cosas que nunca ocurrieron en la realidad. Desde la alteración de escenas de películas hasta discursos políticos falsificados, los 'deepfakes' han generado preocupación debido a su potencial para engañar a la audiencia.


Manjarrez subraya que, aunque la tecnología de los 'deepfakes' puede tener aplicaciones legítimas, su uso indebido plantea serios riesgos.


“El principal peligro de los 'deepfakes radica en su capacidad para suplantar la identidad de personas, especialmente de figuras públicas o influyentes. Esto no solo afecta la privacidad y la reputación de las víctimas, sino que también puede ser utilizado para fraudes, desinformación y chantaje”, explica.


¿Cómo detectar un 'deepfake'?


Para detectar un 'deepfake', es esencial tener un ojo atento y saber identificar detalles sutiles. Según Isabel Manjarrez, hay varios indicios que pueden delatar la falsedad de un video o imagen.


“Uno de los primeros aspectos a observar es el parpadeo inexistente o anormal. Las personas parpadean de manera regular, pero muchos 'deepfakes' no replican este comportamiento de manera natural. Otro signo a tener en cuenta es la sincronización de los labios con las palabras. Si los labios no coinciden perfectamente con lo que se está diciendo, es probable que estemos frente a un 'deepfake'”, explicó.


Además, Manjarrez resalta la importancia de prestar atención al contexto en el que se presenta el contenido.


“Si el video o la imagen parece fuera de lugar o el contexto no coincide con la persona que está siendo representada, es un foco rojo. Por ejemplo, si vemos a un actor o a una figura financiera diciendo algo que contradice su imagen pública o profesional, debemos cuestionar la autenticidad de ese contenido”, advierte. 


El avance de la tecnología de 'deepfake' plantea un escenario preocupante para el futuro. Isabel Manjarrez considera que pueden afectar a diversos sectores, desde la política hasta las finanzas, pasando por el entretenimiento y las relaciones personales.


“En un futuro cercano, podríamos ver un aumento en el uso de deepfakes para engañar y manipular a las personas. Esto podría llevar a situaciones en las que no podamos confiar en lo que vemos, escuchamos o leemos, lo que minaría la confianza en las comunicaciones digitales”, advierte.


Uno de los mayores riesgos es la suplantación de identidad, especialmente cuando se combina con otros tipos de datos personales, como la información biométrica. 


“Imagina que un deepfake de una figura pública es utilizado para manipular los mercados financieros o influir en la opinión pública antes de unas elecciones. Los daños potenciales son enormes”, alerta Manjarrez.


¿Es el Face ID realmente seguro?


El uso de datos biométricos, como el reconocimiento facial (Face ID), se ha popularizado como una medida de seguridad en dispositivos móviles y aplicaciones. Sin embargo, Isabel Manjarrez advierte que esta tecnología no es infalible.


“El Face ID, aunque es una herramienta útil, no es 100% seguro. De hecho, podría convertirse en un riesgo si no se complementa con otras medidas de seguridad. Si una banda criminal logra acceder a nuestros datos biométricos, podrían utilizarlos para suplantar nuestra identidad y cometer delitos en nuestro nombre”, explicó.


Manjarrez recomienda que, además de utilizar el Face ID, los usuarios implementen una segunda capa de seguridad, como una contraseña o PIN adicional. 


“En particular, las aplicaciones financieras deben contar con múltiples capas de seguridad para proteger la información sensible de los usuarios. Confiar únicamente en el Face ID no es suficiente para garantizar la protección de nuestros datos”, insiste. 


Para protegernos de los riesgos asociados a los deepfakes y otras amenazas digitales, Isabel Manjarrez ofrece una serie de recomendaciones prácticas. En primer lugar, es esencial ser crítico con el contenido que consumimos en línea.


“No debemos aceptar ciegamente todo lo que vemos o escuchamos en Internet. Siempre es importante verificar la fuente del contenido y cuestionar su autenticidad”, subraya.


Además, educarse sobre los riesgos digitales y cómo protegerse de ellos es clave. “La educación es nuestra mejor defensa. Debemos informarnos sobre cómo funcionan los deepfakes y otras tecnologías similares, y aprender a identificar los signos de manipulación. 

También es importante compartir este conocimiento con nuestros seres queridos, especialmente con aquellos que son más vulnerables, como los niños, niñas y adultos mayores”, añadió.


Finalmente, Manjarrez recomienda limitar la cantidad de datos personales que compartimos en línea y ser cautelosos con las aplicaciones que utilizamos. “No debemos otorgar permisos innecesarios a las aplicaciones y siempre debemos revisar y comprender qué tipo de datos estamos compartiendo. La privacidad es un derecho, y debemos protegerla activamente”, concluyó.


Desafíos en la regulación de los 'deepfakes'


Uno de los mayores desafíos en la lucha contra los 'deepfakes' es la regulación. Isabel Manjarrez explica que la tecnología avanza a un ritmo mucho más rápido que las leyes, lo que crea una brecha difícil de cerrar. 


“Aunque ya existen algunos avances en la regulación de los deepfakes, aún queda mucho por hacer. Es necesario que los gobiernos trabajen en conjunto con expertos en tecnología y ética para desarrollar marcos legales que protejan a las personas de los riesgos asociados a esta tecnología”, comenta.


Además, Manjarrez señala que en Latinoamérica la situación es aún más compleja debido a la falta de conocimiento y educación sobre estos temas. 


“Nuestra región es particularmente vulnerable a los ataques de inteligencia artificial, ya que muchas personas no están al tanto de los riesgos que implican. Es crucial que las autoridades y las organizaciones trabajen para educar a la población y desarrollar regulaciones que aborden estas nuevas amenazas”, concluyó. 


 
 
 

Comments


bottom of page