Deepfakes: ¿Qué son y por qué son importantes?

Compartir en

Tiempo de lectura aprox: 2 minutos, 53 segundos

La tecnología ha revolucionado la forma en que creamos y consumimos contenido audiovisual, y las deepfakes son uno de los desarrollos más sorprendentes y controvertidos en este ámbito. Estos videos, audios o imágenes manipulados mediante inteligencia artificial (IA) pueden parecer increíblemente reales, pero son fabricaciones digitales. Mientras que ofrecen posibilidades fascinantes en entretenimiento y educación, también plantean serias preocupaciones éticas y de seguridad.

El término deepfake proviene de la combinación de “deep”, en referencia al aprendizaje profundo (deep learning), y “fake”, significa falsificación. El aprendizaje profundo es una técnica avanzada dentro de la inteligencia artificial (IA) que emplea varias capas de algoritmos de aprendizaje automático para identificar progresivamente características complejas a partir de datos sin procesar. Este enfoque permite a la IA aprender a partir de información no estructurada, como las características de un rostro humano. Por ejemplo, puede analizar y recopilar datos relacionados con los movimientos físicos de una persona.

¿Cómo funcionan los deepfakes?

Los deepfakes se generan utilizando una técnica de IA conocida como Redes Generativas Antagónicas (Generative Adversarial Networks, o GANs). Estas redes constan de dos componentes principales, el generador, que crea contenido falso, como una imagen o video; y el discriminador, encargado de evaluar si el contenido creado parece auténtico o no.

Ambos componentes trabajan en conjunto, ajustándose continuamente hasta que el generador produce un resultado que engaña incluso al discriminador. Este proceso se repite miles de veces, permitiendo que los deepfakes sean cada vez más realistas. Además, requieren grandes cantidades de datos de la persona objetivo, como imágenes y audios, para aprender sus características únicas, como expresiones faciales y tono de voz.

¿Por qué son relevantes los deepfakes?

Los deepfakes han ganado notoriedad porque su impacto abarca tanto áreas positivas como negativas Entre los beneficios destacan el entretenimiento, ejemplo de ello es el cine, art que los utiliza para rejuvenecer actores o recrear personajes. En la Educación permiten generar contenido interactivo, como representaciones históricas. La accesibilidad es otra de las bondades pues ayudan a crear voces personalizadas para personas con discapacidades o traducciones en tiempo real.

Entre los usos negativos resalta la desinformación, ya que pueden emplearse para crear videos de figuras públicas diciendo o haciendo cosas falsas, lo que genera caos o manipula la opinión pública. También los deepfakes de audio pueden imitar voces para cometer estafas, como pedir transferencias de dinero. El ciberacoso es otro de los perjuicios. En algunos casos, se han utilizado para crear contenido explícito no consensuado, afectando gravemente a las víctimas.

Su relevancia radica en que están redefiniendo cómo se percibe la verdad en la era digital, generando preocupaciones sobre la confianza en los contenidos que consumimos.

Ejemplos notables de deepfakes

En 2020, un video falso de Barack Obama insultando a una figura pública se volvió viral, demostrando cómo las deepfakes pueden manipular la percepción de líderes políticos. El ámbito cinematográfico los empleó en Star Wars: Rogue One, para recrear al personaje de la Princesa Leia con la apariencia de la actriz Carrie Fisher cuando era joven. Los ciberdelincuentes han creado perfiles falsos en redes sociales, haciéndose pasar por figuras públicas o empleados de alto rango. Esas cuentas ilegítimas son aprovechadas para lanzar ataques de phishing, engañando a sus contactos para que compartan información confidencial o realicen transferencias de dinero.

¿Cómo detectar deepfakes?

Aunque son cada vez más sofisticadas, hay señales que pueden ayudar a identificarlas. El movimiento anómalo de los ojos evidencia problemas para recrear parpadeos naturales o movimientos oculares realistas. La desincronización de audio y video refleja que el movimiento de los labios puede no coincidir perfectamente con el sonido. También existen anomalías en la iluminación, con sombras y reflejos inconsistentes o poco naturales. La resolución en bordes alrededor del rostro pueden ser borrosos o mal integrados con el fondo, lo que constituye, igualmente, una señal de alerta.

Además, herramientas tecnológicas como las desarrolladas por empresas como Microsoft y Google están diseñadas para analizar contenido y detectar posibles deepfakes.

Medidas de protección y regulación

A medida que los deepfakes se vuelven más accesibles y peligrosos, es fundamental implementar medidas para mitigar sus riesgos. Empresas tecnológicas están desarrollando software para identificar patrones característicos. Además, es importante educar al público sobre cómo identificar contenido manipulado y fomentar el pensamiento crítico. Algunos países ya están regulando el uso de deepfakes para penalizar su uso malintencionado, especialmente en casos de desinformación o ciberacoso. Finalmente, los desarrolladores de IA deben considerar las implicaciones éticas y trabajar para prevenir el uso indebido de sus herramientas.

Los deepfakes representan un fascinante avance tecnológico, pero también un desafío significativo en términos de ética y seguridad. Si bien ofrecen oportunidades creativas en áreas como el cine y la educación, sus riesgos, como la desinformación y el ciberacoso, exigen atención inmediata. Protegernos de los deepfakes no solo requiere herramientas avanzadas y regulaciones, sino también una ciudadanía crítica y educada que pueda cuestionar y verificar el contenido que consume.

En la era digital, donde la línea entre la realidad y la ficción es cada vez más difusa, estar informados y preparados es nuestra mejor defensa.

Visitas: 34

Lino H. Rodríguez Acosta

Máster en Computación Aplicada, Webmaster del Diario Digital 5 de Septiembre.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *