Deepfakes y su impacto en la confianza pública
Tiempo de lectura aprox: 2 minutos, 48 segundos
En una era marcada por la inteligencia artificial y el auge de las redes sociales, los deepfakes —videos, audios o imágenes manipulados mediante algoritmos— se han convertido en una de las herramientas más inquietantes de desinformación. Su capacidad para alterar la percepción de la realidad está generando una crisis de confianza pública sin precedentes.
El término deepfake proviene de la combinación de deep learning (aprendizaje profundo) y fake (falso). Se refiere a contenidos creados mediante inteligencia artificial que simulan a la perfección el rostro, la voz o los gestos de una persona real, haciéndola parecer que dice o hace algo que nunca ocurrió. Lo que comenzó como una curiosidad tecnológica ha evolucionado en una amenaza para la política, el periodismo, la seguridad y la vida privada. Recomiendo los artículos publicados en este medio, que no por el tema ser reiterativo deja de ser importante, tal es el caso de este artículo.
Uno de los efectos más peligrosos del uso de deepfakes es la desconfianza creciente hacia los contenidos audiovisuales. Las personas ya no están seguras de si lo que ven en un video es auténtico o generado por una máquina. Esto ha provocado un fenómeno conocido como el efecto de indiferenciación informativa: la duda generalizada lleva a desconfiar incluso de los contenidos legítimos.
Diversas investigaciones indican que la exposición a un deepfake, aunque posteriormente se demuestre que es falso, debilita la credibilidad de la fuente original. En el contexto de elecciones, por ejemplo, bastan unos segundos de un video manipulado de un candidato para provocar confusión, indignación o pérdida de apoyo.
Aunque hay usos legítimos de la tecnología de generación de contenido —como en el cine o la educación— los deepfakes han sido empleados para:
- Difundir desinformación política (discursos falsos, escándalos fabricados).
- Desprestigiar a figuras públicas mediante contenido sexual manipulado.
- Cometer fraudes financieros, suplantando identidades por voz o imagen.
- Extorsionar o acosar a particulares, sobre todo mujeres.
La confianza pública no solo se ve afectada en lo institucional, sino también en el ámbito interpersonal, donde cualquiera puede convertirse en víctima de una simulación creíble y viral.
Ante esta amenaza creciente, algunos países han comenzado a legislar contra el uso malintencionado de deepfakes. Por ejemplo, se estudian regulaciones que obliguen a marcar claramente los contenidos generados por IA o a reconocer el derecho de las personas sobre su imagen y voz.
A la vez, plataformas como Meta, Google y X están desarrollando sistemas de detección automática y herramientas para etiquetar videos manipulados. No obstante, la carrera entre quienes crean los deepfakes y quienes intentan detectarlos es vertiginosa y aún desigual.
El mayor peligro de los deepfakes no radica solo en su capacidad para engañar, sino en su potencial para destruir la confianza en cualquier contenido, verdadero o falso. Este fenómeno ha sido descrito por algunos expertos como el preludio de una infopocalipsis: una era donde todo puede ser falso y, por tanto, nadie cree en nada.
El término infopocalipsis (también conocido como infocalypse o “information apocalypse”) fue acuñado para describir una situación donde la omnipresencia de información manipulada —como los deepfakes— genera un entorno en el que las personas dejan de confiar en cualquier tipo de contenido, incluso si es auténtico.
Este escepticismo radical mina la democracia, favorece la polarización y debilita la rendición de cuentas. Si no se puede confiar en la evidencia audiovisual, ¿cómo se juzgarán los hechos?
Aviv Ovadya es un experto en tecnología, ética digital y desinformación, ampliamente reconocido por sus estudios pioneros sobre el impacto de las tecnologías emergentes en la democracia y la sociedad y creador del termino infopocalipsis, dijo en una entrevista con BuzzFeed News en 2018:
“Cuando veamos que hay vídeos de políticos diciendo cosas que nunca dijeron, de celebridades en situaciones falsas, o de personas comunes siendo incriminadas, estaremos en un entorno donde no sabremos qué creer. Esa es la infopocalipsis.”
La pregunta a responder sería, ¿cómo defender la confianza?
Ante este escenario, es vital actuar en varios frentes:
- Educación mediática y digital
Los ciudadanos deben aprender a identificar contenidos manipulados, contrastar fuentes y no difundir información sin verificar. - Regulación ética y legal
Se necesita un marco que limite el uso nocivo de la tecnología sin frenar su potencial creativo. - Transparencia en la IA
Las empresas que desarrollan herramientas de generación de contenido deben asumir responsabilidades claras sobre su impacto social. - Alianzas tecnológicas para la detección
Universidades, gobiernos y tecnológicas deben trabajar en conjunto para mejorar las capacidades de reconocimiento de deepfakes.
Los deepfakes representan una de las amenazas más sutiles pero profundas a la verdad y la confianza pública. En un entorno digital saturado de estímulos, el desafío ya no es solo identificar lo que es falso, sino reconstruir la confianza colectiva en lo que es verdadero.
La solución no está en la censura, sino en una ciudadanía crítica, una tecnología responsable y una ética informativa robusta. En definitiva, la batalla contra los deepfakes es también una batalla por la integridad democrática.
Visitas: 23