Deepfakes… ¿el fin de la realidad?

Compartir en

Tiempo de lectura aprox: 4 minutos, 22 segundos

Las noticias falsas, o fake news, han tenido históricamente distintas formas de gestarse, y propósitos tan diversos como dañar el prestigio de un país o de una persona; promover un estado o una tendencia de opinión y hasta justificar una guerra.

El soporte en que se han diseñado y trasmitido esos bulos se ha correspondido con los adelantos tecnológicos del momento, de los que se han valido para hacer más efectivos —y también más letales— sus engañosos contenidos.

En tiempos en que ya hablamos de “inteligencia artificial”, los recursos para amañar una imagen van mucho más allá de los hasta ahora conocidos, al punto de que programas de edición de fotos como Photoshop, por ejemplo, parecen ejercicios tan elementales como limitados en sus posibilidades.

Hoy se pueden editar falsas representaciones de personas que, aparentemente, son reales y facturar así un producto que puede resultar muy convincente, utilizando para ello algoritmos sumamente sofisticados y videos o imágenes ya existentes.

Y no hablamos aquí de cualquier tipo de edición de video, sino de la aplicación de una tecnología específica para un fin específico: las deepfakes.

Aportes tecnológicos aparte, las deepfakes siempre cargarán con el estigma de haber hecho su debut en la industria pornográfica, con la creación de contenidos falsificados en los que un actor o personaje del espectáculo aparecía participando en un video pornográfico realizando actos sexuales.

En esa modalidad se combinaba un audiovisual pornográfico —utilizado como referente para el algoritmo—con otro video o imagen del actor o personaje, procesado por un programa informático con técnicas deepfakes.

Otro ejemplo del empleo aberrado de esa tecnología de avanzada es la manipulación de que puede hacer víctimas a figuras públicas, tanto más vulnerables a esos efectos por cuanto estas suelen protagonizar un profuso contenido audiovisual, que de hecho se convierte en base de datos del modelo para poder crear imágenes falsas convincentes.

Ya fuera de esos ejemplos de empleos indecorosos de las deepfakes, se les puede valorar desde la perspectiva del avance tecnológico que representan.

El cine, por ejemplo, las ha utilizado con fines artísticos. En el ámbito de la salud, se puede recurrir a ellas para restaurar la voz de una persona que la haya perdido debido a una enfermedad o evaluar el efecto de drogas virtualmente imitadas sobre órganos simulados, afectados a su vez por padecimientos simulados.

En el proceso docente educativo, las deepfakes permiten contextualizar experiencias “dando vida” a personajes históricos, haciendo incluso que estos diserten sobre las ideas o los hechos que los hicieron trascender.

Pero como sucede con muchas de las novedades tecnológicas que comienzan siendo patrimonio de pocos para convertirse en dominio de muchos, las deepfakes han puesto a disposición de casi cualquiera la posibilidad de crear imágenes falsas, indistinguibles de la realidad.

Lo más preocupante entonces, no sería tanto la posibilidad de desarrollar técnicas de manipulación de audio, video e imágenes -—que hasta hace poco solo eran potestad exclusiva de especialistas— como su popularización en un contexto de mayor acceso a la nube y a la computación.

Poner palabras en boca de otra persona; intercambiar la cara de alguien; crear marionetas digitales para dañar la imagen de personalidades o personajes públicos: todo eso y más es posible a partir de un uso éticamente cuestionable de las deepfakes, que también pueden usarse para para falsificar noticias y crear bulos malintencionados.

Y en esto último hay encriptado otro peligro todavía mayor: la aviesa intención de crear una desconfianza tal en los receptores, que los haga incapaces de discernir entre la verdad y la mentira. De más está añadir que cuando la confianza se erosiona, queda fértil el terreno mediático y comunicacional para todo tipo de manipulación.

Es por ello por lo que debemos seguir promoviendo un pensamiento crítico ante este nuevo y peligroso escenario digital. ¿Pero cómo?

La falsedad se resiente por sus costuras

Hoy existen varios métodos para identificar las deepfakes.

A nivel corporativo, la conciencia de los peligros que entraña esa realidad hackeada por técnicas de inteligencia artificial ya ha promovido algunas iniciativas. Microsoft, por ejemplo, acaba de presentar su Video Authenticator, una herramienta para detectar deepfakes.

El seguimiento de este fenómeno por parte de otras empresas como Sensity, que se autodefine como la primera compañía de inteligencia sobre amenazas visuales, ha permitido conocer como “…hasta julio de 2019 había menos de 15.000 deepfakes circulando por la web. Un año después, la cifra creció a casi 50.000. El 96 por ciento son pornográficas y en lo que va de 2020 ya se subieron más de mil deepfakes por mes, solo en sitios de pornografía”.

Pero no habrá solución técnica al problema de la autenticación si no se le combina con una educación y concientización más efectiva sobre los peligros de esa tecnología y las trampas con que pretende sacar provecho de nuestra ingenuidad o desconocimiento.

Y en esa personal actitud de ponerse en guardia, el recurso más elemental para desenmascarar un bulo es el análisis de los metadatos, que es la información textual sobre la producción de cualquier archivo multimedia, para ver si este ha sido manipulado previamente.

La gran mayoría de los archivos contiene la información de los programas de edición utilizados, lo que permite detectar cualquier intervención en esos archivos.

Otra opción se basa en el minucioso examen de un producto comunicativo sospechoso a partir de sus propias características estructurales. De esta manera se podría descubrir cualquier incoherencia en la fusión de las diferentes imágenes utilizadas, como por ejemplo que el iris de un ojo tuviera un color diferente al del otro.

Igual se puede estar atento a un error de iluminación imprecisa y distorsionada en las figuras, debido al intento de fusionar varias representaciones pictóricas con diferente luz, lo cual provoca en la imagen final cierta incompatibilidad lumínica.

Podemos también estar al tanto de cualquier desproporción geométrica en rostros y figuras humanas, evidenciada en bordes fuertes o manchas muy contrastadas alrededor de los límites faciales de la imagen, que afectarían zonas como la nariz, la cara o las cejas.

Más sutil, pero no menos efectivo, sería reparar en el hecho de que los vídeos creados artificialmente acostumbran a ser demasiado perfectos en cuanto a imagen. Se echarían entonces de menos aquellas imperfecciones propias de una grabación real.

En cuanto a otro de los elementos constitutivos del lenguaje audiovisual susceptible de ser manipulado, la voz, cuanto más clara y menos sonido ambiente la acompañe, más suspicacia debe provocarnos. Mientras más cortos sean los audios, más difícil será detectar su legitimidad.

El hecho de que este tipo de videos —versión perfeccionada de las fake news— tenga tan rápida difusión por las redes sociales y llegue así a millones de personas, comienza a generar una crisis de confianza en la información que se difunde y se consume, que ya preocupa a muchos gobiernos e instituciones.

Y es que una de las razones por las cuales es tan difícil identificar una deepfake es que parte de imágenes reales, que pueden también incorporar audio con una sonoridad prácticamente auténtica y realista, y que una vez difundida en un escenario virtual de amplio acceso, su multiplicación exponencial le otorga un falso halo de credibilidad.

El uso patológico de las deepfakes insinúa una pesadilla que supera la ficción y nos reta con una inquietante posibilidad: que nunca más sepamos cuál es la verdad. Considerada desde la ética, plantea una disyuntiva que nunca antes nos había preocupado tanto: a quién reclamarle entonces esa verdad o cómo acostumbrarnos a vivir sin ella.

De manera que cuando nos encontremos ante una propuesta audiovisual sospechosa, no olvidemos que difundir una información falsa es mucho más sencillo que comprobarla y autentificarla. Pero vale la pena intentarlo.

Visitas: 4

Omar George Carpi

Periodista del Telecentro Perlavisión.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *