Los deepfakes (del inglés “deep”: profundo y “fake”: falso) utilizan el aprendizaje profundo (una forma de aprendizaje automático) para crear imágenes, videos o audios que falsifican acontecimientos. Suelen duplicar la voz y/o los rasgos faciales de un individuo para luego pegarlos en una grabación o fotografía existente.
El resultado muestra a las personas en situaciones en las que nunca estuvieron realmente implicadas; por eso también los deepfakes pueden utilizarse contra las personas como medio de burla e incluso de acoso. Se pueden encontrar fácilmente videos de Mark Zuckerberg hablando sobre robar los datos de la gente, o de Tom Cruise haciendo trucos de magia.
“Imagina que eres un niño tímido que se siente intimidado por sus compañeros. Un día, un grupo de chicos se ríe de ti y no entiendes bien el motivo. Luego te muestran un video de la película Forest Gump donde el rostro del protagonista fue reemplazado por el tuyo.
El video es, por supuesto, falso, o más concretamente, un “deepfake”. Las versiones más simples de deepfakes se pueden confeccionar fácilmente utilizando aplicaciones móviles, como FaceApp o FaceSwap, pero los más complejos suelen requerir cierta habilidad y un equipo técnico especializado.“, comenta Camilo Gutiérrez, Jefe del Laboratorio de Investigación de ESET Latinoamérica.
Expertos de Digipadres, plataforma que busca acompañar a madres, padres y docentes en el cuidado de los niños en Internet, comentan que aunque se suele hablar sobre este tema, es raro que se hable de cómo ponen en peligro a los niños.
Con el desarrollo de apps que ponen los deepfakes en manos de una gran variedad de personas, los videos sintetizados han llegado a las escuelas y se han convertido en un medio para el acoso, por ejemplo, incluir el rostro de una chica tímida en un video musical de mujeres con poca ropa bailando provocativamente.
Aunque los creadores de estos videos pueden considerar sus acciones como una fuente inocente de entretenimiento, los deepfakes pueden hacer que el infante al que van dirigidos experimente vergüenza y pueden dañar fácilmente su relación con la escuela por la desagradable experiencia.
Sin embargo, los deepfakes también pueden utilizarse para el bien. Por ejemplo, al permitir que los niños se conviertan en protagonistas de sus programas, videojuegos y películas favoritos.
El Museo Dalí de Florida ha utilizado los deepfakes para generar videos interactivos del artista catalán. El deepfake de Dalí ahora puede saludar a los visitantes e incluso responderles, haciendo el museo más atractivo para el público joven.
Gutiérrez Amaya de ESET, compañía líder en detección proactiva de amenazas, señala que “como ocurre con otras tecnologías, sería precipitado juzgar los deepfakes como algo puramente negativo sin tener en cuenta sus posibles beneficios. Aun así, hay que tomar medidas para evitar el uso malicioso de los deepfakes contra los niños y niñas”.
Por ello comparte algunos consejos para hablar de los deepfakes con los niños:
Ver juntos algunos videos deepfake y empezar a conversar
El primer paso para prevenir el uso indebido de los deepfakes es tomarse el tiempo necesario para ver algunos de estos videos y analizar juntos el tema.
Charlar sobre por qué existen los deepfakes y para qué se pueden utilizar. Contarles si son de tu agrado o no y por qué. Hablar sobre la responsabilidad y el consentimiento: explicar por qué solo se debe utilizar la cara o la voz de alguien después de obtener su permiso.
Crear un espacio de intercambio seguro, y comentarles que si alguna vez se encuentran con el uso de deepfakes para el acoso, pueden hacerlo saber. Asegurarse de que los niños y niñas saben a quién dirigirse en caso de necesidad, no solo a su familia, sino también a las autoridades especificadas en su escuela.
Intentar descubrir juntos las diferencias entre los videos deepfake y los reales
Aunque cada vez es más difícil identificar los deepfakes, algunos aspectos pueden ayudar a detectar su falsedad. En primer lugar, buscar movimientos inusuales, como parpadeos no naturales.
Los deepfake tienden a tener problemas para replicar los atributos físicos más sutiles: el audio puede no corresponderse completamente con el movimiento de los labios de la persona, y puede haber fallas a lo largo de las líneas del rostro de la persona o cerca de la línea del cabello.
También hay discrepancias comunes en la iluminación
La cara puede ser más clara u oscura que el cuerpo, o puede haber una sombra inusual, o cada uno de los ojos puede reflejar una imagen diferente.
Sin embargo, estos puntos dentro de poco van a ser difíciles de notar, ya que la tecnología sigue avanzando rápidamente. Por último, examinar el contenido.
“Es importante tener en cuenta que cuando las palabras que salen de la boca de la persona son escandalosas, difíciles de creer o están claramente puestas para evocar una reacción emocional, hay una mayor posibilidad de que el video sea un deepfake”.
Por otro lado, aunque a simple vista puedan parecer auténticos, existen herramientas que evalúan la probabilidad de que el contenido sea falso.
Una de ellas, es la herramienta de Microsoft contra la desinformación conocida como Microsoft Video Authenticator. El software puede analizar una foto o video para decirte qué tan probable es que el contenido sea real.”, explica Javier Lombardi, Mentor Educativo de la ONG Argentina Cibersegura.
Hablar con los niños acerca de lo que comparten online
Cuando los más pequeños suben sus fotos y videos a Internet, pueden compartir, sin saberlo, todo lo necesario para crear un video deepfake de ellos potencialmente dañino.
Además de observar lo que comparten los menores, hablar con ellos sobre las redes sociales o las aplicaciones que utilizan.
Mientras que las plataformas más grandes pueden tener una configuración de privacidad mejor desarrollada, algunas aplicaciones o sitios web de redes sociales más nuevos o menos famosos pueden no proteger la privacidad de los y las niñas.
Intentar ofrecerles algunas alternativas, como sugerirles que compartan sus fotos únicamente en chats de grupos privados con la familia o los amigos cercanos. Si se les presentan posibilidades en lugar de juzgar y proponen alternativas en lugar de prohibiciones, será más fácil protegerlos.
Explorar juntos y encontrar medidas preventivas
Navegar con los y las niñas por Internet y conocer el mundo al que van a incorporarse. Respetar su privacidad, pero asimismo es bueno pedirles recorrer juntos sus redes sociales para ver qué tipo de contenidos consumen.
Si ellos deciden utilizar apps que les permiten crear deepfakes, como FaceApp o FaceSwap, es bueno probarlas juntos y utilizar la aplicación para entretenerse, concientizarse y educarse; no para burlarse de los demás.
A pesar del posible mal uso, los deepfakes pueden ser una buena forma de explicarles a los niños las posibilidades de la tecnología, y quizá de hablar de los engaños y las noticias falsas con más profundidad.