Menú
Tecnología / 10 de septiembre de 2019

Inteligencia artificial y redes sociales: cómo crear falsas realidades

Los deep-fakes, videos basados en la alteración de fotos y voces, son cada vez más frecuentes. Su producción y la manera de detectarlos.

Por

Mentiras peligrosas. Nacieron en la industria porno, pero ahora las deep fakes alteran la vida social y política.

Personas que dicen cosas que nunca dijeron. Imágenes que nunca existieron como tal. Distinguir qué es real y qué no se hace cada vez más difícil y la preocupación aumenta, en la medida en que las tecnologías de Inteligencia Artificial (IA) no paran de evolucionar. No por la IA en sí misma, sino por ciertos usos que se les está dando y que hora permiten la creación automatizada de videos y de audio falsos. Son las deep-fakes (algo así como “falsedades profundas) que cada vez más son lanzadas a internet y viralizadas en redes sociales. Los primeros usos fueron dentro de la industria del porno online, pero pronto se extendió hacia empresarios y políticos. Barack Obama, ex presidente de los Estados Unidos, que en abril del 2018 aparecía en un video diciendo “El presidente Trump es una total y completa mierda”. Hasta que se probó que se trataba de una falsedad creada por un director de cine, hizo temblar la política interna estadounidense.

La mayoría de los videos deep-fake son creados a utilizando un algoritmo de computación que toma varias imágenes de una persona para, a partir de ellas, crear nuevas imágenes del rostro. A esto, los creadores le suman una voz sintetizada de manera tal que ambos lucen y suenan como si la persona hubiera dicho algo nuevo. El resultado es un video que puede llegar a ser tan realista como para despistar hasta al más suspicaz y eso es los convierte en una seria amenaza para aquello de que lo que uno ve, es la realidad. Creer lo que miramos y escuchamos está perdiendo entidad. La duda empieza a estar siempre con nosotros.

(Te puede interesar: Por qué los ancianos corren más riesgo con las fake news)

Más allá de las consecuencias filosóficas y psicológicas, especialistas de campos tan diversos como las ciencias de la computación, las ciencias políticas y la sociología están muy preocupados por la difusión de la información de manera viral y a través de las redes sociales: las deep-fakes pueden tener profundos efectos tanto en el discurso público como en la estabilidad política. Por eso es que se reproducen las investigaciones para diseñar herramientas de detección, también basadas en IA, para marcar los videos que sean falsos antes de que los mismos sean difundidos.

Las técnicas que culminan en los actuales deep-fakes comenzaron a ser un problema más o menos a partir de las elecciones que se llevarán a cabo en los Estados Unidos en el año 2016 y los Las investigaciones sugieren que los videos falsos pueden ser especialmente efectivos en lo que a incentivar el miedo dentro de la población se refiere porque apelan mucho la emoción. Además, se erosiona la confianza de la población. ¿Qué es real? ¿Cuándo no lo es? ¿A quién creerle?

Evolución. Los primeros pasos en la realización de videos falsos se dieron en la década de los ´60 cuando por primera vez se diseñaron imágenes por computadora. Para los años ´80 los efectos especiales se convirtieron en tendencia. Apenas un par de décadas más tarde, en 1994, el cine permitía ver al actor Tom Hanks (como Forrest Gump) aparecer en pantalla dándole la mano a John Fitzgerald Kennedy. Las cosas no quedaron ahí y expertos en ciencias de la computación comenzaron a pensar en los gráficos de una manera distinta: ¿por qué no ayudar a las computadoras a crear las imágenes a partir de datos? Fue así como en 1997 un grupo que trabajaba en Palo Alto (California) desarrolló un video en el cual se ve a JFK diciendo “Yo nunca me reuní con Forrest Gump”.

(Te puede interesar: La televisión en tiempos de “fake news”)

El salto más importante en esta evolución se dio en el año 2012, a partir de un tipo de Inteligencia Artificial a la que se denomina Deep Learning (aprendizaje profundo). En este caso, lo que se emplea para alimentar a los equipos son fórmulas matemáticas simples denominadas redes neurales, que aprenden y mejoran a medida que realizan tareas a lo largo del tiempo. Un grupo de investigadores en ciencias de la computación, por ejemplo, logró enseñar a computadoras herramientas de Deep Learning para que fueran capaces de reconocer caras humanas alimentando a los equipos con cientos de miles de fotografías. Llegado un punto, si el algoritmo encuentra a una nueva persona puede reconocer los patrones que la convierten en humana, y determina que lo que está viendo es un rostro.

Las investigaciones continuaron y las habilidades de los algoritmos evolucionaron hasta lograr diseñar caras inventadas que luzcan como las de personas reales. En estos casos lo que se usan son herramientas de tip learning, conocidas como redes generativas: luego de ser entrenada con miles de imágenes lo que hace la red es seguir el patrón que surge de los ejemplos para diseñar una cara nueva. Algunas empresas ya están usando ese mismo esa misma aproximación con el audio. El año pasado, Google dio a conocer un asistente alimentado con AI, capaz de hacer llamadas telefónicas y sonidos como si fuera una persona real, con tics verbales como por ejemplo “esteee”, “eh”, y pausas muertas.

En estos momentos, la IA está siendo capacitada para entrenarse a sí misma. En 2014, investigadores de la Universidad de Montreal, en Canadá, colocaron a dos redes neurales a conversar. Una de ella, llamada generadora, fabricaba imágenes falsas; la segunda, la discriminadora, debía aprender a distinguir entre lo real y lo inventado, con poca o ninguna supervisión humana. ¿El método? La competencia con recompensa. La máquina discriminadora le da toques al generador, con el objetivo de fabricar fakes cada vez más realistas, mientras que la generadora trata de engañarla.

(Te puede interesar: Inteligencia artificial: Cada vez más y más humanos)

Este sistema, en el que dos algoritmos de Inteligencia Artificial trabajan juntos es lo que técnicamente se conoce como “red generativa de confrontación”, o GAN. Estos sistemas tienen usos “provechosos”, como podría ser la mejora de filtros de spam o correo no deseado, o la creación de moléculas químicas virtuales para hacer más veloz los descubrimientos de medicamentos: es factible crear nuevas moléculas y hacer simulaciones para analizar cómo se comportarían.

Detectores inmediatos. El problema es que las GAN son las que alimentan a los videos deep-fake, gracias a la gran calidad que permiten lograr en las imágenes. Esos videos trabajan (por ahora al menos) con retratos en los que una persona mira a la cámara, de manera que si el actor mueve se mueve mucho el video resultante tiene fallas, rastros digitales como por caso píxeles esfumados alrededor del rostro. Desde el Departamento de Ciencias de la Computación de la Universidad de Albany (Nueva York, Estados Unidos) se había propuesto hace apenas un año detectar videos de Deep-Fake mediante el rastreo de la cantidad de pestañeos que aparecían en la imagen. Pero las últimas generaciones de videos falsos se adaptaron a eso. Y los mismos investigadores desarrollaron una forma activa para proteger a las personas de convertirse en víctimas de deep-fakes.

Los videos falsos aún tienen fallas que no han podido ser solucionadas, como que la imagen no siempre sigue la posición exacta de la cabeza de la persona, o de las condiciones de luz, o de distancia hacia la cámara para hacer que las caras falsas en se integran bien con su entorno. Los algoritmos aún no están listos para fabricar rostros en tres dimensiones. Lo que hacen, en cambio es generar una imagen del rostro en dos dimensiones y después tratar de rotarlo, redimensionarlo y distorsionar la imagen de manera tal que quepa bien en el entorno.

“Nosotros diseñamos un algoritmo que calcula en qué dirección está apuntando la nariz de la persona en una imagen”, explica Siwei Lyu, en un paper. Y describe: “Hemos hallado una manera de agregar una nariz especialmente diseñada a las fotografías digitales o a los videos, que no es visible a los ojos humanos, pero que puede volver locos a los algoritmos de detección”. Los investigadores esperan poder apalicar esta herramienta a cualquier tipo de imagen que cualquier persona suba a las redes sociales o a otros sitios de internet. Tal vez se les podría preguntar “¿Quieren proteger las caras de este video o imagen contra el riesgo de ser utilizados en la creación de deep-fakes?”. Si un usuario dice que sí, el algoritmo podría agregar esa nariz digital. De ese modo, las personas verán la cara, que estará escondiendo algoritmos para “defenderse” de aquellos que están buscando convertirlas en imágenes impersonales y falsas.