Los últimos años han estado marcados por el auge y la preocupación ante las noticias falsas. Gigantes de Internet y gobiernos buscan soluciones a uno de los grandes males modernos: masas sociales siendo desinformada maliciosamente, algo que puede llegar a tener consecuencias fatales, como la muerte de más de dos decenas de personas en India por la difusión de sus imágenes en WhatsApp como supuestos secuestradores de niños.
Esta tendencia tuvo su vuelta de tuerca con la llegada de los deepfakes, videomontajes hiperrealistas, en forma de falsos vídeos porno protagonizados por famosas creados gracias a algoritmos de aprendizaje automático como TensorFlow. Unos vídeos que no han hecho más que abrir la lata de lo que será la continuación de las noticias falsas: los deepfakes usados para difundir falsos mensajes pronunciados por personas que nunca los pronunciaron.
Un Obama manipulado te explica los peligros de los vídeos manipulados
Las noticias falsas tienen su base en la recompensa que obtienen en redes sociales y aplicaciones de mensajería la información engañosa y polarizante, tal y como explicó Aviv Ovadya, la primera voz que alertó masivamente sobre el advenimiento de este fenómeno. Esta desinformación "adictiva y tóxica" sube de nivel con los deepfakes aplicados a la política y la economía. ¿Quién podría identificar -sobre todo a ojo inexperto- que este vídeo de Obama no es real, sino un sofisticado montaje cuya base es el actor Jordan Peele?
El Center for a New American Security (CNAS) es una organización estadounidense sin ánimo de lucro que promueve asuntos de seguridad entre la clase política. En el mes de julio publicó un estudio sobre usos de la Inteligencia Artificial relacionados con la seguridad nacional. Dijo sobre los deepfakes que es posible que en menos de cinco años puedan engañar a oídos y ojos no entrenados con tal de "difundir contenido falso, engañoso o hiperpartidista".
Cada vez hay mayor preocupación ante un futuro con manipulación masiva en vídeo
Las manifestaciones públicas de preocupación por este fenómeno van aumentando, con la preocupación central del efecto político que puede tener en la sociedad el avance de este método de desinformación. Incluso hay quien no descarta que sean los propios estados quienes utilicen los deepfakes a su beneficio.
Andrew Grotto, experto en seguridad del Centro para la Seguridad y la Cooperación Internacional en la Universidad de Stanford en California, afirmó en un artículo de AP News que los estados no podrán resistirse a usarlos para manipular la opinión pública. También se atrevió a rebajar el plazo fijado por el CNAS, ya que dijo que en "uno o dos años será realmente complicado para las personas distinguir entre vídeos reales y falsos".
El potencial de las redes neuronales adversarias
El propio sistema de creación de estos vídeos acelera exponencialmente. Santiago Sánchez-Migallón, profesor de Filosofía especializado en Filosofía de la Inteligencia Artificial, neurociencias y Filosofía de la Biología, nos cuenta que con los deepfakes "la trampa está prácticamente desde el principio". Explica que sus creaciones se basan en GANs o redes neuronales adversarias.
"Funcionan como un juego de policías y ladrones: una red hace de experto falsificador, y otra de policía experto en detectar falsificaciones. A cada iteración, la red falsificadora se hace mejor creando imágenes realistas, y a la vez, la detectora de fakes se hace mejor detectando falsificaciones".
Un estudio anónimo presentado para la próxima Conferencia Anual de Aprendizaje Automático en Nueva Orleans propone nuevas redes neuronales adversarias que conseguirían imágenes de una precisión inédita hasta la fecha, al menos sobre el papel. Estos algoritmos se basan en modelos generativos: aprenden cuáles son las características de un conjunto de datos y luego crea nuevos ejemplos desde cero. Incluso recrea un mismo rostro en diferentes etapas de su vida.
Con una fuente de datos lo suficientemente grande, por ejemplo, de rostros de personas, son capaces de originar nuevas "fotografías" de personas que nunca han existido: las crea en base a lo aprendido. Una buena muestra la tenemos en el siguiente vídeo. Ni siquiera los humanos podemos diferenciar en él entre caras originales y generadas.
Un vídeo ya no será suficiente
Un tiempo de experiencia en Internet blinda a (casi) cualquiera contra las estafas online más comunes. Cuesta encontrar a alguien que crea a estas alturas en príncipes nigerianos que dejan herencias millonarias a un cualquiera mediante un mail. ¿Ocurrirá lo mismo cuando sigan proliferando los deepfakes? Según Francisco Javier Ordóñez, director de Inteligencia Artificial en StyleSage, sí.
"La veracidad de estos contenidos ya no va a ser incuestionable, en un futuro no muy lejano cualquier audio o vídeo que consumamos podrá ser una muestra sintética de laboratorio".
Esto tendría implicaciones tan importantes como que hasta la justicia tendría que repensar la validez que otorga a las pruebas, al menos sin un sistema detector de falsificaciones con la suficiente fiabilidad. "Un vídeo ya no valdría como prueba en ningún juicio", vaticina Ordóñez.
¿Qué ocurriría entonces en la relación entre pruebas gráficas y justicia? "Surgiría una legislación que abordaría con más rigor y severidad el tema de los derechos de imagen respecto a los fakes para que quede penado sustraer la imagen de cualquier persona y ponérsela a un actor de película porno, o que se puedan suplantar identidades para cualquier uso malicioso que se nos ocurra".
Dice el refrán que hecha la ley, hecha la trampa. De trampas nos hablaba Sánchez-Migallón, y esas trampas son al mismo tiempo la mejor herramienta que vamos a tener para combatir los deepfakes: al diseñar redes neuronales adversarias se crean grandes generadores de falsificaciones, pero a la vez, grandes detectores de falsificaciones.
"Esto nos hace ser optimistas a la hora de combatirlos en un futuro. Igual que hoy tenemos una guerra entre virus y antivirus, entre falsificadores de billetes o de obras de arte y autoridades policiales, se dará una guerra entre fakes y anti-fakes", cuenta.
Ordóñez hace una comparación similar: "Al final habrá una situación como la que se vive en otros ámbitos de la ciberseguridad, donde se establece una carrera tecnológica entre los buenos y los malos, ambos manejando herramientas parecidas".
Una de esas herramientas también será el periodismo. O eso cree Clara Jiménez, verificadora en Maldito Bulo. Ella cree que "este tipo de cosas nos harán poner en valor el buen periodismo, si hay dudas sobre si Trump ha dicho tal cosa, los periodistas que estuviesen en ese acto serán los que lo corroboren o lo nieguen".
Así y todo, Jiménez Cruz relativiza este peligro poniendo en valor el que considera que ya tenemos a día de hoy. Y sin necesidad de alta ingeniería. "Hoy tenemos capturas de pantalla mal editadas en Paint circulando por WhatsApp, y eso ya es un peligro. Provoca que la gente crea que los inmigrantes se están quedando con las ayudas públicas, por ejemplo. El peligro ya está en casa".
Del político al ciudadano anónimo
Las estrellas del cine o la música tienen en los deepfakes a la generación de vídeos porno con sus rostros (los cuales fueron prohibidos por PornHub con poco éxito). Los políticos, a la creación de discursos pronunciados falsamente por ellos. ¿Qué escenario se podrá encontrar un ciudadano anónimo que le afecte en primera persona, más allá de ser desinformado y confundido? ¿Podríamos cualquiera de nosotros ser víctima de un montaje así que trate de hundir nuestra imagen? Ordóñez da un primer mensaje tranquilizador:
"Para que un algoritmo generativo sea capaz de generar ejemplos de vídeos realistas requiere de una gran cantidad de datos de los que aprender, de ahí que principalmente veamos vídeos de este tipo con personas famosas, de las que se pueden encontrar muchas horas de vídeo de alta calidad en Internet. Por ello actualmente es muy difícil crear un vídeo realista de alguien anónimo, y por tanto es complicado llevar el descrédito a nivel personal".
La cara B del futuro de los deepfakes: si la legislación los regula, podríamos blindarnos con un avatar digital de nuestro "yo" embellecido prohibiendo la difusión de nuestra imagen real
Una posibilidad que si bien con la tecnología actual parece remota, quizás sí sea viable dentro de un tiempo al ritmo que se está desarrollando, como él mismo señala. Si llega el momento en el que es factible para cualquiera crear un deepfake que socave nuestra imagen, aun sin disponer de una gran cantidad de vídeos sobre nosotros, nos queda encomendarnos a que las herramientas de detección funcionen correctamente.
Sánchez-Migallón también se atreve a imaginar un escenario a lo Black Mirror en el que nuestra identidad se desdoble en física y digital a un nivel mucho más pronunciado del que pueda haber ahora. Cree que podrían crearse actores virtuales, o que los actores actuales tengan una suerte de avatar que puedan ceder a productoras para que lo usen sin necesidad de tener que seguir trabajando un personaje. ¿Y para los ciudadanos? Algo similar:
"Cualquiera de nosotros podría tener un avatar que consistiera en una copia idealizada y "embellecida" de nuestra propia imagen, y que proyectamos en Internet o en la vida pública en general, mientras que luego estaría nuestra imagen verdadera, solo accesible en el ámbito privado. De hecho quizá podría llegar a existir un derecho a la intimidad de la imagen personal: que nadie pueda publicar imágenes, si yo no quiero, de mi verdadero yo de carne y hueso".
Imposible no recordar en este punto la recreación digital de Carrie Fisher en Rogue One, que la trajo de nuevo a la vida para poder despedirse de la que fue su franquicia. Lamentablemente, no todo el futuro de los deepfakes será tan melancólico y bienintencionado.
También te recomendamos
-
La noticia Con los deepfakes tendremos un problema con la verdad: ni los vídeos servirán como pruebas fue publicada originalmente en Xataka por Javier Lacort .
via Xataka https://ift.tt/2Q8u6jP
No hay comentarios:
Publicar un comentario