A principios de año, una campaña publicitaria de una empresa de cerveza consiguió resucitar a la mismísima Lola Flores. La inteligencia artificial usada obtuvo un resultado tan realista que durante semanas miles de usuarios de redes sociales se preguntaron en qué momento pronunció La Faraona palabras como “empowerment” o cómo habían logrado sincronizar esas expresiones tan actuales en un video antiguo.
Pero no, el vídeo nunca se grabó. Lola Flores nunca prestó su imagen ni su voz para el spot, ni mucho menos, dio su consentimiento. Se trataba de una secuencia artificial, hecha con el permiso de su familia a partir de más de 5.000 imágenes de la artista superpuestas en otra actriz y que, tras largas horas de producción, consiguió un resultado final capaz de suscitar fascinación y controversia, a partes iguales.
El uso de algoritmos e inteligencia artificial han propiciado la aparición de los deepfakes, manipulaciones que son capaces de tergiversar el pasado, los hechos o suplantar personas, es decir, permiten crear realidad y además, con aplicaciones de empresas como MyHeritage, cada vez son más accesibles. Pero ¿dónde está el límite en el uso de estas técnicas? ¿Existe alguna regulación que ponga coto o prevea los posibles abusos? El añejo debate sobre tecnología y ética vuelve a la palestra.
¿Qué entendemos por deepfake?
Comencemos hablando de la tecnología deepfake o, como prefiere la Fundeu, de vídeos “ultrafalsos”. El término inglés proviene de la unión de las palabras “fake”, falsificación, y “deep learning”, aprendizaje profundo, y se emplea para referirse a contenidos creados a partir de imágenes o audios ya existentes y que han sido manipulados mediante algoritmos de aprendizaje no supervisados. El resultado final es un vídeo o un audio más o menos realista, aunque netamente artificial.
Ahora bien, la tecnología siempre es neutra y no tiene connotaciones negativas, sino que estas van a depender del uso que le demos. De hecho, según Idoia Salazar, presidenta y cofundadora del Observatorio del Impacto Ético y Social de la Inteligencia Artificial (OdiseIA), esta tecnología nos ofrece un potencial nada desdeñable y permite alcanzar altas cotas de creatividad tal y como sucede en la industria cinematográfica.
Uno de los ejemplos más famosos lo encontramos en la película 'Rogue One: una historia de Star Wars' (2016) donde la cara de Carrie Fisher de joven, junto a la interpretación de la actriz noruega Ingvild Deila, dan vida a la Princesa Leia.
Sin embargo, un uso más discutido se produce “cuando no se explicita que se está utilizando dicha tecnología. Es lo que se denomina riesgo medio y aunque no sea intencionado, puede llevar a confusión”, apunta Salazar.
Este supuesto ya aparece contemplado en la propuesta de regulación europea sobre Inteligenca Artificial, obligando a las empresas a especificar si algo se ha creado usando esta tecnología, “exactamente igual que cuando hablas con un chatboot”, según Idoia.
Esta propuesta, sin embargo, no contempla aquellos casos más preocupantes en los que la manipulación sí encierra una intencionalidad, dejando más terreno libre a algunos de los ciberdelitos que más preocupan a los juristas.
Los riesgos asociados al uso de la tecnología deepfake
El realismo conseguido con esta técnica es de tal magnitud que puede resultar imposible saber si se trata de un contenido falseado. Esta técnica puede emplearse, por ejemplo, para propagar noticias falsas o poner en boca de políticos (como Obama) o empresarios (como Zuckerberg) palabras que nunca pronunciaron. Sin contar con su uso original, también están los vídeos eróticos falsos o “pornovenganza”: la actriz Scarlett Johansson fue víctima al protagonizar su rostro, de manera no intencionada, una grabación de contenido erótico.
Por otra parte, crear realidades falseadas con esta tecnología está en la mano de cualquiera ya que existen aplicaciones gratuitas, cada vez más populares, que permiten editar contenidos de manera sencilla. Es el caso del software Deep Nostalgia, una app que permite animar fotografías antiguas, con la promesa de “resucitar” a personas de nuestro pasado.
Estos software, apunta Salazar, “son sencillos y accesibles y estos son los dos elementos que producen la rápida expansión de una tecnología. Sin contar con que gustan mucho, hacen gracia”. Si además nos decantamos por un software de pago, el resultado puede ser extremadamente realista.
Otra de las cuestiones a debate es la posibilidad de quedar registrado en las inmensas base de datos de estas aplicaciones: Deep Nostalgia, por ejemplo, nos anima a bucear en la colección internacional de MyHeritage de 14 mil millones de registros históricos: “comience con el nombre de un antepasado y vea lo que nuestras colecciones pueden revelar sobre su historia familiar”. Aun cuando nuestros contenidos sólo sean usados para hacer funcionar la aplicación, su almacenamiento y clasificación es más que cuestionable.
En este contexto, y aunque ahora estamos en los inicios, Salazar augura que llegará un momento en que estemos rodeados de vídeos y no sepamos si son reales por lo que “si no los regulamos, dentro de dos años va a ser imposible saber lo que es realidad y lo que no”.
Además, la regulación vendría a cubrir un vacío legal, como, por ejemplo, que podamos usar las imágenes de gente fallecida sin su consentimiento. Para la campaña de Cruzcampo, la empresa contó con el asesoramiento de sus hijas que fueron las que además dieron su consentimiento. Pero ¿cómo podemos estar seguros de que Lola Flores estaría de acuerdo? ¿Es ético usar a alguien muerto con fines publicitarios? “Dentro de poco- afirma Salazar- tendremos que realizar un escrito antes de morir en el que habilitemos o deneguemos el uso de nuestra voz y nuestra imagen cuando ya no estemos”.
Salazar plantea además la necesidad de implementar técnicas, utilizando las herramientas de inteligencia artificial para detectar si los vídeos son reales o no, tal y como ya se hace con los bulos informativos. No obstante, los sistemas de detección actuales aún no están tan perfeccionados como para bloquear los deepfakes de manera inmediata. ¿Y qué decir de la alfabetización digital? Se torna complicado enseñar a los usuarios a distinguir lo que es real de lo que no, cuando resulta trabajoso incluso para los científicos forenses.
Qué problemas legales plantean las deepfakes
Los juristas especializados en ciberdelitos alertan de las importantes amenazas que esta tecnología acarrea: vulneraciones al honor, la identidad y la propia imagen (especialmente en el caso de las denominadas ‘pornovenganzas’) y, cómo no, el peligro de desinformación.
Para Noemí Brito, Socia responsable del Área de Tecnología, Innovación y Economía Digital de Ceca Magán, cabe destacar que estos ataques no sólo afectan a personas físicas: “Son comunes los ataques vía deepfake contra compañías desde la 'estafa del CEO’, que permite defraudar o desviar grandes cantidades dinerarias suplantando la identidad de un alto directivo a través de una videollamada”. El abanico de ciberdelitos asociados al uso perverso de las deepfakes es amplio y se diversifica rápidamente.
Por otra parte, el perfeccionamiento de esta tecnología y la calidad de las recreaciones amplían el espectro de la desinformación más allá de las mal llamadas “noticias falsas”. Se puede falsear la historia, hechos y declaraciones antiguas e, incluso, según un estudio reciente de la Universidad de Washington, se puede generar una "geografía falsa profunda" mediante imágenes de satélite tergiversadas y mapas falsos.
¿Cómo se plantea la regulación de una tecnología capaz de falsear la realidad?
En España aún no existe una legislación específica que regule el fenómeno de los deepfakes. Para Brito, la Carta de Derechos Digitales, reconoce el derecho a la identidad en el entorno digital, de acuerdo con el ordenamiento jurídico nacional y europeo. En este sentido, “indica de forma expresa que la identidad no podrá ser alterada, controlada o manipulada por terceros contra la voluntad de la persona, debiéndose prever las garantías y controles necesarios que permitan preservar este derecho en el entorno digital”.
Además, el Código Penal actual ya recoge los atentados más graves contra los derechos de las personas en este ámbito: “En su artículo 401, el Código Penal prohíbe la suplantación de identidad u usurpación del estado civil, aplicando penas de prisión que pueden ir de seis meses a tres años” apunta. De igual forma, en el ámbito civil, destaca la Ley Orgánica 1/1982, de 5 de mayo, de protección civil del derecho al honor, a la intimidad personal y familiar y a la propia imagen.
La regulación ya existente podría desarrollarse en nuestro país a partir de la nueva propuesta europea en torno a la Inteligencia Artificial, que pretende reforzar la transparencia en el uso de la tecnología, precisamente debido a los especiales riesgos de manipulación que plantean.
De esta forma, apunta la experta, “las entidades usuarias de un sistema de inteligencia artificial que genera o manipula contenido de imagen, audio o video que se asemeja apreciablemente a personas, objetos, lugares u otras entidades o eventos existentes, y que a una persona le parecería falsamente auténtico o veraz ('deepfakes'), deberá revelar y declarar que el contenido ha sido generado o manipulado artificialmente”.
Igualmente, dado que los deepfake pueden usarse para difundir bulos a gran escala cualquier normativa destinada a poner coto a la desinformación, también contemplará esta tecnología, tal y como sucede con las recientes directrices europeas para el Código de Buenas Prácticas frente a la desinformación.
Para Brito, además de la regulación específica del fenómeno, también se debe actuar desde desde la autorregulación, “de forma que la industria o sector que corresponda proponga mecanismos o medios razonables para luchar contra los efectos perversos asociados a estas técnicas, como así ocurre ya, por ejemplo, en términos de lucha contra la desinformación asociada”.
No toda suplantación de identidad es delito
La propuesta europea en torno a la Inteligencia Artificialregulará las condiciones a seguir para los fabricantes y productores de herramientas de IA. En concreto, todo producto creado a partir de esta tecnología deberá indicar claramente en qué momentos se hecho uso de la misma, garantizando así que no se engaña al usuario y poniendo en valor el principio de transparencia. El proyecto sólo pretende cubrir este aspecto, pero si nos centramos en la suplantación de identidad, el asunto tiene más vértices.
En España, ya disponemos de herramientas legales que nos permitirían protegernos de usos ilegítimos, ya sea por vía civil o penal. No obstante, según aclara Lorenzo Cotino, Catedrático de Derecho Constitucional de la Universidad de Valencia y Magistrado TSJ, no toda suplantación de identidad es delito: “el punto de partida es que no se criminaliza que una persona se haga pasar por otra, sino que debe haber un ánimo fraudulento, de perjudicar a alguien”. Cotino señala como ejemplo las redes sociales, en las que hemos visto proliferar perfiles falsos que usan nombres de otras persona, sin que esto constituya un delito por sí mismo.
Entonces... ¿Cuándo una suplantación de identidad a través de deepfake constituye un delito?
A partir de aquí y en función de para qué se realicen dichas suplantaciones de identidad y si estas incurren en un hecho delictivo, tenemos varias herramientas legales. Si esa suplantación de identidad, por ejemplo, se realiza para sustraer los datos bancarios de una persona, entraría directamente en juego el Código Penal.
En el caso de las “pornovenganzas” se pueden perseguir por vía penal o civil, en función de si lo consideramos un delito de calumnias e injurias o una intromisión al derecho al honor o a la propia imagen. Y aquí, de nuevo, hay matices: cuando nos referimos a imágenes reales, en las que una persona concreta está protagonizando un vídeo y no entra en juego la manipulación tecnológica, su difusión ya constituiría un delito perseguible por vía penal.
Ahora bien, cuando hablamos de deepfakes, lo más probable es que la manipulación incluya imágenes no reales, junto a otras que sí corresponden con una persona real. En este caso, añade Cotino, el uso de imágenes reales puede generar una indemnización y, si es especialmente denigrante, puede conllevar un delito por calumnias e injurias. El experto señala como ejemplo el Estado de Virginia, en Estados Unidos, donde ya se ha legislado para proteger ante este tipo concreto de vendetas.
En cuanto a su uso en el ámbito político, aunque aún no hay una respuesta unívoca, sí se tiene en cuenta "la necesidad de garantizar que estas manipulaciones no adulteran los procesos electorales, ni manipulan la opinión de la población" añade el experto. Hoy por hoy, sólo está regulado en Texas. Y, en parte, se debe a la dificultad para dilucidar si un contenido manipulado persigue la voluntad de engañar y causar daños o, si por el contrario, se tratar de un contenido paródico, en cuyo caso se ampararía bajo el derecho a la libertad de expresión. Este caso enlazaría con el uso de esta tecnología con finalidades expresivas: incluso cuando utilicemos las imágenes de personas públicas y conlleve un discurso crítico, estaríamos en el terreno de la libertad de creación artística.
Finalmente, en cuanto a las personas fallecidas, Cotino aclara que estas siempre mantienen los derechos de personalidad y son los herederos los que tienen la capacidad de disponer de la imagen si no se prevé nada especial. Si bien el concepto de “herencia digital” es algo bastante novedoso al que se hace referencia en la Ley Orgánica 3/2018, de 5 de diciembre, de Protección de Datos Personales y garantía de los derechos digitales, la Ley Orgánica 1/1982 de 5 de mayo, de protección civil del derecho al honor, a la intimidad personal y familiar y a la propia imagen ya indicaba las pautas a seguir en el caso del uso de la imagen tras el fallecimiento. Y sí, esta ley ya existía en época de Lola Flores, pero difilcilmente hubiese podido imaginarse la Faraona todo lo que vendría después.
-
La noticia "Dentro de dos años va a ser imposible saber lo que es realidad y lo que no": el reto de regular los deepfakes fue publicada originalmente en Xataka por Amaya Noain .
via Xataka https://ift.tt/3ygJMYl
No hay comentarios:
Publicar un comentario