Deepfake: acerca de las implicaciones jurídicas por el uso de imágenes generadas con inteligencia artificial

Johan Sebastian Lozano P.
Miembro del ICDP

El derecho avanza a la par que la sociedad lo hace, el uso de nuevas tecnologías implica cambios necesarios en la forma en como se visualiza el mundo. Muestra de ello, es el uso masificado que han tenido las Inteligencias Artificiales -en adelante IA- en todas las actividades en las que el ser humano se desarrolla, desde resumir libros enteros, pasando por la redacción de textos enteros, hasta la creación de obras de arte digital, básicamente cualquier labor puede ser realizada por intermedio y con apoyo de una IA.

Sin embargo, para bien o para mal, esta dinámica ha suscitado dentro del escenario jurídico múltiples retos, no solo en lo que respecta a la manera en como se pueden incluir estas herramientas al proceso judicial, sino en la forma en como el derecho debe afrontar escenarios negativos frente al uso de la IA. Ejemplo de esto es el uso de la generación de imágenes o videos con fines de suplantación de identidad, en el que de forma directa e intencionada una persona se hace pasar por otra mediante la implementación de estas nuevas tecnologías.

De aquí que cualquier persona pueda resultar siendo afectada en su integridad por el indebido uso de sus datos. Lo que lleva a plantear casos aun más negativos, frente a ciertos grupos poblacionales, como lo son las mujeres, las cuales pueden ser afectadas por el uso del llamado Deepfake [1], como técnica para suplantar su identidad, además para la generación de múltiples punibles que terminan poniéndolas en situaciones contrarias a su propia dignidad. Muestra de esto, es el caso del Streamer estadounidense Bradon Ewing, también conocido por su seudónimo como Atrioc, al cual el 30 de enero del 2023, debido a descuidos en su propia transmisión, se le logró identificar que dentro del navegador de internet se encontraban abiertas páginas dedicadas a la creación de imágenes artificiales de desnudos de mujeres famosas. No obstante, lo que hace particular este caso, es que la IA fue usada específicamente en amigas, compañeras y conocidas directas de la persona inmersa en dicho escándalo [2]. En palabras castizas, se utilizó la IA para poder generar desnudos de múltiples mujeres sin que sobre ellas medie consentimiento alguno, siendo estas proyecciones muy cercanas a la realidad.

Así las cosas, fue a partir de lo ocurrido que situaciones como el consentimiento y la voluntad en entornos digitales se tornaron en un debate frente a las implicaciones que las IA tendrían dentro de un contexto que, ya no solo rodeaba la órbita de las dinámicas sociales, sino que trascendía hacia la esfera propia de los derechos fundamentales [3]. De forma que a continuación, el presente blog, se desarrollara en dos (2) momentos a saber, el primero en donde se contextualiza la figura del deepfake como fenómeno creciente debido al uso cotidiano de las IA y el segundo, analizando las diferentes implicaciones que esto tiene en torno a la intimidad y de forma específica en la afectación hacia las mujeres.

La manipulación de datos e imágenes personales han existido desde los inicios de las tecnologías, esto no es un fenómeno nuevo del que deba debatirse su sorpresa, pero si lo son los mecanismos y procesos por los cuales el ejercicio de suplantar la identidad de una persona, hoy en día, llega a tener mayores facilidades. Esto se debe en esencia a las redes generativas adversariales o por su término anglosajón generative adversarial networks [4], que permiten la creación de contenido de tipo audiovisual de forma hiperrealista casi instantáneo. En otros términos, esto permite la creación de contenido digital de alta calidad, fiel a las referencias que se le introducen.

Esta técnica es la que permite la creación de los deepfake que, en la actualidad, posibilitan -casi que de forma infinita- la creación de imágenes o videos con base en fotos de personas o simples características. Ejemplo de esto, es partir de una foto y poderle cambiar dentro de la misma, el color de piel, la ropa, las expresiones, los atributos y demás aspectos que estén incorporados en la persona, simplemente dando opciones y comandos para ello. Una situación que, a priori, tendría resultados positivos, termina por ser un escenario de vulneración, cuando es a partir de esta dinámica que se materializan situaciones de acoso, chantaje, suplantación de identidad, falsedad personal, difamaciones, manipulación de datos, noticias falsas, entre otros muchos aspectos, los cuales terminan afectando de manera directa a las personas.

Muestra de lo anterior, es que del total de deepfakes puestas en internet, el 96% son de tipo pornográfico, las cuales vinculan tanto a mujeres famosas, como a aquellas que no lo son [5]. Situación peligrosa, que deja ver que solo basta con poseer una foto de una mujer para que el uso de estas IA, permitan alterarlas y transformarlas. Hasta acá, los aspectos condenatorios serían exclusivos de quienes adquieran este tipo de herramientas y hagan uso indebido de la imagen de una persona, pero esta termina por extenderse hasta los creadores de dichas IA o páginas web, para los cuales, según Adrian Croft [6] existen incentivos económicos, financieros y comerciales, por lo que el impedir la existencia de este tipo de sitios en internet, resulta en un problema que ha terminado escalando a nivel internacional.

El caso más reciente es el de la stremaer QTCinderella, que fue el objetivo principal del Streamer Bradon Ewing, quien explicaba que a pesar de que su trabajo la volviese una persona pública, no por el hecho de serlo, esta debía ser sujeto de este tipo de vulneraciones. Afirma la mujer, que esto la terminó posicionando en una situación donde se sentía violada, casi como si no pudiese si quiera existir, debido a los múltiples ataques que estas IA habían permitido. Seguido de esto, indica que se ha visto obligada, en múltiples ocasiones, a pagar altas sumas de dinero para que se retirasen de internet dichas imágenes que, a pesar de ser falsas, se acercaban casi a la realidad de como esta se vería desnuda [7].  

Esto termina siendo una nueva forma de violencia hacia la mujer, adaptada y transformada a partir del uso de las nuevas tecnologías. Que, en este caso, resultan ser mucho más agresivas, puesto que son capaces de vulnerar la integridad de un ser humano, sin que exista forma alguna de impedirlo, pues basta con tener una única foto para poder adaptar el rostro y cuerpo a una situación en la que a simple vista resulta difícil de identificar entre una imagen real y una creada a partir de IA.

Ahora bien, de cara al proceso, la manera en como se debe actuar cuando se esta ante un caso de deepfake, depende en estricto sentido de la finalidad para la que fueron empleadas dichas imágenes. Es decir, que la utilización de las fotos escaló hacia la esfera de la generación de un posible punible, como lo es el caso de la suplantación de la identidad que, conforme al ordenamiento jurídico colombiano, este se encuentra cobijado bajo la figura de la falsedad personal, por lo que el camino a seguir se establece conforme a las propias reglas del proceso penal.

Sin embargo, el problema -en términos jurídicos- surge directamente cuando no existen mecanismos que permitan evitar la ocurrencia de hechos, como la utilización de la imagen personal de una mujer, para poder vulnerar su intimidad y consentimiento, sin que esta persona tenga conocimiento acerca del uso que se les dio a sus datos. Es decir, que al no estar prohibido el uso de este tipo de IA en ordenamientos jurídicos como el colombiano, termina por permitirse la continuidad de este tipo de hechos, los cuales solo son sancionados cuando se genera un punible y no cuando el uso de esta IA, por el simple hecho de usarla implica la vulneración de los derechos de las mujeres.

A manera de colofón, no se busca “satanizar” el uso de las IA, por el contrario, lo que se pretende es darles un uso responsable a estas herramientas, las cuales se incorporaron a la rutina de las personas de forma inconsciente y natural. Esto quiere decir, que no por el simple hecho de existir dispositivos que permiten desnudar a una persona o, por el contrario, suplantar su identidad de forma completa, ya sea en dispositivos de video o imágenes, este tipo de actividades sean permitidas, pues al igual que cualquier actividad del ser humano, estas tienen como límite la vulneración a los derechos fundamentales.

Si bien, las IA tienen una capacidad resolutiva amplia, pareciera que se esta olvidando el otro extremo, en el que cualquier actividad bajo el uso de nuevas tecnologías esta permitido. Por ello, es menester advocar por ver en estas herramientas una solución a problemas existentes y en el derecho una manera de darle respuesta a los conflictos que surjan a partir del indebido uso de las IA.

Finalmente, al igual que en muchos otros escenarios históricos, a la mujer se le posiciona en el lugar de mayor vulnerabilidad, la creación de IA dedicadas de forma específica a la modificación y alteración de fotos de cuerpos femeninos, así como de deepfakes, han terminado por ser una manera en como las tecnologías permiten acceder a la intimidad de una persona sin que sobre ella exista un previo consentimiento, de aquí que el derecho se reitere como un mecanismo para poder menguar cualquier actividad que termine transformándose en un punible.

Referencias bibliográficas

[1] Entiéndase el concepto según su traducción como ultra falso, que a su vez está compuesto por los denominativos Deep, que provienen de los sistemas de aprendizaje profundo que tienen las IA y del concepto fake, que se traduce como falso. Dicha noción fue acuñada por primera vez en los foros de Reddit, en el que se vinieron utilizando las primeras tecnologías de IA para utilizar el rostro de actrices y cantantes famosas para posicionarlas dentro de videos pornográficos falsos.   García Ull, F. J. (2023) Deepfakes: el próximo reto en la detección de noticias falsas. Revista Anàlisi: Quaderns de comunicació i cultura. 64 (1)- 103-120.

[2] Carranza, M. (2023) El escandalo del Streamer Atrioc y las fotos de desnudos generadas por IA. [En línea] Sopitas.Com. Disponible en: https://www.sopitas.com/geek/streamer-atrioc-que-paso-deepfake-fotos-desnudos-ia-escandalo/

[3] Simó Siler, E. (2023) Retos jurídicos derivados de la inteligencia artificial generativa. Deepfakes y violencia contra las mujeres como supuestos de hecho.  Revista InDret. 3 (1). 493-515.

[4] Ibidem. p. 495.

[5] Nobbot. (2019) El 96% de los videos “deepfake” son pornografía y las victimas son mujeres. [En línea] Nobbot Tecnología para las personas. Disponible en: https://www.nobbot.com/pornografia-deepfakes-mujeres/

[6] Croft, A. (2019) From Porn to Scams, Deepfakes are becoming a big racket – and that’s Unnerving Business leaders and Lawmakers. [En línea] Fortune. Disponible en: https://fortune.com/2019/10/07/porn-to-scams-deepfakes-big-racket-unnerving-business-leaders-and-lawmakers/

[7]Suarez Font, A. (2023) Los peligros del porno “deepfake”: la inteligencia artificial también te puede arruinar la vida. [En línea] La vanguardia. Disponible en: https://www.lavanguardia.com/tecnologia/20230414/8881623/porno-deepfake-peligros-mujeres-mundo-denuncian-usadas-voluntad-fantasias-sexuales-pmv.html


Johan Sebastian Lozano Parra

Abogado de la Universidad Libre seccional Socorro, especialista en Derecho Administrativo y maestrando en derecho administrativo de la misma Universidad, miembro del Instituto Colombiano de Derecho Procesal -ICDP-, del Colectivo Nacional de Abogados, Fundación CIEJIL – Centro Internacional de Estudios Jurídicos Interdisciplinarios y codirector de la Revista UNA de la Universidad de los Andes. Categorizado como Joven Investigador en Minciencias.

* El contenido de esta publicación es responsabilidad exclusiva de los autores y no refleja ni compromete la postura del ICDP.

1 comentario en “Deepfake: acerca de las implicaciones jurídicas por el uso de imágenes generadas con inteligencia artificial”

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *


El periodo de verificación de reCAPTCHA ha caducado. Por favor, recarga la página.