
Impacto Laboral de la DANA: Derechos y Responsabilidades de Empresas y Trabajadores Ante una Situación de Fuerza Mayor
7 noviembre, 2024
El Código Geoespacial del BOE: Una Visión Integral y Multidisciplinar
13 noviembre, 2024La regulación de los Deep Fakes. ¿Se pueden poner puertas al campo?

Os compartimos el segundo artículo quincenal de nuestra saga sobre el Reglamento Europeo de Inteligencia Artificial (RIA), escritos por expertos en cada materia del Bufete Mas y Calvet (laboral, penal, educación, mercantil, protección de datos, tecnología, constitucional, procesal civil), que, con un carácter divulgativo y práctico, ayudan a entender y prevenir cómo afectará el RIA a cuestiones fundamentales que impactan la actividad y organización de las empresas y a las personas en el día a día.
Este segundo artículo de Rafael Ansón Peironcely, Socio del Bufete Mas y Calvet y coordinador de esta saga, está de plena actualidad y se titula: La regulación de los Deep Fakes. ¿Se pueden poner puertas al campo?

El Reglamento Europeo de Inteligencia Artificial (en adelante, RIA) define la “ultrasuplantación” (en inglés “Deep Fake”) como “un contenido de imagen, audio o vídeo generado o manipulado por una Inteligencia Artificial (en adelante, IA) que se asemeja a personas, objetos, lugares, entidades o sucesos reales y que puede inducir a una persona a pensar erróneamente que son auténticos o verídicos” (art. 3. 60).
Se trata de producciones sintéticas con un altísimo grado de realismo que pueden afectar negativamente a personas y al interés público. No se trata solo de imágenes o escenas de contenido sexual sino de cualquier otro cuyo contenido puede afectar/manipular a la opinión pública en cualquier ámbito. Por ejemplo, un político reconociendo que la propuesta del partido contrario es mucho mejor que la suya; el CEO de una compañía comiendo en un lujoso restaurante con un conocido traficante de drogas; un grupo de violentos seguidores de un equipo de fútbol que invaden el campo y agreden a los jugadores del equipo rival, …
Los contenidos de estas producciones se refieren a imágenes (p. ej., fotografías), sonidos (p. ej., conversaciones), videos con sonido o textos (p. ej., noticias escritas). Por otro lado, pueden ser (i) manipulados por la IA, es decir, cuando el usuario ha aportado documentos previamente, o (ii) generados por la IA, es decir, cuando la IA ha utilizado los datos de los que disponía, sin que el usuario haya aportado documentos.
Los Deep Fakes afectan fundamentalmente al derecho al honor, la intimidad y la propia imagen, así como al derecho a una información veraz. El RIA establece un nuevo sistema preventivo para evitar la conculcación de estos derechos. Para ello, regula unas obligaciones de transparencia dirigidas a dos tipos de sujetos: los proveedores de sistemas de IA (personas físicas o jurídicas que desarrollen un sistema de IA o un modelo de IA) y los responsables del despliegue (personas físicas o jurídicas que utilicen un sistema de IA bajo su propia autoridad).
Respecto a los primeros, es decir, los proveedores de sistemas de IA, se establece que deben velar por que los resultados de salida del sistema de IA estén marcados en un formato legible por máquina y que sea posible detectar que han sido generados o manipulados de manera artificial (art. 50.2). Esta obligación no se aplicará si los sistemas de IA se limitan a apoyar la edición estándar o no alteran sustancialmente los datos de entrada facilitados por el responsable del despliegue o su semántica, o cuando estén autorizados por la ley para detectar, prevenir, investigar o enjuiciar delitos.
En cuanto a los responsables del despliegue de un sistema de IA, deben hacer público que esos contenidos o imágenes han sido generados o manipulados de manera artificial (art. 50.4), es decir, deben llevar como una “marca de agua” que advierta que son Deep Fakes. Técnicamente serán diferentes según se trate de una imagen, un sonido (p. ej., una conversación), un video o un texto. Si el contenido es parte de una obra creativa, satírica o similar, esta obligación se limitará a advertir que se trata de un contenido generado o manipulado artificialmente de manera que no dificulte la exhibición o disfrute de la obra.
- Las Fundaciones como impulsoras de la economía social
- NUEVA ERA EN EL REGISTRO HOTELERO (RD 933/2021): LA AEPD PROHÍBE EXPLÍCITAMENTE SOLICITAR COPIAS DE DNI O PASAPORTE A HUÉSPEDES
- El ICAM otorga el Premio a la Innovación Jurídica al Dr. Efrén Díaz Díaz por su trabajo sobre el uso dual civil y militar en el espacio
- El derecho como vocación y servicio: entrevista a Manuel Cuchet
- La Comunidad de Madrid amplía beneficios fiscales en herencias desde el 1 de julio 2025
Los responsables del despliegue de un sistema de IA que genere o manipule texto que se publique para informar de asuntos de interés público deberán advertir que el texto se ha generado o manipulado de manera artificial. No existe esta obligación si el uso está autorizado por la ley para detectar, prevenir, investigar o enjuiciar delitos o cuando el contenido haya sido sometido a un proceso de revisión humana o de control editorial y cuando una persona física o jurídica tenga la responsabilidad editorial por la publicación del contenido.
Estas son, muy brevemente expuestas, las novedades regulatorias del RIA. Podemos decir que se trata de obligaciones preventivas (a través de lo que hemos denominado “marca de agua”) cuyo incumplimiento se enjuiciará en los procedimientos ya establecidos para defender el derecho a una información veraz y los derechos al honor, intimidad y propia imagen.
Los afectados disponen de los mecanismos de defensa en relación a los prestadores de servicios de alojamiento de datos establecidos en el Reglamento (UE) 2022/2065 de Servicios Digitales. En este sentido, dichos prestadores de servicios deberán establecer mecanismos que permitan a cualquier persona que les notifique la presencia en su servicio de elementos de información que esa persona considere que se trata de un contenido ilícito (art. 16.1). Los prestadores de servicios de alojamiento de datos adoptarán sus decisiones respecto de esas notificaciones en tiempo oportuno y de manera diligente, no arbitraria y objetiva.
Antes de terminar, nos parece oportuno referirnos a la Proposición de Ley Orgánica de regulación de las simulaciones de imágenes y voces de personas generados por medio de la inteligencia artificial presentada por el Grupo Parlamentario Plurinacional Sumar en el Congreso de los Diputados el 13 de octubre de 2023. Se trató de una interesante iniciativa, consecuencia de alarmantes noticias de aquel momento, que pretendía adelantar la regulación de los Deep Fakes en la línea del RIA, proponiendo la modificación de varias leyes (incluido el Código Penal) pero que, finalmente fue retirado el 15 de marzo de 2024. Es una muestra del interés por estos falsos contenidos que afectan al interés público.
Como conclusión, podemos decir que la nueva regulación trata de salir al paso de los daños que estos nuevos contenidos pueden generar a personas concretas y al interés público. Se trata de obligaciones preventivas basadas en advertir al público de la falsedad del contenido mediante una “marca de agua”. Su eficacia la veremos en breve, aunque pensamos que será limitada, pues aquellos falsificadores que operan al margen de la ley evidentemente no advertirán de que se trata de un Deep Fake y no están claras las nuevas consecuencias coercitivas o sancionadoras que tendrá esta omisión. Como se planteaba en la Proposición de Ley de Sumar, será necesaria la actualización de otras normas (como el Código Penal, la Ley Orgánica 1/82 de protección al honor, intimidad y propia imagen, la Ley 13/2022 General de Comunicación Audiovisual, etc.) para que tenga un alto grado de eficiencia.
Contacto con el Bufete Mas y Calvet
Si necesitas asesoramiento legal en el área de Derecho Mercantil o en cualquiera de nuestras áreas de práctica, no dudes en ponerte en contacto con nuestro equipo de abogados. Realizaremos un análisis multidisciplinar de tu caso para plantearte la solución más eficaz desde el punto de vista legal. Somos profesionales, ¡estos son nuestros valores!