
Los estudiantes en prácticas comenzarán a cotizar a la Seguridad Social a partir de octubre
17 abril, 2023
Ley de Vivienda: un conflicto directo con el derecho de la propiedad privada
2 mayo, 2023Inteligencia Artificial: un importante desafío legal para la privacidad y los derechos fundamentales

La inteligencia artificial (IA) está cada vez más presente en las vidas de todos los ciudadanos y es evidente que brinda importantes avances a nivel global en términos personales, sociales, profesionales, económicos, sanitarios, de gobernanza administrativa, seguridad nacional y ciberdefensa. Pero, ante esta revolución tecnológica, que algunos encuadran en la denominada “Cuarta Revolución Industrial”, ¿está realmente a salvo nuestra privacidad? ¿Existe un marco jurídico claro? ¿Existen infracciones graves contrarias a los derechos humanos? A continuación, Efrén Díaz Díaz, responsable de las Áreas de Tecnología y de Derecho Espacial del Bufete Mas y Calvet, da respuesta a estos interrogantes.
¿Está protegida nuestra privacidad? ¿Existe un marco jurídico claro?
La Agencia Española de Protección de Datos (AEPD) investiga actualmente a la empresa OpenAI, diseñadora de ChatGPT, por un posible incumplimiento de la normativa que protege nuestra privacidad. Este hecho ha vuelto a generar dudas sobre la seguridad jurídica que existe al respecto.
Ante estos fenómenos de análisis del lenguaje natural y evoluciones tecnológicas, la privacidad es uno de los principales derechos fundamentales en verse directamente afectados. La privacidad es la base de la protección de la persona en el entorno digital. Sin privacidad sería difícil la salvaguarda de la persona. El libre desarrollo de la personalidad humana y de los derechos fundamentales que protegen a la persona podría verse afectado, limitado o restringido en los entornos digitales sin una adecuada y suficiente privacidad. En consecuencia, es necesario proteger la privacidad, aunque en la actualidad no es posible hacerlo globalmente.
En la Unión Europea, así como en diversas regiones del Planeta Tierra, se ha protegido la privacidad, si bien no siempre se ha reconocido como un derecho fundamental y autónomo. La protección de nuestra privacidad depende del régimen jurídico que la tutele. Sin un reconocimiento expreso no se puede garantizar la protección de la privacidad, más particularmente en los entornos digitales, pues la protección que se ofrezca de forma puntual en un territorio resultará insuficiente respecto de servicios o aplicaciones de carácter global. Por ello, nuestra privacidad está reconocida en diversas jurisdicciones, como por ejemplo la europea mediante el Reglamento General de Protección de Datos (RGPD), pero no a escala global, al menos por ahora.
- Las Fundaciones como impulsoras de la economía social
- NUEVA ERA EN EL REGISTRO HOTELERO (RD 933/2021): LA AEPD PROHÍBE EXPLÍCITAMENTE SOLICITAR COPIAS DE DNI O PASAPORTE A HUÉSPEDES
- El ICAM otorga el Premio a la Innovación Jurídica al Dr. Efrén Díaz Díaz por su trabajo sobre el uso dual civil y militar en el espacio
- El derecho como vocación y servicio: entrevista a Manuel Cuchet
- La Comunidad de Madrid amplía beneficios fiscales en herencias desde el 1 de julio 2025
¿Existen infracciones graves contrarias a los derechos fundamentales?
En el marco europeo, por referir el enfoque a un ámbito concreto y no global, así como en el norteamericano con ciertas salvedades, la privacidad está reconocida y protegida. Dicha protección se ha articulado mediante un régimen sancionador estricto y claro, con severas sanciones a las personas físicas y jurídicas que infrinjan sus prescripciones.
Los Estados miembros de la Unión Europea desempeñan un papel clave en la aplicación y el cumplimiento del Reglamento de AI en proyecto. Según la norma en redacción, cada Estado miembro deberá designar una o varias autoridades nacionales competentes para supervisar la aplicación y ejecución, así como para realizar actividades de vigilancia del mercado.
A fin de aumentar la eficiencia y establecer un punto de contacto oficial con la población y otros homólogos, cada Estado miembro deberá designar una autoridad nacional de supervisión, que también representará al país en el Comité Europeo de Inteligencia Artificial.
¿Cómo y cuáles son las sanciones por las infracciones? Cuando se comercialicen o utilicen sistemas de IA que no respeten los requisitos de la futura regulación europea, los Estados miembros deberán establecer sanciones efectivas, proporcionadas y disuasorias, incluidas multas administrativas, por las infracciones y notificarlas a la Comisión.
La proyectada regulación europea sobre IA fija umbrales que deberán tenerse en cuenta:
- Hasta treinta millones de euros o el 6 % del volumen de negocios anual total a escala mundial del ejercicio financiero anterior, optándose por la de mayor cuantía, por las infracciones por incumplimiento o prácticas prohibidas en relación con los requisitos sobre los datos;
- Hasta veinte millones de euros o el 4 % del volumen de negocios anual total a escala mundial del ejercicio financiero anterior por el incumplimiento de cualquier otro requisito u obligación de la regulación;
- Hasta diez millones de euros o el 2 % del volumen de negocios total anual a escala mundial del ejercicio anterior por el suministro de información incorrecta, incompleta o engañosa a los organismos notificados y a las autoridades nacionales competentes en respuesta a una solicitud.
Como las instituciones, agencias y organismos de la UE deben dar ejemplo, también estarán sujetas a las normas y a las posibles sanciones; el Supervisor Europeo de Protección de Datos estará facultado para imponerles multas.

«ChatGP puede vulnerar principalmente la privacidad y la protección de datos personales, que es un derecho fundamental y autónomo reconocido expresamente en la Carta Europea de Derechos Fundamentales de 2010″.
Efrén Díaz Díaz, responsable de las Áreas de Tecnología y de Derecho Espacial del Bufete Mas y Calvet.
El sistema de inteligencia artificial ChatGPT
ChatGPT es un sistema de chat desarrollado por la empresa OpenAI. Esta inteligencia artificial generativa ha sido entrenada para mantener conversaciones con cualquier persona en lenguaje natural. Sus algoritmos deberían ser capaces de entender con precisión lo que le preguntemos, incluidos adjetivos y variaciones que añadamos en nuestras frases y de respondernos de una manera coherente.
Lo más sorprendente es que es capaz de darnos respuestas muy acertadas y completas, incluso de varios párrafos o enumerad as, expresándolas de manera natural y con información muy exacta, lo que hace muy complicado distinguir que el texto ha sido generado por IA.
En particular, se puede poner como ejemplo que ChatGPT se ha prohibido en colegios y universidades. Una de las primeras instituciones que limitó la utilización de la IA fue el Departamento de Educación de la ciudad de Nueva York, en EEUU, que bloqueó el chatbot de las redes y dispositivos escolares de todo el distrito por preocupaciones sobre eventuales plagios. El Distrito Escolar Unificado de Los Ángeles declaró al Washington Post que la prohibición era preventiva y tenía por objeto proteger la «honestidad académica».
¿Qué derechos puede vulnerar ChatGPT? Puede vulnerar principalmente la privacidad y la protección de datos personales, que es un derecho fundamental y autónomo reconocido expresamente en la Carta Europea de Derechos Fundamentales de 2010. Así se investiga además por parte de las Autoridades de control de varios Estados miembros como Italia y España, pendiente del resultado de las diligencias de investigación.
El Garante para la protección de datos personales italiano ha tomado la decisión de 31 de marzo de 2023 de bloquear ChatGPT principalmente porque los datos personales se recopilan ilegalmente y no existe un sistema de verificación de edad para niños, pues según a autoridad italiana no se proporciona información a los usuarios y sujetos cuyos datos son recopilados por Open AI y no parece haber ninguna base legal que sustente la recopilación y el procesamiento masivos de datos personales para «entrenar» los algoritmos en los que se basa la plataforma.
Marco normativo y jurídico para la inteligencia artificial
En la Unión Europea ya existe una sólida protección de los derechos fundamentales y la no discriminación a escala. Sin embargo, la complejidad y la opacidad de determinadas aplicaciones de IA («cajas negras») plantean problemas jurídicos de primer orden.
Un planteamiento centrado en el ser humano en materia de IA comporta velar efectivamente porque las aplicaciones de IA cumplan también la legislación en materia de derechos fundamentales. Los requisitos de rendición de cuentas y transparencia para el uso de sistemas de IA de alto riesgo, combinados con mejores capacidades de ejecución, garantizarán que se tenga en cuenta el cumplimiento de la legislación en la fase de desarrollo. En caso de infracción, los requisitos legales permitirán a las autoridades nacionales acceder a la información necesaria para investigar si el uso de la IA cumple el Derecho de la UE.
Los beneficios potenciales de la IA para nuestras sociedades son múltiples, desde la mejora de la atención médica a la de la educación. Pero ante el rápido desarrollo tecnológico de la IA, la UE ha decidido actuar de forma conjunta para aprovechar estas oportunidades y colocarse en posición de liderazgo frente a otras regiones del planeta en aras de fomentar una “IA de confianza”.
Si bien la mayoría de los sistemas de IA plantearán un riesgo bajo o nulo, algunos de esos sistemas entrañan ya peligros relevantes que deben enfrentarse para evitar y mitigar situaciones no aceptables. Por ejemplo, la opacidad de muchos algoritmos puede crear incertidumbre y obstaculizar la aplicación efectiva de la legislación vigente en materia de seguridad y derechos fundamentales.
Para responder a estos retos, se ha considerado necesaria y ya se ha desplegado una actuación legislativa para garantizar el correcto funcionamiento del mercado interior de los sistemas de IA, con una ponderación adecuada de los beneficios y de los riesgos.
Esto comprende aplicaciones como los sistemas de identificación biométrica o decisiones de IA que afectan a intereses personales importantes, por ejemplo, en los ámbitos de la asistencia sanitaria, la contratación laboral, la educación o la aplicación de la ley. La propuesta de la Comisión de una normativa en materia de IA tiene por objeto garantizar la protección de los derechos fundamentales y la seguridad de los usuarios, a fin de que haya confianza en el desarrollo y la adopción de la IA.
En el caso particular de España, al IA está sujeta en cuanto al procesamiento de datos a la Ley Orgánica 3/2018, de 5 de diciembre, de Protección de Datos Personales y garantía de los derechos digitales, a través de cuyos derechos y procedimientos se puede denunciar un abuso contra la privacidad.
Área de Tecnología
El área de Tecnología del Bufete Mas y Calvet aborda asuntos relacionados con las tecnologías de la comunicación y la sociedad de la información, desde la protección de datos, el asesoramiento en materia de propiedad intelectual o la defensa de derechos de autor, etc. Contacte con nuestro equipo de abogados para que le asesoremos de forma personalizada.