
La Agencia Espacial Española (AEE) recibió la Membresía de Honor de la Asociación Española de Derecho Aeronáutico y Espacial (AEDAE)
20 enero, 2025
Discursión en torno a la subida del Salario Mínimo Interprofesional en 2025 a la luz de la propuesta de la CEOE
24 enero, 2025Inteligencia artificial, administración de justicia y procesos democráticos

Os compartimos el séptimo artículo de nuestra saga quincenal titulado “Inteligencia artificial, administración de justicia y procesos democráticos” de Pedro Tenorio Sánchez Of Counsel del Bufete Mas y Calvet y Catedrático de Derecho Constitucional de la UNED.
Estos artículos sobre el Reglamento Europeo de Inteligencia Artificial (RIA), ayudan a entender y prevenir cómo afectará el RIA a cuestiones fundamentales que impactan la actividad y organización de las empresas y a las personas en el día a día.
1. Introducción
El uso de la inteligencia artificial (IA) en la administración de justicia y los procesos democráticos plantea riesgos considerables. El Reglamento (UE) 2024/1689, relativo a la inteligencia artificial (RIA) busca establecer un marco regulatorio para reducir estos peligros, definiendo controles estrictos y sanciones ejemplares que aseguren un uso responsable y ético de la IA. Este enfoque busca proteger los derechos fundamentales y preservar la confianza pública en estas áreas clave para el funcionamiento de la sociedad.
2. Inteligencia artificial y administración de justicia
La aplicación de la IA en la administración de justicia implica desafíos éticos y legales profundos. Uno de los principales problemas radica en que estos sistemas pueden incorporar sesgos presentes en los datos con los que son entrenados, lo que podría afectar la imparcialidad de las decisiones judiciales. Si los algoritmos utilizan datos históricos que contienen injusticias, las decisiones automatizadas pueden perpetuar esos errores. Además, el fenómeno de la «caja negra» algorítmica —la falta de claridad sobre cómo se alcanzan las conclusiones— es preocupante, ya que podría impedir que las personas comprendan o cuestionen las decisiones que les afectan, impactando en derechos procesales como al debido proceso y a ser condenado en base a información fiable y precisa, desde el momento en el que no se cuenta con el conocimiento de todos los elementos intervinientes en la toma de decisiones judiciales.
A esto se suma el riesgo de que la automatización comprometa otros derechos fundamentales, como la protección de la privacidad. La excesiva delegación de decisiones importantes a sistemas automatizados, sin la adecuada supervisión humana, podría dar lugar a injusticias y erosionar la confianza en el sistema judicial, lo que tendría graves consecuencias no solo para la justicia, sino para la legitimidad del sistema.
El RIA identifica los sistemas de IA utilizados en la administración de justicia como de «alto riesgo». Esto implica que deben cumplir con requisitos estrictos de transparencia, responsabilidad y supervisión humana. Las entidades que desarrollan o emplean IA en este ámbito tienen la obligación de ofrecer mecanismos que permitan auditar y revisar las decisiones tomadas, asegurando que los afectados comprendan por qué se llegó a un determinado fallo en su contra.
Además, el RIA establece un régimen de sanciones que tiene como objetivo desalentar el uso irresponsable de la IA en el ámbito judicial. Las sanciones por incumplimiento pueden ser extremadamente elevadas, llegando a representar un porcentaje significativo del volumen de negocio de las empresas infractoras. Esto no solo busca castigar las violaciones, sino prevenir conductas negligentes y asegurar que los sistemas utilizados en la administración de justicia respeten los estándares más altos de imparcialidad y transparencia.
Pedro Tenorio Sánchez
D. Pedro Tenorio, nuevo Of Counsel de nuestra firma Bufete Mas y Calvet.
El Catedrático aporta una vasta experiencia en el ámbito del Derecho Constitucional. Desde el 29 de enero de 2015 hasta su disolución el 5 de marzo de 2024, desempeñó el rol de Of Counsel en el Despacho Ramón Rodríguez Arribas Abogados, S.L.P., donde dejó una huella significativa con su profundo conocimiento y habilidades jurídicas.
Actualmente es Catedrático de Derecho Constitucional en la Universidad Nacional de Educación a Distancia de Madrid, posición que ha ocupado desde el 6 de diciembre de 2011.
Su carrera es larga y destacada, con una trayectoria que incluye su labor como Letrado del Tribunal Constitucional de España del 1 de septiembre de 2001 al 2 de junio de 2011.

3. Inteligencia artificial y procesos democráticos
El uso de la IA en procesos democráticos, particularmente en elecciones, también representa un riesgo significativo. Los algoritmos pueden ser utilizados para influir de manera invisible en los votantes mediante técnicas de microsegmentación, que analizan grandes volúmenes de datos personales para enviar mensajes personalizados. Este tipo de manipulación socava la transparencia de las campañas electorales y distorsiona la voluntad del electorado al influir en sus decisiones sin que sean conscientes de los métodos utilizados.
Además, la IA desempeña un papel crucial en la formación de la opinión pública, especialmente a través de redes sociales y plataformas de noticias. Los algoritmos que determinan qué información se muestra pueden contribuir a la polarización, reforzando creencias existentes sin evaluar la veracidad de los contenidos. Esto limita la capacidad de los ciudadanos para tomar decisiones informadas, un pilar esencial para cualquier democracia.
Asimismo, la IA puede restringir la libertad de expresión al eliminar contenido a través de sistemas de moderación automatizada que no siempre son precisos. Por otro lado, puede amplificar discursos engañosos o crear contenido falso, como «deepfakes», que buscan manipular la opinión pública o desprestigiar a ciertos individuos, lo que plantea serios riesgos para la estabilidad democrática.
- Las Fundaciones como impulsoras de la economía social
- NUEVA ERA EN EL REGISTRO HOTELERO (RD 933/2021): LA AEPD PROHÍBE EXPLÍCITAMENTE SOLICITAR COPIAS DE DNI O PASAPORTE A HUÉSPEDES
- El ICAM otorga el Premio a la Innovación Jurídica al Dr. Efrén Díaz Díaz por su trabajo sobre el uso dual civil y militar en el espacio
- El derecho como vocación y servicio: entrevista a Manuel Cuchet
- La Comunidad de Madrid amplía beneficios fiscales en herencias desde el 1 de julio 2025
El RIA clasifica los sistemas de IA que afectan procesos democráticos como de «alto riesgo», imponiendo medidas rigurosas para garantizar que los algoritmos sean transparentes y estén sujetos a supervisión humana. Entre otras obligaciones, las plataformas deben realizar auditorías periódicas que certifiquen que los algoritmos no son manipulados con fines políticos. Además, los ciudadanos deben estar informados cuando interactúan con sistemas controlados por IA, promoviendo una mayor transparencia.
Las sanciones por el uso indebido de IA en procesos democráticos son particularmente severas. Las empresas tecnológicas y plataformas de redes sociales que no implementen mecanismos adecuados de seguridad y transparencia frente a la manipulación o la desinformación pueden enfrentarse a multas multimillonarias, proporcionales a la gravedad de sus infracciones. Este enfoque punitivo busca establecer un fuerte incentivo para que tanto entidades públicas como privadas adopten prácticas éticas y responsables en el uso de la IA, garantizando la integridad de los procesos democráticos y la protección de los derechos fundamentales.
Con este marco regulatorio, el RIA pretende asegurar que los avances tecnológicos no comprometan la justicia ni el funcionamiento de la democracia, estableciendo consecuencias económicas que desincentivan cualquier uso indebido de la IA.