Delitos Algorítmicos y Responsabilidad Penal de la Inteligencia Artificial

Alberto Jurado, Caracas

Descargar la Presentación

Ponencia presentada en la III Jornada Especializada de Derecho Penal Económico, organizada por la Revista de Derecho Penal Económico en Caracas, Venezuela el 14 de noviembre de 2025.

LA IA PREDICTIVA UN EMBATE DEL CAPITALISMO DIGITAL DE SUSTITUCIÓN.

La creación y expansión de la Inteligencia Artificial no es un fenómeno neutral, para algunos, es la esperanza de la humanidad; para otros, como yo, representa la destrucción de la manera en la existimos. 

Desde nuestra perspectiva crítica, la Inteligencia Artificial no es mas que un nuevo «embate del capitalismo», del capitalismo digital, el mas certero desde la masificación del internet en los años 90, esta nueva arremetida busca reemplazar el trabajo humano, cambiar profesiones por suscripciones y si son suscripciones “premiums” mucho mejor, reduciendo costos laborales y precarizando profesiones creativas y servicios humanos. 

Aquí debemos deternos a analizar que profesiones u oficios como operadores telefónicos, intérpretes y traductores, correctores de estilos, agentes de viajes ya han sido desplazados, a mediano plazo se espera que representantes de ventas y atención al cliente, redactores de contenidos, historiadores e investigadores sociales esten en riesgo de ser sustituidos.

En las oficinas de abogados, ya han sido desplazados auxiliares de archivo y documentación, pasantes encargados de buscar jurisprudencias y analizar voluminosos expedientes han sido sustituidos por LexisNexis, Westlaw y Copilot jurídico que automatizan la localización de precedentes y doctrina relevante, así como redactores de escritos básicos, recepcionistas y asistentes administrativos, ya no están en los grandes bufetes.

Pero hasta los conductores de Uber quieren ser sustituidos por vehículos autónomos recorren las calles con decenas de cámaras, asombrando y atemorizando a las personas que lo ven en el tráfico.

Pese a todo esto es necesario distinguir que no nos referimos a la Inteligencia Artificial generativa, que crea contenidos originales (texto, imágenes), sino que hablamos de la Inteligencia Artificial predictiva, que utiliza el análisis estadístico y el aprendizaje automático para detectar patrones, anticipar comportamientos y prever acontecimientos futuros.

Es esta última, la Inteligencia Artificial predictiva, la que a menudo es considerada la «destructiva» y la que ha tenido un impacto directo incluso en el sistema de administración de justicia.

POSICIONAMIENTO DE ACTORES CLAVE

Tal como vimos el derecho no es inmune a esta tendencia de desplazamiento profesional, también en la administración de justicia, por una parte se pretende que los jueces seas sustituidos por la Inteligencia Artificial o bien, estos utilizan herramientas de IA para investigaciones de precedentes, resúmenes de casos y apoyo en la toma de decisiones. 

En norteamérica, plataformas de inteligencia artificial predictiva como Premonition y Blue J Legal, asisten a jueces en la toma de decisiones estratégicas, mediante el análisis de grandes volúmenes de datos jurídicos y la predicción de resultados judiciales.

En España, usan sistemas como VioGén (valoración de riesgo de violencia de género), RisCanvi (predicción de riesgo de reincidencia en prisión) y VeriPol (predicción de denuncias falsas), que son instrumentos algorítmicos que realizan análisis predictivos basados en una gran recopilación de datos.

Este panorama ha suscitado serias preocupaciones sobre la sustitución de los jueces por la tecnología, poniendo en riesgo la autonomía y la imparcialidad judicial. 

En este sentido, los organismos internacionales y las propias empresas tecnológicas han reaccionado:

En primer lugar, la Relatora Especial de la ONU para la independencia de magistrados y abogados (Margaret Satterthwaite) afirmó en su informe de 2025 que no se considera conveniente que la Inteligencia Artificial sustituya a jueces o a los abogados. 

Argumentó que el derecho a un tribunal independiente e imparcial requiere el acceso a un juez humano, y el derecho a la defensa requiere un abogado humano. Advirtió que la automatización de decisiones judiciales puede vulnerar el derecho a un juicio justo y socavar la independencia judicial.

Existen preocupaciones acerca de que la falta de formación especializada en las limitaciones de las herramientas de Inteligencia Artificial conlleva un riesgo de des-responsabilización («con el argumento de si la máquina dice riesgo alto, por algo será»). 

Si los jueces llegan a dictar sentencias confiando más en la máquina que en su propio criterio humano, el control de la violencia, que es una responsabilidad inherente del Estado, podría terminar en las manos de empresas privadas que programan a las máquinas.

2. La propia empresa OpenAI, creadora y propietaria de ChatGPT en su actualización de las políticas de uso en octubre de 2025 estableció que ChatGPT no debe ofrecer asesoramiento médico, legal ni financiero personalizado sin la intervención de un profesional con licencia. 

Además, la empresa prohibió la «automatización de decisiones de alto riesgo en ámbitos sensibles sin revisión humana», incluyendo explícitamente el ámbito jurídico y aspectos médicos.

Para nosotros, parece que esta decisión mas allá de preocupaciones éticas, responde a temas legales y comerciales, incluyendo el riesgo de demandas por mala praxis y la presión de actores institucionales poderosos.

RIESGOS DE LA CAJA NEGRA EN LA JUSTICIA

Dos de los desafíos más graves de los algoritmos predictivos en la justicia penal son el sesgo y la opacidad:

El primero, en cuanto a los sesgos algorítmicos, nos referimos a que los sistemas informáticos a menudo reproducen los prejuicios de los humanos que los codificaron o los datos con los que fueron entrenados. Esto significa que los datos de entrenamiento pueden codificar patrones históricos de desigualdad y discriminación. 

Un ejemplo paradigmático es el programa CÓMPAS, un software utilizado en Estados Unidos para evaluar mediante algoritmos predictivos el riesgo de reincidencia de personas acusadas o condenadas, en la toma de decisiones judiciales como la libertad condicional.

El medio de periodismo de investigación Propublica analizó más de 7.000 perfiles de CÓMPAS en el condado de Broward, Florida y halló que las personas negras no reincidentes, fueron clasificadas como de “alto riesgo” el doble de veces que las personas blancas.

El segundo desafío tiene que ver con la opacidad, definida como la falta de transparencia de los algoritmos de aprendizaje automático (deep learning) que llegan a resultados sin una explicación clara de la correlación de la información. 

Este oscurantismo, conocido como el concepto de black box, hace imposible establecer un nexo causal claro entre por ejemplo la lesión de un bien jurídico y el proceso de toma de decisiones del sistema inteligente.

Los modelos de Inteligencia Artificial tipo black box , como redes neuronales profundas y sistemas de recomendación son aquellos cuya lógica interna no puede ser interpretada fácilmente por humanos, es decir a pesar de que se conocen los datos de entrada y los resultados no se entiende cómo la máquina llegó a determinada conclusión.

Estos sistemas, a pesar de ser alta precisión y gran capacidad de manejar datos complejos, tienen el riesgo de la falta de transparencia, sesgos ocultos y dificultad para auditar decisiones.

En ese sentido Artículo 15.1.h  del Reglamento General de Protección de Datos (GDPR) en Europa, establece el derecho a una explicación o información significativa sobre la lógica aplicada de las decisiones automatizadas, así como la importancia y las consecuencias previstas de dicho tratamiento para el interesado.

PERSONALIDAD ARTIFICIAL

Existe una propuesta para regular la responsabilidad penal de la Inteligencia Artificial a través de la creación de un tercer tipo de persona, además de la persona natural y la persona jurídica, se trata de la creación de una personalidad ficticia o persona artificial como medio para determinar la responsabilidad penal de la IA, con dos objetivos principalmente:

1. Facilitar la Determinación de la Responsabilidad Penal ante la comisión de delitos por parte de la Inteligencia Artificial.

2. Solucionar Casos Irresolubles cometidos por la Inteligencia Artificial ante la ausencia de precedentes regulatorios nacionales, especialmente en casos donde no es posible imputar a ninguna persona física. 

Esta propuesta surgió en México, de la investigadora Alejandra Morán Espinosa, que propone el reconocimiento de esta figura como parte de un régimen penal específico para IA y se apoya en:

• El hecho de que ya existe la posibilidad de que una persona jurídica pueda ser responsable penalmente si a través de ésta se ha cometido o facilitado la comisión de un delito o en su beneficio directo.

• Si la IA es propiedad de una persona jurídica, las sanciones previstas para las personas jurídicas podrían aplicarse a la Inteligencia Artificial.

La figura de la persona artificial surge ante la necesidad urgente de regular jurídicamente a la inteligencia artificial, que por su capacidad de aprendizaje autónomo y toma de decisiones podría dejar de ser una simple herramienta para convertirse en sujeto activo del delito, al emular conductas humanas, incluso criminales, lo que exige una normativa penal específica que delimite su responsabilidad.

DELITOS ALGORÍTMICOS

Empecemos por mencionar que un algoritmo en cuanto a la Inteligencia Artificial, es un conjunto de reglas que permite a una máquina aprender, tomar decisiones y resolver problemas de forma autónoma, basándose en datos. 

Los delitos algorítmicos son conductas delictivas facilitadas, ejecutadas o encubiertas mediante el uso de algoritmos, especialmente en contextos de inteligencia artificial, algo parecido a la definición de los delitos informáticos, lo que llamamos en su momento criminalidad mediante computadoras.

De modo que la Inteligencia Artificial, es capaz de aprender y decidir, ya no es solo una herramienta, sino que  puede cometer delitos (ciberdelitos), sumándose a los sujetos activos del delito y difuminando la línea entre herramienta y agente, lo mismo ocurrió en cuanto al velo corporativo cuando los delitos se cometían por medio de empresas.

Entre las manifestaciones del delito algorítmico encontramos:

Creación de Deepfakes o Materiales falsificados pero realistas, que son instrumentos de suplantación cada vez más frecuentes en estafas financieras, imágenes y videos manipulados, falsificados pero realistas, usados para engañar, difamar o extorsionar. Por ejemplo, se ha usado Inteligencia Artificial para simular la voz de un CEO y solicitar un depósito fraudulento.

Ataques cibernéticos capaces de automatizar y escalar rápidamente, así como la creación de Malware Autónomo que aprende y se adapta a las defensas de seguridad.

• La Inteligencia Artificial facilita la recopilación y análisis masivo de datos personales para robos de identidad automatizados a gran escala, puede crear una identidad ficticia en segundos o lanzar campañas de phishing que superan cualquier engaño clásico.

Sabotaje en sistemas cruciales como mercados financieros.

MODELO HÍBRIDO DE RESPONSABILIDAD PENAL

La característica esencial de los delitos cometidos a través de la Inteligencia Artificial es que la intervención humana se produce en un momento muy anterior a la comisión del hecho, específicamente al momento de la programación, esta realidad obliga a los penalistas a adelantar la barrera de protección penal a ese momento.

Para determinar la responsabilidad en la complejidad de la Inteligencia Artificial, la doctrina propone la urgente necesidad de una normativa que implemente un modelo híbrido de atribución de responsabilidad penal.

Este modelo debe combinar el criterio del riesgo permitido con los delitos de peligro abstracto.

• En cuanto al riesgo permitido, el fundamento de la criminalización debe sostenerse que la conducta de la Inteligencia Artificial excede lo socialmente permitido, esto requiere identificar cuál es el riesgo permitido en relación con la Inteligencia Artificial, teniendo en cuenta regulaciones de otras ramas del Derecho.

• Si se trata de los delitos de peligro abstracto, encontramos la necesidad de adelantar la barrera de protección penal, como se dijo al momento de la programación, dando un gran peso a la «criminalización de conductas imprudentes y de peligro». Este concepto permite castigar la mera creación de un riesgo prohibido, son cruciales ante tecnologías que operan con decisiones autónomas.

RESPONSABILIDAD PENAL ESCALONADA

La Responsabilidad Penal de los delitos algorítmicos implementando el modelo híbrido antes estudiado debe extenderse de forma escalonada a: Desarrolladores, programadores, proveedores y usuarios institucionales, dependiendo de su grado de control sobre la tecnología.

La responsabilidad escalonada implica que la imputación penal no se agota en el operador final, sino que se distribuye según el rol, el conocimiento y el deber de cuidado de cada actor involucrado. 

Esto se articula en tres niveles:

1. Responsabilidad del programador o diseñador, por introducir sesgos, fallar en prever riesgos previsibles o entrenar el sistema con datos inadecuados.

2. Responsabilidad del proveedor o empresa, por desplegar un sistema sin pruebas suficientes, sin transparencia o sin mecanismos de supervisión.

3. Responsabilidad del usuario institucional por tomar decisiones sin verificar su idoneidad.

Esta responsabilidad escalonada se debe implementar a través de modelos de autoría y participación funcional como coautoría, autoría mediata, responsabilidad por defecto de organización, tipos penales de omisión impropia o de infracción del deber de garante: como los propuestos en el derecho penal económico.

Un caso paradigmático de la dificultad de imputación es el del accidente fatal de un vehículo autónomo de Uber en Arizona, USA. 

En este caso se condenó a la conductora de seguridad por Homicidio culposo a 3 años de libertad condicional supervisada, sin embargo, la empresa UBER no fue imputado penalmente pero llegó a un acuerdo civil por los daños.

CONCLUSIONES Y RETOS

La Inteligencia Artificial es la próxima y urgente frontera regulatoria, así pues, el modelo de sociedad que construyamos en el futuro se regirá por quien gane el pulso diario entre algoritmos y criminales, por esa razón debemos concluir que:

1. El Control Humano como Principio Ineludible: La piedra angular de una IA fiable es el principio de acción y supervisión humana, es decir que ningún sistema debe tomar decisiones autónomas sin el control por parte de un humano, siendo este el último responsable, porque si bien la Inteligencia Artificial puede emular y realizar actividades humanas, debe tenerse presente que ello incluye lo mejor y lo peor de la humanidad.

2. Transparencia y Rendición de Cuentas: La ausencia de estos principios es un intento de diluir la posibilidad de determinar quién es el responsable por los actos derivados de la IA, por ello la ley debe establecer requisitos para evitar cajas negras y exigir explicaciones sobre la lógica aplicada de las decisiones automatizadas.

3. La Necesidad de Soberanía Digital: La regulación no debe frenar el progreso, sino guiar el desarrollo de la IA de manera responsable y ética, esto debido a que el crimen organizado se mueve más rápido que la regulación y si bien no es posible prohibir el desarrollo de la tecnología, sí debemos construir soberanía digital, que implica entender que la IA debe ser regulada jurídicamente, ya que puede aprender, desaprender, corregir y tomar malas decisiones por sí misma.

Así las cosas, la regulación de la Inteligencia Artificial no se trata de satanizar la tecnología, sino de asegurar que la justicia se mantenga humana y equitativa en la era digital. Así como el Derecho Penal tradicional regula el riesgo permitido para prevenir el daño, la regulación algorítmica debe controlar el riesgo inherente a sistemas que operan a una velocidad que la justicia humana no puede seguir.

REFERENCIAS BIBLIOGRÁFICAS

1. Algoritmos e inteligencia artificial en el sistema de justicia penal – InDret. Autor: Daniel Varona. Publicación:InDret 4.2024.

2. Criptomonedas, IA y crimen: la nueva economía en la opacidad. Autor: Paula Andrea Ramírez Barbosa. Publicación: TRIBUNA i, 11 OCT 2025 – 06:00CEST.

3. Delitos Algorítmicos: Desafíos Urgentes para la Justicia y Nuestros Derechos – ALC Abogados. Publicación: ALC Abogados, Maracaibo – Venezuela. Copyright © 2025.

4. El riesgo permitido como fundamento de penalización de delitos con IA | UAO CEU. Autor/Ponente citado: Fernando Miró (Catedrático de Derecho Penal de la Universidad Miguel Hernández y relator general de la Asociación Internacional de Derecho Penal – AIDP). 

5. Informe de la Relatora Especial de la ONU, Margaret Satterthwaite, de 2025 (A/80/169)

6. La nueva economía del delito: la oscuridad digital del dinero | EL PAÍS América- Autor: Paula Andrea Ramirez Barbosa. Publicación: TRIBUNA i, 05 NOV 2025 – 05:40CET.

11. Los algoritmos y el futuro de la seguridad ciudadana y la justicia | Opinion | América | EL PAÍS América. Autor: Michael Weintraub.Publicación: EL PAÍS América, TRIBUNA i, 17 MAY 2025 – 06:00CEST.

12. Responsabilidad penal de la Inteligencia Artificial (IA). ¿La próxima frontera?. Autor: Alejandra Morán Espinosa. Título completo: Responsabilidad penal de la Inteligencia Artificial (IA). ¿La próxima frontera? Criminal Responsibility of Artificial Intelligence (AI). The next frontier?. Publicación: REVISTA DEL INSTITUTO DE CIENCIAS JURÍDICAS DE PUEBLA, MÉXICO. E – ISSN 1870-2147. NUEVA ÉPOCA VOL. 15, No. 48. JULIO – DICIEMBRE DE 2021.

13. Sobre la responsabilidad penal por la utilización de sistemas inteligentes – CRIMINET – Universidad de Granada. Autor: Javier Valls Prieto. Publicación: Revista Electrónica de Ciencia Penal y Criminología. 2022, núm. 24-27. ISSN 1695-0194.