La inteligencia artificial (IA) está transformando la forma en que se hacen las cosas en todos los campos, incluyendo el sistema de justicia. A medida que la tecnología avanza, cada vez son más comunes las herramientas de IA que se utilizan en la justicia para ayudar a los jueces y abogados a tomar decisiones y resolver casos.
En el marco del VIII CONGRESO DE TECNOLOGIA Y JUSTICIA, llevado a cabo en Octubre del 2022 en el CCK, Mario Pergolini brindó una charla donde explica como las herramientas tecnológicas cambiaron y cambiarán, la forma en que pensamos, actuamos y esperamos que se comporten otros actores de la sociedad, incluyendo la justicia.
Inteligencia Artificial y Poder Judicial
Uno de los usos más comunes de la IA en la justicia es la predicción del comportamiento criminal. Algunas herramientas de IA pueden analizar grandes conjuntos de datos sobre el comportamiento criminal y predecir con cierta precisión la probabilidad de que una persona cometa un delito en el futuro.
Esto puede ser útil para los jueces al momento de decidir la sentencia de un acusado o para los abogados al momento de determinar la mejor estrategia de defensa.
Otro uso de la IA en la justicia es la automatización del proceso de toma de decisiones en casos menores.
Algunas herramientas de IA pueden analizar el conjunto de datos de un caso y sugerir una decisión basada en la ley y en casos similares previamente resueltos. Esto puede ayudar a agilizar el proceso de justicia y a evitar errores humanos.
DoNotPay, una inteligencia artificial que se presenta como el primer abogado robot, mencionado por Pergolini en su charla, está elevando su apuesta día a día. Hoy anunció que pagará a cualquier abogado o persona que tengan un caso frente a la Corte Suprema de Estados Unidos 1 millón de dólares si usan AirPods mediante los que escuchar al bot de la empresa y permiten que su abogado robot argumente el caso. Pusieron una condición excluyente: el abogado o persona que acepte el experimento tiene que repetir exactamente lo que le dirá la inteligencia artificial.
La IA también puede ser útil en la búsqueda de pruebas y en la revisión de documentos legales. Algunas herramientas de IA pueden analizar grandes cantidades de documentos en poco tiempo y señalar palabras clave o patrones que puedan ser relevantes para el caso en cuestión. Esto puede ayudar a los abogados y jueces a encontrar pruebas importantes de manera más rápida y eficiente.
Aunque la IA puede ser muy útil en la justicia, también hay preocupaciones sobre su uso. Algunos temen que la IA pueda ser utilizada de manera discriminatoria o pueda reemplazar a los trabajadores humanos en el sistema de justicia. Es importante asegurar que se utilice de manera ética y justa y que se tomen medidas para minimizar cualquier posible sesgo o discriminación.
Inteligencia Artificial para predecir comportamientos criminales
Hay varias herramientas de inteligencia artificial (IA) que pueden utilizarse para predecir el comportamiento criminal. Algunas de estas herramientas incluyen:
- Risk assessment tools:
Estas herramientas utilizan algoritmos de machine learning para analizar grandes conjuntos de datos sobre el comportamiento criminal y predecir la probabilidad de que una persona cometa un delito en el futuro.
Un ejemplo de una herramienta de este tipo es COMPAS (Correctional Offender Management Profiling for Alternative Sanctions). Esta herramienta se utiliza en algunos estados de Estados Unidos para evaluar el riesgo de reincidencia de un individuo y ayudar a los jueces a tomar decisiones sobre la sentencia y el tratamiento adecuados para un delincuente.
La herramienta COMPAS utiliza un algoritmo de machine learning para analizar grandes conjuntos de datos sobre el comportamiento criminal y predecir la probabilidad de que una persona cometa un delito en el futuro. Los jueces pueden utilizar esta información para decidir si un individuo debe ser puesto en libertad bajo fianza, puesto en prisión o recibir tratamiento en el ámbito comunitario.
Sin embargo, ha habido controversias sobre el uso de la herramienta COMPAS debido a preocupaciones sobre el sesgo racial y la privacidad. Algunos han argumentado que la herramienta favorece a los blancos y penaliza a los afroamericanos, y que los resultados del algoritmo no son suficientemente transparentes. Estas preocupaciones han llevado a un debate sobre la ética y la justicia del uso de la IA en el sistema de justicia. En este artículo (en inglés) se analiza esta problemática - Predictive policing software:
Este tipo de software utiliza algoritmos de machine learning para analizar patrones del comportamiento criminal y predecir dónde es más probable que se cometan delitos en el futuro. - Sistemas de monitoreo de reincidencia:
Estos sistemas utilizan algoritmos de machine learning para evaluar el riesgo de reincidencia de un individuo y proporcionar recomendaciones para reducir ese riesgo.
Es importante tener en cuenta que, aunque estas herramientas pueden proporcionar predicciones útiles, también existe el riesgo de sesgo o discriminación en su uso.