Justicia inteligente generativa, sí o no?
Por Nieves Macchiavelli (*)

Los sistemas informáticos inteligentes continúan insertándose en nuestra vida diaria para brindarnos -entre sus múltiples usos-, diferentes herramientas tendientes a mejorar esquemas tradicionales de trabajo. Pero, sin lugar a dudas, las nuevas formas de entrenamiento que la Inteligencia Artificial (IA) hoy nos propone, viene a romper con todo lo conocido. Tanto así, que su irrupción en el sistema de justicia no va a quedar al margen por muchas razones.

 

Es el caso de la Inteligencia Artificial Generativa (IAG).

 

Su particularidad y principal diferencia con otros sistemas de entrenamiento como el predictivo, se centra en que estos modelos son capaces de crear contenidos, por lo que va más allá del análisis de datos para reconocer patrones y predecir resultados en base a ellos.

 

Ejemplos ya conocidos como Chat GPT[1] -Transformador Generativo Preentrenado (Generative Pre-Trained Transformer)-, se valen de este tipo de entrenamiento para poder brindar al usuario una experiencia de intercambio en formato de lenguaje natural con un grado de verosimilitud nunca antes visto[2].

 

Entre otras funcionalidades, tiene la capacidad de generar contenido inédito no solo de texto sino de imágenes[3], música[4] o video[5], lo que difiere por mucho de otros enfoques centrados, como dije, en el análisis y la interpretación de datos existentes.

 

En tal contexto de avance, desde luego que los sistemas judiciales también se verán tocados por este tipo de herramientas. Y, particularmente, en lo que al ejercicio de la magistratura refiere, es probable que permita en el futuro dar un salto exponencial para mejorar la fluidez y calidad del servicio de justicia.

 

Por ello, sin dejar de reconocer la existencia de aspectos negativos que el uso inadecuado de ciertos modelos de IA puede representar[6], es interesante repasar lo que sucede habitualmente en los tribunales de justicia de la Argentina para contrastar lo que podría suceder si se optara por incorporar IAG.

 

Por un lado, encuentro oportuno señalar que, como lo sostiene Kahneman, allí donde hay juicio humano hay errores de todo tipo. Principalmente dos: el sistemático –sesgos- y aquellos que, sin ser sistemáticos, son  consecuencia de situaciones mayormente contextuales tales como la influencia del ambiente, el factor emocional, entre otros ejemplos y que el autor denomina “ruidos”[7].

 

Los jueces, por tanto, no son infalibles pues no se encuentran ajenos a cometer errores de los antes descriptos. Es por ello una tarea diaria impostergable el poder identificar que la presencia de errores no condicione o tuerza de manera injusta las decisiones judiciales. Relegar esta tarea no es posible, en tanto que implicaría  una grave afectación a la garantía de juez/a imparcial, a la vez que puede representar un problema a la hora de garantizar la seguridad jurídica.

 

En esencia, ello es así puesto que el error sistemático puede implicar parcialidad. Y, en el caso de errores contextuales distintos de los sesgos, pueden llevar resolver de modo contradictorio una misma situación de hecho en diferentes momentos[8].     

 

Estas dos cuestiones, que tan solo representan dos de muchos otros y tantos ejemplos que conllevan el ejercicio diario de la magistratura, ya se podían detectar antes de la llegada de la IAG, a partir de modelos de IA basados en el análisis datos y predicción. De hecho, existen variados ejemplos informáticos de IA desarrollados para sistematizar y predecir las decisiones judiciales[9].

 

En tal escenario, y sin desconocer que Francia, por ejemplo, valoró de manera negativa la evaluación, el análisis y la comparación de datos insertos en las sentencias de los jueces para poder predecirlas[10], su utilidad para mitigar o gestionar injusticias  e incluso, para que los particulares puedan  tomar mejores decisiones a la hora de llevar o no a proceso un conflicto, parece incuestionable.

 

Sin embargo, la llegada de IAG tiene al parecer algo mucho más interesante que aportar al sistema de justicia pues, este tipo de entrenamiento, se arroga cierta capacidad de argumentación lógica basada en la información de la que se nutre, incluso como un juez/a humano determinado lo haría. En otros términos, ello significa que usando este tipo de modelos, podría ser entrenado para generar una sentencia, al estilo o a la medida del juzgador/a que lo solicita.

 

Desde luego ello no implica afirmar que la función humana de juzgar se verá reemplazada por un modelo de IAG.

 

En efecto, comienzo por señalar que una IAG es una herramienta informática de la que es posible valerse. Pero, no podría decirse que un sistema de estas características esté hoy día en condiciones de reemplazar la función personal de juzgar.

 

Cabe por ello señalar y tener presente que este tipo de sistemas de IAG –aunque convincentes-, no saben de derecho, no tienen opinión propia, no sabe de valores, ni de ética o de cultura porque carece de capacidades cognitivas que son propias e inherentes a las personas humanas. Y, si bien este tipo de modelos tienen la capacidad de realizar tareas, continúan de momento en la esfera de lo que se conoce como IA débil al carecer, precisamente, de la posibilidad de igualar o superar la cognición propia del ser humano.

 

Se trata, por tanto, de un sistema informático inteligente que continúa presentando limitaciones. Por caso, si bien pueden identificar contextos[11],  no tienen la capacidad de  capturar la sutileza y el contexto implícito que las personas humanas utilizan en el día a día para decidir. Esto no es menor pues, de plano, descarta de momento cualquier duda en torno al reemplazo del servicio de justicia humana a partir del uso de la IAG.

 

No obstante, ello no implica que este tipo de entrenamiento resulte inútil para mejorar el servicio de justicia. Antes bien, todo lo contrario.

 

Concretamente, la función de juzgar comprende la de decidir conflictos de derechos entre partes adversas. Para ello, los jueces/as se valen de estructuras de organización que lo posibilitan. De esta manera, cada juez/a cuenta con personal que le asiste para realizar diferentes funciones. Entre ellas, la de colaborar en la proyección de la decisión judicial para un caso en concreto.

 

En esa tarea, constituye una práctica habitual de los tribunales que gran parte de las diversas actividades por la que se impulsa o se avanza en un proceso judicial, respondan a una estructura previamente estandarizada a partir de documentos modelos que sirven de base para decidir.

 

Pues bien, es en aquella práctica donde precisamente se torna valiosa la IAG para acelerar los tiempos de proyección, mitigar errores y presentar argumentación al estilo de la persona que le corresponde impartir justicia, estructurando un argumento lógico y diferentes puntos de vista sobre un tema en particular.

 

Entonces, ¿por qué no implementar una herramienta inteligente de esa naturaleza entrenada para interpretar normas al estilo de un juez/a determinado?, ¿Por qué rechazar un sistema que en tiempo inmediato es capaz de colaborar en la proyección de una sentencia para la posterior revisión humana del juez/a?

 

Hace algunas pocas décadas siquiera podíamos imaginar salirnos de la recorrida presencial de tribunales, de los expedientes papel por doquier apilados en lugares no aptos o de las máquinas de escribir sonando en los despachos judiciales. Sin embargo, el  avance de la tecnología ha podido ir modificando paulatinamente esos esquemas de trabajo.

 

En tal contexto, y sin desconocer las diferentes realidades de los sistemas judiciales que hoy integran nuestro país federado, no parece ilusorio que más tarde o más temprano se comience a explorar la IAG[12] como estructura de apoyo necesaria a la jurisdicción.

 

En definitiva, será la ciudadanía quien podrá evaluar, en último término, el impacto concreto derivado de su uso y el valor o el aporte que ello pueda representar.

 

 

Citas

(*) Vocal de Cámara, Sala IV del fuero CAyTRC de la CABA. Líder de Proyecto “I-Map” y de “Automatización de procesos y denuncias en materia de violencia de género” del Laboratorio de Innovación e Inteligencia Artificial de la Facultad de derecho de la UBA

[1] https://mitsoftware.com/gpt-4-comofuncionara/#:~:text=A%20tal%20efecto%2C%20OpenAI%20desarrolla,aprendizaje%20autom%C3%A1tico%20y%20recolecci%C3%B3n%20de



[2] Ver informe de UBA IALAB  sobre Chat GPT https://ialab.com.ar/wp-content/uploads/2023/03/Libro-ChatGPT-vs-GPT-4.-UBA-Thomson-Reuters-La-Ley.pdf



[3] Ejemplos como DALL-E y su versión DALLE 2, crea imágenes y arte realista a partir de una descripción en lenguaje natural https://openai.com/research/dall-e https://openai.com/product/dall-e-2



[4] Por ejemplo mediante el uso de GAN (generative adversarial networks).) y los VAE (Variational Autoencoder),  https://empresas.blogthinkbig.com/ai-of-things-vi-inteligencia-artificial-generativa-generar-musica/. MusicLM de Google ya se encuentra disponible https://aitestkitchen.withgoogle.com/experiments/music-lm



[5] https://geekflare.com/es/best-ai-powered-video-maker/. https://chequeado.com/el-explicador/que-es-un-deepfake-y-en-que-se-diferencia-de-un-video-manipulado/





[6] La reproducción de sesgos humanos en los sistemas inteligentes y la consecuente discriminación en las soluciones propuestas son la principal fuente de conflicto.



[7] DANIEL Kahneman y otros, “Ruido, Una Falla en el juicio humano”, pág. 13 y ss, Ed. Penguin Random House Grupo Editorial, Arg. 2.021



[8] La ocasión provoca que no siempre produzcamos juicios idénticos cuando nos enfrentamos a los mismos hechos en dos ocasiones. La hora, el estado de ánimo, son solo algunos ejemplos de la incidencia de estos en el juicio humano. Conf.  DANIEL Kahneman y otros, “Ruido, Una Falla en el juicio humano”, ob. cit  pág. 95 y ss.



[9] Por ejemplo, en EEUU, Legal Analytics, de Lex Machina, Judge Analytics, de Ravel Law, Judicial Profiles, de ALM, y Litigation Analysis, de Bloomberg Law. En Argentina, también se han desarrollado  sistemas con ese propósito https://www.lanacion.com.ar/sociedad/el-argentino-que-creo-un-algoritmo-que-podria-revolucionar-la-justicia-penal-nid11072022/



[10] Herramientas como “predictice”, entre otras, se vieron limitadas con la nueva legislación  https://www.abogacia.es/publicaciones/blogs/blog-de-innovacion-legal/francia-prohibe-el-uso-de-legaltech-para-predecir-las-decisiones-de-los-jueces/.



[11] Por ejemplo, al identificar nuestro estado de ánimo, Conf. https://www.nationalgeographic.com.es/ciencia/asi-interpreta-la-inteligencia-artificial-nuestros-estados-de-animo-_16304. Con la llegada de IAG, Chat GPT tiene la capacidad de reconocer el contexto en cierta medida, pero su comprensión es estática y se basa únicamente en la información proporcionada en la conversación actual.



[12] De hecho, ya es una realidad su uso. Un juez de Cartagena Colombia utilizó Chat GPT para elaborar una sentencia referida a una tutela de familia https://www.youtube.com/watch?v=75o3oDXPras.



Opinión

Agronegocios en Paraguay y su potencial para transformar la economía informal
Por Esteban Acha
Altra Legal
detrás del traje
María José Rodríguez Macías
De BRONS & SALAS
Nos apoyan