Una empresa israelí, AI21 Labs, ha creado una Inteligencia Artificial basada en una de las exjuezas más reconocidas del Supremo de los Estados Unidos, Ruth Bader Ginsburg.
LEE LA NOTICIA: «La primera jueza hecha por inteligencia artificial es bastante imparcial. Malas (y buenas) noticias para la justicia»
Esta IA se ha entrenado en base a las opiniones, entrevistas y sentencias de la jueza durante sus más de 27 años de experiencia y ofrece un chat que responde preguntas del ámbito legal.
Varias profesionales y organizaciones han realizado pruebas para ver cuan acertadas son las respuestas del chatbot (si responde de la misma manera en que lo haría Ruth Bader Ginsburg). Uno de sus antiguos asistentes jurídicos, Paul Schiff Berman hizo algunas preguntas a la IA y concluyó que las respuestas dejaban mucho que desear. El equipo de Xataka también ha realizado sus pruebas, preguntando a la IA sobre asuntos de privacidad, derechos laborales y asesinatos, y han comentado que las respuestas aportadas fueron bastante lógicas.
Tú también puedes preguntarle a la IA-RBG para probar la exactitud de la herramienta, siempre que esté en inglés y se pueda responder con sí, no o quizás (también argumenta ligeramente la respuesta).
Esta IA aparece en un momento bastante polémico sobre la ética de la Inteligencia Artificial. Aunque actualmente en justicia ya se utilizan herramientas basadas en esta tecnología, sólo sirven como apoyo. Por ejemplo, algoritmos para calcular la probabilidad de reincidencia de los delincuentes.
Este hecho nos hace preguntarnos si en algún momento estas herramientas de apoyo pasarán a ser algo más. Por un lado, esta tecnología podría ser la solución a problemas de criterio entre jueces, ya que no se ve afectada por creencias o emociones humanas. En principio se podría decir que sus resultados serían más objetivos, basados en datos, pero, ¿es realmente la IA imparcial?
En mi opinión no hay que perder el foco en que el ámbito legal, como muchos otros, está en constante evolución. Los modelos de aprendizaje automático se entrenan con datos históricos pasados, por lo que están muy condicionados a entender como “normales” ciertos comportamientos y leyes obsoletas. Añadido a esto, es importante destacar que el impacto de una decisión incorrecta es muy elevado, por lo que estos modelos deberían tener una precisión muy cercana al 100% de acierto.
No me cabe duda de que estos algoritmos pueden ayudar a los jueces a tomar decisiones, aportándoles información objetiva sobre lo que históricamente hubiera sucedido, pero solo son una herramienta más para ayudar a los profesionales a su toma de decisión.

Daniel Herrero, Head of Artificial Intelligence at decide4AI
