El Tribunal Superior de Justicia de Navarra, una de las instituciones más relevantes en el ámbito judicial de la comunidad foral, ha tomado una decisión que ha captado la atención de muchos en el sector legal. Esta decisión se refiere a la no sanción de un abogado que, en el contexto de una querella, citó incorrectamente un artículo del Código Penal colombiano en lugar del español. Este error, que se originó debido a un fallo en el uso de la inteligencia artificial ChatGPT, plantea cuestiones importantes sobre la interacción entre la tecnología y el derecho. Este fallo es significativo en el ámbito legal, ya que aborda el uso de tecnologías emergentes en procedimientos judiciales y las implicaciones éticas y legales que conllevan, lo que podría tener repercusiones en futuros casos similares.
En su Auto número 2/2024, emitido el 4 de septiembre de 2024, el Tribunal Superior de Justicia de Navarra (TSJ) ha decidido archivar la pieza separada que se había abierto para investigar si existió abuso de derecho o mala fe procesal por parte del abogado que presentó la querella. Esta decisión se basa en la naturaleza novedosa del caso y en la pronta respuesta del letrado, quien se disculpó de manera formal y clara por el error cometido, mostrando así un compromiso con la transparencia y la ética profesional.
El 17 de junio de 2024, se dictó un auto de inadmisión de la querella en el rollo penal número 17/2024. En este auto, se ordenó la apertura de una pieza separada para examinar la posible existencia de abuso de derecho o mala fe procesal, permitiendo al querellante presentar sus alegaciones en un plazo de cinco días hábiles, lo que demuestra el interés del tribunal en garantizar un proceso justo y equitativo. El abogado, C.A.B., en representación del querellante, presentó sus alegaciones, señalando que se había cometido un error material involuntario al citar un precepto del Código Penal colombiano, que fue proporcionado por la inteligencia artificial. Este error fue reconocido y excusado por el letrado ante el Tribunal, lo que añade un elemento de responsabilidad y reconocimiento de la importancia de la precisión en los procedimientos legales.
El artículo 247 de la Ley de Enjuiciamiento Civil (LEC) establece la obligación de actuar de buena fe en los procedimientos judiciales, advirtiendo sobre posibles sanciones en caso de incumplimiento. En este contexto, el TSJ consideró que, aunque el uso de tecnologías emergentes como ChatGPT puede presentar riesgos, la reacción inmediata del abogado y la naturaleza del error justificaron el archivo de la pieza sin imponer sanciones. Este análisis resalta la importancia de la intención y la diligencia en la práctica legal, así como la necesidad de un marco que contemple el uso de nuevas tecnologías.
El uso de inteligencia artificial en el ámbito legal ha suscitado un debate sobre la responsabilidad de los abogados en la verificación de la información generada por estas herramientas. Organismos como la Law Society y el Consejo de la Abogacía Europea han emitido directrices que subrayan la importancia de la supervisión humana en el uso de estas tecnologías para evitar errores que puedan comprometer la integridad del proceso judicial. Este aspecto es crucial, ya que la confianza en la tecnología no debe sustituir el juicio crítico y la responsabilidad profesional de los abogados.
El Tribunal concluyó que, dado el carácter innovador del caso y la pronta respuesta del abogado, no era necesario imponer una sanción. Sin embargo, el fallo sirve como un recordatorio sobre las implicaciones legales y éticas del uso de tecnologías avanzadas en el ejercicio de la abogacía. El TSJ ha dejado claro que, aunque no se impusieron sanciones en este caso, el uso descuidado de herramientas como ChatGPT puede dar lugar a situaciones de mala fe procesal y abuso del proceso, lo que podría tener consecuencias graves para la justicia y la confianza pública en el sistema legal.
La decisión del TSJ de Navarra establece un precedente en la regulación del uso de inteligencia artificial en procedimientos legales, enfatizando la necesidad de un enfoque responsable y ético en su aplicación. Este caso podría servir como un punto de referencia para futuros litigios y para la formación de abogados en el uso de tecnologías emergentes, asegurando que se mantenga la integridad del proceso judicial en la era digital.
IURISPREVEN Central