En el presente artículo examinamos la relevancia del acceso a los algoritmos y al código fuente en los sistemas de inteligencia artificial (IA) desde una óptica tanto jurídica como técnica. Se discuten principios éticos esenciales como la transparencia, la explicabilidad y la trazabilidad, en relación con normativas europeas y precedentes jurisprudenciales. Aunque se reconoce que el acceso al código fuente puede ser fundamental en ciertas circunstancias, se sugiere que esta medida debe ser considerada como un recurso subsidiario, después de haber explorado otras alternativas, como la revisión de la documentación técnica y los manuales de usuario. Además, se subraya la importancia de asegurar el cumplimiento normativo y la protección de los derechos fundamentales en la gobernanza de la IA.
En los principales documentos éticos internacionales sobre inteligencia artificial, se destacan la transparencia, la explicabilidad y la trazabilidad como principios fundamentales. Por ejemplo, las Recomendaciones éticas de la UNESCO delinean la necesidad de que los estados implementen sistemas de evaluación y seguimiento ético de la IA, asegurando que estos sistemas sean inclusivos y accesibles para todos los sectores de la sociedad. Dentro de estos principios, la transparencia y la explicabilidad son esenciales, aunque no se exige una transparencia absoluta. Se enfatiza que la transparencia debe ser adecuada al contexto y al efecto, buscando un equilibrio con otros principios como la privacidad y la seguridad. No obstante, se establece que los actores de la IA deben informar a los usuarios sobre el uso de sistemas de IA de manera oportuna y adecuada. Las Normas de Derecho Civil sobre robótica, emitidas por el Parlamento Europeo, subrayan la necesidad de un marco legislativo que refleje valores humanistas y éticos, promoviendo la responsabilidad y la rendición de cuentas. Se identifican tensiones potenciales en áreas como la seguridad, la privacidad y la protección de datos, así como principios de beneficencia y no maleficencia, que deben ser considerados en la regulación de la IA.
El Reglamento Europeo de Inteligencia Artificial establece que los sistemas de IA deben ser desarrollados y utilizados con una adecuada trazabilidad y explicabilidad, informando a los usuarios sobre las capacidades y limitaciones de dichos sistemas. Además, la Ley 15/2022, integral para la igualdad de trato y la no discriminación, promueve la transparencia en el uso de algoritmos en la administración pública, garantizando que las decisiones automatizadas sean comprensibles y justificadas.Se destaca que las decisiones en el entorno digital deben respetar principios de buena administración y que la información sobre el uso de IA debe ser accesible y comprensible. Los usuarios tienen derecho a recibir explicaciones claras sobre las decisiones que les afectan, especialmente cuando estas se desvían de criterios automatizados.
La evaluación del funcionamiento de una IA generalmente se lleva a cabo a través de un dictamen pericial informático. Este proceso debe abordar cuestiones clave, como la definición legal de IA, los procesos que han llevado a resultados erróneos y la identificación de fallos en el diseño o la implementación del sistema. La definición legal de IA, según el Reglamento Europeo, describe un sistema basado en una máquina que actúa con distintos niveles de autonomía y que puede adaptarse tras su despliegue. Es crucial determinar si el software en cuestión cumple con esta definición y si ha operado dentro de los márgenes aceptables establecidos en su diseño.
La jurisprudencia estadounidense, como el caso COMPAS, ilustra la falta de transparencia en los sistemas de IA utilizados en el ámbito judicial, lo que puede afectar los derechos fundamentales. Se recomienda que el uso de IA en la justicia se limite a contextos específicos y que se establezcan requisitos legales para su diseño y aplicación. En otros casos, como People v. Superior Court of Los Angeles, se ha solicitado el acceso al código fuente de sistemas de análisis de ADN, destacando la necesidad de justificar la relevancia y la necesidad de dicha información para la defensa. La jurisprudencia también ha abordado el acceso a tecnologías de reconocimiento facial y la importancia de la revisión independiente del código fuente en contextos donde están en juego libertades civiles.
El acceso al código fuente debe ser considerado como una opción subsidiaria, después de haber agotado otras vías de evaluación, como el análisis del proyecto técnico y la documentación relacionada. La transparencia y la auditabilidad son esenciales para garantizar la confianza en los sistemas de IA, y el acceso al código debe justificarse adecuadamente, protegiendo al mismo tiempo la propiedad intelectual. En resumen, la regulación de la IA debe equilibrar la necesidad de transparencia y rendición de cuentas con la protección de la propiedad intelectual y los derechos fundamentales, asegurando que las decisiones automatizadas sean comprensibles y justificadas.
IURISPREVEN Central