INTELIGENCIA ARTIFICIAL DESDE UN PUNTO DE VISTA LEGAL

Written by:

Perspectiva jurídica: retos éticos y regulación

Javier Yáñez, 2023.

javieryanezlop@gmail.com

Si tuviéramos que hallar puntos de encuentro entre la tecnología y el Derecho, la Inteligencia Artificial destacaría como uno de los más obvios en los últimos años. Y aunque si bien es cierto que esta tecnología impulsará el progreso de la sociedad en los años venideros, también es correcto afirmar que traerá consigo unos desafíos legales y éticos que parece conveniente explorar. Por esta razón, tanto la UE como la gran mayoría de países, se han puesto manos a la obra para balancear la innovación tecnológica y la protección de derechos individuales del ciudadano.

¿Qué es la IA? ¿Y el Deep Learning? Aplicaciones en la vida real

No es mi intención explicar en este artículo qué es la Inteligencia Artificial, en Internet existen muchos y mejores recursos que consultar para conocer de qué se trata y cómo funciona esta tecnología, pero sí es cierto que para entender un poco mejor los retos éticos y la regulación venidera considero que es necesario tener un mínimo de conocimiento sobre la materia, así que haré una explicación breve y todo lo sencilla posible para poder proseguir más adelante acerca de los desafíos éticos con una base mínima.

La IA permite a las máquinas estudiar patrones y aplicar soluciones basadas en los datos con los que es alimentada. Dentro de la IA encontramos diferentes ramas como el Machine Learning o el Deep Learning. Esta última, como su nombre indica, permite un procesamiento de datos en mayor cantidad que la primera gracias a que su estructura de aprendizaje imita la red neuronal de un cerebro humano. Unos nodos conectados entre sí a través de capas van transfiriendo, ajustando y procesando los datos introducidos para poder distinguir ciertos patrones que se vean repetidos. A la capa inicial en la que introducimos los datos se le denomina input, las “capas ocultas” son las intermedias que procesan esa información y transmiten en sentido ascendente los datos a las capas sucesivas hasta llegar a la capa final, denominada output. Con cuantos más datos sea entrenada la capa inicial más eficaz y precisa será nuestra máquina.

Ahora, sabiendo un poco por encima cómo funciona, podemos hacernos una idea de las numerosas aplicaciones que traerá consigo en múltiples actividades profesionales y en la sociedad:

Me viene a la mente el reciente trabajo de unos investigadores del Laboratorio de Ciencias de la Computación e Inteligencia Artificial (CSAIL) en colaboración con el Hospital General de Massachusetts, con el que se consiguió detectar el cáncer de mama con hasta 5 años de antelación. Los algoritmos fueron capaces de identificar ciertos patrones del tejido mamario gracias a las mamografías de más de 60.000 pacientes con las que fue entrenada la máquina.

Pero no solo eso: algunos otros ejemplos pueden ser la personalización de recomendaciones y campañas de publicidad, predicción de riesgo crediticio y detección de fraudes en transacciones bancarias, optimización de rutas logísticas y de transporte, eficaces asistentes virtuales de soporte al cliente, traducciones instantáneas, adaptación de la dificultad en videojuegos según el rendimiento del jugador, dispositivos médicos inteligentes que a través del monitoreo del paciente alerten incluso antes de que se produzca un problema, obras de arte, composiciones musicales, guiones de cine, reconocimiento facial, detección de objetos, predicción de demanda energética para optimizar la distribución y generación, selección de candidatos en base al CV, vehículos autónomos y su comportamiento, predicción meteorológica y de desastres naturales, percibir conductas anómalas en temas de ciberseguridad y redes, -al fin y al cabo el momento de percibirlas es antes de que se produzcan, no después-. Como último ejemplo para destacar la magnitud que puede alcanzar la IA en el sector legal me parece conveniente mencionar el experimento AI vs. lawyers llevado a cabo por LawGeex en 2019, en el que 20 abogados se midieron a un sistema de IA para revisar y detectar posibles riesgos en las cláusulas de un contrato NDA (Non-Disclosure Agreements). Los abogados consiguieron localizar un 85% de riesgos frente al 94% del modelo IA, pero lo más llamativo es que a los primeros les llevó una media de 92 minutos alcanzar ese resultado, frente a los 26 segundos que tardó la IA. Con esto creo que es suficiente para hacernos una idea del potencial.

Y, pese a que poner en marcha un modelo de los anteriores exige de una competencia excepcional, las empresas y los usuarios ya poseemos lo más indispensable: los infinitos datos con los que nutrir a la máquina para que ejerza su trabajo.

Desafíos Éticos

Repasada ya la teoría podemos abordar los desafíos que se plantean. Y es que no son pocos ni sencillos, la proliferación de la IA ha propulsado cuestiones morales asociadas a ella en el ámbito ético y legal. Es importante recalcar que son máquinas y, por ende, no conscientes de sesgos o discriminaciones. Hacen lo que el algoritmo les indica, si el etiquetado, los datos o el modelo son erróneos, el resultado será erróneo.

Permitidme el uso de ejemplos para una mayor comprensión. Si un historial de contratación presenta que determinados grupos sociales han sido subrepresentados en una compañía debido a prejuicios obsoletos, los modelos de contratación sustentados en esos datos podrían llegar a prolongar esa discriminación, como evidenció el documental Sesgo Codificado (2020) en relación a la política de contratación en Amazon, que descartaba curriculums que indicasen pertenencia al género femenino. Lo mismo pasaría en un modelo de traducción predictivo alimentado con datos entre los que se incluyen términos ofensivos o estereotipados. De la misma forma se pueden producir sesgos legales si los datos introducidos incluyen artículos derogados o legislación desactualizada. O si me equivoco y nutro a la máquina con reglamentos y los etiqueto como decretos-leyes, el modelo de aprendizaje confundirá un decreto-ley con un reglamento en el futuro, pues ha aprendido erróneamente en la fase del aprendizaje supervisado.

 Como vemos, para que una IA falle no siempre es necesario que los creadores pretendan introducir datos sesgados por voluntad propia. Habrá ocasiones en las que el sesgo venga arrastrado inconscientemente desde la etapa inicial.

Si hemos analizado la problemática de los sesgos nos vemos obligados a analizar también el problema de la transparencia, y es que la UE en su propuesta de Ley de Inteligencia Artificial de 2021, -en revisión todavía por el Parlamento Europeo-, no se cansa de enfatizar en la necesidad de exigir un «cierto grado de transparencia respecto de los sistemas de IA de alto riesgo para subsanar la opacidad que puede hacer a algunos de ellos incomprensibles o demasiado complejos para las personas físicas».

Y me parece esencial recalcar la expresión “cierto grado”, pues ese detalle es un flotador en mar abierto para los desarrolladores. Muchas veces los modelos son cajas negras, lo que implica que su funcionamiento es complejo de comprender hasta para los propios creadores, y si es difícil de comprender para ellos imagínate tener que explicárselo al usuario medio.

La falta de transparencia podría conllevar falta de responsabilidad y acrecentar la dificultad de rendición de cuentas en caso de resultados erróneos. Igualmente puede ocultar sesgos en los datos de entrenamiento y producir un perjuicio consciente. Como resultado de una nula o exigua transparencia se puede cosechar una falta de confianza por parte del público en el uso de esta tecnología. 

En el contexto legal, la exploración de estos desafíos éticos es vital para avalar que la tecnología siga siendo un instrumento de progreso y no de perjuicio. La regulación deberá encontrar un balance que mitigue los sesgos, garantice cierto grado de transparencia y permita seguir con el crecimiento para con la sociedad. La cooperación entre especialistas en IA y derecho tecnológico es crítica para constituir marcos normativos que protejan los derechos individuales y fomenten un uso responsable.

Posibles Soluciones Éticas

Para anticiparnos a los problemas que pueda generar un algoritmo en su resultado final es vital implementar un planteamiento que fomente la transparencia, la equidad y la responsabilidad. Algunas medidas que podrían haber mitigado los errores aludidos anteriormente son haber incluido en los datos de entrenamiento del algoritmo más currículums de mujeres válidas para los puestos de trabajo ofrecidos, y así poder entrenar la máquina con imparcialidad. Si en vez de un 90-10 con currículums de varones hubiese sido entrenada con un 50-50, la máquina no hubiese dado preferencia a los currículums de varones. Lo mismo es extrapolable para raza, color, sexo, idioma, religión, etc.

Cuando previamente abordamos el problema de la transparencia algorítmica quedó claro que muchas veces, al tratarse de cajas negras, no queda bien claro ni siquiera para los expertos cómo llega el algoritmo a sus decisiones. Sin embargo, sí podríamos ayudarnos de algunas estrategias que facilitasen el cumplimiento de la normativa europea, como seleccionar algoritmos que fueran inherentemente más interpretables, apoyarnos en representaciones claras de los procesos internos del modelo, usar datos equilibrados y representativos, no utilizar datos obsoletos en el entrenamiento de la máquina, someter a auditorías periódicas a los modelos de aprendizaje, incluir supervisión humana a lo largo del proceso, medir anticipadamente el potencial impacto del rendimiento final del modelo en diferentes colectivos, poner en marcha regulación y normativas determinadas por parte de los poderes judiciales que velen por el correcto funcionamiento, o fomentar la educación acerca de la IA y las posibles eventualidades que puedan surgir a causa de una falta de consideración.

Soy acérrimo defensor de que el algoritmo perfecto no existe, pero sus errores siempre son mitigables y susceptibles de mejora. Y es en este punto donde entra en valor el trabajo y la supervisión humana, garantizando que se utilicen de una manera responsable y beneficiosa.

Propuesta de Regulación de la Unión Europea sobre IA

En abril de 2021 la Comisión Europea introdujo una propuesta reglamentaria para regular la IA en su espacio territorial. Esta iniciativa persigue garantizar el desarrollo de la tecnología al mismo tiempo que garantizar un uso seguro. No voy a entrar en desglosar párrafo por párrafo el documento ni tampoco realizar un extenso resumen, pero sí me parece interesante mencionar algunos aspectos importantes que no deben ser pasados por alto.

Según la UE existen tres niveles de riesgo asociados con la IA:

  • Riesgo inaceptable: los sistemas considerados una amenaza para los derechos fundamentales, especialmente si afectan a personas o colectivos vulnerables y serán totalmente prohibidos. Estamos hablando de sistemas que puedan manipular el comportamiento, los sistemas de puntuación social (el ya famoso Social Credit System de China) o sistemas de identificación biométrica en tiempo real y a distancia, aunque esta última permite excepciones limitadas para perseguir delitos graves y siempre contando con previa autorización judicial.
  • Riesgo alto: en este punto se encuentran los sistemas que afecten a la salud y seguridad o los derechos fundamentales de las personas. Estas aplicaciones estarán permitidas siempre y cuando cumplan determinados requisitos obligatorios y sean sometidos a evaluación y aprobación.
  • Riesgo bajo o mínimo: se aplican reglas menos estrictas como la obligación de transparencia o el deber de información al usuario que esté utilizando un sistema de IA en caso de usar métodos que manipulen imágenes, audios o vídeos.

Y ojo con las sanciones por incumplimiento. Muchos expertos advertían ya en 2018 acerca de la dureza de las sanciones del RGPD, las cuales se ha demostrado que no son moco de pavo, -que le pregunten a Amazon-. Pues bien, las multas de esta propuesta de Ley de IA se ven aumentadas respecto a las del RGPD, pudiendo llegar hasta los 30 millones de euros o el 6% del volumen de negocio total mundial del ejercicio financiero anterior, si esta cuantía fuese superior. Por poner en contexto, la multa más grave del RGPD es de 20 millones o el 4% de la facturación anual.

Implicaciones legales y consideraciones de privacidad

Habiendo visto los desafíos éticos que la IA plantea y revisadas las problemáticas en las que se enfoca la Propuesta de Ley Europea, podemos vislumbrar que no serán esos los únicos obstáculos a salvar. Si algo ha quedado claro en torno a la IA es el uso y la dependencia de los datos para su crecimiento y desarrollo, y si hablamos de datos debemos hacer mención al Reglamento General de Protección de Datos (RGPD) y su avenencia con esta Propuesta de Ley, vamos a ver unos pocos ejemplos.

Los usuarios poseen el derecho de recibir una explicación por parte del responsable del tratamiento de datos acerca de cuáles son recopilados y para qué, como aclara el art. 12.1 del RGPD: «El responsable del tratamiento tomará las medidas oportunas para facilitar al interesado toda información … así como cualquier comunicación … relativa al tratamiento, en forma concisa, transparente, inteligible y de fácil acceso, con un lenguaje claro y sencillo.»

La falta de transparencia en la toma de decisiones de un modelo predictivo y cómo ha sido entrenado podría llegar a contravenir un derecho fundamental. De igual manera, como se ha venido recalcando en el RGPD, los usuarios tienen potestad para ejercer el derecho de rectificación, supresión («el derecho al olvido»), acceso, limitación del tratamiento, oposición, limitación, portabilidad, etc. y las instituciones y empresas deben facilitar ejercicio de estos derechos.

De cualquier modo, como indica el art. 35.1 del RGPD, cuando una organización desarrolle IA y trate con datos que entrañen un alto riesgo para los derechos fundamentales y libertades de las personas, se debe realizar una evaluación de impacto: «Cuando sea probable que un tipo de tratamiento, en particular si utiliza nuevas tecnologías, por su naturaleza, alcance, contexto o fines, entrañe un alto riesgo para los derechos y libertades de las personas.»

En el caso de las transferencias de datos fuera del Espacio Económico Europeo, -sin olvidar que también se considera transferencia el acceso remoto o el almacenamiento en la nube-, se debe cumplir empleando un procedimiento adecuado como usar cláusulas contractuales, códigos de conducta o mecanismos de certificación.

No me gustaría finalizar esta sección de implicaciones legales sin hablar de la propiedad intelectual. Y es que, los algoritmos en sí no son objeto de derechos de autor, propiedad industrial o patentes, sin embargo existen maneras de protegerlos. Me explico, un programa de ordenador que contenga determinados algoritmos sí puede ser protegido por derechos de autor; una invención que contenga algoritmos y resuelva un problema técnico podría ser patentable; otro método muy útil sería a través del secreto empresarial, etc. Cuando la UE solicita «cierto grado de transparencia» aclara que «las obligaciones que exigen una mayor transparencia tampoco afectarán de manera desproporcionada al derecho a la protección de la propiedad intelectual, puesto que únicamente se aplicarán a la información mínima necesaria para que las personas ejerzan su derecho a una compensación efectiva y sólo exigirán la transparencia necesaria hacia las autoridades de supervisión y las encargadas de la aplicación de la ley, conforme a sus respectivos mandatos.»

De modo accesorio a esto, la doctrina sigue debatiendo a quién deberían pertenecer los derechos de autor de, por ejemplo, un libro hecho en su totalidad con IA generativa como ChatGPT. Por un lado (i) tenemos a los creadores de la aplicación, que son los que hicieron posible que esa obra generada tuviera una coherencia suficiente gracias a su sistema; por otro lado está (ii) la persona que introduce los prompts (instrucciones que se le da a una IA dentro de un cuadro de diálogo, para que realice una tarea), al fin y al cabo es el que guía, modifica y dirige al chatbot para que vaya generando un texto entretenido y con armonía, también es el que tiene una idea en la cabeza del tipo de libro que quiere crear, etc.; y para finalizar (iii) tenemos la problemática de que es posible que los datos con los que se ha nutrido la aplicación y de los cuales se ha guiado en su creación fuesen otros libros creados por personas reales que sí poseen derechos de autor, no olvidemos que ChatGPT usa como base de datos internet. 

Perspectivas Futuras y Desafíos en la Regulación

Somos conscientes que tanto la regulación como la jurisprudencia se encuentran en constante evolución en la UE y se continúan realizando esfuerzos para abordar todos los problemas que pueda plantear la IA y su desarrollo, como la diversidad de jurisdicciones, la velocidad a la que avanza la innovación, los intereses empresariales (podrían poner trabas a regulaciones que restrinjan la innovación o eleven los costes debido a las exigencias de cumplimiento normativo), dificultades para comprender los aspectos técnicos por parte del legislador, etc.

Conclusiones

En unos tiempos cada vez más propulsados por la inteligencia artificial, el valor de un enfoque balanceado entre innovación tecnológica y protección legal y ética es palmario. Este equilibrio es vital para garantizar los derechos fundamentales, estimular la confianza pública y salvaguardar un crecimiento sustentable de la IA.

La innovación en la IA posee la capacidad de transformar industrias, mejorar la calidad de vida en la sociedad, simplificar la toma de decisiones e incrementar la eficiencia en diferentes sectores. No obstante, esta evolución tecnológica debe ser encauzada por un marco ético y legal firme para anticipar abusos, sesgos y discriminación, y para consolidar que la tecnología favorezca a la sociedad.

En síntesis, la abogacía deberá aceptar la IA como herramienta complementaria para mantenerse competitiva, pues aumentará su eficacia en la realización de tareas repetitivas y acelerará los resultados gracias a la mejora de toma de decisiones informadas. Además, al reducir la probabilidad de error humano mejora la revisión de documentos en grandes cantidades con un menor tiempo de ejecución, permitiendo al abogado centrarse en otros aspectos de la profesión que todavía no sean automatizables. Por otra parte, se debe estar pendiente de que se sigan respetando los derechos individuales para que la IA evolucione de manera responsable. En última instancia, un enfoque equilibrado garantiza que la IA no solo avance, sino que también sea segura, ética y beneficiosa para la humanidad, lo que es esencial para el desarrollo de nuevas tecnologías.

Deja un comentario

Diseña un sitio como este con WordPress.com
Comenzar