*Escrito por Verónica Rojas [1]
1. Inteligencia artificial y su relación con el Derecho
En un mundo hiperconectado y en tiempos de pandemia, los seres humanos nos estamos relacionando de manera diferente, tanto en la vida cotidiana, como en los mercados y, desde luego, con la Administración Pública. Estos cambios se aceleran cada vez más con el mayor uso de la inteligencia artificial en tantos ámbitos de la vida diaria que nos obliga a pensar la relación que tiene que haber con aquella desde el Derecho.
La inteligencia artificial es una manera mediante la cual los humanos realizamos determinadas tareas de manera más eficiente (por ejemplo, a una mayor velocidad), con la ayuda de las máquinas dotándolas, a través de algoritmos, de un sistema de toma de decisiones, de identificación de patrones y correlaciones, de razonamiento, de predicción, hacen tareas cognitivas con cierta autonomía manejando ingentes cantidades de datos (big data).
Entre los usos más comunes de la inteligencia artificial, se consigue realizar tareas humanas a velocidades sorprendentes, como traducir textos, analizar jurisprudencia, conducir vehículos de manera autónoma, reconocer imágenes y hacer diagnósticos médicos, prevenir mayores contagios en tiempos de la COVID 19 (contact tracing), para identificar grupos de personas beneficiarias para recibir ayudas sociales del Gobierno, determinar preferencias de consumo, saber nuestras emociones, saber nuestras preferencias políticas, en nuestros teléfonos inteligentes, en los medios de transporte, en la educación, en el reconocimiento facial, si estamos usando mascarilla o no, si tenemos fiebre o no, y un largo etcétera. Actualmente, no se puede afirmar que la inteligencia artificial sea la panacea para la evolución del ser humano, pero tampoco se le puede negar porque está ocurriendo y está produciendo profundos cambios.
No obstante, para los científicos es muy difícil llegar a un consenso sobre una definición unívoca de inteligencia artificial, porque avanza muy rápido y con el tiempo va a cambiar, sí existen algunas propuestas que describen lo que hacen estos sistemas (OCDE, 2019[2]; UNESCO, 2020[3], UE, 2021[4]). De ellas, lo indiscutible radica en que los sistemas de inteligencia artificial (IA) usan big data y se basan en algoritmos que ayudan a encontrar una serie de correlaciones entre ellos para identificar patrones, y estos a su vez interactúan creando más capas de aprendizaje, proceso en el cual trabajan con autonomía, es decir, que los sistemas van a aprendiendo sin intervención humana gracias a que el algoritmo está ejecutándose usando, hasta ahora, los métodos de machine learning y deep learning.
La tarea cognitiva que hacen los algoritmos es fascinante y no se sabe todo de ello. Explico, cuando el algoritmo se va ejecutando y aprendiendo de manera independiente, puede darse el caso que lo haga de una forma que su desarrollador no ha previsto, a eso le llaman black box, en algunos casos ello representa un riesgo y este puede ser alto o bajo para el ser humano dependiendo del tema que el algoritmo esté aprendiendo y decidiendo. Por ejemplo, no es lo mismo que se produzca un error en el algoritmo de inteligencia artificial en un sistema para sugerirnos películas, series o documentales de nuestra preferencia y que nos recomiende algo que no tiene relación con nuestros gustos, riesgo bajo, no pasa nada, distinto es el caso que ello ocurra en un diagnóstico equivocado de alguna enfermedad mediante el análisis erróneo de imágenes de rayos X, tomografías y resonancias magnéticas, o en el manejo del tráfico aéreo, etc. De ahí la importancia de plantear garantías jurídicas al uso de la inteligencia artificial y, por supuesto, su utilización ética.
Es preciso mencionar que la IA se viene creando desde la segunda mitad del siglo XX[5] y de forma muy acelerada en la última década por desarrolladores en todo el mundo y, principalmente, en Estados Unidos de América, China y Europa. En la actualidad, aún cuando los sistemas de IA operan con autonomía, no tienen plena capacidad de autodeterminación y libre albedrío al igual que la mente humana, pero, sin duda alguna, se está creando un mundo nuevo que nadie sabe a ciencia cierta hacia dónde nos va a llevar la IA, ni si la calificaremos de mala o buena para la humanidad, o si será lo mejor o lo peor para nosotros como especie; está en desarrollo y, aún cuando no lo sepamos (opacidad), los algoritmos están funcionando en muchísimas de las cosas que usamos todos los días, son complejos, dependen de (nuestros) datos, tienen ciertos niveles de autonomía y también la potencialidad de beneficiarnos y tal vez afectar nuestros derechos. Se debe buscar, por tanto, que los sistemas de IA siempre se desarrollen al servicio de la humanidad, en esto el derecho tiene un rol. Ahora bien, la pandemia de la Covid-19 ha apretado el acelerador de la transformación digital y viene creciendo vertiginosamente, aún sin un marco legal uniforme (voluntario u obligatorio) a escala mundial, el cual resulta necesario, en tanto, se trata de un fenómeno (humano y político) global que requiere tener una visión igualmente global para poner al ser humano al centro.
Esta tarea, por cierto, muy compleja, ha acelerado también las investigaciones sobre el posible marco uniforme ético y legal de la inteligencia artificial que se venían llevando a cabo en el seno de la Unión Europea[6], la OCDE[7] y las Naciones Unidas (UNESCO)[8]. Nuevamente, pese a que el derecho ha ido detrás de la tecnología, es muy necesario que la aproximación que está teniendo la comunidad científica y el derecho a la IA coloque al ser humano al centro. Desde mi punto de vista, en general, este enfoque antropocéntrico de la IA, utiliza las garantías jurídicas propias del Estado de Derecho, a través de los principios generales, los valores éticos y los derechos fundamentales de las personas como cimientos infranqueables sobre los cuales se edificarán los rascacielos de la inteligencia artificial. En esta configuración, por ejemplo, uno de los preceptos de mayor importancia que se discute a nivel global para los sistemas de IA de alto riesgo, como parte de la transparencia, es el principio de human-in-command que permite que el algoritmo sea realizado con la posibilidad de tener un kill switch o un stop buttoneliminando el riesgo de peligro a los seres humanos por un mal funcionamiento del algoritmo. Y, en especial, el enfoque antropocéntrico de la IA, coloca al centro la dignidad humana, los derechos fundamentales, el derecho de protección de datos personales y, en el caso de las funciones estatales, desde luego, se hace manifiesto derecho fundamental al Buen Gobierno y la Buena Administración, todo ello dentro del llamado entorno (ecosistema) digital y ética de la tecnología.
No quiero dejar de referirme a la propuesta de la UE planteada como una regulación basada en el riesgo y exuberante en el uso conceptos jurídicos indeterminados, en la misma se pueden identificar estos tres grupos de sistemas de IA:
– Prácticas de IA prohibidas (Art. 5). Por ejemplo, los sistemas de IA que utilice el Estado para el reconocimiento facial en tiempo real en espacios públicos para fines de law enforcement[9]. Se prohíbe también al Estado el uso de sistemas de IA para otorgar puntajes a los ciudadanos (como lo hace la China) que cause, por ejemplo, que ocasionen un trato desfavorable o perjudicial que sea injustificado o desproporcionado con respecto a su comportamiento social o su gravedad. No lo prohíbe para compañías privadas.
– Sistemas de IA de alto riesgo (Art. 6 y Anexo III) que, previo a su comercialización y puesta en funcionamiento, requiere de autodeclaraciones responsables o de un tercero independiente, dentro de un modelo de gobernanza consistente en un sistema de certificaciones previas. Los requerimientos son muchísimos, casi un centenar, referidos a la calidad y legalidad de los datos, documentación, trazabilidad, transparencia (explicabilidad y supervisión humana), robustez y precisión del algoritmo, etc. Cuando se lee el Anexo III se tiene la sensación que están pensados cuando el Estado los usa. Uno de los usos de alto riesgo de la IA es la administración de justicia y procesos democráticos[10].
– Sistemas de IA que no son de alto riesgo, se les invita a que elaboren códigos de conducta y cumplan voluntariamente la regulación de los sistemas de IA de alto riesgo (Art. 69).
Si llega a entrar en vigencia tal cual está, sin duda, conllevará a cambiar la forma en la cual se vienen desarrollando los sistemas de IA, ya con la explicabilidad como recomendación ética ocasionó en el último año la movilización de los desarrolladores de IA a otras partes del globo; se generaría un escenario en el cual los competidores de esta tecnología, China y Estados Unidos, que no tendrían esas obligaciones y cargas seguirían produciendo sus algoritmos fuera de ese marco. Es imprescindible propender a una respuesta global y evitar protagonismos locales. La Unesco, en su propuesta de Recomendación ofrece un decálogo desde un enfoque de la ética de los sistemas de IA y apunta a que se adopte en noviembre próximo.
2. La inteligencia artificial en la Administración Pública. ¿Para qué regular?
En general las tecnologías y en especial la inteligencia artificial ya se vienen usando en la Administración Pública[11]. Con el ser humano al centro las tecnologías pueden utilizarse para potenciar la eficacia de las funciones administrativas en el sentido de adoptar decisiones alineadas a la satisfacción de los intereses generales a la luz del principio de la buena administración, potenciando la relación con la ciudadanía y la rendición de cuentas.
Son dos generaciones de tecnología en cuanto a su aplicación a las funciones públicas. La primera es hacer lo mismo, pero con soporte electrónico, denominado Administración electrónica, estos se apoyan en sistemas de gestión documental, firmas digitales con certificados digitales, identidad digital, mesa de partes virtuales, notificaciones electrónicas, aplicativos informáticos que ayudan al despacho de documentos, a poner plantillas sencillas de memorandos, informes y oficios (no de actos administrativos, ni normas legales), gestión del conocimiento y cuestiones de esta naturaleza. La segunda generación que estamos viendo es la aplicación de sistemas de IA (machine learning, deep learning, big data) para el diseño de políticas públicas, manejo de la pandemia, toma de decisiones públicas, reconocimiento facial para la labor policial contra el crimen organizado, la toma de decisiones judiciales (como en China y Estonia a través de los jueces robots), entre otros, con límites.
Siendo indiscutible, entonces, que el ser humano debe estar al centro y que la regulación de las garantías jurídicas de la IA debe ser global, lo que no obsta para que sean acogidas en las legislaciones domésticas, cabe preguntarse ¿cuáles son esas garantías jurídicas? Planteo estas tres que considero infaltables[12], entre todas las que están en el debate global.
- Garantía de privacidad y protección de datos personales.
- Garantía de transparencia, publicidad y explicabilidad de los algoritmos.
- Garantía de realización de auditorías periódicas y rendición de cuentas.
Frente al inminente desarrollo de sistemas de IA no solo en el sector privado sino también en las funciones públicas, es inevitable una aproximación desde el Derecho como instrumento necesario para que las transformaciones digitales estén al servicio de la humanidad y la buena administración las inspire. Ello implica un desafío para el derecho como instrumento que garantice que la inteligencia artificial tenga al ser humano al centro y se respete su dignidad y, desde luego los derechos fundamentales, sin generar una regulación tan exigente que oprima la innovación, haciéndola demasiado costosa o que sea tan laxa que desproteja los derechos humanos. El principio de proporcionalidad connatural al Estado de Derecho cobra vigencia hoy más que nunca. De hecho, cualquier marco legal mandatorio respecto a los sistemas de IA sin duda alguna cambiarán la forma en que se desarrollan.
Tenemos sobre la mesa para debate la propuesta de garantías jurídicas de los sistemas de IA para tutelar la dignidad de las personas, los derechos fundamentales y la ética, estas son: aplicar el principio de transparencia y el derecho a la explicabilidad, auditorias sobre cumplimiento de normas sobre la privacidad y protección de datos personales, y, el principio de human-in-comandy, por sobre todo, trabajar en la adecuación de las garantías del derecho administrativo en la aplicación de IA para el ejercicio algunas (no todas) de las funciones administrativas y servicios públicos, a la luz del principio a la Buena Administración.
El debate desde mi punto de vista, en atención al estado de la cuestión, se centra en qué temas estarán prohibidos para el uso de la IA y en qué otros temas pueden establecerse algunas obligaciones más interventoras (human-in-command) a la capacidad de decidir cuándo y cómo utilizar el sistema en cada situación determinada y en esta labor el derecho administrativo tiene un papel muy importante desde el principio de la buena administración.
Nuevamente, la regulación y el derecho administrativo enfrentan un reto de adecuación y resiliencia que le permita con flexibilidad seguir sirviendo de instrumento del Estado de Derecho con respeto del Principio de una buena administración, ahora buena administración digital.
Imagen obtenida de https://bit.ly/3iSWFBg
Referencias
[1] Miembro ASIER por Perú. Profesora de Derecho administrativo en la Pontificia Universidad Católica del Perú. Especialista en Legal Operations (ESADE, 2021). Investiga y escribe sobre transformación digital aplicada al derecho y la buena administración digital. Consultora en Legal Tech, Legal Project Management, Legal Design. Artículo publicado el 7 de mayo. E-mail: vrojas@pucp.edu.pe.
[2] OECD (2019), Artificial Intelligence in Society, https://www.oecd-ilibrary.org/sites/eedfee77-en/1/2/1/index.html?itemId=/content/publication/eedfee77-en&_csp_=5c39a73676a331d76fa56f36ff0d4aca&itemIGO=oecd&itemContentType=book. Consultado el 22 de abril de 2021.
[3]UNESCO (2020), Proyecto de texto de la Recomendación sobre la Ética de la Inteligencia Artificial, https://unesdoc.unesco.org/ark:/48223/pf0000376713_spa. Consultado el 22 de abril de 2021.
[4]EUROPEAN COMMISSION (2021), Proposal for a Regulation laying down harmonised rules on artificial intelligence (Artificial Intelligence Act), https://digital-strategy.ec.europa.eu/en/library/proposal-regulation-european-approach-artificial-intelligence Consultado el 22 de abril de 2021.
[5] Desde la “Prueba de Turing” en 1950, el primer programa de ordenador (1952) creado por Arthur Samuel, capaz de aprender a jugar a las damas mejorando en cada partida, y el nacimiento del término de inteligencia artificial en 1956 durante la Conferencia de Darthmouth en 1956 por Marvin Minsky, John McCarthy, Alan Newell, Arthur Samuel and Herbert Simon, la inteligencia artificial viene experimentando una curva de crecimiento muy alta en la actualidad.
[6] https://digital-strategy.ec.europa.eu/en/library/proposal-regulation-european-approach-artificial-intelligence. Consultado el 22 de abril de 2021.
[7] https://legalinstruments.oecd.org/en/instruments/OECD-LEGAL-0449. Consultado el 27 de abril de 2021. Hasta la fecha tiene adhesiones de 42 países.
[8] https://unesdoc.unesco.org/ark:/48223/pf0000373434_spa. Consultado el 27 de abril de 2021. En noviembre de 2021 se presentará a los Estados miembros de la UNESCO para su adopción.
[9] Otro tema es cómo evitar los sesgos de los algoritmos (discriminación racial, discapacidad, pobreza, etc.).
[10] Administration of justice and democratic processes: AI systems intended to assist a judicial authority in researching and interpreting facts and the law and in applying the law to a concrete set of facts.
[11] Chatbots, planificación de presupuestos, sostenibilidad ambiental, agricultura, bolsas de trabajo, lavado de activos, bolsa de valores, reconocimiento facial, selección de personas como beneficiarios de asistencia socialetc.
[12] Será materia de un siguiente artículo, por el límite en la extensión del presente no es posible desarrollarlas.