El compromiso del ICAM con la protección de los Derechos Humanos (DDHH) es claro, y así se manifiesta con la actividad del Observatorio de Derechos Humanos del ICAM, que el pasado 16 de octubre, en colaboración con el Observatorio de Derechos Humanos de España (ODHE), organizó una jornada conjunta para abordar el tema “Los desafíos éticos y legales de la neurotecnología y la inteligencia artificial: una perspectiva humanista”.
En la inauguración, el diputado de la Junta de Gobierno y copresidente del Observatorio de DDHH del ICAM, Emilio Ramírez, explicó que esta entidad lleva un año funcionando con iniciativas en Turquía y México, y recordó que en lugares tan dispares como Ucrania, Gaza o Sudán las vulneraciones de los DDHH son notables y continuadas: “Nosotros, como abogados y abogadas, tenemos que defender los DDHH donde sea, independientemente del conflicto político que genere dichas vulneraciones. La situación de los DDHH en el mundo es crítica, y herramientas como la IA pueden afectar a su desarrollo”.
Por su parte, la abogada Maite Parejo, copresidenta del Observatorio de DDHH del ICAM, destacó que “la colaboración con el Observatorio de Derechos Humanos de España (ODHE) arranca con este seminario, pero estamos convencidos de que habrá más posibilidades de trabajar conjuntamente. Nuestro propósito desde la abogacía es mejorar la garantía de esos DDHH. Ahora abordamos el impacto de los avances tecnológicos, en general, y de la IA, en particular, que ayudan mucho a nuestro trabajo como abogados”.
El problema de los algoritmos
Para esta abogada, “el uso de estos algoritmos puede generar desigualdad e ir contra el artículo 14 de la Declaración Universal de DDHH. Los algoritmos discriminan por lugar de residencia, lo que puede generar un estatus social. Otra cuestión es la privacidad de esos datos que se cargan en la IA, quién los utiliza y cómo se cargan y conservan. El impacto de estas herramientas también se ve en discapacidad y educación. Se genera una brecha educacional dependiendo de a qué sistema se tiene acceso. La influencia es notable en otros ámbitos como el laboral o el derecho del deporte”.
Para Mario Rigau, presidente del Observatorio de Derechos Humanos de España, “resulta evidente la relación directa que hay entre la IA, los avances tecnológicos y los DDHH. Es un terreno exploratorio y hay mucho por conocer. Junto a los DDHH relacionados con dramas humanitarios, hay otros relacionados con nuestra cotidianidad. Pueden pasar desapercibidos, aunque pueden tener un peso específico en la vida de las personas. Curiosamente, el colectivo más cercano a las personas y sus problemas es el de los abogados”.
Desde su punto de vista, “el papel de la abogacía en ocasiones roza el altruismo, como en el caso del turno de oficio. Una buena manera de mejorar la protección y desarrollo de los DDHH es reconocer el trabajo de este colectivo, desde su compromiso ético-profesional y desde su compromiso social. En reconocimiento de ese trabajo, entregaremos un distintivo al finalizar esta jornada para el propio ICAM”.
Los riesgos del Reglamento de IA
En la primera mesa redonda, la magistrada suplente del TSJ de Madrid, Concepción Esther, miembro del ODHE y responsable de temas de igualdad, presentó a los ponentes. Javier López, socio de Dispute Resolutions de ECIJA, abordó la problemática del Reglamento de IA, recordando que la IA generativa puede crear contenidos escritos o audiovisuales. “Uno de los problemas es cuando se nutre de contenidos para su aprendizaje, porque se nutre de contenidos que están protegidos por la propiedad intelectual. Si son imágenes, se vulneran derechos a la propia imagen si no se pide permiso”.
Al mismo tiempo, habló de las deepnudes, aplicaciones que literalmente desnudan a las personas: “Los jóvenes las utilizan para desnudar a compañeras, y eso puede generar un problema de sextorsión. Junto a ello, hay que hablar de las fake news. Frente a esto, en nuestro país se ha creado la AESIA, un regulador específico sobre la IA, y un Plan de Desarrollo de la IA por parte del Gobierno. En el último año se han generado muchas noticias sobre la regulación de IA, siendo la primera a nivel europeo, en agosto de este año, aunque también hubo pronunciamientos del G7 con Japón, EE. UU. y China”.
Este experto recordó que el Reglamento de IA se basa en el concepto de riesgo: “La IA nos puede ayudar en muchas cosas, pero también existe la posibilidad de perder el control con su uso. Los usos prohibidos del Reglamento de IA tienen que ver con la gestión de emociones; su manipulación puede hacer que se modifique un proceso electoral o los propios gustos de los consumidores, la predicción de conductas o la gestión de datos biométricos que permiten conocer a las personas, salvo para usos militares, de I+D, o por vía de autorización judicial para nuestras fuerzas policiales”.
Por otro lado, Raúl Rojas, socio de Laboral y Compliance de ECIJA, comentó sobre las políticas de protección de DDHH en los entornos laborales empresariales: “En algunas ocasiones, las herramientas de IA pueden detectar que los trabajadores no cumplen con la normativa de Prevención de Riesgos Laborales (PRL). Eso hace que esa tecnología mande una alerta a la empresa sobre esa situación en concreto. En principio, no va a sustituir a los abogados, sino que los hará más eficientes; pueden ser usuarios de la herramienta y, al mismo tiempo, asesores de los clientes en temas concretos”.
En este contexto, el papel del abogado es conocer la actual normativa del Reglamento de IA y vincularla al RGPD de protección de datos: “Porque el uso de datos es notable tanto desde el big data como desde las herramientas de IA. Desde el punto de vista laboral, el trabajo es más eficiente, en menos tiempo. Se tarda menos en revisar una sentencia. También se automatizan los procesos de trabajo tanto en los despachos como en nuestros clientes, y esto impacta en el marco general de relaciones laborales. A la vez, se puede controlar de forma inteligente a los trabajadores con este tipo de herramientas”.
Riesgos de la IA en el entorno laboral
Otra cuestión que puede impulsarse es “la monitorización de las comunicaciones de las personas trabajadoras. En Japón hay herramientas que permiten conocer el ánimo de los trabajadores con el deseo de prevenir suicidios. El problema de la IA tiene que ver con la discriminación que a veces se incorpora en forma de sesgos en esas informaciones que se introducen en las herramientas. También la falta de formación de los trabajadores puede generar brechas de seguridad en nuestras empresas”.
En formato online, Francisco R. Villatoro resaltó que “si el siglo XX fue el de las telecomunicaciones y el móvil, en el XXI hay que hablar del siglo de la IA”. Desde su punto de vista, “todos los derechos humanos se verán afectados por esta irrupción tecnológica, desde el derecho a la dignidad humana, la privacidad, la educación, el trabajo, incluso la integridad personal, pero especialmente los derechos humanos vinculados a la persona, lo que nos define como tales. Ahora el teléfono móvil se ha convertido en casi indispensable, las grandes empresas nos inculcaron el uso del móvil para todo”.
Este experto recordó que “estas herramientas cometen errores, las llamadas alucinaciones, con lo cual el uso de la IA está sujeto también a errores y revisiones. Ahora su uso es casi gratuito porque no se ha logrado que, a nivel general, se vea el uso necesario de esas tecnologías. Lo que diferencia una herramienta de IA de otra tiene que ver con la calidad de los datos en el aprendizaje. Las empresas necesitan herramientas con datos de calidad específicos para su negocio”.
Por su parte, en su intervención también online, Milena Costas, miembro del Consejo Asesor de las Naciones Unidas y profesora del CEDIT de Cruz Roja, habló de la neurotecnología como ámbito emergente: “De gran interés porque está irrumpiendo en el ámbito comercial. Puede afectar a los derechos fundamentales de las personas y generar violaciones de derechos humanos hasta ahora no catalogadas y desconocidas. El Consejo de DDHH de la ONU presentó un informe sobre los retos y oportunidades de las neurotecnologías en los DDHH a raíz de una resolución de octubre de 2022”.
En su opinión: “Tenemos una versión definitiva del informe presentada el pasado mes de septiembre. Hacemos un análisis del impacto de estas tecnologías en los DDHH. En el anexo del informe hablamos de las mejoras que se pueden incorporar en el terreno médico con estas tecnologías, pero también hemos puesto el foco en los riesgos y desafíos en un contexto comercial. Son tecnologías poco maduras porque su uso sigue siendo experimental. Al mismo tiempo, pueden integrarse en herramientas de IA, lo que las convierte en más complejas”.
Tecnología que modifica el cerebro
A su juicio, estas tecnologías pueden generar “una comunicación directa y bidireccional entre el cerebro y los dispositivos externos; así se puede conocer y medir el funcionamiento del cerebro, influir sobre su actividad y establecer interfaces con dispositivos digitales externos. Son dispositivos que pueden leer lo que está en nuestra mente; modificar lo que está en nuestra cabeza. El uso de estas herramientas plantea dilemas morales y jurídicos y afecta a los llamados derechos de personalidad, internos de cada uno: libertad de pensamiento o privacidad, entre otros, e incluso el derecho a un juicio justo o en espacios como justicia, ámbito laboral o penal”.
Finalmente, el decano del ICAM, Eugenio Ribón, clausuró el evento señalando la preocupación de la entidad colegial por esta situación e indicando la vocación del Colegio de la Abogacía por defender los DDHH, donde el papel de los abogados y abogadas madrileños es clave.
Al finalizar las jornadas, los asistentes recibieron como obsequio una reproducción de la ilustración del 75º aniversario de la Declaración Universal de los Derechos Humanos, de igual tamaño que la edición numerada.
Metaverso, tratamiento de datos y redes sociales
Como preludio y complemento a esta jornada, la Sección de derechos Humanos del ICAM, en colaboración con el Observatorio de DDHH, celebró unos días antes la sesión titulada “Desafíos de los derechos humanos en la era de la Inteligencia Artificial: metaverso, tratamiento de datos y redes sociales”, en la que abordó la necesidad de que la inteligencia artificial respete principios éticos y jurídicos, preservando la dignidad y la intimidad de las personas ante fenómenos como las aplicaciones masivas de datos, los deepfakes y el uso extendido de redes sociales.
La copresidenta del Observatorio de Derechos Humanos del ICAM, Maite Parejo, fue la encargada de inaugurar la sesión, seguida por una mesa de diálogo en la que participaron Elena García-Antón Palacios, abogada, profesora e investigadora en la Universidad Rey Juan Carlos, y Erika Torregrossa Acuña, copresidenta de la Sección de Derechos Humanos del ICAM.