OpenWebinars

Inteligencia Artificial

Lo que debes saber de la legislación de IA de la UE

¿Estás al tanto de cómo la legislación de la Unión Europea sobre Inteligencia Artificial podría afectar tu vida y tu trabajo? Con el rápido avance de la IA, comprender este nuevo marco legal es esencial para empresas, desarrolladores y ciudadanos, delineando los límites de lo que la IA puede y no puede hacer.

Jorge López Blasco

Jorge López Blasco

Experto en Cloud Computing, Machine Learning y Big Data.

Lectura 8 minutos

Publicado el 12 de abril de 2024

Compartir

Introducción

En el sector de la inteligencia artificial, hay algo que se está volviendo cada vez más necesario para muchos organismos y estados, la necesidad de tener una regulación que defina lo que se puede y no se puede hacer.

Si algo les gusta a los gobernantes europeos es controlar aquello que se hace dentro de su comunidad, y últimamente las regulaciones y multas contra el sector tecnológico están en el punto de mira, lo hemos visto con Google, Apple, y ahora le ha tocado a un sector completo, la IA.

Sin embargo, regular la IA no es tarea sencilla debido lo rápido que evoluciona y cambia esta tecnología.

Cada avance en IA trae consigo nuevas posibilidades y aplicaciones, lo que dificulta que las leyes y regulaciones se mantengan al día con los desarrollos en curso, aun así, la Unión Europea (UE) ha asumido un papel pionero en la elaboración de una legislación integral que aborde estos desafíos de manera proactiva.

En este artículo, exploraremos detalladamente la legislación de IA de la UE, examinando su marco general, sus implicaciones en diferentes niveles de riesgo, los requisitos de transparencia que impone y cómo busca equilibrar la protección del público con la promoción de la innovación.

Todos conocemos ya de alguna manera lo que la IA es capaz de hacer (y si todavía no lo sabes puedes echar un vistazo a nuestro Curso de fundamentos de la inteligencia artificial para hacerte una idea), desde asistentes virtuales hasta sistemas de diagnóstico médico, la IA promete eficiencia, precisión y comodidad. Pero ¿hemos considerado realmente las implicaciones de un despliegue descontrolado de esta tecnología?

La fascinación por las capacidades de la IA a menudo nos lleva a pasar por alto los riesgos y las preocupaciones éticas que conlleva su uso. A medida que nos adentramos en este apasionante campo, es fundamental preguntarnos: ¿la IA es realmente tan maravillosa como parece a primera vista?

Y, más importante aún, ¿estamos preparados para abordar los desafíos y las responsabilidades que conlleva su adopción masiva en nuestra sociedad?

Marco general de la legislación de IA de la UE

El 13 de marzo la Unión Europea aprobó una normativa destinada a regular los sistemas de IA, dicha ley se aprobó por amplia mayoría, con 523 votos a favor, 46 en contra y 49 abstenciones y sigue un enfoque basado en el riesgo, destacando su enfoque en la transparencia, el control y la protección de las áreas más críticas.

Después de extensas negociaciones entre la Comisión, el Consejo y el Parlamento Europeo, se logró un consenso que busca brindar un equilibrio en aspectos como la propiedad intelectual, la transparencia y la defensa de los derechos fundamentales.

Contexto y necesidad de regulación

En el contexto de una rápida expansión de la IA en sectores tan diversos y críticos como la salud, el transporte, la justicia y el empleo, surge la preocupación por los posibles impactos negativos que esta tecnología podría tener en los derechos individuales, la privacidad y la equidad social.

Esto es lo que ha propiciado que la necesidad de establecer reglas claras y coherentes que rijan el desarrollo y despliegue de la IA se vuelva evidente, teniendo siempre como objetivo el de proteger los intereses de los ciudadanos y promover un entorno propicio para la innovación responsable.

La Ley tiene por objetivo garantizar que los sistemas de Inteligencia Artificial utilizados en la Unión Europea e introducidos en el mercado europeo sean seguros y respeten los derechos de los ciudadanos. Además de estimular la inversión y la innovación en el ámbito de la IA en Europa.

Ámbitos de aplicación y exclusiones

La legislación define claramente los ámbitos de aplicación, así como las áreas que quedan excluidas de su alcance. Se establecen criterios para determinar qué sistemas de IA están sujetos a la regulación y cuáles no, considerando para ello algunos factores como el nivel de riesgo que representan para los derechos fundamentales y la seguridad de los ciudadanos.

Esta diferenciación permite adaptar las medidas regulatorias al potencial impacto de los sistemas de IA en cuestión, garantizando un enfoque proporcional y efectivo en la protección de los intereses públicos.

Entre los ámbitos de aplicación podemos encontrar áreas muy diversas, desde la salud hasta el transporte autónomo y la justicia, donde el uso de la IA puede tener un impacto sustancial en la sociedad. Por otro lado, áreas como el entretenimiento, las redes sociales y la educación, donde el riesgo para los derechos fundamentales es menor quedan excluidos.

Aprende a desarrollar algoritmos de Machine Learning
Conviértete en un profesional de Machine Learning. Domina las habilidades y herramientas necesarias para implementar algoritmos de aprendizaje automático y Deep Learning en Python.
Comenzar gratis ahora

Normas para diferentes niveles de riesgo

Como hemos comentado la legislación establece un enfoque diferenciado para regular los sistemas de IA en función del nivel de riesgo que representan. Este enfoque estratificado permite adaptar las normas y requisitos regulatorios según la gravedad del riesgo asociado a cada tipo de sistema de IA.

Riesgo inaceptable

En primer lugar, se identifican aquellos sistemas de IA que representan un riesgo inaceptable para los derechos fundamentales, la seguridad y el bienestar de las personas. Estos sistemas están sujetos a una prohibición total en la UE, con el objetivo de prevenir cualquier daño significativo o irreversible causado por su uso.

Se considera que estos sistemas plantean amenazas tan graves que su uso no puede ser tolerado bajo ninguna circunstancia, y por lo tanto se prohíbe su desarrollo, comercialización y utilización en el territorio de la UE.

Las nuevas normativas prohíben el uso de ciertas aplicaciones de inteligencia artificial que vulneran los derechos de los ciudadanos. Entre estas prohibiciones se encuentran los sistemas de categorización biométrica que utilizan características sensibles, así como la recolección indiscriminada de imágenes faciales de internet o de grabaciones de cámaras de vigilancia para crear bases de datos de reconocimiento facial.

Asimismo, se prohíbe el reconocimiento de emociones en entornos laborales y educativos, los sistemas de puntuación ciudadana, la aplicación de técnicas de actuación policial predictiva basadas únicamente en perfiles individuales o en la evaluación de características personales, y cualquier uso de inteligencia artificial que manipule el comportamiento humano o explote las vulnerabilidades de las personas. ### Alto riesgo

Alto riesgo

Además del riesgo inaceptable, la legislación de IA de la UE establece una categoría de sistemas de IA de alto riesgo. Estos son sistemas cuyo uso podría tener consecuencias significativas para la seguridad, los derechos fundamentales y el bienestar de los individuos o la sociedad en su conjunto, pero que no alcanzan el umbral de riesgo inaceptable.

Para estos sistemas, se imponen normas y requisitos regulatorios más estrictos, diseñados para mitigar los riesgos asociados y garantizar su uso ético y seguro.

Entre los usos de alto riesgo se incluyen infraestructuras críticas, educación, empleo, servicios esenciales públicos y privados (como sanidad o banca), sistemas de seguridad, migración y gestión aduanera, justicia y procesos democráticos, como las elecciones. Estos sistemas deben ser evaluados y mitigar riesgos, mantener registros de uso, ser transparentes y precisos, y contar con supervisión humana. Además, se garantiza el derecho de los ciudadanos a presentar reclamaciones sobre sistemas de IA y recibir explicaciones sobre decisiones que afecten a sus derechos.

Algunos ejemplos de sistemas de inteligencia artificial considerados de alto riesgo podrían incluir sistemas de diagnóstico médico asistido o vehículos autónomos, ya que los sistemas de conducción autónoma que operan en entornos complejos, como ciudades o autopistas, pueden generar accidentes graves si no funcionan correctamente.

Requisitos de transparencia

Pero, la pregunta que os estaréis haciendo todos… ¿Y que le va a pasar a ChatGPT? Bueno, la herramienta de OpenAI ya fue prohibida temporalmente en Italia en una ocasión, después de que el organismo de control sospechara que el chatbot de IA violaba el Reglamento General de Protección de Datos (GDPR) de la Unión Europea. ¿De verdad no sabían que su gente podría seguir utilizándolo con algo tan simple como una VPN? Eso sí que es raro.

Por esta vez podemos estar tranquilos, ya que la IA generativa, como ChatGPT, no se considera de alto riesgo, pero tendrá que cumplir requisitos de transparencia y con la legislación de la UE en materia de derechos de autor. Deberá revelar que el contenido ha sido generado por IA, diseñar el modelo para evitar que genere contenidos ilegales y publicar resúmenes de los datos protegidos por derechos de autor utilizados para el entrenamiento.

Todo esto también se habló y fue un tema central del Congreso de Davos, el cual se celebró en pleno revuelo de los Deepfakes de Tylor Swift. Tras esto se tomó la decisión de que los modelos de IA de uso general que cuenten con un alto impacto y que pudieran plantear un riesgo sistémico, como el modelo de IA más avanzado GPT-4, tendrán que someterse a evaluaciones exhaustivas e informar a la Comisión de cualquier incidente grave.

Nuestra recomendación en ese sentido es que, ya que va a seguir estando disponible, aproveches y te matricules en nuestro Curso de ChatGPT con la API de OpenAI, para no quedarte atrás e integrarlo con tus aplicaciones.

Impulso de la innovación

La ley de la Unión Europea sobre inteligencia artificial no solo busca regular y proteger a los ciudadanos de los posibles riesgos asociados con esta tecnología, sino que también impulsa la innovación.

Al definir claramente los requisitos y estándares que deben cumplir los sistemas de IA, se facilita la entrada de nuevas empresas y startups en el mercado, lo que fomenta la competencia y la diversidad de ideas. Además, al promover la transparencia y la responsabilidad en el diseño y uso de la IA, se crea un entorno favorable para la confianza del consumidor y la adopción generalizada de esta tecnología.

Por otro lado, la legislación contempla poner a disposición de las pymes y de las empresas emergentes espacios controlados de pruebas y ensayos en condiciones reales a nivel nacional para que puedan desarrollar y entrenar la IA innovadora antes de su comercialización. En este sentido, Cecilia Bonefeld-Dahl, directora de la organización de comercio de la UE Digital Europe, dijo que hay que hacer más para mantener a las empresas con sede en Europa.

“Hoy en día, solo el 3% de los unicornios de IA del mundo proceden de la UE, con una inversión privada en IA unas 14 veces mayor en Estados Unidos y cinco veces más en China. Para 2030, se espera que el mercado mundial de la IA alcance los 1,5 billones de dólares, y tenemos que asegurarnos de que las empresas europeas lo aprovechen sin enredarse en la burocracia”, dijo Bonefeld-Dahl.

Próximos pasos de la legislación

Está previsto que el texto definitivo se aprueba en el pleno antes de que acabe la legislatura. Este será plenamente aplicable 24 meses después de su entrada en vigor, pero algunas partes lo serán antes, entre ellos la prohibición de sistemas de IA que planteen riesgos inaceptables, el cual aplicará 6 meses después de la entrada en vigor.

Por otro lado, los códigos de buenas prácticas se aplicarán 9 meses después de la entrada en vigor, las normas sobre sistemas de IA de uso general que deban cumplir requisitos de transparencia se aplicarán 12 meses después de la entrada en vigor y los sistemas de alto riesgo dispondrán de más tiempo para cumplir los requisitos, ya que las obligaciones que les conciernen serán aplicables 36 meses después de la entrada en vigor.

Todo esto estará bajo la supervisión de las autoridades nacionales, apoyadas por la oficina de IA dentro de la Comisión Europea. Ahora corresponderá a los Estados miembros crear agencias nacionales de supervisión. La Comisión declaró que los países tienen 12 meses para nombrar a estos organismos de vigilancia.

Mejora las habilidades de tus analistas de datos
En OpenWebinars lograrás que tu equipo se mantenga a la vanguardia en las últimas tecnologías para implementar y crear algoritmos de Machine Learning.
Solicitar más información

Conclusiones

Como conclusión me gustaría plantear que esta medida supone un dilema entre la privacidad y el potencial de la IA para mejorar la calidad de vida de las personas.

La prohibición de monitorizar emociones no es algo nuevo, plataformas como Facebook permiten expresar sentimientos a través de emojis, mientras que servicios como Spotify pueden analizar nuestro estado de ánimo basándose en la música que escuchamos. Aunque esta medida busca proteger la intimidad y evitar presiones indebidas, plantea interrogantes sobre el impacto en la innovación tecnológica.

Por un lado, la protección de la privacidad personal es fundamental y la idea de ser monitoreado constantemente, incluso en nuestras emociones más sutiles, puede resultar inquietante para muchas personas. Por otro lado, como defensor del potencial transformador de la tecnología, es difícil ignorar las posibilidades que la monitorización emocional puede ofrecer para mejorar la vida de las personas.

A nivel productivo, los beneficios de monitorear emociones son evidentes, como lo demuestra el caso de Open University, que utiliza soluciones de IA para mejorar el rendimiento de sus alumnos. Sin embargo, más allá de los beneficios productivos, la IA tiene un enorme potencial para abordar problemas importantes como la prevención del suicidio, un área donde la actual normativa podría limitar su efectividad.

Opino que, en lugar de prohibir, se debe desarrollar un marco regulatorio que permita un uso ético y responsable de la IA, protegiendo los derechos individuales sin sacrificar los avances que pueden mejorar nuestras vidas. Este dilema refleja los desafíos éticos que enfrenta nuestra sociedad en la era de la IA.

Bombilla

Lo que deberías recordar de la legislación de IA de la UE

  • La Unión Europea ha adoptado un papel pionero en la elaboración de una legislación integral para abordar los desafíos asociados con la IA.
  • La normativa tiene como objetivo principal garantizar la transparencia y proteger los derechos fundamentales de los ciudadanos.
  • Se establecen criterios claros para determinar los ámbitos de aplicación de la regulación, así como las áreas excluidas.
  • La legislación distingue entre sistemas de IA de alto riesgo, que están sujetos a normas más estrictas, y aquellos de riesgo inaceptable, que se prohíben completamente.
  • Se imponen requisitos de transparencia, como revelar el uso de IA, diseñar modelos para evitar contenidos ilegales y publicar resúmenes de datos protegidos por derechos de autor.
  • La normativa busca fomentar la innovación al proporcionar un marco sólido y transparente para el desarrollo de la IA en la UE.
  • La legislación aborda dilemas éticos sobre la privacidad y el potencial de la IA para mejorar la calidad de vida, abogando por un enfoque equilibrado.
  • La normativa refleja los esfuerzos de la UE por mantenerse a la vanguardia en la regulación de la IA, abordando los desafíos y las responsabilidades asociadas con su adopción masiva.
Compartir este post

También te puede interesar

Icono de la tecnología
Curso

Fundamentos de la IA

Principiante
3 h. y 4 min.

Esta formación de fundamentos de la inteligencia artificial proporciona una sólida introducción a los conceptos básicos y aplicaciones...

Arturo Sánchez Palacio
4.4