Deep Learning: El corazón de la inteligencia artificial
La inteligencia artificial avanza a pasos agigantados, y el Deep Learning es su núcleo impulsor. A continuación, abordaremos todo lo que necesitas...
¿Estás al tanto de cómo la legislación de la Unión Europea sobre Inteligencia Artificial podría afectar tu vida y tu trabajo? Con el rápido avance de la IA, comprender este nuevo marco legal es esencial para empresas, desarrolladores y ciudadanos, delineando los límites de lo que la IA puede y no puede hacer.
En el sector de la inteligencia artificial, hay algo que se está volviendo cada vez más necesario para muchos organismos y estados, la necesidad de tener una regulación que defina lo que se puede y no se puede hacer.
Si algo les gusta a los gobernantes europeos es controlar aquello que se hace dentro de su comunidad, y últimamente las regulaciones y multas contra el sector tecnológico están en el punto de mira, lo hemos visto con Google, Apple, y ahora le ha tocado a un sector completo, la IA.
Sin embargo, regular la IA no es tarea sencilla debido lo rápido que evoluciona y cambia esta tecnología.
Cada avance en IA trae consigo nuevas posibilidades y aplicaciones, lo que dificulta que las leyes y regulaciones se mantengan al día con los desarrollos en curso, aun así, la Unión Europea (UE) ha asumido un papel pionero en la elaboración de una legislación integral que aborde estos desafíos de manera proactiva.
En este artículo, exploraremos detalladamente la legislación de IA de la UE, examinando su marco general, sus implicaciones en diferentes niveles de riesgo, los requisitos de transparencia que impone y cómo busca equilibrar la protección del público con la promoción de la innovación.
Todos conocemos ya de alguna manera lo que la IA es capaz de hacer (y si todavía no lo sabes puedes echar un vistazo a nuestro Curso de fundamentos de la inteligencia artificial para hacerte una idea), desde asistentes virtuales hasta sistemas de diagnóstico médico, la IA promete eficiencia, precisión y comodidad. Pero ¿hemos considerado realmente las implicaciones de un despliegue descontrolado de esta tecnología?
La fascinación por las capacidades de la IA a menudo nos lleva a pasar por alto los riesgos y las preocupaciones éticas que conlleva su uso. A medida que nos adentramos en este apasionante campo, es fundamental preguntarnos: ¿la IA es realmente tan maravillosa como parece a primera vista?
Y, más importante aún, ¿estamos preparados para abordar los desafíos y las responsabilidades que conlleva su adopción masiva en nuestra sociedad?
El 13 de marzo la Unión Europea aprobó una normativa destinada a regular los sistemas de IA, dicha ley se aprobó por amplia mayoría, con 523 votos a favor, 46 en contra y 49 abstenciones y sigue un enfoque basado en el riesgo, destacando su enfoque en la transparencia, el control y la protección de las áreas más críticas.
Después de extensas negociaciones entre la Comisión, el Consejo y el Parlamento Europeo, se logró un consenso que busca brindar un equilibrio en aspectos como la propiedad intelectual, la transparencia y la defensa de los derechos fundamentales.
En el contexto de una rápida expansión de la IA en sectores tan diversos y críticos como la salud, el transporte, la justicia y el empleo, surge la preocupación por los posibles impactos negativos que esta tecnología podría tener en los derechos individuales, la privacidad y la equidad social.
Esto es lo que ha propiciado que la necesidad de establecer reglas claras y coherentes que rijan el desarrollo y despliegue de la IA se vuelva evidente, teniendo siempre como objetivo el de proteger los intereses de los ciudadanos y promover un entorno propicio para la innovación responsable.
La Ley tiene por objetivo garantizar que los sistemas de Inteligencia Artificial utilizados en la Unión Europea e introducidos en el mercado europeo sean seguros y respeten los derechos de los ciudadanos. Además de estimular la inversión y la innovación en el ámbito de la IA en Europa.
La legislación define claramente los ámbitos de aplicación, así como las áreas que quedan excluidas de su alcance. Se establecen criterios para determinar qué sistemas de IA están sujetos a la regulación y cuáles no, considerando para ello algunos factores como el nivel de riesgo que representan para los derechos fundamentales y la seguridad de los ciudadanos.
Esta diferenciación permite adaptar las medidas regulatorias al potencial impacto de los sistemas de IA en cuestión, garantizando un enfoque proporcional y efectivo en la protección de los intereses públicos.
Entre los ámbitos de aplicación podemos encontrar áreas muy diversas, desde la salud hasta el transporte autónomo y la justicia, donde el uso de la IA puede tener un impacto sustancial en la sociedad. Por otro lado, áreas como el entretenimiento, las redes sociales y la educación, donde el riesgo para los derechos fundamentales es menor quedan excluidos.
Como hemos comentado la legislación establece un enfoque diferenciado para regular los sistemas de IA en función del nivel de riesgo que representan. Este enfoque estratificado permite adaptar las normas y requisitos regulatorios según la gravedad del riesgo asociado a cada tipo de sistema de IA.
En primer lugar, se identifican aquellos sistemas de IA que representan un riesgo inaceptable para los derechos fundamentales, la seguridad y el bienestar de las personas. Estos sistemas están sujetos a una prohibición total en la UE, con el objetivo de prevenir cualquier daño significativo o irreversible causado por su uso.
Se considera que estos sistemas plantean amenazas tan graves que su uso no puede ser tolerado bajo ninguna circunstancia, y por lo tanto se prohíbe su desarrollo, comercialización y utilización en el territorio de la UE.
Las nuevas normativas prohíben el uso de ciertas aplicaciones de inteligencia artificial que vulneran los derechos de los ciudadanos. Entre estas prohibiciones se encuentran los sistemas de categorización biométrica que utilizan características sensibles, así como la recolección indiscriminada de imágenes faciales de internet o de grabaciones de cámaras de vigilancia para crear bases de datos de reconocimiento facial.
Asimismo, se prohíbe el reconocimiento de emociones en entornos laborales y educativos, los sistemas de puntuación ciudadana, la aplicación de técnicas de actuación policial predictiva basadas únicamente en perfiles individuales o en la evaluación de características personales, y cualquier uso de inteligencia artificial que manipule el comportamiento humano o explote las vulnerabilidades de las personas. ### Alto riesgo
Además del riesgo inaceptable, la legislación de IA de la UE establece una categoría de sistemas de IA de alto riesgo. Estos son sistemas cuyo uso podría tener consecuencias significativas para la seguridad, los derechos fundamentales y el bienestar de los individuos o la sociedad en su conjunto, pero que no alcanzan el umbral de riesgo inaceptable.
Para estos sistemas, se imponen normas y requisitos regulatorios más estrictos, diseñados para mitigar los riesgos asociados y garantizar su uso ético y seguro.
Entre los usos de alto riesgo se incluyen infraestructuras críticas, educación, empleo, servicios esenciales públicos y privados (como sanidad o banca), sistemas de seguridad, migración y gestión aduanera, justicia y procesos democráticos, como las elecciones. Estos sistemas deben ser evaluados y mitigar riesgos, mantener registros de uso, ser transparentes y precisos, y contar con supervisión humana. Además, se garantiza el derecho de los ciudadanos a presentar reclamaciones sobre sistemas de IA y recibir explicaciones sobre decisiones que afecten a sus derechos.
Algunos ejemplos de sistemas de inteligencia artificial considerados de alto riesgo podrían incluir sistemas de diagnóstico médico asistido o vehículos autónomos, ya que los sistemas de conducción autónoma que operan en entornos complejos, como ciudades o autopistas, pueden generar accidentes graves si no funcionan correctamente.
Pero, la pregunta que os estaréis haciendo todos… ¿Y que le va a pasar a ChatGPT? Bueno, la herramienta de OpenAI ya fue prohibida temporalmente en Italia en una ocasión, después de que el organismo de control sospechara que el chatbot de IA violaba el Reglamento General de Protección de Datos (GDPR) de la Unión Europea. ¿De verdad no sabían que su gente podría seguir utilizándolo con algo tan simple como una VPN? Eso sí que es raro.
Por esta vez podemos estar tranquilos, ya que la IA generativa, como ChatGPT, no se considera de alto riesgo, pero tendrá que cumplir requisitos de transparencia y con la legislación de la UE en materia de derechos de autor. Deberá revelar que el contenido ha sido generado por IA, diseñar el modelo para evitar que genere contenidos ilegales y publicar resúmenes de los datos protegidos por derechos de autor utilizados para el entrenamiento.
Todo esto también se habló y fue un tema central del Congreso de Davos, el cual se celebró en pleno revuelo de los Deepfakes de Tylor Swift. Tras esto se tomó la decisión de que los modelos de IA de uso general que cuenten con un alto impacto y que pudieran plantear un riesgo sistémico, como el modelo de IA más avanzado GPT-4, tendrán que someterse a evaluaciones exhaustivas e informar a la Comisión de cualquier incidente grave.
Nuestra recomendación en ese sentido es que, ya que va a seguir estando disponible, aproveches y te matricules en nuestro Curso de ChatGPT con la API de OpenAI, para no quedarte atrás e integrarlo con tus aplicaciones.
La ley de la Unión Europea sobre inteligencia artificial no solo busca regular y proteger a los ciudadanos de los posibles riesgos asociados con esta tecnología, sino que también impulsa la innovación.
Al definir claramente los requisitos y estándares que deben cumplir los sistemas de IA, se facilita la entrada de nuevas empresas y startups en el mercado, lo que fomenta la competencia y la diversidad de ideas. Además, al promover la transparencia y la responsabilidad en el diseño y uso de la IA, se crea un entorno favorable para la confianza del consumidor y la adopción generalizada de esta tecnología.
Por otro lado, la legislación contempla poner a disposición de las pymes y de las empresas emergentes espacios controlados de pruebas y ensayos en condiciones reales a nivel nacional para que puedan desarrollar y entrenar la IA innovadora antes de su comercialización. En este sentido, Cecilia Bonefeld-Dahl, directora de la organización de comercio de la UE Digital Europe, dijo que hay que hacer más para mantener a las empresas con sede en Europa.
“Hoy en día, solo el 3% de los unicornios de IA del mundo proceden de la UE, con una inversión privada en IA unas 14 veces mayor en Estados Unidos y cinco veces más en China. Para 2030, se espera que el mercado mundial de la IA alcance los 1,5 billones de dólares, y tenemos que asegurarnos de que las empresas europeas lo aprovechen sin enredarse en la burocracia”, dijo Bonefeld-Dahl.
Está previsto que el texto definitivo se aprueba en el pleno antes de que acabe la legislatura. Este será plenamente aplicable 24 meses después de su entrada en vigor, pero algunas partes lo serán antes, entre ellos la prohibición de sistemas de IA que planteen riesgos inaceptables, el cual aplicará 6 meses después de la entrada en vigor.
Por otro lado, los códigos de buenas prácticas se aplicarán 9 meses después de la entrada en vigor, las normas sobre sistemas de IA de uso general que deban cumplir requisitos de transparencia se aplicarán 12 meses después de la entrada en vigor y los sistemas de alto riesgo dispondrán de más tiempo para cumplir los requisitos, ya que las obligaciones que les conciernen serán aplicables 36 meses después de la entrada en vigor.
Todo esto estará bajo la supervisión de las autoridades nacionales, apoyadas por la oficina de IA dentro de la Comisión Europea. Ahora corresponderá a los Estados miembros crear agencias nacionales de supervisión. La Comisión declaró que los países tienen 12 meses para nombrar a estos organismos de vigilancia.
Como conclusión me gustaría plantear que esta medida supone un dilema entre la privacidad y el potencial de la IA para mejorar la calidad de vida de las personas.
La prohibición de monitorizar emociones no es algo nuevo, plataformas como Facebook permiten expresar sentimientos a través de emojis, mientras que servicios como Spotify pueden analizar nuestro estado de ánimo basándose en la música que escuchamos. Aunque esta medida busca proteger la intimidad y evitar presiones indebidas, plantea interrogantes sobre el impacto en la innovación tecnológica.
Por un lado, la protección de la privacidad personal es fundamental y la idea de ser monitoreado constantemente, incluso en nuestras emociones más sutiles, puede resultar inquietante para muchas personas. Por otro lado, como defensor del potencial transformador de la tecnología, es difícil ignorar las posibilidades que la monitorización emocional puede ofrecer para mejorar la vida de las personas.
A nivel productivo, los beneficios de monitorear emociones son evidentes, como lo demuestra el caso de Open University, que utiliza soluciones de IA para mejorar el rendimiento de sus alumnos. Sin embargo, más allá de los beneficios productivos, la IA tiene un enorme potencial para abordar problemas importantes como la prevención del suicidio, un área donde la actual normativa podría limitar su efectividad.
Opino que, en lugar de prohibir, se debe desarrollar un marco regulatorio que permita un uso ético y responsable de la IA, protegiendo los derechos individuales sin sacrificar los avances que pueden mejorar nuestras vidas. Este dilema refleja los desafíos éticos que enfrenta nuestra sociedad en la era de la IA.
También te puede interesar
La inteligencia artificial avanza a pasos agigantados, y el Deep Learning es su núcleo impulsor. A continuación, abordaremos todo lo que necesitas...
¿Sabes cuáles son las herramientas de inteligencia artificial más relevantes en la actualidad? En este artículo presentamos las 10 principales soluciones tecnológicas...
Esta formación de fundamentos de la inteligencia artificial proporciona una sólida introducción a los conceptos básicos y aplicaciones...