Unión Europea aprueba su ley de Inteligencia Artificial
Unión Europea aprueba su ley de Inteligencia Artificial: estos son los puntos más importantes.
Analizamos la ley regulatoria sobre Inteligencia Artificial desarrollada por la Unión Europea. Una política necesaria y urgente.
Las plataformas de Inteligencia Artificial (IA) como ChatGPT de OpenAI han crecido sin un control, supervisión, regulación y transparencia adecuados. Debido a ello en buena medida han podido evolucionar de manera tan rápida en tan poco tiempo. Pero la Unión Europea va a cambiar eso.
Hace poco vimos el drama vivido al interior de OpenAI con Sam Altman y todo el asunto del golpe de estado en donde fue expulsado como CEO de su propia compañía para días después ser reinstaurado con el aparente apoyo de Microsoft.
La manzana de la discordia sería, a todas luces, ChatGPT y su modelo más reciente en desarrollo, que al parecer tendría niveles de eficiencia no vistos antes. Todo esto mientras Google lucharía por alcanzarlos en la carrera, montando un aparente engaño con Gemini.
Resulta obvio que en esta competencia corporativa no hay regulación ni control externo alguno. Pero esto estaría por cambiar, gracias a la ley aprobada por la Unión Europea, en donde cualquier proyector que involucre IA será pronto supervisado en cinco áreas cruciales.
Unión Europea aprueba Ley de Inteligencia Artificial: los cinco puntos esenciales
El Parlamento de la Unión Europea (UE) ha alcanzado un acuerdo provisional para la creación de la primera Ley de Inteligencia Artificial, una normativa que busca sentar un precedente para regular esta tecnología a nivel internacional.
Los primeros detalles han sido publicados a través del sitio web oficial del parlamento, acompañado por un comunicado de prensa, en donde se abordan los ejes esenciales de todo el proyecto que se encuentra en la antesala para convertirse en ley.
La ley, que aún debe ser aprobada por el Parlamento Europeo y el Consejo de la UE, establece una serie de requisitos para los sistemas de IA de alto impacto, como los que se utilizan en infraestructuras críticas, dispositivos médicos o sistemas de vigilancia.
Es relativamente complejo, pero podríamos resumir todo en cinco puntos generales, que explicamos acá de manera muy breve:
- Prohibición de aplicaciones específicas: La ley de la Unión Europea prohíbe el uso de sistemas de IA para la discriminación, la vigilancia masiva o la manipulación del comportamiento humano.
- Clasificación de la IA por riesgo: La ley clasifica la Inteligencia Artificial en función del riesgo que representa para los derechos fundamentales y la seguridad. Los sistemas de IA de alto riesgo deberán cumplir con requisitos estrictos, mientras que los de bajo riesgo estarán sujetos a menos obligaciones.
- Limitaciones a la vigilancia: La ley limita el uso de sistemas de identificación biométrica por parte de las autoridades policiales. Estos sistemas solo podrán utilizarse para delitos graves y con autorización judicial, sin embargo este punto presenta por ahora enormes huecos legales riesgosos.
- Protección de los derechos de autor: La ley refuerza la protección de los derechos de autor en relación con la Inteligencia Artificial. Los sistemas que utilicen contenido protegido por derechos de autor deberán ser transparentes sobre su uso y deberán cumplir con la legislación de derechos de autor vigente en la región.
- Regulación de la IA de propósito general: La ley establece normas más estrictas para la regulación de los modelos de IA de propósito general (GPAI), en donde entraría por ejemplo ChatGPT. Estos modelos deberán someterse a pruebas de estrés, evaluaciones de riesgo y deberán ser transparentes sobre su eficiencia energética.