En la actualidad, la Inteligencia Artificial (IA) es un tema que se toca en muchos ámbitos. Mientras algunas personas hablan de todo el potencial que tiene este desarrollo, otras temen lo que puede generar este avance. Ejecutivos de las empresas más prominentes del sector tecnológico piden una pausa en su vertiginoso progreso.
Por su parte, varios gobiernos evalúan cómo prepararse para el impacto que supondrá esta tecnología para la sociedad. En ese sentido, la Unión Europea ha tomado ventaja frente al resto y ya alista un marco normativo para gestionar su manejo. Con este se busca garantizar estándares éticos y derechos fundamentales de los ciudadanos tras la irrupción de esta tecnología.
¿En qué consiste el marco europeo que regula la IA?
El Parlamento Europeo ha aprobado por una mayoría abrumadora un proyecto de mandato de negociación sobre el proyecto de reglamento propuesto por la Comisión Europea que busca garantizar el desarrollo ético de la IA. Se prevé que el Pleno vote este mandato durante las sesiones que se desarrollarán entre el 12 y el 15 de junio.
Al ser un Reglamento, luego de ser aprobado, se aplicará de manera inmediata en los 27 países de la Unión Europea; esto sin necesidad de trasponerlo a la normativa nacional. Bruselas considera que la IA puede ayudar a solucionar muchos problemas de la sociedad, pero solo si la tecnología es de alta calidad y se desarrolla en un entorno confiable.
Por eso, se impulsa este marco estratégico basado en los valores de la UE, que ofrezca a los ciudadanos la seguridad de aceptar soluciones basadas en IA. Así mismo, se alentará a las empresas para que desarrollen e implementen este tipo de innovaciones en sus procesos.
En esta propuesta legislativa, la Comisión introduce nuevas normas y medidas destinadas a convertir la Unión Europea en el centro mundial de una IA digna de confianza. Esta refuerza las normas sobre la calidad de datos, transparencia, supervisión humana y rendición de cuentas. Pretende abordar cuestiones éticas y retos de aplicación en sectores como la sanidad, educación y energía.
¿Cuáles son los niveles de riesgo de las IA?
La norma sigue un planteamiento basado en el riesgo, considerando el más elevado como Riesgo inadmisible. Este obligará a prohibir sistemas que se consideren una amenaza para la seguridad, medios de subsistencia y los derechos de las personas. Esto abarca las aplicaciones que manipulan el comportamiento humano como los asistentes de voz.
El segundo nivel será considerado como Alto Riesgo y en el mismo se incluyen sistemas que afecten las infraestructuras críticas como los transportes. Además, aquellos que puedan poner en peligro la vida y la salud de los ciudadanos. También se suman los que pueden determinar el acceso a la enseñanza y los de seguridad de los productos.
Se añaden a los anteriores, los de acceso al empleo o a servicios públicos y proveedores esenciales. También los de acceso a servicios por el ciudadano, los de la aplicación de las leyes, la gestión de la migración, el asilo y control de las fronteras. Además, se añaden los referidos a la administración de la Justicia y los procesos democráticos.
En el ranking de riesgo sigue la categoría Riesgo limitado, es decir, los sistemas de IA con obligaciones específicas de transparencia. Al utilizar estas IA como robots conversacionales, los usuarios deberán ser conscientes de que están interactuando con una máquina; de esta forma, podrán tomar una decisión informada de continuar o no.
Por último, está el nivel de Riesgo mínimo o nulo, que permitirá el uso gratuito de aplicaciones como los videojuegos basados en la IA o los filtros de correo basura. La inmensa mayoría de los sistemas de IA entran en esta categoría.
¿Qué pasará con tecnologías como ChatGPT?
Los bots de IA generativa como el reconocido ChatGPT fueron etiquetados en el nivel de menor grado de riesgo. Sin embargo, el debate frente a esta tecnología sigue latente, pues la posibilidad de que estos bots consoliden sesgos y desinformación podría situar esta herramienta en la categoría de alto riesgo.
La falta de consenso sobre la regulación de sistemas de propósito general como ChatGPT hizo que la votación prevista para abril se pospusiera hasta mayo. La idea es que el texto esté aprobado a finales de este mes y que las negociaciones entre las comisiones del bloque comiencen en junio.
La Unión Europea como líder mundial de la IA segura
La Comisión Europea, a través de sus informas, estima que la UE tiene potencial para ser líder mundial en IA segura. Por este motivo, Bruselas tiene previsto invertir 1,000 millones de euros al año en IA con cargo a sus programas Europa Digital y Horizonte Europa.
El gran objetivo es atraer más de 20,000 millones de euros de inversión total en IA por año en la UE durante esta década. El Mecanismo de Recuperación y Resiliencia ayudará a acelerar las inversiones e irá más allá de este objetivo. Actualmente, más del 25 % de todos los robots industriales y de servicios personales se producen en la UE.
Cabe recordar que Italia ha sido el primer país europeo en prohibir el uso de la aplicación ChatGPT de la empresa OpenAI. El Gobierno de ese país tomó esta determinación por considerar que esta herramienta expone a los usuarios al contenido de la plataforma sin antes comprobar su edad.
Esta inteligencia artificial creativa permite generar textos completos a través de indicaciones, además de desarrollar imágenes de alta calidad por medio de palabras. La Administración italiana considera que esta carece de base jurídica que justifique la recogida y almacenamiento masivo de datos personales para entrenar a su inteligencia artificial.
La certificación de «IA de confianza»
Al respecto de temas como el anterior, la UE pretende crear una certificación de «IA de confianza». Esto con la idea de fomentar el cumplimiento de las normas en este ámbito y que no se causen perjuicios a la sociedad. Las infracciones conllevarán multas, las cuales pueden alcanzar hasta el 6 % de la facturación anual en el caso de proveedores de servicios reincidentes.
Por el momento no se sabe de forma exacta cuándo se aprobará la ley, de momento los países miembros están en la fase de trílogos: la Comisión Europea, el Parlamento Europeo y el Consejo de Europa tienen que llegar a una opinión común. Por su parte, España concluirá todas las negociaciones para tener el reglamento definitivo, con la idea de que la ley se pueda aplicar en 2024.
[su_box title=»Recomendados» box_color=»#ea3644″ radius=»2″]
- Inteligencia artificial en las empresas | Aplicaciones y beneficios
- Programas de inteligencia artificial | 33 herramientas en las que apoyarte
- Chatbots | Qué son y qué pueden aportarle a tu empresa
[/su_box]