El desarrollo dinámico de la tecnología de inteligencia artificial (IA) y su creciente impacto en la vida social, económica y política significaron que la Unión Europea intentó crear el primer marco legal integral que regula este campo. El resultado es la regulación del Parlamento Europeo y del Consejo (UE) 2024/1689 del 13 de junio de 2024 sobre el establecimiento de disposiciones armonizadas sobre inteligencia artificial y enmiendas a las regulaciones (EC) no 300/2008, (UE) No 167/2013, (UE) no 168/2013, (UE) 2018/858, (EU) (UE) 2019/2144 y Directiva 2014/90/UE, (UE) 2016/797 I (UE) 2020/1828 (Ley sobre inteligencia artificial), en adelante: AI ACT. Los objetivos de la Ley de IA pueden incluirse como un intento de equilibrar la innovación con la responsabilidad y conciliar la protección de los derechos fundamentales con la promoción de la competitividad del mercado europeo. La Ley de IA establece límites donde, en opinión de los legisladores europeos, la tecnología puede amenazar al hombre. La Unión Europea quiere ser un líder mundial en el campo de los estándares éticos que promueven la inteligencia artificial confiable. Vale la pena señalar que la Unión Europea, Estados Unidos y China actualmente están tomando modelos de desarrollo radicalmente diferente y regulatorios con respecto a la IA.
La visión europea se basa en un enfoque regulatorio duro, que, basado en valores, incluidos principalmente en la tarjeta de derechos básicos de la UE, reconoce la primacía de la protección del interés individual y el público, fuerza la clasificación de los sistemas de IA, establece muchos requisitos para ellos, incluidos los relacionados con la precisión, la confiabilidad
y la seguridad cibernética, y también prohíbe una serie de prácticas relacionadas con E.G. puntuación social o manipulación de puntuación social. Estados Unidos, aunque cada vez más conscientes de las amenazas que pueden estar asociadas con la IA, aún se adhieren al principio de una regulación mínima y la máxima innovación, mientras que China apoya intensamente el desarrollo de la IA a nivel estatal, vea en TI una herramienta para realizar el interés nacional y mejorar los mecanismos de control social. La coexistencia de estos modelos tan diferentes plantea una pregunta sobre la posibilidad de la armonización global de los estándares de IA y el futuro del orden digital internacional: ¿ganará la ley, el mercado o la fuerza?
Saliendo de los supuestos descritos anteriormente, la Ley de IA prohíbe las prácticas específicas en el campo de la inteligencia artificial, que mencionan en el arte. 5 Aquellos que se consideran inaceptables en la Unión Europea debido a una violación de los derechos fundamentales y un alto riesgo para la sociedad. Esto se aplica, por ejemplo:
- Técnicas subliminales, manipuladoras o engañosas (un ejemplo podría basarse en sistemas de publicidad de IA utilizando estímulos visuales o sólidos inconscientes que podrían influir en las decisiones del consumidor sin su conocimiento, lo que lleva a decisiones adversas de compras),
- sistemas de puntuación social, otorgando puntos a los ciudadanos por "buen comportamiento" (por ejemplo, cumplimiento de las regulaciones) y limitar el acceso a los servicios públicos a personas con un "resultado bajo",
- Evaluar el riesgo de cometer un delito solo sobre la base del perfil, es decir, sistemas que proporcionarían una tendencia a cometer un delito basado en características demográficas o sociales, sin evidencia específica,
- Las inferencias en las emociones en el lugar de trabajo y las instituciones educativas, es decir, por ejemplo, sistemas que monitorean las emociones de los empleados del centro de llamadas que utilizan expresiones de voz o faciales para evaluar su desempeño.
Al mismo tiempo, en relación con los sistemas AI de alto riesgo, descritos en el art. 6 y Anexo III a la Ley de IA, es decir, aquellos que, debido a su impacto potencial en los derechos básicos, la salud, la seguridad o las libertades cívicas, están sujetos a los requisitos regulatorios más estrictos, la Ley de IA introduce muchas obligaciones. Arte. 15 ACT de IA, según la cual los sistemas AI de alto riesgo se diseñan y desarrollan de tal manera que logran un nivel adecuado de precisión, confiabilidad y ciberseguridad, y que funcionan de manera consistente en estos aspectos a lo largo del ciclo de vida. Entonces deben ser:
- sólido y, por lo tanto, resistente a los errores, defectos o inconsistencias, y gracias a las medidas técnicas y organizativas, como la redundancia o la transición del sistema a un estado seguro (llamado "a prueba de fallas"), deben poder funcionar correctamente a pesar de la interferencia y las fallas,
- preciso, es decir, el algoritmo debe mantener un alto nivel de precisión de los resultados, adecuados para su propósito y contexto de uso,
- Resistente a la cibergración, al implementar medios para prevenir ataques dirigidos a manipular el conjunto de datos de entrenamiento (envenenamiento de datos) o elementos utilizados en la capacitación, que se han precedido (envenenando el modelo), ingresando datos de entrada que están dirigidos a causar un error en el modelo de IA (los ejemplos adversos o el trasfondo del modelo), los atacantes de los modelos en detectar estas amenazas, respondiendo a ellos, y los controlan y controlan a ellos.
En la práctica, esto significa que los fabricantes y proveedores de sistemas de IA realizan una serie de actividades, incluida, p. Pruebas previas a la transmisión, Introducción de mecanismos de auditoría, monitoreo y gestión segura de los datos de capacitación y prueba, así como para mantener documentación técnica integral.
La evaluación del costo de implementación de los requisitos reglamentarios, así como la posibilidad de interpretar correctamente los estándares generales, que AI ACT utiliza, decidirá si el equilibrio entre la innovación
y la regulación se mantendrá, y si los requisitos demasiado estrictos no limitarán finalmente la competitividad del sector europeo de IA.
Como Jerry Kaplan, un empresario estadounidense, especialista en TI, experto en IA
y futurólogo en nuestro libro "AI generativo", pronosticado, actualmente estamos al borde del nuevo Renacimiento, un gran cambio cultural centrado en la máquina, que hará "en el futuro, cuando buscamos el consejo más profesional, objetivo y confiable, recurriremos a las maquinaciones, no en las personas". En su opinión, la Revolución AI será experimentada principalmente por el sistema de salud, el sistema legal, la educación, la ingeniería de software y las competiciones creativas. Según su misión, la Fundación Set Security-Energy-Technology apoyará las innovaciones, de acuerdo con los requisitos de seguridad, animar el debate y la cooperación intersectorial, así como proporcionar experiencia profesional.