Inteligencia artificial, propuesta de normas de la UE para limitar los riesgos

La Comisión de la UE propuso hoy un nuevo marco regulatorio para garantizar que los sistemas de inteligencia artificial (IA) utilizados en la UE sean seguros, fiables y transparentes, que respeten los valores éticos de la Unión y la privacidad de las personas, que no responden a reglas discriminatorias y que, en todo caso, quedan bajo el control humano. La propuesta clasifica los sistemas de inteligencia artificial en función del riesgo, de acuerdo con una pirámide de cuatro capas que ve en la parte superior a los caracterizados por un «riesgo inaceptable» y, por lo tanto, a prohibir, seguidos de los «de alto riesgo», que deben cumplir con los requisitos y límites obligatorios, luego el nivel de “riesgo limitado”, al que corresponderán las obligaciones de transparencia, y finalmente el nivel de “riesgo mínimo”, sin más obligaciones legales, en el que caen la mayoría de los sistemas utilizados en la actualidad.

Todo lo que se considera una clara amenaza para los ciudadanos europeos pertenece a la categoría de «riesgo inaceptable»: de los sistemas de «puntuación social» utilizados por ciertos gobiernos (es decir, la clasificación de los ciudadanos en función de su comportamiento social, que penaliza por ejemplo a los que pagan facturas tardías o cometen infracciones de tránsito), juguetes asistidos por voz que fomentan la manipulación del comportamiento de los niños, técnicas subliminales. Los sistemas de identificación biométrica remota en tiempo real utilizados en espacios accesibles al público también estarán prohibidos, pero con algunas excepciones importantes, que se refieren a investigaciones de delitos incluidos en una lista que corresponde a la de la orden de detención europea (32 delitos), pero solo para los casos más graves (si se prevén penas de prisión superiores a tres años en caso de condena).

Los sistemas de los IA que caen en la categoría de «alto riesgo» no serán prohibidos, sino evaluados cuidadosamente, antes de ser aceptados en el mercado y durante todo su ciclo de vida. Para limitar los riesgos, estarán sujetos a limitaciones y obligaciones. Esta categoría incluye sistemas relacionados con: 1) infraestructuras críticas (como el transporte) que podrían poner en peligro la vida y la salud de los ciudadanos; 2) actividades educativas o de formación profesional, en las que puedan afectar el acceso de una persona a la educación y la carrera (por ejemplo, al determinar las notas de los exámenes); 3) seguridad del producto (como aplicaciones en cirugía robótica); 4) acceso al trabajo y gestión de los trabajadores (por ejemplo, el software que selecciona los CV de los candidatos para los procedimientos de contratación); 5) servicios públicos y privados esenciales (por ejemplo, acceso a crédito bancario); 6) injerencia en los derechos fundamentales de los ciudadanos en la aplicación de la ley (por ejemplo, en la evaluación de la confiabilidad de las pruebas en los procesos judiciales); 7) gestión de inmigración, asilo y control de fronteras (por ejemplo, verificación de la autenticidad de los documentos de viaje).

En el nivel de «riesgo limitado», que requiere obligaciones mínimas de transparencia, son los sistemas de IA como los «chatbots», que interactúan con el usuario para permitirle tomar decisiones informadas. El usuario siempre debe poder decidir si acepta o abandona el uso de la aplicación. Por último, la categoría de riesgo «mínimo» o nulo abarca la gran mayoría de los sistemas de IA actuales, como las aplicaciones de videojuegos gratuitas o los filtros de spam en el correo electrónico. El nuevo reglamento de la UE «garantizará que los ciudadanos europeos puedan confiar en lo que la inteligencia artificial tiene para ofrecer, gracias a reglas proporcionadas y flexibles que abordarán los riesgos específicos que plantean los sistemas de IA y establecerán los estándares más altos en todo el mundo», dice la Comisión en una nota. . Las nuevas normas, con el enfoque basado en las distintas categorías de riesgo, se aplicarán directamente y de la misma forma en todos los Estados miembros, tras su aprobación en codecisión por la UE y el Parlamento Europeo. Además del reglamento, el Ejecutivo comunitario también propuso hoy un «plan coordinado» que perfila los cambios estratégicos y las inversiones necesarias a nivel de los Estados miembros para reforzar la posición de liderazgo que ocupa Europa en el desarrollo de la inteligencia artificial. para que sea «antropocéntrico, sustentable, seguro, inclusivo y confiable».

«Acerca de para la inteligencia artificial, la confianza no es opcional, es indispensable. Estas reglas representan un gran avance, que permitirá a la UE liderar el desarrollo de nuevos estándares globales para garantizar que se puede confiar en la IA «, subrayó Margrethe Vestager, vicepresidenta ejecutiva de la Comisión responsable de Competencia y Europa Digital, presentando hoy la propuesta. «Al definir las reglas de esta manera, podemos allanar el camino para la ‘tecnología ética’ en todo el mundo», continuó Vestager, y al mismo tiempo «garantizar que la UE siga siendo competitiva. Nuestras reglas se adaptarán a las necesidades futuras y a favor de la innovación e intervendrá donde sea estrictamente necesario: cuando – concluyó – estén en juego la seguridad y los derechos fundamentales de los ciudadanos de la UE ”.“ AI ha existido durante décadas, pero ahora – añadió el Comisario para el Mercado Único, Thierry Breton: son posibles nuevas capacidades impulsadas por la potencia informática, que ofrecen un enorme potencial en muchos sectores diferentes, incluidos la salud, el transporte, la «energía, la agricultura, el turismo o la ciberseguridad». “Sin embargo – advirtió Breton – también hay una serie de riesgos; Estas propuestas tienen como objetivo fortalecer la posición de Europa como polo mundial de excelencia en inteligencia artificial desde los laboratorios hasta el mercado, para garantizar que la IA en Europa respete nuestros valores y reglas, y explotarlos – concluyó el Comisario – potencial para uso industrial «. .askanews

Siga ilfogliettone.it en facebook

© REPRODUCCIÓN RESERVADA

Si tiene correcciones, sugerencias o comentarios, escriba a redazione@ilfogliettone.it