que hay en la factura

reconocimiento facial de facebook

Allí Comisión Europea ha presentado en estas horas la primera propuesta de reglamento que regular el uso de la inteligencia artificial por empresas y gobiernos en el Países de la unión. El documento publicado representa el primer intento de la UE de regular un sector controlado tecnológicamente por Estados Unidos y China donde el progreso corre el riesgo de pisotear el respeto por los derechos humanos. Como era de esperar, por los intereses en juego, la propuesta ya divide a los defensores de la línea de prudencia y respeto de los derechos humanos de los que proponen una mayor libertad de acción en un sector crucial para el progreso de toda la eurozona.

Los niveles de riesgo

Los peligros que acechan en el uso indiscriminado de las tecnologías de inteligencia artificial en la vida cotidiana son numerosos y aún no están completamente explorados, y el proyecto de ley publicado en estas horas por la Comisión tiene como objetivo mantenerlos bajo control en la mayor medida posible dividiendo estos sistemas en cuatro categorías de riesgo creciente, que idealmente corresponden a cuatro niveles diferentes de atención por parte de las autoridades supervisoras a cargo. Los algoritmos que utilizo no tiene ningún impacto en los derechos y la vida cotidiana algunos individuos pueden utilizarse sin problemas: esta categoría incluye sistemas como adversarios en videojuegos o filtros de spam para correo electrónico. El uso de sistemas a riesgo limitado – como los chatbots – requerirán que quienes los emplean informen correctamente a las personas con las que interactuarán.

Sistemas críticos

El siguiente nivel de riesgo, el tercero, es aquel al que el proyecto de ley presta más atención, porque se trata de inteligencias artificiales cuyo trabajo puede tener un impacto. impacto significativo en la vida y los derechos de las personas. Desde sistemas de control de documentos en las fronteras hasta programas que evalúan la elegibilidad de los estudiantes para asistir a una facultad universitaria, hasta programas que seleccionan automáticamente los planes de estudio más merecedores para la contratación en una empresa: estas numerosas categorías de IA estarán sujetas a obligaciones y restricciones estrictas de uso: tales como trazabilidad de operaciones, supervisión humana y altos niveles de seguridad de TI para proteger el trabajo de los algoritmos; por otro lado, sin embargo, su uso no estará completamente prohibido.

Los algoritmos prohibidos

En el nivel de riesgo definido inaceptable Se relegan los sistemas considerados como una clara amenaza a la seguridad, la vida cotidiana y los derechos de las personas, lo que quedará completamente prohibido. A esta categoría la Comisión atribuye sistemas y aplicaciones capaces de manipular o eludir el libre albedrío de los usuarios (se da el ejemplo de los juguetes para niños que utilizan asistentes de voz para fomentar comportamientos peligrosos) o sistemas de puntuación social por parte de los gobiernos que los utilizan. .

Un largo debate

La misma subdivisión en la que se colocarán los diversos sistemas de IA está atrayendo a la critica a los detractores, entre aquellos que desearían expandir el conjunto de sistemas de IA con un riesgo inaceptable y aquellos que, en cambio, desearían menos controles sobre numerosas tecnologías que caen en la tercera categoría de riesgo. Además, la propuesta de la Comisión de la UE aún no es ley; podrían pasar años antes de que así sea, durante los cuales los intereses de las partes involucradas no dejarán de hacerse sentir.