Todos los sistemas de identificación biométrica remota también se consideran de alto riesgo
Pixabay / Gerd Altmann
La Comisión Europea ha propuesto regulaciones sobre el uso de inteligencia artificial (IA) a través de un marco de reglas basado en riesgos que exige fuertes multas, prohibiciones parciales de vigilancia y salvaguardas para aplicaciones de alto riesgo.
Las empresas que infrinjan las normas que prohíben el uso de IA «inaceptable» o que no cumplan una serie de «obligaciones estrictas» podrían enfrentarse a multas de hasta el 6% de su facturación mundial, o 30 millones de euros (lo que sea mayor) según el proyecto de normas anunciado por Bruselas el miércoles.
“La IA es un medio, no un fin. Ha existido durante décadas, pero ha alcanzado nuevas capacidades impulsadas por la potencia informática. Esto ofrece un inmenso potencial en áreas tan diversas como la salud, el transporte, la energía, la agricultura, el turismo o la ciberseguridad. También presenta una serie de riesgos”, dijo el comisario de mercado interior, Thierry Breton.
Breton dijo que las propuestas tenían como objetivo fortalecer la posición de Europa como «centro global de experiencia en IA desde el laboratorio hasta el mercado», así como garantizar que la IA en Europa » respete nuestros valores y reglas «.
La comisión ahora tiene que definir los detalles con los estados miembros de la UE y el Parlamento Europeo antes de que las reglas entren en vigor. Ese proceso podría llevar años.
En su propuesta, la UE describe lo que denomina un enfoque «centrado en el ser humano» que utiliza la promesa de la tecnología, pero también evita que infrinja las estrictas leyes de privacidad y la mantenga «digna de confianza» . ”Las tecnologías se clasifican de acuerdo con el potencial de impacto dañino, desde prohibiciones absolutas hasta riesgos limitados y mínimos».
Según las nuevas propuestas, se considera que las aplicaciones de inteligencia artificial que permiten a los gobiernos realizar una ‘puntuación social’ o explotar a los niños representan un ‘riesgo inaceptable’. Las aplicaciones utilizadas en contratación, infraestructura crítica, calificación crediticia, migración y aplicación de la ley entran en la categoría de ‘alto riesgo’ y estarían sujetas a estrictas salvaguardas.
Todos los sistemas de identificación biométrica remota también se consideran de alto riesgo, con excepciones para casos «estrictamente necesarios» como la búsqueda de niños desaparecidos y la prevención de amenazas » terroristas específicas e inminentes «.
El uso de estas aplicaciones de vigilancia masiva tendría que ser autorizado por un tribunal o un organismo de supervisión independiente y limitado a tiempos y espacios específicos.
La categoría de «riesgo limitado» exige obligaciones específicas de transparencia. Los usuarios que interactúan con ‘chatbots’, por ejemplo, deben estar informados, pero la gran mayoría de los sistemas de IA, como los filtros de spam y las IA de videojuegos, entrarán en la categoría de ‘riesgo mínimo’ que no se rige por las nuevas reglas.
La propuesta también pide la creación de una Junta Europea de Inteligencia Artificial para facilitar la implementación de las reglas y el desarrollo de estándares de IA.
El grupo activista European Digital Rights (EDRI) acogió con satisfacción la propuesta, pero advirtió que no va lo suficientemente lejos. Si bien es «positivo» que la Comisión reconozca que algunos usos de la IA son inaceptables, el proyecto de ley «no prohíbe en toda su extensión» los usos inaceptables «en particular todas las formas de vigilancia biométrica masiva», dijo Sarah Chander, experta en políticas de IA con EDRI, dijo.
“La regulación permite un margen demasiado amplio para la autorregulación de las empresas que se benefician de la IA. Las personas, no las empresas, deben ser el centro de esta regulación”, agregó Chander.
Entre Noticias | RT News | EVR