www.cuencanews.es
El nuevo reglamento clasifica los sistemas de IA en tres categorías de riesgo: inaceptable, alto y limitado
Ampliar

El nuevo reglamento clasifica los sistemas de IA en tres categorías de riesgo: inaceptable, alto y limitado

Por Redacción
x
localcuencanewses/5/5/16
viernes 20 de septiembre de 2024, 08:04h

google+

Comentar

Imprimir

Enviar

CEOE CEPYME Cuenca destaca la necesidad de que las empresas se adapten al Reglamento Europeo de Inteligencia Artificial, que establece un marco legal para proteger derechos fundamentales y fomentar la innovación. Clasifica los sistemas de IA en tres categorías de riesgo y prevé sanciones severas por incumplimiento.

CEOE CEPYME Cuenca señala la obligación de adaptarse a la legislación europea que se ha establecido para el uso de la Inteligencia Artificial, un instrumento que ya están utilizando muchas empresas.

La Unión Europea es la primera región del mundo que ha establecido un marco jurídico uniforme para el uso de esa nueva tecnología mediante el Reglamento Europeo de Inteligencia Artificial (RIA).

Este reglamento quiere proteger los derechos fundamentales de las personas mediante un enfoque basado en riesgos, similar al Reglamento General de Protección de Datos (RGPD).

De este modo se centra en los derechos humanos, la seguridad pública y la privacidad, a la vez que impulsa la innovación y la gobernanza en el ámbito de la Inteligencia Artificial.

Por lo tanto, se ha establecido un marco regulatorio que las empresas siempre deben seguir para evitar sanciones y también para hacer un uso responsable de la IA.

En esta línea establece plazos específicos para la adaptación, como los seis meses para disposiciones prohibidas de esta tecnología y dos años para de sistemas de alto riesgo.

Categorías

El Reglamento Europeo de Inteligencia Artificial clasifica los distintos sistemas de esta tecnología en tres categorías distintas de riesgo: inaceptable, alto y limitado.

Los sistemas de riesgo inaceptable son aquellos que manipulan cognitivamente a las personas o realizan identificación biométrica en tiempo real en espacios públicos y eso está estrictamente prohibido.

Los de riesgo alto que incluyen aplicaciones como dispositivos médicos supervisados por IA o de selección de personal, deben cumplir con rigurosas evaluaciones de conformidad y supervisión humana y las empresas deben adoptar medidas de transparencia para garantizar la precisión y seguridad.

En caso de incumplimiento las sanciones para las empresas pueden llegar hasta el 7% de la facturación anual global, de ahí la importancia de respetar esta legislación.

Suscríbete al canal de Cuenca News en tu WhatsApp para no perderte nada!

¿Te ha parecido interesante esta noticia?    Si (0)    No(0)

+
0 comentarios