La Confederación de Empresarios de Cuenca apoya la iniciativa de la Unión Europea para establecer una Ley de Inteligencia Artificial que regule su uso y mitigue riesgos. La normativa impondrá sanciones a infractores, afectando a desarrolladores y usuarios, y promoverá la transparencia en sistemas de alto riesgo.
La Confederación de Empresarios de Cuenca valora positivamente que la Unión Europea trabaje en el establecimiento de una Ley de Inteligencia Artificial para acotar sus peligros.
CEOE CEPYME Cuenca señala que la evolución de esta tecnología ofrece posibilidades de crecimiento e impulsa la investigación, pero al mismo modo son muy altos los riesgos.
Por este motivo, la Confederación de Empresarios de Cuenca considera positivo que la Unión Europea haya tomado la iniciativa en esta materia al igual que hizo en su día con la protección de datos.
De hecho, ha anunciado que esta legislación establecerá sanciones económicas muy elevadas a que infrinja el reglamento, y esto se aplicará también a proveedores de fuera de la Unión Europea si sus sistemas de IA se usan en territorio comunitario.
Este reglamento afecta principalmente a las empresas que desarrollan estos sistemas y los lanzan al mercado, pero también a quienes utilizan herramientas de Inteligencia Artificial para actividades que no sean personales.
Por todo ello, CEOE CEPYME Cuenca recuerda que las empresas deberán velar por el cumplimiento de este reglamento, que regulará muchas relaciones comerciales.
Claves
Las principales claves de este reglamento son que regulan la comercialización y el uso de sistemas de la Inteligencia Artificial y a su vez promover su adopción y desarrollo, mitigando los riesgos que pueda suponer un mal uso de esa tecnología.
Del mismo modo prohíbe determinadas prácticas que consideren de riesgo inaceptable para los ciudadanos, como el uso indiscriminado de las imágenes de internet.
Esta normativa regula los sistemas de Inteligencia Artificial que se considera de alto riesgo como el acceso a servicios esenciales o la categorización biométrica de las personas.
Por último, se exige transparencia con respecto a los contenidos creados o manipulados con herramientas de Inteligencia Artificial o a los sistemas de reconocimientos de emociones.