La inteligencia artificial, ¿un riesgo real para nuestras instituciones?


Compartir

–¿Qué riesgos reales entraña la inteligencia artificial (IA) y qué reglamento vigila su buen uso?

–La IA ofrece numerosos beneficios, pero su aplicación y desarrollo implica varios riesgos que abarcan aspectos éticos, sociales, económicos y técnicos.



Para abordar los riesgos del uso errado de la inteligencia artificial (IA), es fundamental desarrollar e implementar marcos éticos y reguladores robustos, fomentar la transparencia y la rendición de cuentas en su desarrollo, y asegurar una participación inclusiva en la creación y supervisión de estas tecnologías. La colaboración internacional y el diálogo continuo entre gobiernos, empresas y la sociedad civil también son esenciales para gestionar los riesgos asociados a la IA. Por ello, el 12 de julio de 2024, el Boletín Oficial de la UE publicó el Reglamento 2024/1689 para establecer un marco legal uniforme de desarrollo, introducción en el mercado, puesta en marcha y el uso de IA en la Unión.

Pantallazo inteligencia artificial

Para entender la IA, es conveniente atender a sus clasificaciones. Técnicamente, podemos hablar de: IA débil, entrenada para tareas definidas; e IA fuerte o general, que “toma decisiones” de forma autónoma (aún no existe). Solo la inteligencia humana es capaz de crear modelos mentales generales y adaptarlos a contextos completamente diferentes.

Otros criterios de clasificación:

  • Necesidades que atiende: diagnósticos médicos, automatización de procesos, detección de fraudes, GPS, conducción autónoma, asistentes virtuales, gestión de cadenas de suministro, ciberseguridad, agricultura de precisión…
  • Propósito: eficiencia, productividad, análisis de datos, creatividad, ocio, etc.
  • Código fuente: Python, algoritmos de aprendizaje supervisado, redes neuronales, aprendizaje por refuerzo, etc.
  • Riesgos: diagnósticos erróneos, privacidad de datos, atención deshumanizada, dependencia tecnológica, impacto en el empleo, fallos en vehículos autónomos, vigilancia masiva, impacto energético…

El art. 3 del Reglamento define la IA por su autonomía, capacidad de aprendizaje y acción con impacto en el mundo real o virtual. Según ello, las prácticas de IA prohibidas (cap. II, art. 5) son:

  • Manipulación de decisiones.
  • Explotación de vulnerabilidades por edad, discapacidad o situación económica.
  • Evaluación o clasificación social discriminatoria.
  • Predicción de delitos al estilo Minority Report.
  • Uso de imágenes para evaluar sentimientos o actitudes, y etiquetado de personas por rasgos físicos, salvo para fines policiales.

El reglamento clasifica los sistemas de IA según el riesgo en: inaceptable (prohibido), alto riesgo, uso general con riesgo sistémico y bajo riesgo.

Sistemas de alto riesgo:

  • Sistemas de seguridad.
  • Gestión de infraestructuras críticas.
  • Servicios privados esenciales.
  • Administración de justicia.
  • Procesos democráticos.
  • Control migratorio.
  • Sistemas policiales.
  • Perfiles de personas y biometría no prohibidos.

Estos sistemas deben cumplir controles de riesgo exhaustivos, análisis de documentación técnica, supervisión humana, gestión de calidad y evaluación.

Sistemas de uso general con riesgo sistémico, como ChatGPT, con variedad de tareas e impacto social, tienen obligaciones de control similares a los anteriores.

Sistemas de bajo riesgo: se definen por exclusión de los anteriores (ej. asistentes virtuales…).

La UE impone apoyo a la investigación en IA, exigiendo a sus miembros crear espacios controlados de pruebas. España ya ha creado la Agencia de Supervisión de la Inteligencia Artificial.

La cifra

35 millones de euros es la máxima sanción que recoge el Reglamento de la Unión Europea en caso de incumplimiento.

Puede enviar sus preguntas a: asesorlegal@vidanueva.es

Un servicio ofrecido por:
Logo Alter Consultores Legales