Norma de ciberseguridad en IA (ETSI EN 304 223)

Instituto Europeo de Normas de Telecomunicaciones (ETSI)

El Instituto Europeo de Normas de Telecomunicaciones (ETSI) ha publicado la norma EN 304 223, la primera norma europea que establece un conjunto estructurado de requisitos de ciberseguridad para los sistemas de inteligencia artificial (IA). Con esta publicación, el ETSI proporciona a las organizaciones un marco armonizado para identificar, gestionar y mitigar las amenazas de seguridad específicas de la IA, con el objetivo de reforzar la resiliencia de los sistemas de IA a lo largo de todo su ciclo de vida.


Norma de ciberseguridad en IA (ETSI EN 304 223)

Ver video

Resumen ejecutivo

El creciente despliegue de sistemas de inteligencia artificial en todos los sectores ha acelerado la necesidad de contar con estándares de seguridad sólidos adaptados a los riesgos específicos de la IA. A medida que las tecnologías de IA se vuelven más complejas, especialmente con el auge de las redes neuronales profundas y los modelos generativos, la norma ETSI EN 304 223 proporciona a las organizaciones un marco estructurado, basado en el ciclo de vida, para proteger los activos de IA frente a amenazas como el envenenamiento de datos, la manipulación de modelos y la inyección indirecta de prompts. La norma comprende 13 principios distribuidos en cinco fases principales del ciclo de vida.

Contenido principal

El documento describe los principios de seguridad de la IA para ayudar a las organizaciones a mitigar de forma proactiva las vulnerabilidades específicas de la IA, garantizar la visibilidad del comportamiento de los modelos y mantener la responsabilidad mediante la documentación, la trazabilidad y la supervisión humana.

  • Diseño Seguro. El diseño seguro enfatiza la incorporación de consideraciones de seguridad desde las primeras etapas de creación de un sistema de IA. Fomenta que las organizaciones integren la identificación de amenazas, realicen evaluaciones de riesgos desde fases tempranas y establezcan mecanismos que permitan a las personas supervisar el comportamiento del sistema e intervenir cuando sea necesario. La fase de diseño también exige documentar las decisiones arquitectónicas clave y garantizar que los sistemas sean resilientes frente a interacciones adversas o inesperadas antes de avanzar a la fase de desarrollo.
  • Desarrollo seguroDurante el desarrollo, el enfoque se centra en crear un entorno controlado y debidamente protegido para los datos, los modelos y la infraestructura de soporte. Esto incluye mantener un inventario preciso de activos, implementar controles estrictos de acceso, proteger los componentes de terceros y validar la robustez de los sistemas de IA mediante pruebas estructuradas. La fase de desarrollo refuerza la importancia de la transparencia al garantizar la trazabilidad de conjuntos de datos, modelos y prompts a lo largo del proceso de ingeniería.
  • Implementación SeguraEl despliegue aborda la forma en que las organizaciones se comunican con los usuarios y las partes interesadas una vez que el sistema de IA entra en funcionamiento. Exige que los operadores expliquen claramente el comportamiento del sistema, el uso de los datos, las limitaciones conocidas y cualquier condición relevante para la seguridad que pueda afectar a los resultados. La norma también requiere procedimientos explícitos para asistir a los usuarios y a las entidades afectadas durante incidentes, garantizando que los canales de notificación y los procesos de soporte permanezcan accesibles y claramente definidos.
  • Mantenimiento Seguro. La fase de mantenimiento se centra en preservar la seguridad y la fiabilidad de los sistemas de IA a lo largo del tiempo. Esto implica aplicar actualizaciones oportunas, supervisar el rendimiento del sistema, revisar los registros e identificar anomalías que puedan indicar un uso indebido o la aparición de nuevas amenazas. Se espera que las organizaciones traten las actualizaciones significativas como cambios relevantes del sistema y reevalúen las medidas de seguridad en consecuencia, garantizando una protección continua durante su uso operativo.
  • Fin de vida útil seguro. Los requisitos de fin de vida garantizan que los sistemas de IA y los activos asociados sean retirados de forma adecuada. Esto incluye la eliminación o transferencia segura de modelos, conjuntos de datos y elementos de configuración, de modo que no pueda explotarse información residual tras su retirada. La norma destaca la necesidad de procesos de desmantelamiento controlados en los que participen los responsables de los datos pertinentes, con el fin de evitar que persistan riesgos de seguridad más allá de la fase final del sistema.

Accede a la nota técnica sobre la Norma de ciberseguridad en IA (ETSI EN 304 223) (disponible en inglés).