Inteligencia artificial en auditoría interna

El rápido desarrollo de la inteligencia artificial en todas las industrias también trae consigo la aparición de riesgos potenciales, lo que impulsa a las organizaciones a adaptar sus funciones de control al uso de la IA. En este contexto, el papel de la función de auditoría interna se ha ampliado para garantizar la integridad, imparcialidad y transparencia de los sistemas de IA, así como su uso responsable dentro de la organización y la adecuada mitigación de los riesgos. 


Inteligencia artificial en auditoría interna

Ver vídeo

La propuesta de valor de Management Solutions para la función de Auditoría Interna se centra en dos áreas: 

  1. Auditoría de IA: gracias a nuestra profunda experiencia en modelos de IA, gestión de riesgos, datos y regulación, somos idóneos para colaborar en la revisión de elementos transversales del marco de IA, la revisión de riesgos de la IA y la realización de revisiones integrales de sistemas de IA. 

  1. IA para Auditoría Interna: ayudamos a diseñar y desarrollar herramientas de IA para apoyar las actividades de auditoría interna, tanto con nuestra solución propietaria SIRO impulsada por IA para la gestión end-to-end de Auditoría Interna, como con herramientas a medida para testing, generación de informes de auditoría y otras actividades (por ejemplo, chatbots de regulación o políticas internas). 

Dentro del marco de las auditorías de inteligencia artificial, en la etapa de adopción relativamente temprana en que se encuentran las organizaciones, las áreas de Auditoría están encontrando puntos de mejora en varios ámbitos: 

  • Organización y gobernanza de la IA, que incluye problemas como una estructura incipiente e inadecuada de gobernanza de la IA; y funciones y responsabilidades de gestión de riesgos de IA no claramente definidas (incluida la función de la segunda línea de defensa de los riesgos propios de la IA). 

  • Riesgo y cumplimiento de la IA, que incluye retos como un inventario incompleto de soluciones de IA, falta de un sistema estandarizado de clasificación de riesgos de IA y de una herramienta de gestión adecuada (por ejemplo, Gamma); falta de controles sobre aspectos clave de la IA como la explicabilidad y la imparcialidad; falta de cumplimiento de los requisitos normativos (por ejemplo, el AI Act); catálogo de cumplimiento normativo obsoleto debido a la rápida evolución del panorama normativo; etc. 

  • Tecnología y datos para la IA, incluida la falta de controles sobre la dependencia y concentración en proveedores externos de IA; existencia de entornos de IA de usuario final (por ejemplo, sandboxes) que no cumplen las políticas y tienen un control de costes insuficiente; falta de controles para impedir que soluciones externas accedan a datos confidenciales, etc. 

  • Cultura de la IA, incluidos los insuficientes programas de formación y concienciación sobre la IA en toda la organización (en particular, la falta de formación para el Consejo de Administración y la alta dirección).