- STEPHEN FOLEY
La tecnología ya está dando lugar a rápidos cambios en la forma de revisar las cuentas de las empresas.
A finales del mes pasado, el equipo directivo global de EY tuvo la oportunidad de conocer las potentes herramientas de IA que se implementarán próximamente en su negocio de auditoría. Los tecnólogos de la firma mostraron una renovada plataforma de auditoría EY Canvas, con funciones que agilizan considerablemente la evaluación de riesgos corporativos utilizada para planificar una auditoría, ayudan al personal en su trabajo con información contable pertinente, y cumplimentan de forma anticipada documentos de trabajo que registran su progreso.
EY afirma que, con la implementación de la actualización de Canvas este mes, el trabajo de auditoría no sólo será más rápido sino también más exhaustivo, con más probabilidad de detectar fraudes y garantizar la exactitud de los estados financieros en los que se basan nuestros mercados de capitales.
Este es el último gran avance en la carrera armamentística de IA entre las Big Four. KPMG ha integrado múltiples herramientas de IA en su plataforma de auditoría Clara y la semana pasada anunció que está probando agentes de "orquestación" capaces de coordinar el trabajo de otras herramientas de IA. La idea es que, mientras los robots se encargan de las tareas rutinarias de la auditoría, el personal pueda centrarse en cuestiones más complejas que requieren criterio profesional.
El ritmo del cambio sugiere que pronto veremos beneficios reales en la calidad de la auditoría, pero como bien saben quienes leen las alucinaciones de ChatGPT, la IA también crea una nueva categoría de cosas que pueden salir mal. Los fallos en las auditorías pueden costar miles de millones a los inversores. Por lo tanto, surge una pregunta urgente: ¿están los reguladores al día?
Mientras los responsables de tecnología de auditoría de EY presentaban su nueva plataforma, el Consejo de Información Financiera de Reino Unido (FRC) ultimaba lo que, según afirmó, era la primera guía publicada para las firmas de auditoría sobre el uso de la IA generativa y los agentes de IA. El marco del FRC resulta útil precisamente por su sencillez, ya que establece las tres maneras en que la IA podría provocar un fallo en la auditoría. En primer lugar, el resultado de una herramienta de IA podría ser erróneo, debido a que los datos sean defectuosos o el modelo falle. En segundo lugar, el resultado podría interpretarse erróneamente. O, en tercer lugar, la IA podría no estar realizando el trabajo suficiente para cumplir con el estándar exigido a un auditor humano.
Por consiguiente, las firmas de auditoría deben establecer procesos para verificar y mitigar cada uno de estos tres riesgos. Como Mark Babington, director ejecutivo de estándares regulatorios del FRC, explica a FT: "No se puede culpar al sistema. Si se utiliza esta tecnología, se sigue siendo el responsable de ello".
Esto, por supuesto, plantea nuevas preguntas, como por ejemplo: ¿qué tipo de mitigación de riesgos es eficaz?, y ¿qué grado de verificación del trabajo de los modelos será suficiente? El FRC ofreció algunos ejemplos ilustrativos, pero los reguladores están lejos de establecer normas. La respuesta correcta evolucionará tan rápido como la tecnología.
Lo que las auditoras esperan evitar es una regulación demasiado rígida, de forma que se permita el tipo de innovación que mejora la calidad. Hasta ahora, no parecen haberse visto limitadas, ni siquiera en Estados Unidos, donde las normas pueden estar menos basadas en principios y ser más prescriptivas. La mayoría de las normas se redactaron cuando se asumía que los auditores realizarían un muestreo aleatorio de las transacciones de los clientes, pero ahora las firmas examinan sistemáticamente todos los datos y se centran en lo que parece anómalo.
Por el momento, las quejas de las auditoras se limitan a que las normas a menudo dicen que una "persona" debe hacer algo, cuando en realidad puede hacerlo la IA, con la supervisión de una persona. Les gustaría eliminar el riesgo de que un regulador pedante las persiga a consecuencia de ello.
¿Existen maneras en que los reguladores puedan fomentar de forma proactiva el uso responsable de la IA? Un grupo de trabajo creado por la Junta de Supervisión Contable de Empresas Públicas (PCAOB) de Estados Unidos elaboró una serie de sugerencias en 2024, publicadas con retraso el año pasado. Entre ellas se incluía la exigencia de documentos de trabajo de auditoría más estandarizados para que la IA pueda utilizarse de forma más eficaz en las revisiones internas y externas. También anticipó el enfoque del FRC, sugiriendo que la guía de los reguladores debería ser "iterativa, y no autoritaria", es decir, sujeta a revisiones rápidas a medida que avanza la tecnología.
Un diálogo más estrecho entre reguladores y regulados será vital, mientras ambas partes avanzan con cautela. Quizás la máxima prioridad sea asegurar que los reguladores se mantengan en un plano igualitario. El nuevo presidente de la PCAOB, el ex auditor de EY, Jim Logothetis, afirmó la semana pasada en sus primeras declaraciones públicas que la agencia necesitaba "mejorar sus propias capacidades tecnológicas" e "invertir en la formación y el desarrollo de nuestro personal".
Sin embargo, ha heredado una agencia cuyo presupuesto fue recortado por la Administración Trump y que se encuentra en pleno proceso de revisión del salario de la plantilla. La PCAOB y los reguladores de todo el mundo deberán tomar la iniciativa rápidamente para no quedarse peligrosamente rezagados con respecto a las empresas que deben supervisar.
© The Financial Times Limited [2026]. Todos los derechos reservados. FT y Financial Times son marcas registradas de Financial Times Limited. Queda prohibida la redistribución, copia o modificación. EXPANSIÓN es el único responsable de esta traducción y Financial Times Limited no se hace responsable de la exactitud de la misma.
OpenAI recauda 3.000 millones de dólares de inversores minoristasUnilever fusiona su negocio de alimentos con el fabricante de especias McCormickLos gigantes de la alimentación empezaban por fin a bajar los precios, y entonces estalló la guerra Comentar ÚLTIMA HORA-
15:24
Jamie Dimon advierte que las pérdidas en el sector del crédito privado serán mayores de lo que se teme
-
14:45
La IA ha llegado a la auditoría. ¿Están preparados los reguladores?
-
14:41
El CEO de JPMorgan no espera que el crédito privado suponga un riesgo sistémico
-
13:50
El Pirineo catalán cierra temporada superando los dos millones de esquiadores
-
13:41
Viscofan acelera con el colágeno para diversificar sus negocios