Seguinos en

IAE Business School

¿Cuál es el impacto de la IA en la integridad corporativa y el compliance?

En un evento en la Cámara de Industria y Comercio Argentino-Alemana, el profesor de IAE Business School Raúl Saccani analizó el impacto de la inteligencia artificial (IA) en la integridad corporativa. A raíz de la reciente actualización de la Guía de Evaluación de Programas de Compliance del Departamento de Justicia de EE.UU., que incluye a la IA como un factor clave a considerar, Saccani enfatizó la necesidad de que los oficiales de compliance evalúen los riesgos asociados al uso de la IA y desarrollen su pensamiento crítico para tomar decisiones efectivas.
Publicado viernes 27 de septiembre

El profesor Raúl Saccani, director del Centro de Gobernabilidad y Transparencia de IAE Business School, participó como orador en el evento “Conversaciones para la integridad corporativa & Compliance Night Cocktail”, coorganizado por la Cámara de Industria y Comercio Argentino-Alemana (AHK Argentina) y la Fundación Poder Ciudadano. El encuentro, que se llevó a cabo el jueves 26 de septiembre, reunió a referentes del sector privado, público, la sociedad civil y la academia para abordar la importancia de la acción colectiva en la lucha contra la corrupción.

En su intervención, Saccani hizo énfasis en la reciente actualización integral de la Guía de Evaluación de programas de Compliance Corporativo del Departamento de Justicia de EE.UU. (DOJ), que incluye referencias explícitas a la inteligencia artificial (IA) y su relación con el compliance. Destacó que, la IA se presenta como un "arma de doble filo", una tecnología poderosa que puede ser tanto un facilitador del crecimiento como un generador de nuevos riesgos. Mencionó que muchas empresas en el pasado restringieron el uso de herramientas de IA por temor a comprometer información sensible, pero ahora están comenzando a desarrollar sus propias soluciones.

El profesor Saccani además resaltó la capacidad de la IA generativa para potenciar el trabajo en compliance, desde la simulación de casos en entrenamientos hasta el procesamiento de grandes volúmenes de correos y mensajes. También señaló la necesidad de que los oficiales de compliance evalúen los riesgos asociados al uso de IA en las organizaciones, así como la importancia de mapear estos riesgos dentro del Enterprise Risk Management (ERM).

En cuanto a las novedades que trae la guía del Departamento de Justicia, Saccani consideró que son muy relevantes porque terminarán permeando en los lineamientos del resto de los principales países del mundo. El documento incluye un nuevo conjunto de diez preguntas sobre qué hacer, desde el programa de compliance, ante los riesgos que supone la IA y cómo están capturados estos riesgos en el ERM. El oficial de Compliance debería tener mapeado dónde la organización está usando IA, para considerar los riesgos, la gobernanza, controles, responsabilidad y transparencia, entre otros. La mitigación del uso indebido, la supervisión constante y la capacitación de IA también son ejes centrales. Subraya el DoJ la necesidad de que las funciones de cumplimiento tengan acceso a recursos y tecnologías comparables a las de las áreas comerciales.

La evaluación de riesgos para el uso responsable de la IA en las compañías está dentro de las responsabilidades del oficial de Compliance. Por ejemplo: los riesgos de alucinaciones por parte de las herramientas de IA, cómo nos van a impactar los sesgos de los datos entrenados en las aplicaciones de IA, cómo hacemos para validar que la información que se usa para entrenar sea rigurosa para que lo que salga esté exento de alucinaciones.

“La guía nos está poniendo (a los oficiales de Compliance) en un lugar completamente nuevo e incómodo para la gestión del compliance, nos llevará a un lugar ajeno a nuestra especialidad”, consideró el profesor de IAE Business School. “Ninguno de nosotros sabía de IA hasta que irrumpió hace dos años la IA generativa y ahora resulta que está en el programa de compliance”, describió.

El documento del DOJ de EE.UU. sostiene que, si la empresa utiliza IA para sus operaciones comerciales, de la misma manera tiene que usar IA para su gestión de compliance (en la detección de riesgos y en el programa de compliance).

“ChatGPT puede ayudar a sacar un cartón divinamente pintado de un programa de compliance, pero que falle en su cuestión más central: la toma de decisiones”, consideró. ¿De qué manera la toma de decisiones humana se refleja en el análisis de lo que sale de la IA? La capacidad para diseñar instrucciones para la IA (prompt enginering) no será lo crucial sino cómo mejoraremos nuestro pensamiento crítico para tomar mejores decisiones, especialmente bajo presión: cómo analizamos, qué supuestos están implícitos, para generar conclusiones de mejor calidad. “Los humanos tenemos que aprender a tener un mejor pensamiento crítico que nos eleve a un espacio donde la IA nunca nos pueda alcanzar”, concluyó.

El evento se centró en las nuevas formas de corrupción que emergen en un mundo cada vez más complejo, subrayando la insuficiencia de las acciones individuales para combatir esta problemática. La participación del profesor Saccani en este evento refuerza el compromiso de IAE Business School con la formación de líderes que promuevan un entorno de negocios más íntegro, transparente y sostenible.

Fuente/Copyright: IAE Business School