En el marco del Alumni Day 2024, conversamos con Gustavo Riesgo, profesor de Filosofía de la Inteligencia Artificial y director del equipo de Educación e IA en la Secretaría de Educación del Ministerio de Capital Humano de la Nación.
El profesor Riesgo fue expositor en la pista “IA generativa aplicada a la educación”, que lideró la profesora María José Murcia. El espacio fue un faro de inspiración para un futuro educativo más accesible y personalizado.
-¿Cuáles son los tres principales desafíos que has encontrado al aplicar inteligencia artificial en el ámbito de la educación?
En primer lugar, el desarrollo de competencias por parte de los docentes, para que puedan incorporar el uso de inteligencia artificial como parte del desarrollo de sus tareas y para que puedan acompañar a los alumnos, que ya son usuarios de la IA, pero requieren ayuda con relación a cómo la aplican en el quehacer del aprendizaje.
En segundo lugar, un desafío enorme es que la aplicación de la IA es práctica, independientemente de trabajar el pensamiento computacional como parte de los contenidos de estudio. Existen diversas herramientas de IA generativa para resolver consultas y trabajos o desarrollar contenidos. Pero, para obtener los resultados deseados, estas herramientas deben ser utilizadas de forma correcta. En ese sentido, desarrollar competencias en los alumnos para que las herramientas de IA se apliquen de la mejor forma es un desafío para todos los niveles del sistema educativo: inicial, básico, medio o superior.
En tercer lugar, uno de los desafíos más importantes es desarrollar instrumentos de IA para acompañar y medir el progreso del Plan Nacional de Alfabetización. Por ejemplo, elaborar herramientas de IA para medir la fluidez lectora o la comprensión y, en base a esos indicadores, hacer ajustes y el acompañamiento necesario para que mejoren, buscando que los chicos salgan del nivel primario con habilidades que les permitan enfrentar un aprendizaje más abstracto sin el impedimento de no entender lo que leen.
-¿Qué dilemas filosóficos considerás cruciales cuando se decide implementar inteligencia artificial en los procesos de toma de decisiones empresariales y cómo pensás que deberían abordarse?
En primer lugar, hay que cambiar la narrativa de que la IA es una amenaza para el mundo del trabajo o a nivel humanidad. Esto no es así. Quién puede mejorar una tarea no es la IA; es alguien que sabe usar y aplicar IA. Por lo tanto, habrá una reconversión del mundo del trabajo incorporando capacitación, entendiendo que hay ciertas tareas repetitivas automatizables y desplegando las capacidades para conducir el proceso.
Con relación a la toma de decisiones, la participación de la IA en los procesos de decisión siempre tiene que estar sujeta a la colaboración con la persona que es el decisor. Podemos delegar con distintos formatos: human over the loop (el humano puede intervenir si es necesario); on the loop (el humano supervisa y puede ajustar el sistema de IA); e in the loop (el humano está involucrado activamente en el proceso de toma de decisiones o en el sistema de IA).
La delegación de ciertos tipos de decisión en la IA sólo puede realizarse después de un proceso de testeo y aseguramiento de que cumple con los estándares éticos, de que no hay sesgos y de que sigue permaneciendo una supervisión humana en los procesos críticos.
-¿Cómo puede la filosofía ayudar a los líderes de negocios a entender y gestionar las implicancias de la inteligencia artificial?
Primero, hay que partir de qué es inteligencia. La inteligencia es una capacidad intrínsecamente humana para comprender significados, algo que la IA no puede realizar. La IA opera signos y, en ese sentido, desde lo filosófico, se puede acompañar el proceso de aplicación de IA en distintos ámbitos del trabajo y la cultura. La naturaleza de la IA es profundamente calculista: es un conjunto de operaciones super complejo a partir de una cantidad de cálculos enorme que permite, en base a probabilidades, predecir cierto tipo de comportamientos. Pero la IA no tiene una comprensión del dominio. Entender cómo funciona la IA desde el punto de vista de la Teoría del Conocimiento ayuda a que sepamos qué esperar de ella para hacer hincapié, por ejemplo, en las habilidades de pensamiento crítico o en las capacidades de toma de decisión con esos modelos predictivos que la IA proporciona.
-¿Qué tres requisitos considerás fundamentales para liderar proyectos de IA?
Primero, una subordinación de la tecnología al negocio: la tecnología es la herramienta que acompaña, no el centro. En segundo lugar, un conocimiento del dominio, que es fundamental para que la IA pueda estar preparada para generar valor en esa especialidad. Un tercer punto es una consciencia de las limitaciones de la IA, por su funcionamiento intrínseco basado en cálculos. Ahí es donde interviene el necesario factor humano.
Fuente/Copyright: IAE Business School