Entrevista a Julián Dabbah – Por Stella Bin.
Del newsletter Hora Libre (Infobae)
¡Bienvenid@! a Hora libre, la newsletter de Educación de Infobae.
Acá estoy de nuevo después de una semana de descanso que me permitió renovar energías y también indagar con más tranquilidad en cómo trabajar desde educación con los desafíos que plantea la inteligencia artificial (IA). Me desvela que docentes y familias tomemos dimensión del impacto que la IA puede tener en la sociedad y de cómo podemos educarnos y acompañar la educación de chicos y chicas en el uso de esta herramienta.
Como te conté en la última edición de Hora libre el mundo puede cambiar mucho y no necesariamente hacerlo en pos de sociedades más igualitarias, con más derechos reconocidos y más libertades. Que eso no ocurra dependerá de las habilidades que desarrollemos los ciudadanos para interactuar con la IA. Como dijo la experta Mariana Maggio: además de incorporar a la IA a los procesos educativos hay que aprender a hackearla para quitarle sesgos y hacerla más inclusiva.
Para seguir profundizando en esta idea, entrevisté a Julián Dabbah, analista en computación, docente del Profesorado de Informática de la Universidad Pedagógica Nacional e integrante del equipo de Program.AR de la Fundación Sadosky. Hace pocas semanas estuvo formando a maestros y maestras desde el Instituto Nacional de Formación Docente (INFOD). En la edición de hoy te cuento lo conversado.
Los múltiples usos que permiten las herramientas de IA inquietan. La potencia de este tipo de tecnología abre debates sobre su impacto en el mundo laboral, la perpetuación de desigualdades y la manipulación de información, entre otras discusiones. En ese contexto, es fundamental que la escuela impulse a sus estudiantes a no ser meros consumidores de esta tecnología sino volverla objeto de estudio de miradas críticas. “Para esto último, la formación docente resulta fundamental”, sostiene Julián Dabbah.
Las máquinas y las aplicaciones basadas en IA estarán cada vez más presentes en nuestras vidas. Ya sea porque las usamos directamente o porque las usan otras personas para tomar decisiones que nos involucran. Por lo tanto, “es fundamental que en la educación obligatoria se aborden los contenidos que nos permitan, no solo conocerlas, sino también comprenderlas, analizarlas y criticarlas”, explica Dabbah.
Y propone: “En esta línea, la escuela tiene la posibilidad de habilitar un discurso más realista y complejo, distinto al de la maravilla descontextualizada que se suele pregonar en el que la tecnología, y en particular, la IA es neutral. Es más, reconocer intenciones y consecuencias en las nuevas aplicaciones adquiere un sentido más significativo al hacerlo desde un país como el nuestro, dependiente tecnológicamente”.
En la escuela, ¿cómo pueden abordarse con mirada crítica los sistemas basados en IA?
“Destaco dos enfoques posibles. Por un lado, acompañar a los y las estudiantes en el uso de estos sistemas, como formas de evitar brechas de acceso. Por otro lado, es importante abordar los modos de construcción y funcionamiento de estos sistemas informáticos basados en IA, del mismo modo que nos preguntamos cómo se hace un auto o una heladera y cómo funcionan”, dice Dabbah.
Y agrega: “Ambos enfoques son complementarios y no por adoptar uno debería resignarse el otro. Sin embargo, es probable que cada uno se de en espacios curriculares distintos. En este punto, es fundamental la formación disciplinar específica del docente que tenga a cargo el diseño de las situaciones de enseñanza y su puesta en juego en el aula”.
Concretamente, ¿cómo crees que se puede trabajar esto en la escuela y en el entorno familiar?
“Para entender la IA en el mundo de hoy necesitamos analizar quiénes y desde dónde se producen estos sistemas basados en IA, qué recursos consumen (tanto energéticos, como humanos y de datos) y cuáles son las intenciones que guían su implementación y difusión”.
Sigue: “Así se van a enterar que las empresas que producen estos sistemas informáticos basados en IA son extranjeras, que saben poco de nosotros, de cómo resolvemos problemas, cómo escribimos o cómo producimos una imagen”.
“También van a descubrir los criterios que usa determinada aplicación para producir una frase o una imagen. Porque cuando a eso lo hace una persona, se le puede preguntar qué la movió a hacerlo. Pero en IA no solo no se le puede preguntar porque es un sistema, sino que ni las personas que la generan pueden saber el criterio con el que toma decisiones”.
“Por eso, debemos ser muy cuidadosos con los resultados que nos da. Porque no sabemos dónde se creó, qué datos tiene cargados ni de dónde los sacó. Es importante preguntarse cómo vamos a usar la IA en nuestras vidas cuando sabemos que se puede equivocar y que no le podemos preguntar ni saber cómo tomó esas decisiones”.
¿Cómo se pueden producir aprendizajes que sean significativos para los chicos y las chicas en el aula?
“Existen herramientas que permiten construir fácilmente aplicaciones de IA basadas en datos similares a los que usan algunas aplicaciones con las que probablemente ya hayan interactuado los y las estudiantes. De esta manera, podemos abordar con un enfoque práctico y una motivación concreta algunos de los principios básicos de la IA basada en datos o aprendizaje automático”.
¿Qué es el aprendizaje automático?
“Es el conjunto de técnicas que se utilizan para construir aplicaciones de IA que resuelven un problema a partir de analizar enormes volúmenes de datos que se le cargaron a modo de ejemplo. Comprende a la manera en la que clasifica y asocia cosas —por ejemplo, qué información deberá encontrar en una foto para categorizarla como imagen de perro o en un archivo para categorizarla como persona riesgosa para un banco—”.
“Para esto es fundamental un proceso de recolección y etiquetado de datos. Es decir, a las aplicaciones que procesan miles de datos para responder a una pregunta, antes les tuvieron que cargar miles de imágenes o datos etiquetados manualmente de determinada manera. Por ejemplo, una empresa puede cargar curriculums vitaes de las personas que contrató en los últimos años y de las personas que no contrató. En este caso el riesgo está en que cuando busque nuevos empleados la aplicación reproduzca sesgos —por caso, si no contrató a mayores de 40, va a desechar a todas las personas que superen esa edad—. Porque la aplicación usa datos del pasado para decidir cuestiones a futuro”.
“En el aprendizaje automático otro proceso fundamental es el entrenamiento. Para esto es necesario darle a la aplicación un conjunto de datos etiquetados para que el sistema encuentre patrones y aprenda a separar por el análisis estadístico que hizo de esos datos. Y luego hay que probar, ver si, por ejemplo, está haciendo una selección sesgada y requiere ajustes para quitar esos sesgos”.
Es decir, se combinan cuestiones técnicas y humanas en estos procesos.
“Sí, es necesario abordarlas juntas. Y doy un ejemplo de algo que ocurrió y que demuestra por qué es importante tener una mirada integrada: una gran empresa de tecnología implementó un sistema de aprendizaje automático para seleccionar personas a través de sus currículums. ¿El objetivo? Elegir a quienes entrevistar entre la enorme cantidad de postulaciones que recibe. La compañía dispone de muchísimos datos que usó para entrenar al sistema, pues cuenta con todo su historial de contrataciones digitalizado y en la empresa trabajan muchísimas personas. Pero cuando el sistema se puso en funcionamiento, comenzó a descartar sistemáticamente las postulaciones de mujeres. Después de varios intentos fallidos de corregir ese sesgo lo dieron de baja”.
“¿Qué pasó? Los sistemas de aprendizaje automático están entrenados para detectar regularidades en los datos y luego intentar reproducir esas regularidades en sus resultados. Y como en los registros históricos de contrataciones de la empresa la gran mayoría corresponden a varones, pues la brecha de género en los empleos de tecnología es enorme, el sistema reprodujo el sesgo. Es decir, el sistema identificó esa mayoría e intentó reproducirla. Si se hubiera sostenido el uso del sistema, la desigualdad no solo se perpetuaría sino que se reforzaría porque las nuevas incorporaciones reforzarían el sesgo en los datos con los que se entrenará el sistema en el futuro”.
“Ahora, para analizar este caso fue necesario saber que los sistemas de IA buscan patrones para definir su comportamiento, pero también que existe una brecha de género en las y los empleados de las empresas de tecnología. Para dimensionarlo correctamente hay que tomar conciencia de que existe esta desigualdad y que la aplicación del sistema no solo la sostiene sino que la profundiza”.
Si sos docente y querés seguir profundizando en el tema, te sugiero dar una mirada a las tres conferencias que dictó Julián Dabbah junto a otros especialistas de la Fundación Sadosky, en el marco de la formación “Inteligencia Artificial, Internet y Microchips, contra el mito de la tecnología neutral”.