Fuente: Instituto nacional de Tecnologías Educativas y de Formación del Profesorado de España

Por: María Eugenia Bujanda Bujanda

Dice Carlos Scolari en sus 10 tesis sobre la inteligencia artificial (AI) que la velocidad del cambio en este campo es tal, que todo lo que se escribe sobre él es ya viejo. A pesar del riesgo, me animo a reunir algunas ideas preliminares (y provisionales) sobre un tema que deberíamos analizar a fondo en la Universidad. Me refiero a las capacidades que requieren las personas jóvenes para enfrentar una sociedad cada vez más saturada y dependiente de la IA.

El tema es complejo por múltiples razones. La principal es que la aceleración y la profundidad de las transformaciones que estamos viviendo hacen muy difícil predecir a mediano o largo plazo. También porque implica pensar y cubrir distintas perspectivas: desde el conocimiento profundo, interdisciplinar y reflexivo que van a necesitar quienes diseñan e implementan estos sistemas, hasta las capacidades específicas que se requerirán distintas profesiones para compartir un creciente número de tareas con la IA.

Sin embargo, quisiera enfocarme en las herramientas analíticas y las capacidades imprescindibles para interactuar de manera cotidiana con la IA, con independencia de nuestra ocupación. En la literatura lo encontramos a menudo definido como alfabetización en IA, aunque también se habla de competencias en IA o educación en IA.

Este concepto lleva un tiempo siendo estudiado en la comunidad educativa y es usual verlo planteado como algo que implica no solo comprender en qué consiste, cómo funciona y cómo usar esta tecnología, sino también reflexionar sobre sus implicaciones éticas y sociales. Este último componente más crítico normalmente se centra en las repercusiones de construir sistemas de IA no confiables, inseguros, que reproduzcan sesgos o invadan la privacidad. Sin restar valor a estas consideraciones, el objetivo de este post es proponer la necesidad de una alfabetización en IA para personas jóvenes y personas estudiantes universitarias que les permita hacerse preguntas más profundas sobre el origen, el contexto y los impactos menos visibles de esta tecnología en nuestra sociedad.  

Visión predominante de la alfabetización en IA

Una de las definiciones sobre alfabetización en IA más repetidas en la literatura es la de Duri Long y Brian Magerko, quienes la visualizan como la capacidad de evaluar tecnologías de IA de manera crítica; comunicarse y colaborar con ellas; y usarlas como una herramienta en línea, en casa y en el lugar de trabajo. Su propósito sería prepararnos para una sociedad en la que tendremos que vivir e interactuar permanentemente con la IA.

Esta visión se ha trasladado a una gran parte de los programas de alfabetización en IA, al menos los que se han implementado en educación primaria y secundaria. Estos suelen tener alguno de los siguientes propósitos: 

  • Aprender sobre IA: comprender los conceptos y técnicas que permiten reconocer qué artefactos o plataformas usan IA y cuáles no.
  • Aprender sobre el funcionamiento de la IA: comprender cómo funcionan los sistemas de IA para interactuar de manera efectiva con ellos.
  • Aprender a vivir con la IA: comprender cómo la IA puede afectar nuestras vidas, permitiéndonos evaluarla de manera crítica.

Para personas adultas, encontramos experiencias como el “desafío de IA” que se han propuesto en Finlandia, consistente en formar al uno por ciento de la población en aspectos esenciales de IA mediante un curso gratuito en línea, Elementos de IA. Este curso, diseñado por la Universidad de Helsinki y ahora traducido a 28 idiomas, tiene por objetivo que las personas participantes comprendan qué es IA, qué se puede hacer y no con la IA, y que puedan comenzar a diseñar métodos de IA.

En la universidad parece primar un enfoque similar: contribuir a desmitificar la IA y fomentar que las personas se acerquen sin miedo para descubrir sus posibilidades. En el caso de la IA generativa, tras la conmoción y los temores iniciales, el discurso que se extiende es que tenemos que enseñar a las personas estudiantes a usar de manera productiva herramientas como ChatGPT, porque en el mundo del trabajo les pedirán usarlas. 

La UNESCO se encuentra elaborando un marco de competencias en IA que espera publicar el próximo mes de septiembre. En estos momentos están recabando aportes que ayuden a operacionalizar dos componentes esenciales de este futuro marco: la alfabetización algorítmica y la alfabetización en datos[1]. Estos dos aspectos constituirán al parecer el núcleo de su propuesta, junto las habilidades esenciales requeridas para usar de manera cotidiana herramientas de IA.

Sin menoscabar la importancia de estos elementos, una alfabetización crítica en IA requeriría incorporar otras dimensiones y, sobre todo, repensar el propósito de esta formación.

Algunos elementos para una alfabetización crítica en IA

Para valorar qué puede implicar una alfabetización crítica en IA, deberíamos empezar por comprender que la inteligencia artificial es mucho más que una tecnología. Como afirma el manifiesto descolonial de la IA, también es una ciencia, un negocio, un sistema de conocimiento, un conjunto de narrativas, de relaciones, un imaginario. Es decir, la IA es un fenómeno complejo que se debe analizar desde diversas aristas.

Una de estas aristas es su sistema de producción. Sobre este tema hay preguntas importantes que plantear; por ejemplo, cómo se produce, sobre la base de cuál infraestructura, con qué demanda de recursos, energía e insumos, con qué prácticas laborales. Estos interrogantes llevaron a Kate Crawford y Vladan Joler a examinar la anatomía de las tecnologías de IA y cuestionar su visión como algo etéreo, limpio, eficiente, que no deja huella material. Estos investigadores encontraron que los sistemas de IA requieren cantidades inmensas de recursos naturales, energía y agua para mantener los centros de datos y sostener el entrenamiento de los algoritmos. También requieren del trabajo precario invisible de cientos de miles de personas en países del Sur, encargadas de la tarea más dura en el entrenamiento de estos sistemas: el etiquetado de contenido dañino. Asimismo, enormes cantidades de datos extraídos de internet y de distintas aplicaciones sin conocimiento, consentimiento o retribución a las personas que los crearon o a quienes pertenecen. De ahí la calificación que académicas como Paola Ricaurte han hecho de la IA como “tecnología extractiva y desposeedora”.

Los elementos antes mencionados permiten explicar otra arista importante del fenómeno de la AI: la estructura de poder que hay detrás de su desarrollo. Como explica Natalia Zuazo en el podcast ChatGPT, la carrera de la inteligencia artificial y la desigualdad (a partir del minuto 9:16), es esencial que nos preguntemos quiénes (países, empresas, personas…) están a cargo de desarrollar e impulsar esta tecnología, con qué lógicas, agendas y modelos de negocio, qué intereses económicos y geopolíticos los guían. Esto permite descubrir la extrema concentración de poder que caracteriza a la industria tecnológica, con un muy pequeño número de empresas acaparando el capital y operando al servicio de los intereses dominantes, tal como lo documenta Kate Crawford en su libro Atlas de IA.

Pero no solo tienen poderosos intereses quienes desarrollan esta tecnología. Un reciente informe de la empresa consultora McKinsey sobre el impacto económico de la IA generativa estima que esta tecnología podría aportar entre 6,1 y 7,9 trillones (un trillón equivale a un millón de billones) de dólares anuales de beneficios adicionales a la economía global. Este impacto estaría relacionado con la automatización de actividades que actualmente absorben entre un 60 y un 70 por ciento del tiempo de las personas trabajadoras en el sector empresarial, sumada a la agilización que podría generarse con la incorporación de la IA generativa en el software que usamos de manera cotidiana.

Esto último nos lleva a otra arista importante de analizar: el impacto de la IA en el mundo del trabajo. Aquí habría también mucho que abordar, pero uno de los aspectos más determinantes sería la automatización. Por ejemplo, podríamos preguntarnos qué tareas son las que se deciden automatizar y por qué, qué decisiones son las que se están dejando en manos de las máquinas, quiénes están decidiendo sobre qué se automatiza, con qué implicaciones para la agencia de las personas, etc.

Habría otras dimensiones también esenciales de analizar como, por ejemplo, la perspectiva sociológica y política sobre la manera en que la IA impacta la esfera pública y la democracia; la perspectiva epistemológica, sobre sus implicaciones en la forma en que entendemos la inteligencia humana, construimos conocimiento, nos informamos, distinguimos lo verdadero de lo falso, lo real de lo generado; la perspectiva filosófica, sobre qué tipo de tecnología queremos construir como sociedad, qué tipo de relación queremos que exista entre el ser humano y la tecnología.

Retomando el sentido freireano de la “alfabetización”

Todo lo anterior permite argumentar a favor de una alfabetización en IA cuyos contenidos no solo giren alrededor de comprender cómo funcionan estas tecnologías, aprender a aprovecharlas, y evaluar de manera crítica los impactos más inmediatos de su funcionamiento. Necesitamos que incluya también la capacidad de indagar y cuestionar su origen y evolución, sus efectos visibles y menos visibles en la sociedad y en las personas, en nuestra forma de pensar, sentir y relacionarnos. En la región contamos con algunas valiosas iniciativas nos pueden servir de referencia y mostrar el camino, como la propuesta de formación digital crítica para personas jóvenes latinoamericanas desarrollada por Paola Ricaurte, o la campaña #tecnoafecciones, promovida por la organización Sursiendo.

Decía antes que tenemos que repensar también el propósito último de esta formación base, desde una alternativa a las perspectivas funcionales y utilitaristas más usuales. En ese sentido, podríamos inspirarnos en la propuesta de Paulo Freire en su conferencia de cierre del Congreso Perspectivas Críticas en Educación (Barcelona, 1994), de guiarnos por el imperativo ético de favorecer la mayor autonomía y emancipación posible de las personas. Esto supone fortalecer la capacidad de comparar, elegir, construir y transformar el mundo, como sujetos; en lugar de fomentar la posición de objetos, a quienes solo les queda adaptarse al mundo, como una realidad predeterminada y ante la cual no cabe posibilidad de resistencia o autodeterminación.

Concluyo con las palabras con las que Freire cerró también la conferencia mencionada: “necesitamos una educación que sugiera un conocimiento profundo de las cosas: por qué se dan, cómo se dan, a favor de quién se dan… una pedagogía que ilumine, desoculte y que no tiemble.”


[1] Por alfabetización en datos, entienden la capacidad de comprender cómo la IA recopila, limpia, manipula y analiza datos; por alfabetización algorítmica, la capacidad de comprender cómo los algoritmos de la IA detectan patrones y conexiones entre los datos, los cuales pueden ser usados en interacciones entre humanos y máquinas.