Por Sandra de los Santos Chandomí
Hace unos días se hizo viral que un generador de contenidos en redes sociales le pidió a una inteligencia artificial (concretamente a Chat GPT de Open IA) que contara del uno al millón y se negó a hacerlo (lo de negarse a hacerlo es un decir porque más bien le dijo que no era funcional hacerlo por la forma en que estaba diseñado). Hubo páginas (muchas de clickbait) que ya predecían con esto la rebelión de las máquinas.
Pero ¿qué pasó realmente? Nuestro conocimiento sobre el uso y la operación de la inteligencia artificial sigue siendo, en su mayoría, rudimentario. Estamos aprendiendo a usarla como aprendimos a usar las redes sociales e incluso el internet: sobre la marcha, sin leer el manual. Nos centramos en lo que puede hacer, pero pocas veces nos detenemos a ver qué hay detrás de la tecnología porque el tiempo apremia. Y, en ese camino, estamos propagando ideas equivocadas: una de ellas es asumir que las IAs “razonan” o “piensan” como nosotras y nosotros.
La realidad es que las inteligencias artificiales como ChatGPT no piensan ni sienten. Para eso necesitarían experiencia de vida, y no la tienen (no le quiero romper el corazón a nadie, pero es riesgoso tratarlas como si fueran personas). Funcionan con patrones: procesan cantidades enormes de información que ya existen (libros, artículos, conversaciones) y, con eso, predicen qué palabra, frase o dato es más probable que siga. No generan conocimiento nuevo, solo reorganizan lo que encuentran. Por eso “contar hasta un millón” les parece poco funcional porque tendrían que hacer demasiado para algo tan simple. No están diseñadas para eso.
Toda esa información que reorganiza viene de un mundo desigual así que arrastra sus sesgos. Si en los textos que “leen” predominan las miradas masculinas, racistas o clasistas, las respuestas tenderán a reproducir esas perspectivas, a menos que se les corrija o se les entrene con criterios distintos. La máquina no discrimina por sí sola, pero tampoco cuestiona lo que aprende.
Y ahí es donde el asunto se pone interesante: si no cuestionamos cómo están entrenadas estas inteligencias artificiales, corremos el riesgo de que repliquen y amplifiquen las desigualdades que ya existen. Los sesgos de género son un ejemplo claro.
Si la mayoría de los textos con los que se alimenta una IA hablan de las mujeres como secundarias, frágiles o invisibles, la máquina aprenderá a responder desde esas narrativas. No es que “piense” así, es que repite el mundo que le enseñaron. Por eso a veces parece que las IAs saben mucho y, al mismo tiempo, entienden poco. Son capaces de dar cifras exactas sobre la brecha salarial, pero también pueden omitir la voz de las mujeres o reforzar estereotipos sin siquiera “saber” que lo están haciendo. El problema no es solo tecnológico, es político.
Combatir estos sesgos no se logra solo con “mejores algoritmos”, sino con decisiones políticas y éticas sobre qué datos se utilizan para entrenar las IAs y quién participa en ese proceso. Si las bases de datos se nutren casi exclusivamente de voces masculinas, el resultado será un modelo que silencia a las mujeres. Necesitamos diseñar tecnologías que integren perspectivas feministas, plurales y diversas. De lo contrario, lo que llamamos “inteligencia” artificial seguirá siendo un espejo que nos devuelve, amplificados, los mismos prejuicios y desigualdades que queremos desmontar.
La inteligencia artificial puede ser una herramienta útil para procesar tareas, investigar, analizar datos o hasta para ayudarnos a generar nuevas ideas, pero si asumimos que sus respuestas son “neutrales” o “infalibles”, estamos renunciando a cuestionar el origen de la información y los marcos que reproduce.
Necesitamos preguntarnos siempre desde dónde responde, qué voces quedan fuera y qué estructuras sostiene. La máxima que dice: “¿quién dice qué y por qué? Usar la IA sin pensamiento crítico es aceptar que una máquina decida por nosotras y nosotros cómo se interpreta el mundo; usarla de forma consciente, en cambio, puede ayudarnos a evidenciar sesgos, disputarlos y abrir otras narrativas.
El principal problema de la IA no es que un día se rebele y deje de hacernos caso; el problema real es que la estamos utilizando sin entenderla y, en ese camino, corremos el riesgo de reproducir lo que buscamos romper. Es un bucle enorme: la IA nos dice lo que existe, lo que ya hay. Son el “espejito, espejito” del cuento de Blanca Nieves. Nos devuelve respuestas cómodas. ¿Creen que le dirá al “Chicharito” que sus afirmaciones son sexistas? No. Le dirá que “tiene sus pensamientos claros y decisivos”. Porque la IA no cuestiona el orden establecido. Y justamente por eso no podemos delegarle nuestras decisiones, ni permitir que moldee lo que pensamos.