Fuimos engañados. Y tan bien estuvo el timo que no lo supimos hasta que lo dijeron y, aún así, se dudó de la trampa.
La teoría de la hipnocracia que consiste en formas de control social a partir de la multiplicación de narrativas que hagan difícil encontrar la verdad, y que pronto empezó a encontrar espacio y eco en los medios de comunicación y en la academia, fue elaborada por Jianwei Xun, natural de Hong Kong, aunque ese es el seudónimo de quien en realidad la elaboró: la inteligencia artificial y un traductor, Andrea Colamedici. Sí, tres seres, dos virtuales y uno humano, escribieron un libro sobre las formas de manipular la verdad y orientar el comportamiento y las decisiones de las personas en un contexto de miedos e inseguridades globales. En realidad, Jianwei Xun es, de acuerdo con su página de Internet, «una entidad filosófica distribuida nacida de la interacción colaborativa entre la inteligencia humana y los sistemas de inteligencia artificial». Esta entidad usa lentes, tiene el cabello corto y las mejillas prominentes.
En un artículo publicado en El País (6/IV/2025) por Raúl Limón se lee: «El director de L’Espresso, Emilio Carelli, en un artículo de opinión, se refiere al conflicto creado: “En este punto, una pregunta es obligada y surge espontáneamente: si las tesis de este libro son correctas o al menos han logrado suscitar un intenso debate cultural, que ha involucrado a intelectuales y filósofos, incluidos académicos del prestigioso Instituto HEC de París, que lo citaron en algunos de sus artículos científicos, ¿qué importa que hayan sido escritas por Inteligencia Artificial? ¿O, como en este caso, fueron co-creados con IA? ¿Podría este modelo abrir camino a una nueva manera de hacer filosofía? Si es así, el exitoso experimento de Hipnocracia nos enseña algo importante y es que también podemos tener una relación activa con la IA y, sobre todo, podemos utilizarla para aprender a pensar.»
La relación que los seres humanos tengamos con la IA cada día será más compleja y problemática, pero el acceso a ella más sencillo. Estamos en una encrucijada, no porque las máquinas estén por dominar el planeta y se revierta la relación de dominación cuya posición de supremacía ocupan los humanos, sino por la incapacidad, al menos, por ahora, para detectar sin recursos digitales lo que es elaborado por seres humanos y lo que no.
No deja de ser chistoso –y, a la vez, preocupante– que quien se gastó la broma (performance, le llama) haya puesto como subtítulo al libro «Trump, Musk y la nueva arquitectura de la realidad». En efecto, estamos ante un sentido distinto de lo real, lo verificable, lo verdadero, lo falso y la manipulación.
La inteligencia artificial ha mostrado sus virtudes, pero también su uso para fines poco éticos. Vayamos a lo más inmediato: ¿cuántos trabajos escolares están siendo hechos con la ayuda o por completo por generadores de texto? Ante esta situación, distintas instituciones educativas de diferentes niveles están publicando manuales o códigos para un uso ético de las herramientas provistas por la IA. En el mundo, algunos gobiernos están suscribiendo acuerdos multilaterales o decretando leyes de observancia interna relacionados con los usos y alcances de la IA. El desarrollo y uso de esta deben estar enmarcados dentro de los derechos humanos y la democracia porque pervertirlas es posible y con el uso intensivo de dispositivos digitales con acceso a la IA aún más.
Le pregunté a ChatGPT si es capaz de escribir un libro sobre cualquier tema. Su respuesta es terminante: «Sí, soy capaz de ayudarte a escribir un libro sobre prácticamente cualquier tema, ya sea de ficción, no ficción, técnico, académico o creativo. Puedo colaborar contigo en la estructura, redacción, estilo, coherencia, documentación y edición».
Usted, ¿leería algo hecho por IA? Seguro ya lo hizo y no se dio cuenta.