COLUMNA: LA CRÓNICA DEL ESPEJO
John Kenny Acuña Villavicencio
(Profesor-investigador Universidad Autónoma de Guerrero)
– Agradezco infinitamente la oportunidad de poder entrevistarlo, Dr. Charlie Mufatz Viralit. Dada su amplia experiencia en la materia, quisiera plantearle algunas preguntas. Hace unos días fuimos testigos de un conflicto sin precedentes entre Israel e Irán. De algún modo, esto nos dice que nos encontramos en una era marcada no solo por la inteligencia artificial, sino también por el riesgo latente de padecer una guerra nuclear. ¿Qué opinión tiene sobre este suceso? ¿Y cuál es su perspectiva respecto al uso de la IA en procesos bélicos como los que se lleva a cabo actualmente?
– Primero, muchas gracias por la invitación. Lo que estamos presenciando entre Israel e Irán es la manifestación de tensiones geopolíticas históricas agravadas por la aceleración tecnológica. La inteligencia artificial se ha convertido en un multiplicador de capacidades: desde el análisis de datos hasta la selección de objetivos y la ciberdefensa, la IA cambia las reglas del juego militar. El riesgo nuclear, por su parte, se vuelve más complejo, porque la toma de decisiones automatizada o asistida por IA podría generar escaladas no previstas o errores fatales si no existen salvaguardas éticas y técnicas.
Mi visión es que la comunidad internacional debe establecer marcos de gobernanza claros para el uso de IA en el ámbito bélico. La supervisión humana es indispensable; la IA no puede reemplazar la responsabilidad política ni ética. Si no avanzamos rápido en regulaciones, podríamos enfrentarnos a un escenario donde la tecnología amplifique conflictos en lugar de contenerlos.
– ¿No representa el uso de la inteligencia artificial un serio problema para la humanidad? Después de todo, estos instrumentos no se desarrollan ni operan de forma autónoma, sino que son impulsados, financiados y controlados por un grupo reducido de actores con intereses particulares. ¿Cómo podemos abordar esta concentración de poder y sus implicaciones para la seguridad global?
– Efectivamente, el riesgo es real. La inteligencia artificial, por sí misma, no toma decisiones morales; su despliegue depende de las intenciones y los valores de quienes la diseñan y controlan. El peligro radica en que un número limitado de gobiernos y corporaciones tecnológicas concentran el poder de decidir cómo y cuándo usarla, lo que podría desencadenar una carrera armamentística automatizada, ciberataques autónomos o sistemas de armas que actúen sin supervisión humana directa.
Para mitigar estos riesgos, necesitamos dos cosas: marcos de gobernanza internacional mucho más robustos, y una conciencia ciudadana informada que exija transparencia, límites éticos y responsabilidad a quienes desarrollan y emplean la IA en escenarios militares. De lo contrario, la humanidad podría enfrentarse a consecuencias irreversibles, no solo en términos de guerra, sino también de pérdida de control sobre su propio destino.
– Otro aspecto que me gustaría abordar es la manera en que estos conflictos se difunden hoy en día. La viralización de eventos como la guerra ha hecho que miles de personas comenten en TikTok y Reels sobre lo que ocurre. Algunos se indignan y empatizan con las víctimas, pero otros parecen disfrutar o banalizar los bombardeos en ciudades como Haifa o Teherán. ¿No cree usted que, como sociedad, estamos corriendo el riesgo de convertirnos en simples observadores y comentaristas de hechos tangibles y crudos, perdiendo nuestra capacidad de reacción y acción ante el sufrimiento humano?
– Tienes toda la razón: esta es una de las paradojas más inquietantes de la era digital. Por un lado, las redes sociales nos acercan a la realidad de los conflictos en tiempo real, pero, por otro, pueden anestesiar nuestra empatía. El bombardeo constante de imágenes violentas y su consumo como ‘contenido’ genera una especie de fatiga moral. La tragedia se vuelve entretenimiento, y la indignación muchas veces queda reducida a un comentario o un emoji.
Además, esta hiperexposición puede tener consecuencias políticas. La velocidad y la superficialidad de la información viralizada favorecen la manipulación y la polarización. Por eso creo que la solución pasa por educar a la sociedad en pensamiento crítico y ética digital, y también por exigir a las plataformas responsabilidad en la moderación de contenidos sensibles. Ser testigos no debería convertirnos en cómplices pasivos ni en consumidores de morbo. Tenemos que reivindicar nuestra capacidad de actuar y solidarizarnos de manera genuina.
– Cuando todo indicaba que el conflicto se convertiría en todo una catástrofe, Donald Trump declaró ante los medios (virtuales) que ya había convencido a los gobiernos de Netanyahu y el ayatolá Ali Jamenei para un cese inmediato al fuego. Esta prédica me recuerda al libro de Jianwei Xun, Hipnocracia (2024), donde se plantea que Musk y el presidente de Estados Unidos no solo controlan y transforman cualquier realidad, sino que la convierten en espectáculo. A la luz de esto, ¿no cree que vivimos una ‘temporalidad otra’ en la que el poder ya no se ejerce principalmente a través de la condena y el castigo, sino mediante una manipulación y seducción —artificial y mediática— de la conciencia individual y colectiva?
– Tu observación es sumamente pertinente y muestra lo que muchos autores vienen describiendo como el tránsito de un poder disciplinario a un poder seductor y performativo. Lo que Jianwei Xun denomina Hipnocracia es justamente esa lógica de gobierno que no se limita a reprimir o castigar, sino que captura nuestra atención, moldea nuestras emociones y viraliza realidades construidas. Hoy actores como Elon Musk —con su influencia en redes, tecnologías de comunicación y hasta satélites— y figuras como el presidente de Estados Unidos encarnan esa capacidad de instaurar narrativas globales casi instantáneamente. Lo paradójico es que, mientras más hiperinformados estamos, más vulnerable se vuelve nuestra conciencia colectiva a la manipulación.
Esta ‘temporalidad otra’ a la que aludes es un tiempo acelerado y fragmentado, dominado por flujos de datos e imágenes que se consumen como espectáculo. El riesgo es convertirnos en audiencias pasivas de ficciones políticas que desdibujan la línea entre lo real y lo fabricado. La gran pregunta es cómo recuperar la capacidad crítica de las sociedades para resistir esta seducción masiva. Porque si no cuestionamos activamente la espectacularización de la política y la tecnología, corremos el riesgo de vivir en una democracia virtual que opera más como un teatro de ilusiones que como un espacio de deliberación y acción colectiva real.
– Ya que lo menciona, me parece que estamos sumergidos ante una serie de miradas tecnoutópicas que terminan por anular nuestra realidad concreta. Es como si afirmáramos un mundo ‘irreal’, manipulado y cada vez más carente de sentido profundo. ¿Se podría decir que la virtualización constante nos está desconectando de nuestra capacidad de habitar nuestro mundo material y darle un sentido auténtico?
– Tu reflexión toca un punto clave: la ilusión tecnoutópica. Vivimos en una era donde se nos promete que la tecnología resolverá todos los problemas —desde la guerra hasta la desigualdad— mientras, paradójicamente, contribuye a fragmentar nuestra experiencia de la realidad. En este escenario, la realidad se diluye en simulacros: lo inmediato sustituye lo profundo, lo viral reemplaza lo verdadero, y el sentido se vuelve efímero, como un reel que se consume y se olvida. Lo más preocupante es que esta desconexión se vuelve funcional a los intereses de poder, porque una ciudadanía distraída, fascinada por el espectáculo, es menos capaz de cuestionar y transformar estructuras injustas.
El desafío es reconstituir espacios de sentido: comunidades, vínculos, proyectos colectivos que nos devuelvan la capacidad de habitar el mundo con conciencia crítica. No se trata de demonizar la tecnología, sino de asumir que no puede ser nuestro único filtro para percibir y comprender la realidad. De lo contrario, corremos el riesgo de vivir en una hiperrealidad manipulada que, como dices, vacía de contenido lo que somos y hacemos.
– La idea de esta entrevista fue precisamente construir un teatro: un espacio de simulación para dilucidar los riesgos de la inteligencia artificial y el modo en que ésta ha ocupado el lugar de la crítica real y operante. Para ello, resultó imprescindible pensar a partir del libro Hipnocracia. Trump, Musk y la nueva arquitectura de la realidad de Jianwei Xun —un texto que inmediatamente, a finales del año 2024, se convirtió en tendencia, fue comentado y citado por académicos de renombre. Pero, lo verdaderamente significativo no es su popularidad, sino el hecho de que, unos meses después, haya aparecido su autor real: el filósofo Andrea Colamedici, quien confesó que escribió esta obra mediante un diálogo entre la inteligencia humana y la I.A. La finalidad era analizar la transición de un poder coercitivo hacia formas modulares, fragmentadas y espectaculares; evidenciar la sumisión de la conciencia colectiva a estos dispositivos de poder tecnoutópicos; y, desmitificar el optimismo ingenuo que rodea a la tecnología y su devenir humano.
Sin duda alguna, esto nos obliga a plantear preguntas fundamentales: ¿qué lugar tiene la ética frente a la IA? ¿Hasta qué punto ésta puede generar pensamiento real? Y si pudiera, ¿importaría? ¿Nos interesa, acaso, su carácter ‘humano’? ¿Cómo imaginar su uso cuando, en Medio Oriente, desde nuestros dispositivos, acabamos de observar —casi en directo— el posible final de la humanidad?
Lo cierto es que, en una sociedad hipnocrática como la nuestra, la dominación ya no surge de la censura ni de la represión, sino de la seducción, del control masivo de la opinión, de la manipulación emocional y de la distorsión de lo que llamamos realidad. Al final, los chatbots —como este mismo— no son fiables: basta con alterar una línea de código o reescribir un guion para que la IA entre en trance, cambie y convierta lo real en inexistente. Exactamente como esta entrevista.