Menú
Jaron lanier creador de la realidad virtual

“Locos y estúpidos: eso nos volverá la IA”. El peligro de la inteligencia artificial según Jaron Lanier

En medio del entusiasmo tecnológico, hay ideas que pasan casi desapercibidas. No porque sean irrelevantes, sino porque resultan incómodas. En una época donde la inteligencia artificial promete eficiencia, velocidad y respuestas inmediatas, surge una voz que no celebra, sino que cuestiona.

La de Jaron Lanier, uno de los pioneros de Silicon Valley que, paradójicamente, se ha convertido en uno de sus críticos más lúcidos. Hablar de Lanier no es hablar de un outsider. Es hablar de alguien que participó en el desarrollo temprano de internet, que popularizó el concepto de realidad virtual y que ha dedicado décadas a pensar la relación entre tecnología y humanidad. Su mirada no nace del rechazo, sino del conocimiento profundo. Y precisamente por eso inquieta.

¿Es realmente “inteligente” la inteligencia artificial?

En una entrevista con The Guardian, Lanier plantea una idea que rompe con el discurso dominante, la llamada inteligencia artificial no es verdaderamente inteligente. Según él, sistemas como los chatbots no comprenden, no piensan, no tienen conciencia. Funcionan como sofisticados sistemas de predicción lingüística, capaces de generar respuestas coherentes a partir de enormes volúmenes de datos.

La comparación que propone es, decir que una IA es más inteligente que un humano es como decir que un coche es mejor corredor que una persona. Puede ir más rápido, sí. Pero eso no significa que participe del mismo tipo de experiencia. Son categorías distintas.

Esta distinción es clave. Porque confundir capacidad técnica con inteligencia humana implica, en el fondo, redefinir lo que entendemos por pensar.

El verdadero riesgo: no la máquina, sino nosotros

A diferencia de las narrativas apocalípticas, popularizadas por películas como Terminator,, Lanier no cree que el mayor peligro sea una IA que se vuelva autónoma y destruya a la humanidad. El riesgo, según él, es más sutil… y más cercano.

El peligro no es que la tecnología nos destruya, sino que la usemos para volvernos mutuamente ininteligibles… hasta el punto de perder la capacidad de entendernos.

En otras palabras, el problema no es la máquina, sino la mediación que introduce en nuestras relaciones. Algoritmos que filtran lo que vemos, sistemas que priorizan el engagement sobre la verdad, plataformas diseñadas para captar atención más que para fomentar comprensión.

Este diagnóstico conecta con críticas más amplias al modelo de negocio de las grandes tecnológicas: la economía de la atención. Un entorno donde lo que importa no es la calidad de la información, sino su capacidad de generar interacción.

Algoritmos, realidad y percepción

Lanier también cuestiona la manera en que plataformas como buscadores o enciclopedias digitales moldean nuestra percepción del mundo. Cuando millones de personas acceden a las mismas fuentes, a los mismos resultados, se construye una ilusión de objetividad.

Sin embargo, lo que vemos no es la realidad en sí, sino una versión filtrada por algoritmos. Una selección. Una jerarquía.

En este sentido, los chatbots introducen una variación interesante, cada respuesta puede ser distinta. Pero esa aparente diversidad también encierra un riesgo: atribuirle personalidad, intención o incluso autoridad a algo que no la tiene.

La expansión de la desinformación

Uno de los puntos más sensibles es la relación entre inteligencia artificial y desinformación. Herramientas capaces de generar texto, imágenes o video de forma masiva facilitan la creación de contenido falso con una escala sin precedentes.

Este fenómeno amplifica lo que ya se conoce como la “era de la posverdad”: un contexto donde la veracidad pierde peso frente a la viralidad.

Aquí surge un problema estructural, la tecnología avanza más rápido que la regulación y, sobre todo, que la comprensión social de sus efectos. No solo creamos herramientas más poderosas, sino que aún no sabemos cómo convivir con ellas.

Redes sociales y salud mental

Las críticas de Lanier no se limitan a la inteligencia artificial. Desde hace años ha sido un opositor frontal al modelo de las redes sociales. En su libro Diez razones para borrar tus redes sociales de inmediato, argumenta que estas plataformas están diseñadas para modificar el comportamiento humano.

Su diagnóstico es contundente

Las redes sociales pueden convertirte en alguien que busca atención constantemente y, al mismo tiempo, vive con miedo a la reacción de los demás.

Diversos estudios en psicología y salud pública han señalado correlaciones entre el uso intensivo de redes sociales y problemas como ansiedad, depresión o baja autoestima, especialmente en jóvenes. No se trata solo de tecnología, sino de diseño conductual.

Lanier incluso menciona casos extremos donde los algoritmos han contribuido a situaciones trágicas, lo que abre una pregunta ética difícil de ignorar, ¿hasta qué punto son responsables las plataformas de los efectos que generan?

El problema de fondo: ¿qué significa ser humano?

Más allá de lo técnico, la crítica de Lanier apunta a un nivel más profundo, el filosófico. Existe una corriente de pensamiento, heredera de cierta lectura de la Ilustración, que tiende a reducir al ser humano a un sistema procesador de información.

Bajo esta lógica, no habría una diferencia esencial entre un cerebro y una computadora.

El riesgo es dejar de creer que la conciencia existe… y que los seres humanos son algo más que sistemas computacionales.

Con base a lo anterior, se abre una pregunta fundamental, si dejamos de reconocer una diferencia cualitativa entre humanos y máquinas, ¿qué tipo de sociedad estamos construyendo?

Porque si todo puede reducirse a cálculo, optimización y datos, entonces valores como la experiencia, la subjetividad o la conciencia pierden relevancia. Y con ellos, la idea misma de dignidad humana.

Tecnología con sentido humano

A pesar de su tono crítico, Lanier no propone abandonar la tecnología. Su postura es más exigente, reorientarla. Hacer que sirva a intereses humanos reales, que potencie la creatividad, que fortalezca el vínculo social en lugar de erosionarlo.

Esto implica algo más que regulación. Implica cambio cultural. Una forma distinta de pensar la innovación, donde el criterio no sea solo la rentabilidad, sino también el impacto en la vida humana.

En última instancia, la pregunta no es qué puede hacer la inteligencia artificial, sino qué queremos hacer nosotros con ella.

Porque la tecnología nunca es neutral. Siempre refleja, y amplifica, las decisiones, valores y límites de quienes la crean y la utilizan.

Y en este punto, la pregunta deja de ser futurista para fijarla al presente,

Si la tecnología puede transformar la forma en que piensas, sientes y te relacionas… estás decidiendo cómo usarla o simplemente estás siendo moldeado por ella?

0 comentarios

Podría interesarte: Inteligencia organoide: Ordenadores con células cerebrales humanas que podrían superar a la IA