Durante años repetimos un mantra que parecía indiscutible:
“La inteligencia artificial nunca será creativa. No sentirá. No comprenderá lo humano.”
Yo mismo lo he dicho muchas veces. En conferencias, en clases, en artículos. Y, como tantos, me apoyaba en certezas eternas (por un tiempo breve) que nos tranquilizaban.
La paradoja de Moravec: las tareas que nos parecen complejas —ajedrez, cálculo, programación— resultan relativamente fáciles para las máquinas; mientras que lo sencillo para nosotros —caminar, percibir, coordinar, improvisar una conversación, intuir, SENTIR— es extraordinariamente difícil de replicar.
Y la paradoja de Polanyi: sabemos más de lo que podemos decir. Gran parte del conocimiento humano es tácito, encarnado y ancestral, "epigenético" (creo que vale la expresión), no verbalizable. Nuestra inteligencia no es solo lógica; es corporal, emocional, sensorial, y muchas veces inconsciente. Ancestral, repito.
Todo eso parecía darnos un margen: hay cosas que las máquinas no podrán hacer porque no han vivido, porque no han sentido, porque no han estado aquí con nosotros compartiendo vivencias..
Pero nos equivocamos. Me equivoqué.
O, al menos, subestimé la velocidad y la profundidad del cambio.
De la creación a la simulación
Desde 2023, la creatividad humana no ha desaparecido… pero ha mutado. Se ha vuelto híbrida, contaminada, amplificada… y, en muchos casos, sustituida. Del todo. Me gusta hablar del humano aumentado, pero de un tiempo a esta parte veo EL HUMANO SUSTITUIDO.
Hoy, una parte significativa de los contenidos que consumimos —textos, imágenes, campañas, respuestas de atención— ya no nace de una vivencia humana directa. Nace de sistemas que recombinan lo ya dicho, lo ya sentido, lo ya compartido por otros. Modelos entrenados con patrones pasados que aprenden a simular emoción, empatía y creatividad sin haber vivido nada.
Y aquí aparece una idea inquietante que escuché formulada con gran claridad por Santiago Bilinkis, en su canal de YouTube. Recomiendo ver el vídeo completo porque plantea algo que conviene pensar despacio:
https://youtu.be/SFAzkUfK4OY?si=3zCIrB8hCOjSR0xU
Bilinkis sostiene que la inteligencia artificial está construyendo su propio ecosistema cerrado. Su “red no social”. Un entorno donde el contenido artificial ya no convive con lo creado por humanos: todo lo genera el sistema, todo circula dentro del sistema, todo se retroalimenta.
Y el siguiente paso es obvio —y ya está ocurriendo—:
ni siquiera hace falta que el contenido humano exista.
Ya no hablamos de algoritmos que seleccionan contenidos.
Hablamos de algoritmos que los fabrican.
Y de otros que fabrican contenidos basados en contenidos fabricados sin humanos.
Un bucle sin autor, sin cuerpo, sin experiencia. Sin alma. Contenidos basura que se hicieron basados en contenidos basura,que se hicieron basados en contenidos basura,que se hicieron basados en contenidos basura,que se hicieron basados en contenidos basura. En un bucle sin fin.
El nuevo marketing: dopamina, datos y dobles digitales
Estos sistemas no crean para contar verdades. Crean para producir clics, dopamina, permanencia, repetición. Da igual si son fake, sin son entretenidos. Verás a Maduro bailar con Trump. Y lo hace la máquina porque detectó que videos anteriores de Trum bailando con Maduro generaron atención y viralidad. Y no hay humano, ya, que dedique un minuto a poner a los susodichos a bailar. Bailan solos, en un fake remake de un fake remake de un fake remake. En bucle sin fin. Hasta que Trump invada Cuba y Maduro no esté tan de moda.
Fabrican estímulos diseñados para ser irresistibles para el cerebro humano. Narrativas optimizadas para activar reacciones emocionales. En muchos casos, no hay intención ni propósito: hay cálculo. No hay verdad: hay personalización.
Estamos entrando en una era de hiperpersonalización extrema. Un concepto que llevo más de veinte años trabajando en marketing y experiencia de cliente, pero que ahora adquiere una dimensión radical:
Ya no se trata de adaptar contenidos a las preferencias.
Se trata de generar realidades personalizadas. Realidades informativas, formativas y transformativas, que no muestran lo que quieres ver, sino lo que tu sistema nervioso no podrá evitar mirar.
Ya no te dan lo que pides.
Te dan lo que no puedes resistir.
Y lo hacen gracias a lo que saben de ti: tus hábitos en TikTok, Instagram, YouTube; tus elecciones emocionales; tus búsquedas, silencios e interacciones; y —lo más sensible— lo que cuentas voluntariamente a sistemas conversacionales como ChatGPT, sin filtros, sin testigos, con toda vulnerabilidad. Verás a Trump con Maduro bailar, aunque no quieras, porque no sabrás resistirte.
Ese cóctel de datos permite diseñar no solo contenidos a tu medida, sino contextos completos que te rodean, te seducen y te modelan sin que te des cuenta.
Desde una perspectiva de marketing, es el sueño húmedo de cualquier “optimizer”: segmentación perfecta, mensaje perfecto, timing perfecto.
Desde una perspectiva social, es un cambio de era: ya no se compite por persuadir, se compite por condicionar. No por convencer, sino por ocupar.
Slop, brain rot y la comida chatarra cognitiva
Todo este fenómeno tiene un nombre: slop. Contenido basura, superficial, repetitivo, fabricado para ocupar espacio mental. Estímulo fácil. Comida cerebral basura: contenido basura automático hecho de contenido basura automático,hecho de contenido basura automático. En bucle sin fin.
Y tiene efectos. Uno muy concreto: brain rot. La carcoma del cerebro. Saturación, distracción crónica, pensamiento débil, pérdida de criterio. Nos rodea tanto contenido optimizado para captar atención —y no para aportar valor— que nuestros circuitos cognitivos se resienten.
Pero lo más alarmante es que el brain rot no veo como pararlo. La inteligencia artificial se entrena con esa misma dieta chatarra:
contenidos fabricados sin humanos, basados en contenidos fabricados sin humanos, basados en contenidos fabricados sin humanos…
Un círculo degenerativo. Y transformativo del marketing y DEL SER HUMANO.
Bilinkis lo resume con una metáfora brutal: es como alimentarte de tus propios residuos. Alimentarte de las purinas de tu pis. Un circuito cerrado que no incorpora sabiduría nueva.
El síndrome de las vacas locas digitales
La metáfora es clara.
Durante la crisis de las vacas locas, el problema fue: animales herbívoros alimentados con restos de otros animales. Un ciclo antinatural. Un canibalismo productivo que acabó en degeneración.
Hoy estamos en un escenario similar. Solo que la materia prima ya no es proteína animal, sino cultura. Y el riesgo ya no es enfermedad física, sino degeneración simbólica.
Vivimos en un ecosistema donde la IA se alimenta de IA: sistemas entrenados con contenido artificial que fabrican más contenido artificial. Y el peso de la creatividad humana, mengua y es evidente.
Y lo más grave: ese contenido ya no tiene origen humano. Cuando lo tiene, el humano se ha sustentado en gran medida en IA.
El conocimiento es cada día más basura.
Ya no tiene memoria emocional.
No tiene historia. Lo que no estaba en internet en 2023, o estaba con sesgos, no está en el nuevo saber de la humanidad.
No tiene cuerpo humano, ni alma.
No tiene compasión.
El problema deja de ser tecnológico y pasa a ser moral: si todo contenido, de verdad o no, puede ser fabricado, ¿qué queda del criterio social de realidad? ¿Cómo decidimos qué es auténtico cuando lo verosímil ya no garantiza lo verdadero?
¿Y la experiencia de cliente?
Todo esto ya ha llegado al marketing, al diseño de productos, a la comunicación de marca y, por supuesto, al corazón mismo del Customer Experience.
¿Qué pasa cuando la empatía es sintética?
La empatía sintética es una correlación sin comprensión. Un cálculo de probabilidad emocional, no un reconocimiento genuino. Simula emoción, pero no la ha vivido. No hay compasión: hay predicción.
Y eso, en la relación con el cliente, lo cambia todo.
Cada vez más experiencias se diseñan sin memoria, sin relato, sin humanidad. Sistemas que responden con cortesía, pero sin historia compartida. Conversaciones sin alma. Interacciones sin rastro. Una CX sin experiencia.
Lo que no puede imitar la IA: intuición y compasión auténtica
En este nuevo contexto, la ventaja no está en la tecnología. Está en lo que la tecnología no puede imitar:
- La intuición estratégica.
- La conversación que arrastra historia compartida.
- La emoción que se recuerda, aunque no se explique.
- La narrativa que nace de la experiencia vivida.
- La ética aplicada al diseño de marca.
- La compasión real.
No la empatía estadística.
No la simpatía programada.
La compasión humana, con cuerpo, con biografía, con cicatrices.
La pregunta que importa
La pregunta ya no es si la inteligencia artificial puede ser creativa. Ni si puede escribir, diseñar o persuadir.
La verdadera pregunta —ética, estratégica, urgente— es:
¿seguiremos siéndolo nosotros?
Y empiezo a pensar que pronto veremos marcas que lo conviertan en posicionamiento explícito: “Aquí no usamos IA para relacionarnos contigo”. No por nostalgia, sino por diferenciación, respeto e identidad. Ya se intuye un cierto retorno a lo humano cuando la automatización degrada la experiencia. (Por ejemplo: https://www.genbeta.com/inteligencia-artificial/boom-ia-atencion-al-cliente-se-desinfla-empresas-se-rinden-a-evidencia-vuelven-a-apostar-humanos)
Tal vez el futuro del marketing y la experiencia no esté en la inteligencia sintética, sino en la AUTENTICIDAD HUMANA.
Sino en lo más humano: más lento, más real, más recordable. MÁS COMPASIVO.
¿Estamos humanizando la experiencia del cliente?
¿O estamos automatizando tanto que la estamos vaciando?