Volver al blog
Opinión13 nov 20254 min de lectura

¿Están los LLMs perdiendo su inteligencia?

Este artículo analiza si los grandes modelos de lenguaje (LLMs) están perdiendo inteligencia debido a las limitaciones y desafíos actuales en la tecnología de procesamiento de lenguaje natural.

Actualizado el 8 abr 2026
¿Están los LLMs perdiendo su inteligencia?

De los mejores avances del siglo XXI ha sido el traer la Inteligencia Artificial a nuestras casas. Ya no solo para ayudarnos a preguntarle a ChatGPT cuál es la altura de un caniche, sino para usarlo para tareas un poco más útiles (no mucho más) como ayudarme a hacer mejor mi trabajo.

Pero en este post no vengo a hablarte de automatizaciones, sino de la calidad de los datos que se usan para entrenar a los ya famosos LLM. Si no sabes lo que es un LLM te recomiendo que veas este video de Dot CSV antes de continuar.

😡🤬 Los malditos emojis 🤯🚀

¿Cuántos emojis han aparecido de repente en los posts de LinkedIn, Facebook y demás redes sociales de los pseudocreadores de contenido? ¿Cuántos de ellos crees que son generados?

AñoImpacto de IAEstadísticas notables
2024IA predictiva😭 usado 761M veces
2025Inserción automatizada (IA)Adopción de emoji commits subió 3x a 75%

Fuentes:

¿Y por qué importa esto? Porque esos emojis automáticos son solo la señal visible de un problema mucho más profundo: contenido generado que se está convirtiendo en verdad.

Las nuevas páginas de la verdad

Como he dicho, estamos inundando internet con texto generado por IA y eso se almacenará durante años, y eso será la nueva verdad.

Ten en cuenta que la información suele caducar rápido, asi que el nuevo contenido es lo que se considera veraz porque aún no ha caducado.

Asi que el post generado por IA que ha hecho Jaime Jimenez Jerga, ahora se convierte en... 🥁 LA INFORMACIÓN QUE LA IA VA A USAR PARA ENTRENARSE

IA que se entrena con IA

¿Conocéis el juego de los espejos?, pues esto es algo parecido:

  1. Una IA genera el post para Mr. Wonderful
  2. Mr. Wonderful lo publica en LinkedIn, en Twitter y hasta en su mensaje de Buenos días a sus padres
  3. Google lo almacena y lo indexa.
  4. Otros LLM lo lee y lo interpreta como contenido válido.

¿Se puede llamar esto autofagia digital?

El colapso del modelo

Todo eso que he dicho antes tiene un nombre real, y es ``El colapso del modelo``, donde los modelos generar tanto contenido que llega un punto que supera el generado por un humano por lo que las LLMs se entrenan con sus propios datos llevando al catastrófico resultado de tener unos resultados 💩

Un estudio de Nature de 2024 demostró que después de solo 5 generaciones de entrenamiento con datos sintéticos, los modelos perdían hasta un 50% de su capacidad de generar contenido diverso.

Fuentes:

La salvación del ser humano

Después de hablar de este tema con mi compañero Mandip Gosal, que trabaja conmigo en n8n, sobre que la posible manera de solucionar este problema sería mediante el lenguaje hablado.

Es decir, a día de hoy, aún no hemos introducido la IA de manera rutinaria en nuestras interacciones verbales con otras personas, por lo que las transcripciones de las conversaciones podrían ser la clave para mantener unos modelos sólidos y limpios de ruido digital.

¡AYUDA!

Dos cosas que puedes hacer HOY:

  1. Verifica todo: Dedica 5 minutos extra revisando que los datos sean correctos.
  2. Aporta tu experiencia única: La IA no ha vivido tu experiencia, úsala.

El problema no es usar IA, es usarla sin pensamiento crítico.

Temas

modelos de lenguajeinteligencia artificialLLMtecnologíaprocesamiento de lenguaje naturaldesafíos de IAaprendizaje automáticointeligencia

Sigue leyendo

Vuelve al archivo y lee más artículos.

Ver todos los artículos