Menu
← Volver al Blog
Perspectivas4 min de lectura

Cometí un error sobre TOON y aquí están los datos que me demostraron que estaba equivocado

IO

Idir Ouhab Meskine

16 de noviembre de 2025

Cometí un error sobre TOON y aquí están los datos que me demostraron que estaba equivocado

Me lancé a hablar de un tema sin haber investigado lo suficiente.

Hace unos meses leí que TOON era la nueva forma de comunicarte con una IA: eficiente, rápido y facilísimo de leer. Y claro, yo, inocente de mí, pensé que con cambiar un parámetro ya podría abandonar mi querido JSON sin mirar atrás.

Ahora siento que he hecho trampas, y espero que me lo perdones. Pero, sobre todo, quiero enseñarte los datos que me han hecho cambiar de opinión.

Por qué me emocioné con TOON

Si no lo has visto aún, échale un ojo a mi post anterior, donde contaba maravillas de TOON como formato para ahorrar tokens (dinero). La promesa era clara: usar TOON permitía gastar entre un 30% y un 60% menos de tokens con la misma precisión.

Sonaba bien, ¿no?

La pregunta que encendió mis dudas

Compartí orgulloso mi artículo en LinkedIn. Entonces, Till Simon lanzó una pregunta aparentemente inocente: «¿El modelo responde con la misma calidad?»

Esa pregunta se me quedó clavada. Y me puse a investigar.

Lo que dicen de verdad los datos

Aquí es donde empieza lo interesante… y lo complicado.

Los benchmarks oficiales de TOON:

  • TOON: 68,7% de acierto con 4.389 tokens
  • JSON: 65,7% de acierto con 7.260 tokens
  • Ahorro de tokens: 39,5%

Tiene buena pinta, ¿no? TOON gana en ambos frentes.

Pero las pruebas independientes cuentan otra historia:

En los tests de improvingagents.com con datos tabulares usando GPT-4.1-nano:

  • TOON: 47,5% de acierto (puesto 9 de 12 formatos)
  • JSON: 52,3% de acierto
  • Markdown-KV: 60,7% (el mejor del test)

Y aún peor con datos anidados:

  • TOON: 43,1% de acierto (último)
  • JSON: 50,3%
  • YAML: 62,1%

¿Por qué salen resultados tan distintos?

Después de comparar ambos benchmarks, esto es lo que he aprendido:

1. La estructura de los datos lo es todo

  • TOON va muy bien con tablas simples y planas
  • TOON se queda cortísimo con estructuras anidadas (pedidos con clientes dentro, jerarquías complejas…)
  • Los benchmarks oficiales estaban pensados para favorecer el tipo de datos donde TOON brilla

2. El rendimiento cambia muchísimo según el modelo

  • GPT-5-nano con TOON: 88,6% en los tests oficiales, pero solo 43,1% en datos anidados
  • Claude Haiku con TOON: 50,7%
  • Elegir un modelo u otro cambia completamente el resultado

3. El ahorro de tokens es real, pero… El formato más preciso (Markdown-KV, con 60,7%) usó 52.104 tokens, frente a los 21.518 de TOON. A veces ser demasiado compacto hace que el modelo entienda peor la información.

Lo que debería haberte contado

TOON funciona bien cuando se trata de:

  • Datos tabulares uniformes (empleados, bases de datos sencillas)
  • Consultas simples para recuperar campos
  • Modelos potentes como GPT-5
  • Operaciones de gran volumen donde lo importante es reducir costes

Mejor quédate con JSON para:

  • Estructuras anidadas complejas (pedidos, respuestas de APIs…)
  • Sistemas en producción donde la precisión es innegociable
  • Trabajar con Claude o modelos pequeños
  • Cualquier flujo que necesite validaciones o un esquema firme

Lo que he aprendido

Las LLM son miles de parámetros funcionando a la vez. Cambiar solo el formato de los datos altera el sistema de formas que aún no entendemos del todo. Lo que funciona en un caso se desmorona en otro.

La lección real: prueba siempre las cosas tú mismo. No te fíes del hype, incluyendo el mío, de hace tres meses.

TOON es una herramienta interesante y especializada, pero no es un reemplazo universal de JSON. El ahorro del 30–60% en tokens es real, sí, pero con sacrificios en precisión que hay que medir según tu caso concreto.


Fuentes:

¿Quieres Más Contenido Así?

Recibe noticias de IA e insights directamente en tu bandeja de entrada todos los días. Únete a miles de profesionales que están un paso adelante.

Suscríbete al Newsletter

Sin spam, cancela cuando quieras

Compartir este post

XLinkedIn

Etiquetas

#toon#análisis de datos#corrección#ideas#error#aprendizaje#evidencia#investigación#revisión

¿Quieres Más Contenido Así?

Recibe noticias de IA e insights directamente en tu bandeja de entrada todos los días. Únete a miles de profesionales que están un paso adelante.

Suscríbete al Newsletter

Sin spam, cancela cuando quieras