AgentReady.md y la “AI-readiness”: la nueva auditoría que ya están pidiendo los agentes web

Durante años, el reto de una web “bien hecha” se resumía en dos obsesiones sanas: que cargase rápido y que Google la entendiera. En 2026, ese mapa empieza a quedarse corto. Cada vez más tráfico llega mediado por asistentes, resúmenes automáticos y agentes de Inteligencia Artificial que “leen” páginas para citar, recomendar o ejecutar acciones. Y esos nuevos visitantes no consumen la web como un humano.

En ese contexto aparece AgentReady.md, una herramienta online gratuita que promete algo muy concreto: poner nota en segundos a una URL y decir, con una lista de tareas priorizada, qué hay que tocar para que una página sea más “legible” para agentes. El servicio funciona sin registro y, en su beta, limita el uso a 5 análisis por hora.

La propuesta no es “otro SEO tool” con métricas opacas, sino una auditoría técnica con una idea de fondo: si el contenido llega limpio, estructurado y con señales claras, los agentes fallan menos… y cuesta menos procesarlo.

Qué analiza AgentReady.md (y por qué le interesa a sistemas)

El informe de AgentReady.md parte de un flujo simple: se introduce una URL, la plataforma extrae el contenido y analiza su estructura; después devuelve una puntuación y recomendaciones para subirla. En el propio sitio, el proyecto resume su scoring en 5 dimensiones con 21 comprobaciones.

Para un equipo de desarrollo o un administrador de sistemas, la gracia está en que esas dimensiones se reparten responsabilidades de forma bastante realista:

  • HTML semántico: si la página usa bien main, article, jerarquía de encabezados y alt en imágenes.
  • Eficiencia del contenido: cuánto “ruido” (wrappers, estilos inline, navegación redundante) acompaña al contenido útil.
  • Descubribilidad para IA: señales como llms.txt, robots.txt, sitemap y negociación de Markdown.
  • Datos estructurados: Schema.org/JSON-LD, Open Graph, canonical, idioma.
  • Accesibilidad: si el contenido depende de JavaScript, tamaño de página y posición del contenido en el HTML.

La clave es que, a diferencia del usuario humano (que “se apaña” con interfaces recargadas), un agente suele operar con extracción: se queda con lo que entiende y descarta el resto. Si la estructura es pobre, el agente no solo “ve menos”: interpreta peor.

El elefante en la habitación: tokens, coste y contexto

En paralelo, la industria está empujando el mismo argumento desde el otro lado: convertir HTML a Markdown reduce coste y mejora el contexto útil. Cloudflare, por ejemplo, ha presentado Markdown for Agents, un sistema que convierte páginas HTML a Markdown en el edge cuando el cliente solicita Accept: text/markdown.

El dato que mejor explica el incentivo económico es brutal: en el caso del propio anuncio de Cloudflare, la página pasa de 16.180 tokens en HTML a 3.150 tokens en Markdown, lo que supone un 80 % menos.

AgentReady.md se apoya en el mismo razonamiento: una página bien estructurada puede requerir entre un 70 % y un 80 % menos de tokens si el consumo se hace en un formato limpio.

Para un sysadmin, eso se traduce en dos derivadas prácticas:

  1. Menos fricción para pipelines RAG/agents que consumen tu contenido.
  2. Más control sobre qué parte del sitio se considera “contenido principal” frente a navegación, footers o componentes repetidos.

Tabla rápida: “problema típico” → “arreglo típico” (y quién lo hace)

Señal que penaliza a agentesQué suele ocurrirArreglo típicoResponsable habitual
Botones/CTAs hechos con div + JSEl agente no identifica accionesUsar elementos nativos (button, a) y nombres accesiblesFrontend
Encabezados caóticos (h1 repetidos, saltos)El contenido se chunk-ea malJerarquía h1 → h2 → h3, regiones (main, article)Contenido + Frontend
Demasiado “boilerplate”El extractor mete ruidoReducir wrappers, minimizar inline styles, plantillas más limpiasFrontend
Contenido clave tarda en aparecerEl agente se queda “arriba”Subir el contenido útil en el HTML, SSR donde tenga sentidoFrontend + Backend
No hay señales para agentes (llms.txt, sitemap)Descubre peor el sitioPublicar llms.txt, mantener sitemap.xml, revisar robots.txtSistemas + SEO/Contenido
No hay negociación de formatoCada agente convierte por su cuentaServir Markdown si Accept: text/markdown (o usar un edge converter)Sistemas

No es una receta única, pero sí un mapa operativo: lo que se arregla en servidor, lo que toca plantillas, y lo que depende de contenido/estructura editorial.

Negociar Markdown sin duplicar URLs: la parte que le interesa a infraestructura

Uno de los puntos más prácticos (y más “de sistemas”) es el de servir el mismo recurso en formatos distintos según la cabecera Accept. La idea ya aparece en el debate del sector y se resume así: mantener una URL canónica, pero devolver HTML a navegadores y Markdown a agentes si lo piden.

Cloudflare lo ejemplifica con claridad: si el cliente incluye Accept: text/markdown, la red detecta esa preferencia, recupera el HTML del origen y lo convierte a Markdown antes de entregarlo. Y añade dos detalles importantes para operar esto con garantías:

  • La respuesta puede incluir Vary: accept, para que caches intermedias no mezclen HTML y Markdown.
  • También puede incluir una cabecera x-markdown-tokens con una estimación de tokens del Markdown, útil para monitorizar costes y estrategias de chunking.

En otras palabras: ya no se trata solo de “publicar contenido”, sino de publicarlo con negociación, igual que se negocia compresión, idiomas o tipos MIME.

llms.txt: cuando la documentación se convierte en capa editorial

AgentReady.md insiste además en un estándar emergente: llms.txt, un archivo en Markdown en la raíz del dominio que funciona como guía para agentes (un “índice editorial” con enlaces a páginas clave). En algunos enfoques se diferencia también una variante llms-full.txt, pensada como versión extendida con contenido embebido.

Para devs y sysadmins esto tiene un punto interesante: llms.txt no sustituye SEO ni accesibilidad, pero sí crea una “puerta de entrada” explícita para consumidores no humanos. Y, si el tráfico agéntico crece, esa puerta puede convertirse en un activo real: reduce ambigüedad y evita que el agente “adivine” qué páginas son las importantes.


Preguntas frecuentes

¿Qué tipo de webs se benefician más de AgentReady.md a nivel técnico?
Especialmente las que viven de contenido y estructura (medios, documentación, blogs técnicos, knowledge bases), y también ecommerce con fichas de producto donde la semántica y los metadatos determinan si un agente entiende precio, disponibilidad o variaciones.

¿Qué cambios suelen mejorar más rápido la “AI-readiness” sin rehacer el sitio?
Normalmente: jerarquía correcta de encabezados, uso de main/article/section, textos alternativos en imágenes informativas, limpieza de plantillas con menos “ruido” y señales básicas de descubrimiento (sitemap y llms.txt).

¿Cómo se sirve Markdown a agentes sin mantener dos webs distintas?
Con negociación de contenido: el cliente solicita Accept: text/markdown y el servidor (o el edge) entrega Markdown manteniendo la misma URL canónica.

¿Por qué se habla tanto de tokens y coste al hablar de agentes?
Porque HTML suele arrastrar mucho “peso” no semántico. En el ejemplo publicado por Cloudflare, una página pasa de 16.180 tokens en HTML a 3.150 en Markdown (-80 %), lo que impacta directamente en coste de procesamiento y en el contexto útil disponible para el modelo.

Suscríbete al boletín SysAdmin

Este es tu recurso para las últimas noticias y consejos sobre administración de sistemas, Linux, Windows, cloud computing, seguridad de la nube, etc. Lo enviamos 2 días a la semana.

¡Apúntate a nuestro newsletter!


– patrocinadores –

Noticias destacadas

– patrocinadores –

¡SUSCRÍBETE AL BOLETÍN
DE LOS SYSADMINS!

Scroll al inicio
×