Estrategia

IA para SEO: de pedir resúmenes a gestionar un sitio entero

Cómo gestiono un blog de SEO con agentes de IA: auditoría de 98 posts, rewrites, código y publicación. Flujos reales, no prompts sueltos.

Natan Valencia
Natan Valencia
Natan Valencia

Consultor SEO técnico y programador. Llevo más de 13 años auditando webs, automatizando análisis con Python y construyendo herramientas para SEO. Escribo sobre lo que funciona de verdad.

Tabla de contenidos

Cada vez que entro en LinkedIn encuentro un post de alguien contando su experiencia con Claude Code. Su conclusión es casi siempre esta: “Con la suscripción de 18€ llego al límite de tokens en una hora usando la web, pero si me paso a la línea de comandos (CLI) puedo hacer más cosas.” Victoria.1

Algunos solo se quejan del límite, otros profundizan y le sacan más provecho. En este caso me he inspirado en Lino. Destaca porque ha conseguido aprovechar Claude Code mejor que la gran mayoría… Pero el fallo que siempre veo es este:

En todo el artículo no hay una sola mención a qué trabajo o facturación ha creado con esas sesiones. Ni un proyecto terminado, ni un flujo automatizado, ni un resultado medible. El éxito fue no llegar al límite de tokens.

Y es que Lino sabe lo que hace — lleva años en esto y sus flujos de terminal son potentes. Pero su artículo refleja exactamente cómo el 95% de los profesionales de SEO usan la IA hoy: midiendo el coste en vez de medir el valor.

Yo llevo semanas gestionando este blog con agentes de IA. No hablo de pedirle a ChatGPT que me escriba una meta description. Hablo de un sistema donde la IA lee mi proyecto entero — 62 artículos, un design system, el código, el deploy a producción, las reglas editoriales, un inventario de contenido y prioridades, un changelog — y ejecuta desde auditorías hasta publicaciones con un nivel de contexto que ningún chat puede igualar.

98 posts auditados, clasificados y priorizados. 36 eliminados. 8 artículos reescritos o nuevos. Todo gestionado con agentes de IA. tecnicaseo.com — febrero-marzo 2026

Lo que he aprendido no tiene nada que ver con prompts ni con herramientas. Tiene que ver con sistemas. Y eso es lo que voy a contarte aquí.


El problema: IA como autocomplete glorificado

Busca “IA para SEO” en Google. Lo que vas a encontrar son listas de herramientas SaaS — Jasper, Surfer, NeuronWriter, DinoBRAIN — y guías genéricas sobre “cómo usar ChatGPT para mejorar tu SEO.” Prompts para meta descriptions, prompts para keyword research, prompts para outlines.

Spoiler: Un juego de niños. Contenido que triunfa porque es fácil de leer y puede dar la falsa sensación de productividad. Otro PDF para la colección que jamás leerás.

Todo eso está bien para empezar (si lo usas), pero es el equivalente a tener una calculadora y presumir de que acabas antes los deberes. La calculadora no sabe qué cuentas hacer.

Después de meses observando cómo usan la IA mis colegas técnicos, veo tres niveles muy claros:

Nivel 1: El chat. Abres ChatGPT, le pides algo, copias la respuesta, la pegas donde toque. “Dame 10 ideas de keywords para una clínica dental.” “Escríbeme una meta description para esta página.” Es útil, pero es lo mismo que buscar en Google con más estilo. El flujo sigue siendo manual y el resultado depende enteramente de la calidad de tu prompt.

Nivel 2: El terminal. Esto es lo que hace Lino: encadenar comandos de Linux con LLMs en el pipe. curl para sacar datos de Amazon, jq para procesarlos, un LLM para enriquecerlos. Es potente — los que llevamos años en terminal le vemos el potencial. Pero sigue siendo prompt → respuesta. El LLM no sabe nada de tu proyecto, de tu contexto, de tu estrategia. Es una pieza más del pipe.

Nivel 3: La infraestructura. Aquí es donde cambia todo. Un agente de IA que arranca leyendo tu proyecto completo: la estructura de archivos, el código de la web, las reglas editoriales, el inventario de contenido, el historial de cambios y cuando termina envía todo al servidor. Y con ese contexto, toma decisiones y ejecuta tareas complejas — no comandos sueltos.

La mayoría está en el nivel 1. Algunos llegan al 2. Casi nadie opera en el 3.

El salto del nivel 2 al 3 no es técnico. Es de mentalidad. No es “qué comando ejecuto” sino “qué decisiones delego.”

Y ojo: no estoy diciendo que los niveles 1 y 2 sean malos. Son perfectamente válidos para lo que son. Lo que digo es que hay un nivel más, y que la diferencia en lo que produces es brutal.


Qué significa usar IA como infraestructura

No significa “automatizar todo.” Significa tener un sistema donde la IA opera con suficiente contexto como para producir trabajo de calidad sin que tengas que explicarle todo desde cero cada vez.

En la práctica, esto se traduce en que la IA:

  • Lee y entiende tu proyecto completo — no un archivo, no un prompt: tu codebase, tu historial, tu configuración.
  • Toma decisiones basadas en reglas que tú defines — tono de voz, estructura visual, vocabulario permitido, reglas de imágenes, protocolos de publicación.
  • Ejecuta cambios coordinados — no un párrafo suelto, sino un artículo completo con sus internal links, su frontmatter, sus imágenes optimizadas, y su entrada en el changelog.
  • Mantiene estado — sabe qué se hizo la última sesión, qué queda pendiente, qué artículos necesitan rewrite y en qué orden.

Te pongo un ejemplo concreto para que se vea la diferencia.

Nivel 1 (chat): Abres ChatGPT y escribes “Reescribe este artículo sobre migración HTTPS para 2026.” Te devuelve un texto genérico que suena a artículo de Semrush. Lo pegas en tu CMS. Si sale bien, publicas.

Nivel 3 (infraestructura): El agente arranca leyendo el brief del artículo (12 secciones: objetivo, audiencia, análisis competitivo, social research, keywords, outline detallado). Lee el design system con las reglas de tono. Lee las writing rules con las lecciones aprendidas de artículos anteriores. Lee el artículo original para saber qué conservar. Lee los artículos relacionados para planificar internal links. Y produce un .mdx listo para revisión — con su frontmatter correcto, sus bloques visuales (.stat, .tldr, blockquote), sus fuentes como notas al pie, y su ritmo visual verificado.

La diferencia no es que el resultado sea “mejor escrito.” Es que el resultado es coherente con todo lo demás que has publicado. Sigue las mismas reglas, usa el mismo tono, respeta la misma estructura. Es parte de un sistema, no una pieza suelta.

Un prompt produce una respuesta. Un agente produce un resultado. La diferencia está en el contexto, no en el modelo


Caso real: cómo gestiono tecnicaseo.com con IA

Esto no es teoría. Es lo que hago todos los días con este blog. Voy a enseñarte el sistema por dentro.

Auditoría de contenido a escala

Cuando migré de WordPress a Astro, heredé 98 posts. Llevo 4 años sin publicar ni en redes, centrado solo en mi trabajo, así que imagínate… La mayoría era basura: artículos de 2015 con herramientas muertas, guest posts que no reflejaban mi voz, listados obsoletos. El trabajo clásico sería: leer cada uno, decidir qué hacer, documentar. A mano, son semanas.

Con el agente, el proceso fue:

  1. Rastrear los 98 posts cruzando con datos de GSC (impresiones, posición media, clics)
  2. Clasificar cada uno: OK, UPDATE, REWRITE, MERGE o DROP
  3. Descargar datos de Google Search Console para que la IA haga los números y estimar el potencial de tráfico de cada post si se mejorara
  4. Documentar la decisión para cada uno con su justificación

Resultado: 5 posts OK sin tocar, 11 que solo necesitaban un refresh, 31 rewrites priorizados por potencial, 13 merges (artículos que se solapaban y había que fusionar), y 36 que se eliminaron directamente con su redirect 301.

Toda esa información vive en archivos dentro del propio repositorio — no en un Google Sheet perdido, no en la cabeza de nadie. El agente puede leerla en cualquier sesión y saber exactamente dónde estamos.

Sistema editorial completo

Cada artículo que publico sigue el mismo pipeline:

  1. Brief de 12 secciones — objetivo, audiencia, análisis competitivo de la SERP (qué cubren los top 3, qué les falta), social research (Reddit, X, YouTube), keywords mapeadas a secciones, outline con word targets, elementos requeridos, meta tags, señales E-E-A-T, estrategia de CTA.
  2. SERP y social research real — no “mira qué sale en Google”, sino análisis de gaps: qué no cubre nadie, qué preguntas quedan sin responder, qué experiencias reales hay en foros.
  3. Draft con contexto completo — el agente escribe con acceso al design system, las writing rules (lecciones de errores en artículos anteriores), y los artículos ya publicados para planificar internal links.
  4. Revisión mía — siempre. La IA produce el borrador, yo decido qué se publica.

El artículo sobre SEO para inteligencia artificial pasó por este proceso: 24 fuentes verificadas (más de 50 descartadas por ser fluff), 4 iteraciones de draft, y unas 7.500 palabras donde cada dato tiene su fuente original comprobada. Cuando un dato estaba mal citado en la fuente secundaria, fuimos al paper original y lo corregimos. Ese nivel de rigor no lo consigues con un prompt de “escríbeme un artículo sobre GEO.”

El artículo sobre crear contenido SEO absorbió 7 artículos legacy en uno solo, con sus redirects 301 configurados y sus internal links actualizados en los artículos que los mencionaban.

¿Cuánto me costó escribir cada post?

No te voy a engañar, varias horas. Nada de “Claude resucita mi blog por favor”. Algunas tareas eran manuales para darle más contexto y tomar decisiones, otras veces necesita corrección, otras reescritura, otras vigilar que no rompa lo que ya está bien.

Pero son varias horas que de otro modo habrían costado semanas…

Y aquí va el mejor truco que puedo regalar: Cada vez que comete un error, pregúntale el motivo, pregúntale si las instrucciones no están claras y qué hacer para que no se repita. Mano de santo y cada vez menos fallos.

Sesión de trabajo real con Claude Code editando el borrador de este artículo en tecnicaseo.com — diff con líneas añadidas y eliminadas visible en terminal
Sesión real de trabajo: Claude Code editando el borrador de este mismo artículo. Las líneas rojas son lo que se elimina, las verdes lo que se añade.

Gestión técnica

El blog corre sobre Astro — framework static-first con cero JavaScript por defecto. La migración desde WordPress, la configuración de Netlify, las imágenes OG automáticas (104 posts, generadas con satori + sharp, ~12KB cada una), la corrección de 160+ errores 404 detectados con Screaming Frog — todo gestionado desde el terminal con Claude Code.

Lighthouse 100/100. Menos de 150KB por página. Cero JavaScript innecesario. tecnicaseo.com — rendimiento actual

Cuando digo “gestionado con agentes de IA” no me refiero a que le pedí que me hiciera una web. Me refiero a que le digo “corrige los 404s que encontró Screaming Frog”, y el agente lee el CSV, identifica los patrones (links de afiliado rotos, imágenes perdidas en la migración, URLs de categorías antiguas), y configura los redirects correspondientes. En una sesión.

El sistema operativo del proyecto

Lo que hace que todo esto funcione no es el agente en sí — es el contexto que le das.

En la raíz de mi repositorio hay un archivo de instrucciones que funciona como el “sistema operativo” del proyecto. Define: el stack técnico, la estructura de archivos, los comandos de desarrollo, las reglas de contenido, la voz y tono, las reglas de imágenes, el performance budget, el protocolo de publicación, las protecciones de URLs — todo.

Y dentro del repo hay un directorio de operaciones (.ai-ops/) con:

  • Briefs de cada artículo (12 secciones por brief)
  • Drafts en desarrollo (separados del contenido publicado — nunca se toca un archivo en producción hasta que el draft está aprobado)
  • Auditorías de contenido con el inventario maestro
  • Workflows documentados (proceso editorial, reglas de escritura, lecciones aprendidas)
  • CHANGELOG actualizado con cada sesión — qué se hizo, qué problemas hubo, cómo se resolvieron
  • PENDING-TASKS como fuente de verdad del estado actual del proyecto

Cada vez que el agente arranca una sesión nueva, lo primero que hace es leer el estado del proyecto. Sabe qué artículos están pendientes de rewrite, cuál es la prioridad, qué se hizo la última vez, y qué problemas encontramos. No empieza de cero.

Todo vive en el repositorio. No en Notion, no en Google Docs, no en la cabeza de nadie. En el repo, al lado del código, versionado con git.


Lo que NO hago con IA (y por qué)

Esto es importante, porque el hype te hace pensar que la IA puede con todo. No puede. Y si no le pones límites, te va a crear problemas que tardarás más en arreglar que en haberlo hecho tú desde el principio.

No publico contenido sin revisión humana. Ningún artículo pasa de draft: true a draft: false sin que yo lo lea entero. El agente produce borradores de alta calidad, pero la decisión de publicar es mía. Siempre.

No delego decisiones de negocio. Qué publicar, qué eliminar, qué priorizar, a quién enlazar — eso lo decido yo. El agente me da datos para decidir mejor, pero la decisión es mía.

No confío ciegamente en los datos que genera. En el artículo de GEO/AEO, un dato de TollBit aparecía como 42% en varias fuentes secundarias. Fuimos al PDF original y el dato real era 21,24%. La mitad. Si hubiera publicado sin comprobar, habría repetido un error que ya circulaba por medio internet.

No uso IA para generar contenido masivo. No publico 30 artículos al mes “escritos con IA.” Cada pieza pasa por el mismo proceso: brief completo, research, draft, revisión mía, publicación. Es más lento que el spam, pero es lo que posiciona.

Cualquier cambio que elimine una URL publicada requiere mi confirmación explícita. Esa regla está escrita en las instrucciones del proyecto. Una URL que desaparece sin redirect es tráfico perdido, autoridad perdida y errores en Google. El agente lo sabe y pregunta antes de tocar.

La IA amplifica lo que ya sabes. Si no sabes SEO, la IA no te va a salvar. Si sabes, te convierte en un equipo de tres personas.


Por qué esto importa si contratas SEO

Si eres responsable de marketing o dueño de un negocio, esto te afecta directamente. No porque necesites montar un sistema así tú mismo — sino porque deberías saber si la persona que contratas lo tiene.

La pregunta que nadie hace al contratar un consultor SEO: “¿Usas IA como chat o como infraestructura?”

Un consultor que opera en el nivel 1 (chat) copia prompts, copia y pega respuestas, y depende de su tiempo manual para todo. Su output está limitado por las horas que tenga.

Un consultor que opera en el nivel 3 (infraestructura) tiene sistemas que le permiten auditar 98 posts en una fracción del tiempo, producir artículos con investigación real verificada, y mantener la calidad consistente artículo tras artículo — porque las reglas están documentadas y el agente las sigue.

La diferencia es que en el nivel 3 puedes pasarte 15 minutos planeando y después la IA en otros 15 minutos deja el trabajo listo en una sola pasada.

No es que sea “más barato.” Es que el trabajo producido por cada hora invertida es radicalmente mejor. El mismo presupuesto produce más trabajo, con más rigor, y con más coherencia.

Volviendo al post de Lino: el ROI de estas herramientas no se mide en tokens consumidos. Se mide en resultados producidos. Si la métrica de éxito es “no llegué al límite de tokens”, la herramienta no ha cambiado nada. Si la métrica es “audité 98 posts, publiqué 8 artículos con investigación real, y mantengo un Lighthouse de 100/100 siendo una sola persona” — eso es otro juego.

Y te doy otra vuelta: Si llego a la hora límite y he consumido menos del 80% del límite, es que he desaprovechado la herramienta, y a veces para eso tengo que abrir varias terminales cada una con un proyecto.


Cómo empezar si quieres montar algo similar

No necesitas Claude Code para empezar. Ni Cursor, ni ninguna herramienta específica. Lo que necesitas es un sistema. La herramienta viene después.

1. Documenta cómo trabajas. Si no tienes reglas escritas — tono, proceso, estructura, vocabulario — la IA no puede seguirlas. Piénsalo: si le dices a una persona nueva “escríbeme un artículo” sin darle contexto, el resultado va a ser genérico. Con la IA es igual. El primer paso es escribir tu design system, aunque sea básico. Cómo hablas, qué vocabulario usas, qué estructura siguen tus artículos, qué reglas de imágenes tienes.

2. Dale contexto, no prompts. La diferencia entre un resultado mediocre y uno bueno no es el prompt — es el contexto. Dale a la IA tu inventario de contenido, tus reglas editoriales, tu historial de lo que has publicado. Cuanto más sabe sobre tu proyecto, mejores decisiones toma.

3. Monta flujos reproducibles. Si cada artículo sigue un proceso diferente, la IA no puede ayudarte de verdad. Brief → Draft → Revisión → Publicación. Siempre igual, siempre con los mismos pasos. La consistencia del proceso es lo que produce la consistencia del resultado.

4. Revisión humana siempre. La IA produce el 80%. El 20% que falta — criterio editorial, tono fino, decisiones de negocio, verificación de datos — es tuyo. Y ese 20% es lo que separa el contenido que posiciona del contenido que Google ignora.

Si quieres dar el paso técnico: Claude Code (la CLI, no la web) es mi herramienta principal. Cuesta unos 20€ al mes y opera directamente sobre tu proyecto local. Pero la inversión real no es el software — es el tiempo de montar el sistema. Eso es lo que la mayoría no hace porque requiere pensar antes de producir.


Para terminar

La pregunta ya no es si la IA sirve para SEO. Eso está resuelto. La pregunta es: ¿la usas como chat o como infraestructura?

Buscar “IA para SEO” hoy te devuelve listas de herramientas y prompts para meta descriptions. Nadie te enseña cómo montar un sistema de producción real porque casi nadie lo tiene montado. Es más fácil escribir “10 prompts para SEO” que documentar un design system, crear un pipeline editorial, y mantener un changelog de todo lo que produces.

Yo lo monté porque lo necesitaba para mi propio blog. No porque quisiera escribir un artículo sobre el tema — sino porque quería producir contenido con investigación real, mantener la calidad consistente, y no depender de mi memoria para saber dónde dejé las cosas la última vez.

Si quieres montar algo parecido, arriba te he dado los cuatro pasos para empezar. Si prefieres que alguien con estos sistemas ya montados trabaje en tu SEO, hablamos.


Fuentes citadas:

[1] Lino Uruñuela — El límite de Claude Code — LinkedIn (2026-03-12)

Natan Valencia
Natan Valencia

Consultor SEO técnico y programador. Llevo más de 13 años auditando webs, automatizando análisis con Python y construyendo herramientas para SEO. Escribo sobre lo que funciona de verdad.