El SEO tradicional pelea por entrar al top 10 de Google. GEO (Generative Engine Optimization) juega un partido distinto: el 83% de las citas de Google AI Overview vienen de páginas fuera del top 10. Esta guía te explica, con datos reales y código, cómo configurar tu sitio en una hora para que ChatGPT, Claude, Perplexity y Copilot lo encuentren y lo citen.
GEO (Generative Engine Optimization) es el conjunto de prácticas que hacen que tu sitio web sea visible y citable por motores de búsqueda generativos como ChatGPT, Claude, Perplexity, Google AI Overview y Microsoft Copilot. A diferencia del SEO clásico, GEO no se trata de subir posiciones: se trata de ayudar a la IA a entender lo que ya tienes.
El término fue acuñado en el paper «GEO: Generative Engine Optimization», publicado por investigadores de Princeton e IIT Delhi en KDD 2024. Su hallazgo central: la visibilidad en respuestas de IA aumenta hasta un 115% si añades citas autoritativas a tu contenido, un 43% con citas directas de fuentes creíbles, y un 33% con estadísticas relevantes.
Los datos de tráfico también explican por qué hablamos de GEO ahora y no antes: las búsquedas con IA crecieron 527% interanual en la primera mitad de 2025, ChatGPT alcanzó 900 millones de usuarios semanales activos en febrero de 2026, y el tráfico referido por IA convierte a una tasa 5 veces mayor que la búsqueda tradicional. Aun así, todavía representa menos del 1% del tráfico total. Esto significa una cosa importante:
«GEO es una estrategia de visibilidad de marca, no de tráfico. Vale la pena dedicarle una hora, no una semana.» — @HiTw93
Si vienes de SEO tradicional, lo primero que tienes que entender es que las reglas son distintas. Esta tabla resume las diferencias que más impactan a la hora de planificar tu contenido:
| Aspecto | SEO tradicional | GEO |
|---|---|---|
| Objetivo | Top 10 de Google | Ser citado en respuestas de IA |
| Métrica clave | Posición + clics | Citas + tasa de retrieval-to-citation |
| Señales que importan | PageRank, backlinks, CTR | Estructura clara, fuentes confiables, datos específicos |
| Origen de las citas | Top 10 resultados | 83% fuera del top 10 |
Esto último es la noticia más importante para sitios pequeños: el foso de PageRank ya no protege a los grandes en la era IA. Si tu README o tu documentación están bien escritos, puedes salir citado en lugar de un sitio enorme con contenido mediocre.
La mayoría de la gente trata el archivo robots.txt como un interruptor binario: o bloquea todos los crawlers de IA, o los deja pasar a todos. Es un error costoso. Los crawlers de IA hacen cosas muy distintas y conviene tratarlos por separado.
| Tipo | Ejemplos | Qué hacen | Recomendación |
|---|---|---|---|
| Entrenamiento | GPTBot, ClaudeBot, CCBot, Meta-ExternalAgent | Toman tu contenido para entrenar futuros modelos | Bloquear si quieres opt-out de entrenamiento |
| Búsqueda y retrieval | OAI-SearchBot, Claude-SearchBot, PerplexityBot | Buscan en tiempo real para responder preguntas | Permitir siempre |
| Disparados por usuario | ChatGPT-User, Claude-User, Perplexity-User | Solo se activan cuando alguien pega tu URL en el chat | Permitir siempre |
| No declarados | Bytespider, bots no identificados | No siguen las reglas | Bloquear |
El error más caro: bloquear OAI-SearchBot pensando que estás protegiendo tu contenido. Lo que en realidad hiciste fue desaparecer de los resultados de búsqueda de ChatGPT sin obtener nada a cambio.
Crea un archivo robots.txt en la raíz de tu sitio. La estrategia recomendada por @HiTw93 es: permitir crawlers de búsqueda y disparados por usuario, bloquear entrenamiento y no declarados.
# Búsqueda y retrieval: permitir
User-agent: OAI-SearchBot
Allow: /
User-agent: Claude-SearchBot
Allow: /
User-agent: PerplexityBot
Allow: /
# Disparados por usuario: permitir
User-agent: ChatGPT-User
Allow: /
User-agent: Claude-User
Allow: /
# Entrenamiento: bloquear (opcional)
User-agent: GPTBot
Disallow: /
User-agent: CCBot
Disallow: /
# Tokens de opt-out
User-agent: Google-Extended
Disallow: /
# No declarados: bloquear
User-agent: Bytespider
Disallow: /
Sitemap: https://tudominio.com/sitemap.xml
Si tu prioridad es la exposición de marca a largo plazo (que la próxima generación de modelos te conozca), puedes dejar GPTBot y CCBot en Allow. Si tu prioridad es el control, bloquéalos. Bytespider sí o sí en bloquear: no se identifica correctamente y no respeta las reglas.
llms.txt es un estándar nuevo, similar a robots.txt pero diseñado para consumo de IA. Colocas un archivo Markdown en la raíz de tu sitio describiendo qué hace, sus páginas clave y quién está detrás. Los sistemas de IA lo priorizan al rastrear tu contenido.
Según BuiltWith, hay más de 840.000 sitios que ya han desplegado llms.txt, incluyendo Anthropic, Cloudflare, Stripe y Vercel. Pero la encuesta de SE Ranking sobre 300.000 dominios muestra una adopción real de solo el 10%. Es decir: estás temprano y eso es una ventaja.
El formato es simple. Crea /llms.txt con esta estructura:
# Nombre de tu proyecto
> Descripción en una línea de qué es esto.
## Enlaces
- [Documentación](https://tudominio.com/docs)
- [GitHub](https://github.com/tu/proyecto)
- [Blog](https://tudominio.com/blog)
## Sobre nosotros
Párrafo corto explicando el proyecto, su propósito,
características clave y qué lo hace diferente.
Después de crearlo, envíalo a directory.llmstxt.cloud, llmstxt.site y al repositorio llms-txt-hub en GitHub vía pull request. Si tienes varios sitios, haz que el llms.txt de cada uno enlace a los demás: forman una malla de descubrimiento por la que cualquier crawler que entre encuentre todo.
Mientras llms.txt es el resumen, llms-full.txt es la versión completa: típicamente entre 30 y 60 KB, con descripciones de proyecto, casos de uso, comparativas con competidores y extractos del README. El análisis de CDN de Mintlify muestra que llms-full.txt recibe entre 3 y 4 veces más tráfico que llms.txt. Cuando un sistema de IA encuentra el resumen, casi siempre va a buscar la versión completa.
En la práctica, llms-full.txt es donde concentras los tres ingredientes de mayor impacto del paper de Princeton: citas autoritativas, citas directas y estadísticas. Es el archivo que más influye en si la IA te cita o no.
Una página HTML típica de 15.000 tokens se convierte en un documento Markdown de 3.000 tokens. Eso es 80% menos ruido para la IA. Evil Martians recomienda servir una versión .md de cada página de tu sitio.
La forma más simple de avisar a la IA de que existe la versión Markdown es añadir esta línea al <head> de tu HTML:
<link rel="alternate" type="text/markdown" href="/pagina.md" />
Claude Code y Cursor ya envían cabeceras Accept: text/markdown por defecto cuando obtienen documentación. Esto es HTTP/1.1 content negotiation estándar desde 1997: no es magia, es protocolo.
Importante: nunca devuelvas contenido distinto a bots y a humanos basado en User-Agent. Eso es cloaking y Google te penalizará. Usa el mecanismo de alternate, que es el camino limpio.
El trabajo de robots.txt y llms.txt hace que tu contenido sea legible para la IA, pero la IA tiene que encontrarte primero. La búsqueda de ChatGPT funciona sobre Bing, Google AI Overview usa el índice de Google, y Perplexity también depende de APIs de búsqueda. Si tus páginas no están indexadas, nada de lo anterior importa.
sitemap.xml. Revisa el informe «Páginas» para ver qué está indexado y qué no.
Esto es uno de los hallazgos más prácticos de Ahrefs en su investigación sobre por qué ChatGPT cita unas páginas y no otras: las páginas citadas tienen títulos con mayor similitud semántica a la pregunta del usuario, y los slugs en lenguaje natural (como /proyectos/pake) son citados más que los IDs opacos (como /page?id=47).
La estructura de URL importa porque la IA toma decisiones antes de leer una sola línea del cuerpo. /proyectos/pake le dice qué es la página; /page?id=47 no le dice nada. Por eso, si tu sitio tiene varios temas o productos, dale a cada uno su propia página con un slug descriptivo.
Otra consecuencia práctica: no concentres todo en una página gigante con anclas (#instalar, #comandos). La granularidad de cita de la IA es la URL, no el ancla. Un usuario preguntando «cómo instalar Claude Code en Mac» merece una página /instalar/ dedicada, no un fragmento dentro de la home.
El paper «GEO: Generative Engine Optimization» de Princeton e IIT Delhi, presentado en KDD 2024, midió qué cambios en el contenido aumentan más la visibilidad en respuestas de IA. Estos son los tres factores con mayor impacto:
Añadir citas autoritativas con enlace a la fuente original. Funciona porque la IA prefiere contenido verificable a contenido huérfano.
Incluir citas directas de fuentes creíbles. La IA puede pasarlas tal cual al usuario, lo que aumenta su utilidad como respuesta.
Añadir estadísticas relevantes con números concretos. Evita generalidades; los datos específicos se citan más.
El laboratorio geo-citation-lab complementa este paper analizando 602 prompts en tres plataformas distintas y decenas de miles de páginas. Los hallazgos prácticos para creadores de contenido:
No todas las IAs citan igual. Saber esto cambia tu estrategia de contenido:
| Plataforma | Estilo de cita | Estrategia óptima |
|---|---|---|
| ChatGPT | Cita pocas fuentes pero las usa profundamente. Impacto por cita: 5x el de Google. | Profundidad. Pocas páginas excelentes y largas. |
| Perplexity | Cita más del doble de fuentes que ChatGPT. Red más amplia. | Volumen. Múltiples páginas medianas y específicas. |
| Claude (Anthropic) | Cita conservadoramente. Prioriza fuentes verificables. | Autoridad. Citas externas y datos concretos. |
| Bing/Copilot | Es la única IA donde JSON-LD ayuda directamente. | Mantén tu schema markup limpio. |
Otro dato clave: el 83% de las citas globales son contenido en inglés. Si tu objetivo es audiencia internacional, necesitas versión en inglés. Si tu objetivo es solo hispanohablantes, optimiza para los nichos donde el inglés todavía no domina.
Antes de añadir cosas a tu sitio buscando «más GEO», descarta esta lista. Son técnicas que circulan pero no las soporta ningún sistema de IA mayor:
<meta name="ai-content-url"> y <meta name="llms">: sin especificación, sin adopción./.well-known/ai.txt: hay propuestas competidoras, ninguna ganadora todavía. Espera.
Caso aparte: JSON-LD no es tan útil como pensarías para GEO. SearchVIU hizo un experimento: pusieron datos solo en JSON-LD sin mostrarlos en la página. Los cinco sistemas de IA testados no encontraron los datos. Mark Williams-Cook confirmó que los LLMs tratan <script type="application/ld+json"> como texto plano, leyendo las palabras pero sin entender la semántica. La única excepción confirmada es Bing/Copilot. Conclusión: mantén tu JSON-LD existente porque ayuda a Bing y a los rich results de Google, pero no esperes que ChatGPT o Claude te citen más por añadirlo.
El mayor reto de GEO comparado con SEO es la medición. No hay un Search Console oficial para citas de IA (excepto Bing, que tiene un panel parcial). Esto es lo que sí puedes hacer:
OAI-SearchBot, Claude-SearchBot, PerplexityBot. Ver al crawler descargar tu llms.txt es la mejor señal de que tu configuración funciona.chat.openai.com, claude.ai, perplexity.ai. Es la prueba definitiva de que un usuario llegó a través de una cita de IA.Una advertencia honesta: el reporte del CJR Tow Center analizó 200 citas generadas por IA y encontró que 153 contenían errores parciales o totales. Haz el trabajo estructural porque hace tu contenido accesible con precisión, pero no tomes una cita de IA como prueba de que el usuario vio tus palabras exactas.
La buena noticia: todo lo descrito se puede automatizar con Claude Code. Si ya leíste nuestra guía principal de cómo usar Claude Code, esta es una aplicación práctica perfecta. Sigue estos cinco pasos:
claude. Si todavía no lo tienes instalado, sigue la guía de instalación.llms.txt resultante y lo valide contra el formato del estándar. Después haz commit y deploy.Claude Code es ideal para esto porque tiene acceso a tus archivos, entiende contexto multi-archivo y puede hacer las modificaciones sin que tú copies y pegues entre herramientas. Lo que en un editor tradicional te llevaría una tarde, en Claude Code se resuelve en minutos.
Si esta guía te resultó útil, lo natural es que aprendas a manejar Claude Code para implementar todo esto en tu sitio en una hora. La guía completa, paso a paso y en español, está esperándote.
Ver la guía completa de Claude Code