Guía actualizada · Mayo 2026

GEO: cómo hacer que ChatGPT y Claude citen tu sitio web en 2026

El SEO tradicional pelea por entrar al top 10 de Google. GEO (Generative Engine Optimization) juega un partido distinto: el 83% de las citas de Google AI Overview vienen de páginas fuera del top 10. Esta guía te explica, con datos reales y código, cómo configurar tu sitio en una hora para que ChatGPT, Claude, Perplexity y Copilot lo encuentren y lo citen.

✓ Basado en investigación de Princeton e IIT Delhi ✓ Datos verificados de mayo 2026 ✓ Código listo para copiar

¿Qué es GEO y por qué importa en 2026?

GEO (Generative Engine Optimization) es el conjunto de prácticas que hacen que tu sitio web sea visible y citable por motores de búsqueda generativos como ChatGPT, Claude, Perplexity, Google AI Overview y Microsoft Copilot. A diferencia del SEO clásico, GEO no se trata de subir posiciones: se trata de ayudar a la IA a entender lo que ya tienes.

El término fue acuñado en el paper «GEO: Generative Engine Optimization», publicado por investigadores de Princeton e IIT Delhi en KDD 2024. Su hallazgo central: la visibilidad en respuestas de IA aumenta hasta un 115% si añades citas autoritativas a tu contenido, un 43% con citas directas de fuentes creíbles, y un 33% con estadísticas relevantes.

Los datos de tráfico también explican por qué hablamos de GEO ahora y no antes: las búsquedas con IA crecieron 527% interanual en la primera mitad de 2025, ChatGPT alcanzó 900 millones de usuarios semanales activos en febrero de 2026, y el tráfico referido por IA convierte a una tasa 5 veces mayor que la búsqueda tradicional. Aun así, todavía representa menos del 1% del tráfico total. Esto significa una cosa importante:

«GEO es una estrategia de visibilidad de marca, no de tráfico. Vale la pena dedicarle una hora, no una semana.» — @HiTw93

SEO vs GEO: cuatro diferencias clave

Si vienes de SEO tradicional, lo primero que tienes que entender es que las reglas son distintas. Esta tabla resume las diferencias que más impactan a la hora de planificar tu contenido:

AspectoSEO tradicionalGEO
ObjetivoTop 10 de GoogleSer citado en respuestas de IA
Métrica clavePosición + clicsCitas + tasa de retrieval-to-citation
Señales que importanPageRank, backlinks, CTREstructura clara, fuentes confiables, datos específicos
Origen de las citasTop 10 resultados83% fuera del top 10

Esto último es la noticia más importante para sitios pequeños: el foso de PageRank ya no protege a los grandes en la era IA. Si tu README o tu documentación están bien escritos, puedes salir citado en lugar de un sitio enorme con contenido mediocre.

Los cuatro tipos de crawlers de IA que debes conocer

La mayoría de la gente trata el archivo robots.txt como un interruptor binario: o bloquea todos los crawlers de IA, o los deja pasar a todos. Es un error costoso. Los crawlers de IA hacen cosas muy distintas y conviene tratarlos por separado.

TipoEjemplosQué hacenRecomendación
EntrenamientoGPTBot, ClaudeBot, CCBot, Meta-ExternalAgentToman tu contenido para entrenar futuros modelosBloquear si quieres opt-out de entrenamiento
Búsqueda y retrievalOAI-SearchBot, Claude-SearchBot, PerplexityBotBuscan en tiempo real para responder preguntasPermitir siempre
Disparados por usuarioChatGPT-User, Claude-User, Perplexity-UserSolo se activan cuando alguien pega tu URL en el chatPermitir siempre
No declaradosBytespider, bots no identificadosNo siguen las reglasBloquear

El error más caro: bloquear OAI-SearchBot pensando que estás protegiendo tu contenido. Lo que en realidad hiciste fue desaparecer de los resultados de búsqueda de ChatGPT sin obtener nada a cambio.

Cómo configurar robots.txt para IA paso a paso

Crea un archivo robots.txt en la raíz de tu sitio. La estrategia recomendada por @HiTw93 es: permitir crawlers de búsqueda y disparados por usuario, bloquear entrenamiento y no declarados.

# Búsqueda y retrieval: permitir
User-agent: OAI-SearchBot
Allow: /

User-agent: Claude-SearchBot
Allow: /

User-agent: PerplexityBot
Allow: /

# Disparados por usuario: permitir
User-agent: ChatGPT-User
Allow: /

User-agent: Claude-User
Allow: /

# Entrenamiento: bloquear (opcional)
User-agent: GPTBot
Disallow: /

User-agent: CCBot
Disallow: /

# Tokens de opt-out
User-agent: Google-Extended
Disallow: /

# No declarados: bloquear
User-agent: Bytespider
Disallow: /

Sitemap: https://tudominio.com/sitemap.xml

Si tu prioridad es la exposición de marca a largo plazo (que la próxima generación de modelos te conozca), puedes dejar GPTBot y CCBot en Allow. Si tu prioridad es el control, bloquéalos. Bytespider sí o sí en bloquear: no se identifica correctamente y no respeta las reglas.

Cómo crear tu archivo llms.txt: la tarjeta de presentación para IA

llms.txt es un estándar nuevo, similar a robots.txt pero diseñado para consumo de IA. Colocas un archivo Markdown en la raíz de tu sitio describiendo qué hace, sus páginas clave y quién está detrás. Los sistemas de IA lo priorizan al rastrear tu contenido.

Según BuiltWith, hay más de 840.000 sitios que ya han desplegado llms.txt, incluyendo Anthropic, Cloudflare, Stripe y Vercel. Pero la encuesta de SE Ranking sobre 300.000 dominios muestra una adopción real de solo el 10%. Es decir: estás temprano y eso es una ventaja.

El formato es simple. Crea /llms.txt con esta estructura:

# Nombre de tu proyecto

> Descripción en una línea de qué es esto.

## Enlaces

- [Documentación](https://tudominio.com/docs)
- [GitHub](https://github.com/tu/proyecto)
- [Blog](https://tudominio.com/blog)

## Sobre nosotros

Párrafo corto explicando el proyecto, su propósito,
características clave y qué lo hace diferente.

Después de crearlo, envíalo a directory.llmstxt.cloud, llmstxt.site y al repositorio llms-txt-hub en GitHub vía pull request. Si tienes varios sitios, haz que el llms.txt de cada uno enlace a los demás: forman una malla de descubrimiento por la que cualquier crawler que entre encuentre todo.

Por qué necesitas también llms-full.txt

Mientras llms.txt es el resumen, llms-full.txt es la versión completa: típicamente entre 30 y 60 KB, con descripciones de proyecto, casos de uso, comparativas con competidores y extractos del README. El análisis de CDN de Mintlify muestra que llms-full.txt recibe entre 3 y 4 veces más tráfico que llms.txt. Cuando un sistema de IA encuentra el resumen, casi siempre va a buscar la versión completa.

En la práctica, llms-full.txt es donde concentras los tres ingredientes de mayor impacto del paper de Princeton: citas autoritativas, citas directas y estadísticas. Es el archivo que más influye en si la IA te cita o no.

Rutas Markdown: alimenta a la IA con contenido limpio

Una página HTML típica de 15.000 tokens se convierte en un documento Markdown de 3.000 tokens. Eso es 80% menos ruido para la IA. Evil Martians recomienda servir una versión .md de cada página de tu sitio.

La forma más simple de avisar a la IA de que existe la versión Markdown es añadir esta línea al <head> de tu HTML:

<link rel="alternate" type="text/markdown" href="/pagina.md" />

Claude Code y Cursor ya envían cabeceras Accept: text/markdown por defecto cuando obtienen documentación. Esto es HTTP/1.1 content negotiation estándar desde 1997: no es magia, es protocolo.

Importante: nunca devuelvas contenido distinto a bots y a humanos basado en User-Agent. Eso es cloaking y Google te penalizará. Usa el mecanismo de alternate, que es el camino limpio.

Registro en buscadores: la base que no puedes saltar

El trabajo de robots.txt y llms.txt hace que tu contenido sea legible para la IA, pero la IA tiene que encontrarte primero. La búsqueda de ChatGPT funciona sobre Bing, Google AI Overview usa el índice de Google, y Perplexity también depende de APIs de búsqueda. Si tus páginas no están indexadas, nada de lo anterior importa.

  1. Google Search Console. Verifica tu dominio por DNS o archivo HTML. Envía tu sitemap.xml. Revisa el informe «Páginas» para ver qué está indexado y qué no.
  2. Bing Webmaster Tools. Subestimado pero crítico: Copilot, DuckDuckGo y Yahoo usan el índice de Bing. Si no estás en Bing, no estás en ninguno de los tres.
  3. IndexNow. Activa este protocolo en Bing Webmaster. Te permite avisar a Bing inmediatamente cuando publicas algo nuevo, en lugar de esperar a que un crawler te encuentre. La URL queda indexada en minutos.
  4. Perplexity Publisher Program. Si ya tienes contenido publicado regular, postúlate en pplx.ai/publisher-program. Si te aprueban, recibes un reparto de ingresos 80/20 y acceso a analíticas de citas.

Cada proyecto necesita su propia página con URL natural

Esto es uno de los hallazgos más prácticos de Ahrefs en su investigación sobre por qué ChatGPT cita unas páginas y no otras: las páginas citadas tienen títulos con mayor similitud semántica a la pregunta del usuario, y los slugs en lenguaje natural (como /proyectos/pake) son citados más que los IDs opacos (como /page?id=47).

La estructura de URL importa porque la IA toma decisiones antes de leer una sola línea del cuerpo. /proyectos/pake le dice qué es la página; /page?id=47 no le dice nada. Por eso, si tu sitio tiene varios temas o productos, dale a cada uno su propia página con un slug descriptivo.

Otra consecuencia práctica: no concentres todo en una página gigante con anclas (#instalar, #comandos). La granularidad de cita de la IA es la URL, no el ancla. Un usuario preguntando «cómo instalar Claude Code en Mac» merece una página /instalar/ dedicada, no un fragmento dentro de la home.

Lo que dice la investigación: datos del paper de Princeton

El paper «GEO: Generative Engine Optimization» de Princeton e IIT Delhi, presentado en KDD 2024, midió qué cambios en el contenido aumentan más la visibilidad en respuestas de IA. Estos son los tres factores con mayor impacto:

+115%

Añadir citas autoritativas con enlace a la fuente original. Funciona porque la IA prefiere contenido verificable a contenido huérfano.

+43%

Incluir citas directas de fuentes creíbles. La IA puede pasarlas tal cual al usuario, lo que aumenta su utilidad como respuesta.

+33%

Añadir estadísticas relevantes con números concretos. Evita generalidades; los datos específicos se citan más.

El laboratorio geo-citation-lab complementa este paper analizando 602 prompts en tres plataformas distintas y decenas de miles de páginas. Los hallazgos prácticos para creadores de contenido:

Diferencias entre plataformas: ChatGPT, Claude, Perplexity

No todas las IAs citan igual. Saber esto cambia tu estrategia de contenido:

PlataformaEstilo de citaEstrategia óptima
ChatGPTCita pocas fuentes pero las usa profundamente. Impacto por cita: 5x el de Google.Profundidad. Pocas páginas excelentes y largas.
PerplexityCita más del doble de fuentes que ChatGPT. Red más amplia.Volumen. Múltiples páginas medianas y específicas.
Claude (Anthropic)Cita conservadoramente. Prioriza fuentes verificables.Autoridad. Citas externas y datos concretos.
Bing/CopilotEs la única IA donde JSON-LD ayuda directamente.Mantén tu schema markup limpio.

Otro dato clave: el 83% de las citas globales son contenido en inglés. Si tu objetivo es audiencia internacional, necesitas versión en inglés. Si tu objetivo es solo hispanohablantes, optimiza para los nichos donde el inglés todavía no domina.

Lo que NO funciona en GEO: no pierdas tiempo aquí

Antes de añadir cosas a tu sitio buscando «más GEO», descarta esta lista. Son técnicas que circulan pero no las soporta ningún sistema de IA mayor:

Caso aparte: JSON-LD no es tan útil como pensarías para GEO. SearchVIU hizo un experimento: pusieron datos solo en JSON-LD sin mostrarlos en la página. Los cinco sistemas de IA testados no encontraron los datos. Mark Williams-Cook confirmó que los LLMs tratan <script type="application/ld+json"> como texto plano, leyendo las palabras pero sin entender la semántica. La única excepción confirmada es Bing/Copilot. Conclusión: mantén tu JSON-LD existente porque ayuda a Bing y a los rich results de Google, pero no esperes que ChatGPT o Claude te citen más por añadirlo.

Cómo verificar si tu GEO funciona

El mayor reto de GEO comparado con SEO es la medición. No hay un Search Console oficial para citas de IA (excepto Bing, que tiene un panel parcial). Esto es lo que sí puedes hacer:

  1. Test directo con prompts. Una vez por semana, ejecuta los mismos 5 prompts en ChatGPT, Claude, Perplexity y Google AI Overview. Anota qué fuentes citan. Hazlo en modo incógnito para evitar contaminación de historial.
  2. Logs de servidor o panel de Cloudflare. Filtra User-Agents como OAI-SearchBot, Claude-SearchBot, PerplexityBot. Ver al crawler descargar tu llms.txt es la mejor señal de que tu configuración funciona.
  3. Bing Webmaster Tools → AI Performance. Único panel oficial con datos de citas (cubre Copilot, DuckDuckGo, Yahoo).
  4. Referrers en analytics. Vigila tráfico desde chat.openai.com, claude.ai, perplexity.ai. Es la prueba definitiva de que un usuario llegó a través de una cita de IA.

Una advertencia honesta: el reporte del CJR Tow Center analizó 200 citas generadas por IA y encontró que 153 contenían errores parciales o totales. Haz el trabajo estructural porque hace tu contenido accesible con precisión, pero no tomes una cita de IA como prueba de que el usuario vio tus palabras exactas.

Cómo implementar GEO con Claude Code en una hora

La buena noticia: todo lo descrito se puede automatizar con Claude Code. Si ya leíste nuestra guía principal de cómo usar Claude Code, esta es una aplicación práctica perfecta. Sigue estos cinco pasos:

  1. Abre tu proyecto en Claude Code. Navega a la carpeta de tu sitio web y ejecuta claude. Si todavía no lo tienes instalado, sigue la guía de instalación.
  2. Pídele que cree el robots.txt clasificado. Por ejemplo: «Crea un robots.txt en la raíz del proyecto que permita OAI-SearchBot, Claude-SearchBot y PerplexityBot, bloquee Bytespider, e incluya el sitemap.»
  3. Genera tu llms.txt y llms-full.txt. «Lee el README.md y los archivos principales del proyecto. Genera un llms.txt resumen y un llms-full.txt completo siguiendo el estándar de llmstxt.org.»
  4. Añade rutas Markdown. «Para cada página HTML del sitio, genera una versión .md equivalente y añade la cabecera link rel='alternate' type='text/markdown' al <head> correspondiente.»
  5. Verifica con un test rápido. Pide a Claude Code que abra el llms.txt resultante y lo valide contra el formato del estándar. Después haz commit y deploy.

Claude Code es ideal para esto porque tiene acceso a tus archivos, entiende contexto multi-archivo y puede hacer las modificaciones sin que tú copies y pegues entre herramientas. Lo que en un editor tradicional te llevaría una tarde, en Claude Code se resuelve en minutos.

Recursos oficiales y lecturas recomendadas

Aprende a usar Claude Code y aplica GEO en tu propio sitio

Si esta guía te resultó útil, lo natural es que aprendas a manejar Claude Code para implementar todo esto en tu sitio en una hora. La guía completa, paso a paso y en español, está esperándote.

Ver la guía completa de Claude Code