La mayoría de consejos SEO para búsqueda de IA siguen siendo eslóganes vagos. "Escribe para E-E-A-T." "Sé la respuesta." Marcos útiles, pero no puedes operacionalizar un eslogan.
Este es el manual de trabajo que usamos para obtener páginas citadas por búsqueda web de ChatGPT, Perplexity, Google AI Overviews y Bing Copilot. No es teoría. El mismo manual está funcionando en este sitio ahora mismo.
AEO y GEO, definidos claramente
Dos acrónimos, frecuentemente usados de forma laxa. Las definiciones claras:
- AEO — Answer Engine Optimization. Obtener que tu contenido sea citado como la respuesta directa en superficies de respuesta-primero (Google AI Overviews, fragmentos destacados, asistentes de voz, resultados de búsqueda de ChatGPT, citas de Perplexity).
- GEO — Generative Engine Optimization. La categoría más amplia que cubre cómo los sistemas de IA generativa recuperan, resumen y acreditan tu contenido. AEO es un subconjunto.
Ambos comparten un requisito común: el motor de IA tiene que encontrar tu contenido, analizarlo con confianza, atribuirlo a una fuente creíble y hacer referencia a él ante el usuario. Cada uno de esos pasos es una palanca que puedes accionar.
Por qué el antiguo manual de SEO no es suficiente
El SEO clásico optimiza para una cosa: un enlace en el que se pueda hacer clic en un SERP. La búsqueda de IA optimiza para dos cosas: poner el contenido en la ventana de contexto del modelo y ser citado cuando el modelo genera la respuesta. Son problemas diferentes.
Ejemplos de donde los manuales divergen:
- La densidad de palabras clave no ayuda a un LLM. Las declaraciones fácticas claras sí.
- Los preámbulos largos antes de la respuesta perjudican la citación de IA. El patrón TL;DR gana.
- Las páginas que ocultan contenido detrás de pestañas o acordeones obtienen una extracción parcial. El HTML plano con encabezados semánticos obtiene la extracción completa.
- El contenido genérico reescrito de competidores pierde. La experiencia propia y los datos específicos ganan.
El pipeline de cinco etapas
El pipeline que ejecutamos para cada pieza publicada en este sitio:
Etapa 1: Investigación con Tavily
Tavily es una API de búsqueda diseñada para LLMs. El mismo tipo de API que cualquier agente de IA usa para obtener información fresca y verificada. Antes de redactar, obtenemos 5 a 10 fuentes recientes sobre el tema a través del endpoint de búsqueda de Tavily, con `search_depth: "advanced"` para piezas de alto riesgo.
Por qué esto importa para AEO: AI Overviews favorecen contenido que se alinea con el consenso actual. Redactar solo desde datos de entrenamiento produce contenido obsoleto. Redactar desde fuentes frescas produce contenido que coincide con lo que la IA ya "sabe" que es verdad — y se cita por eso.
No copiamos de las fuentes. Las usamos para verificar fechas, números, entidades nombradas, y el estado actual de cualquier tema que cambia rápidamente antes de escribir.
Etapa 2: Redacción con voz propia
Los motores de IA están entrenados para identificar y confiar en la experiencia de primera mano. Tres patrones que generan citas:
- Primera persona: "Lo probé durante una semana" vence a "Esto fue probado".
- Datos específicos: "LCP bajó de 2.8s a 0.7s" vence a "el rendimiento mejoró significativamente".
- Alcance honesto: "Esto funciona para X, no para Y" vence a "solución integral para todos".
Evitamos el registro genérico de IA. Palabras como comprehensive, leverage, cutting-edge, robust, seamless, streamline, y unlock potential señalan autoría de IA tanto para humanos como para los motores que califican contenido. La lista de prohibición completa que usamos vive en nuestra guía de estilo de contenido.
Etapa 3: Verificar con el detector Winston AI
Winston es un detector de contenido de IA con un endpoint de API pública en /v1/ai-content-detection. Ejecutamos cada borrador a través de él antes de publicar. La puntuación devuelve un porcentaje de similitud humana.
Nuestra puerta: cualquier cosa por debajo del 80 por ciento de similitud humana vuelve para otro paso. El trabajo que llega al 95+ es contenido donde la estructura, la voz y el ritmo se han alejado de los patrones LLM predeterminados. Esa puntuación se correlaciona con cómo los motores de IA mismos clasifican el contenido — el contenido que se lee como humano se cita a tasas más altas que el contenido que se lee como IA.
En este sitio, los seis posts más recientes todos obtuvieron 100/100 similitud humana en Winston. Esa es una opción deliberada, no un accidente afortunado.
Etapa 4: Estructura con schema
Aquí es donde la mayoría de consejos AEO se detiene en la superficie. Los patrones de schema que realmente mueven la aguja:
- Article / BlogPosting con mainEntityOfPage, author Person con sameAs, publisher Organization con logo, datePublished, dateModified, keywords, articleSection, wordCount, isAccessibleForFree, image como ImageObject con width y height.
- FAQPage cuando el body tiene estructura Q&A. Este es el schema de mayor apalancamiento para AEO. Fuente de cita directa de AI Overview.
- Speakable con cssSelector apuntando a tu TL;DR o párrafos de introducción. Los motores de voz y AI Overview muestran contenido speakable.
- HowTo cuando el post es genuinamente una guía paso a paso. Captura la intención "cómo hacer X" en la búsqueda de IA.
- Esquema Service con provider, areaServed, audience, Offer con priceSpecification en páginas comerciales.
- Entidades vinculadas vía @id graph. Vincular tu Article a una Person y la Person a una Organization con sameAs crea un grafo de identidad verificable que los motores realmente utilizan.
Emitimos todo esto dinámicamente por ruta en este sitio. El head estático solo contiene el esquema a nivel de entidad (Person, Organization, WebSite). El esquema por página se inyecta por JS según la ruta activa.
Etapa 5: Accesibilidad del rastreador de IA
Etapa final, frecuentemente omitida: asegurarse de que los rastreadores de IA puedan recuperar tu contenido.
- llms.txt en root: un archivo markdown conciso que lista tus URLs principales con descripciones. Los rastreadores de IA buscan esto. Muchos sitios aún no tienen uno.
- Etiqueta meta robots con `max-snippet:-1, max-image-preview:large, max-video-preview:-1`. Elimina los límites de longitud de fragmento predeterminados. Los fragmentos de AI Overview se hacen más largos cuando esto está presente.
- Contenido renderizado con JS: la mayoría de rastreadores de IA no renderizan JavaScript. Si tu hero, H1, o canonical solo existen después de que se ejecute JS, los motores no ven nada. Pre-renderiza o renderiza en servidor los elementos críticos de SEO.
- Permite los user-agents ChatGPT-User, PerplexityBot, Google-Extended, ClaudeBot, anthropic-ai en robots.txt. Algunos sitios los bloquean por defecto con reglas de bot demasiado agresivas.
Lo que te hace ser citado (en orden de impacto)
Observando decenas de páginas que son citadas y decenas que deberían serlo pero no, el orden de prioridad:
- 1. Afirmaciones fácticas específicas con números, fechas y entidades nombradas
- 2. Estructura tipo FAQ con pares pregunta-respuesta directos
- 3. Experiencia de primera mano ("Probé", "medimos", "nuestro cliente")
- 4. Recencia — dateModified en los últimos 90 días supera contenido más antiguo
- 5. Gráfico de entidades vinculadas (Person, Organization, sameAs)
- 6. TL;DR o resumen en la parte superior del artículo
- 7. HTML semántico limpio con un H1 y jerarquía adecuada H2/H3
- 8. Schema Speakable marcando los pasajes citables
Lo que mata las posibilidades de citación
- Contenido que se lee como output predeterminado de LLM (verboso, con muchas reservas, genérico)
- Preámbulos largos antes de la respuesta real
- Contenido bloqueado detrás de pestañas, acordeones o carruseles que los rastreadores no pueden expandir
- Páginas llenas de afiliados donde el 40 por ciento del contenido son tarjetas de productos
- Páginas sin autor, editor o credenciales claros
- Schema que es incorrecto (JSON-LD roto descalifica silenciosamente la página)
- Sitios que bloquean rastreadores de IA en robots.txt y luego se quejan de no ser citados
Medir si el plan funciona
Tres señales a rastrear:
- Directo: datos de rendimiento de Google Search Console, segmentados por tipo de consulta. Las impresiones de AI Overview aparecen en rangos de posición específicos.
- Indirecto: rastrear el tráfico de referencia de ChatGPT y Perplexity en tu analytics. El volumen es pequeño pero crece rápidamente.
- Basado en auditoría: consulta ChatGPT, Perplexity y Google con tus consultas objetivo mensualmente. Anota qué fuentes se citan en cada una. Haz un seguimiento semana a semana.
Herramientas como el endpoint de menciones de AI de DataForSEO y el scraper de ChatGPT dan acceso programático a los mismos datos a escala.
Limitaciones honestas
Dos cosas en las que ser directo:
La búsqueda de IA aún no es una fuente de tráfico principal para la mayoría de sitios. El volumen es real y está creciendo, pero aún no coincide con Google orgánico. Optimiza para esto porque la trayectoria es clara, no porque te esté pagando las facturas hoy.
Los motores cambian semanalmente. Lo que obtuvo citas en febrero de 2026 puede que no en noviembre. El pipeline anterior es más duradero que cualquier táctica específica porque se enfoca en señales (recencia, estructura, voz, identidad) que todos los motores ponderan, no en particularidades de un motor.
Lo que ejecutamos en este sitio
Concreto, para los curiosos:
- Tavily Search API para investigación previa en temas de rápido movimiento
- Winston AI detector v1/ai-content-detection en cada borrador, restringido a 80+ similitud humana
- FAL flux-dev para imágenes hero, almacenadas como activos de Sanity
- Sanity headless CMS alimentando una aplicación de una sola página renderizada en Netlify
- Schema dinámico por ruta (Article, FAQPage, Speakable, HowTo, Service, BreadcrumbList) inyectado por JS
- llms.txt en raíz, meta robots con max-snippet:-1 y max-image-preview:large
- Gráfico de entidades vinculadas: Person con sameAs a LinkedIn/X/YouTube, Organization para Seahawk Media como editor
Si quieres ver el schema en acción, visualiza la fuente en cualquier post de este sitio. O lee WordPress vs Next.js en 2026 para el artículo de comparación que este playbook produjo primero.WordPress vs Next.js in 2026for the comparison piece this playbook produced first.
La conclusión
AEO y GEO no son magia. Son una disciplina de producción de contenido más un pequeño conjunto de pasos de accesibilidad técnica. Los equipos que tienen éxito en búsqueda de IA son los mismos equipos que tienen éxito en SEO clásico — simplemente agregan tres cosas: investigación fresca, voz que no se lee como IA, y schema que permite a los motores analizar el contenido de manera limpia.
Si deseas ayuda para operacionalizar esto en tu sitio, reserva una llamada de 30 minutos y recorreremos tu stack, tu flujo de contenido y dónde están los cambios de mayor impacto.book a 30-minute calland we will walk through your stack, your content workflow, and where the highest-impact changes are.
Lecturas relacionadas
→ Ingeniería de prompts en 2026: qué es y cuánto pagaPrompt engineering in 2026: what it is and what it pays
→ Construí este sitio web de IA en 24 horasI Built This AI Website in 24 Hours
→ WordPress vs Next.js en 2026: mi comparación honestaWordPress vs Next.js in 2026: my honest comparison
→ WordPress sin cabeza en 2026: la guía práctica completaHeadless WordPress in 2026: the complete practical guide
