Por qué la visibilidad en IA no es SEO reetiquetado... pero tampoco una ciencia exacta

Cada vez que una industria entra en fase de ansiedad, inventa un nuevo acrónimo. Ahora le toca a AEO, GEO y demás derivados. La conversación pública lleva meses girando alrededor de una pregunta algo infantil: si esto es de verdad una disciplina nueva o si es simplemente SEO rehecho para vender otra capa de consultoría. La respuesta seria está en un punto bastante menos cómodo. No, no parece que estemos ante una ruptura total con el SEO, pero tampoco basta ya con seguir leyendo el search como si todo se resolviera en rankings, impresiones y CTR de una SERP clásica.

Google de hecho, ha sido bastante explícito: en su documentación oficial sobre AI Overviews y AI Mode dice que las best practices de SEO siguen siendo relevantes, que no existen requisitos técnicos adicionales para aparecer en esas experiencias y que tampoco hace falta añadir nuevos archivos legibles por máquina ni esquema específico para ello. Más aún: Google explica que la presencia en esas funciones se incluye dentro del tráfico general de Search Console, en el tipo de búsqueda “Web”. Es decir, desde la visión de Google, la transición hacia búsqueda asistida por IA no invalida los fundamentos… los absorbe.

Este es un punto importante porque pone algo de orden en un mercado demasiado predispuesto a vender alquimia: si Google dice que no hay una capa mágica de optimización separada, conviene escuchar. También conviene escuchar la otra mitad de la historia: que el hecho de que no haya una disciplina completamente nueva no significa que la medición siga siendo suficiente con los instrumentos viejos. Ahí es donde entra Microsoft, y ahí empieza de verdad la parte interesante.

En febrero de 2026, Bing Webmaster Tools lanzó en preview pública su panel de AI Performance. No es un gesto menor porque Microsoft lo presenta como una forma de entender con qué frecuencia el contenido de un site es citado en respuestas generativas de Microsoft Copilot, resúmenes generados por IA en Bing y determinadas integraciones de partners. El panel no ofrece “rankings” al estilo clásico, pero sí métricas de total citations, average cited pages, grounding queries, actividad por URL y tendencias de visibilidad a lo largo del tiempo. Microsoft incluso lo describe como un paso temprano hacia tooling de GEO. Cuando una gran plataforma abre este tipo de reporting, deja claro que la discusión ya no es académica, ya hay una capa nueva de observación.

El propio Bing aclara que esas citas no indican ranking, autoridad, importancia o placement dentro de una respuesta concreta. Esto invalida una parte del discurso más simplón que intenta trasladar al mundo generativo la vieja obsesión con “posiciones”. En search asistido por IA, la pregunta útil no siempre es “¿en qué puesto estoy?”, sino “¿estoy siendo citado, para qué temas, con qué frecuencia y con qué estabilidad?” Es menos sexy que un top 3, pero bastante más honesto.

La metáfora más útil que he visto para explicarlo no viene de un gran agencia ni de una suite empresarial heredada, viene de Scrunch, que en uno de sus textos compara esta medición con una estación meteorológica: una lectura aislada aporta poco, una red de lecturas consistentes en el tiempo empieza a enseñar clima, no solo tiempo puntual. Su tesis es que intentar medir todas las permutaciones posibles de prompts es una pérdida de tiempo, y que lo razonable es seguir un conjunto representativo y estable de consultas ligadas a los temas que importan al negocio. No es una idea revolucionaria, y por eso precisamente resulta útil.

La gran novedad por tanto, no está en que la IA haya destruido (o no) el SEO, sino en que ha roto el viejo pacto psicológico del reporting. Antes, aunque el search fuera complejo, el cliente podía mirar una tabla y entender una jerarquía razonablemente estable. Ahora, las respuestas cambian por superficie, contexto, modelo y tipo de recuperación; y en algunos productos, además, la memoria o el historial pueden influir en cómo se formula o enriquece la búsqueda. Google reconoce que AI Overviews y AI Mode pueden usar modelos y técnicas diferentes y que los enlaces mostrados pueden variar; OpenAI señala que ChatGPT puede usar memorias para informar queries cuando busca en la web con proveedores externos. Esto no convierte la medición en imposible, la vuelve menos lineal y, por tanto, mucho más vendible para quien sepa empaquetarla.

OpenAI añade otro detalle que conviene no pasar por alto. En su documentación de crawlers distingue entre GPTBot, vinculado a entrenamiento, y OAI-SearchBot, usado para hacer aparecer sitios en las funciones de búsqueda de ChatGPT. La empresa indica incluso que los sitios optados fuera de OAI-SearchBot no se mostrarán en respuestas de ChatGPT Search, aunque puedan seguir apareciendo como enlaces navegacionales. Es un dato técnico, sí, pero también estratégico: la visibilidad en interfaces generativas empieza a depender de capas de elegibilidad, crawling y control que ya no se agotan en Googlebot.

Lo mismo ocurre aguas abajo, en analítica. Microsoft Clarity ya separa tráfico procedente de plataformas de IA en grupos específicos como AI Platform y Paid AI Platform, con ejemplos que incluyen ChatGPT, Claude, Gemini, Copilot y Perplexity. No es una curiosidad, es la prueba de que el mercado de analítica también está rehaciendo su taxonomía para capturar un nuevo tipo de entrada al site. Si hay nuevas puertas de acceso, habrá nuevos cuadros de mando, nuevos vendors y, por supuesto, nuevos presupuestos para atribuir ese tráfico.

Aquí es donde conviene introducir una crítica elegante: el mayor riesgo no es que el mercado infravalore AEO o GEO sino todo lo contrario, que lo convierta en una disciplina mística justo cuando las propias plataformas están siendo bastante claras sobre sus límites. Google dice que los fundamentos siguen siendo los de siempre, Bing dice que sus citas no equivalen a ranking y OpenAI distingue entre crawlers y deja claro que parte del comportamiento puede depender de memoria y contexto. Con este punto de partida, cualquier vendor que prometa una lectura exacta, estable y universal de “cómo rankea tu marca en IA” merece al menos una ceja levantada (sí como suele hacer Sobera)

Lo que sí parece claro es que estamos entrando en una fase donde la visibilidad en IA va a medirse en tres planos distintos. Primero, presencia o citación dentro de respuestas generativas. Segundo, tráfico referido y comportamiento on-site de usuarios que llegan desde esas interfaces. Tercero, elegibilidad técnica y frescura documental, es decir, que tu contenido pueda ser descubierto, indexado y reutilizado por estos sistemas. Bing lo conecta con IndexNow y con actualización de contenido; Google insiste en indexación, texto accesible y buenas prácticas técnicas; OpenAI, en permitir OAI-SearchBot si quieres aparecer en su search. Esto ya no es una intuición de consultor, es una arquitectura operativa emergente.

La conclusión con la que deben quedarse las agencias, publishers y las marcas es bastante sencilla: no estamos ante una sustitución limpia del SEO por otra cosa con nombre brillante, sino ante un sistema de descubrimiento más difuso, más fragmentado y mucho más difícil de resumir en un gráfico de posiciones. Y precisamente por eso va a generar una nueva economía de dashboards, metodologías, consultoría y relato. Algunas de esas capas serán útiles, otras serán puro maquillaje estratégico para tranquilizar a directivos que ya han probado ChatGPT, Copilot o AI Overviews y han descubierto que la marca no siempre aparece donde antes daba por hecho que vivía.

El error sería elegir entre dos caricaturas: creer que AEO/GEO es humo total o aceptar sin filtro que es una ciencia exacta. No es ninguna de las dos cosas; es más bien, el intento del mercado de construir una capa de medición razonable para un entorno donde la visibilidad ya no se comporta como un ranking tradicional. Y en publicidad digital cuando cambia la forma de medir, no tarda en cambiar también la forma de vender.

AEO, GEO, SEOGossip Boy