WebMCP o cuando las webs dejan de “ser leídas” y empiezan a negociar con agentes
En publicidad digital somos expertos en optimizar las capas más visibles: un mejor layout, una landing más rápida, una creatividad con menos fricción, un formulario con menos campos... Lo hemos convertido en disciplina: UX, CRO, SEO y todo pensado para una realidad muy concreta, que un humano delante de una pantalla tome decisiones con tiempo limitado y atención aún más limitada.
Lo que Google acaba de lanzar con WebMCP plantea un giro sutil pero profundo: ¿y si el usuario que “consume” la web ya no es el humano, sino un agente que actúa por él? ¿Y si la web, en lugar de ser interpretada a base de scraping y heurísticas, pudiera dar instrucciones directas al bot sobre qué hacer?
Google Chrome ha anunciado una disponibilidad limitada de WebMCP, su protocolo que permitiría a las páginas web interactuar directamente con los agentes de IA. Se trata de una promesa operativa: pasar de bots intentando descifrar la web a webs “hablando” con bots de forma estructurada. En un sector que vive de reducir fricción, la idea tiene lógica y precisamente por eso conviene mirarla con calma.
No es otro acrónimo, es una batalla por el control de la ejecución
Estarás conmigo en que sobran siglas: MCP, AdCP, UCP, ARTF… y ahora estos chicos de Google vienen con otra más: WebMCP. Pero detrás de la fatiga de acrónimos hay una línea evolutiva clara: en los últimos 12 meses se han multiplicado los intentos de lograr que los agentes “hagan cosas” en internet. Y para que un agente haga cosas de verdad necesita algo que parece trivial pero no lo es tanto: tener acceso a un navegador y estar autenticado como un usuario y no como un bot desde un data center, sino como alguien “real” desde un contexto que no dispare las alarmas: se bloquea desde los data centers, pero desde la red doméstica y con credenciales normales, es más difícil. Esto conecta con el auge de “browsers para agentes” y con esa especie de bricolaje moderno en el que la gente monta su mini infraestructura en casa para que el agente pueda operar. La lectura de mercado es bastante obvia: estamos intentando automatizar la ejecución en la web con herramientas que aún se parecen demasiado a un workaround. WebMCP, en ese contexto, responde a una pregunta que suena casi ingenua: ¿por qué no decirle al bot exactamente qué tiene que hacer?
La oportunidad para los Publishers: pasar del scraping a una relación contractual
Si WebMCP se implementa como se describe en el primer borrador de Google, el primer beneficiario lógico son los Publishers. Ahora mismo la relación con los agentes es en gran parte reactiva: contenido rastreado, interpretado, resumido, a veces citado, a veces no y con muy poca capacidad para definir reglas de interacción. WebMCP apunta a que una interfaz estructurada podría permitir a los publishers dar señales claras de cómo interactuar con su contenido, especialmente en acciones transaccionales como formularios, pedidos o flujos de atención al cliente. Esto es importante, pero lo realmente interesante está en lo que viene después: si puedes guiar a un agente, también puedes condicionar el intercambio de valor y aquí es donde aparece el concepto de “content marketplaces” como encaje natural. Si el agente está recopilando información, ¿cómo sabe que existe contenido premium detrás de un paywall? ¿Cómo sabe qué puede licenciarse? ¿Cómo se paga? WebMCP podría ser una vía para “enseñarle” al agente que hay un escalón superior de calidad… siempre que pase por caja y ese “pasar por caja” no es un detalle menor si el cambio de arquitectura económica: de ser un rastreo y extracción a acceso y ser una licencia.
Desde un punto de vista editorial, es un movimiento defensivo racional. Si el tráfico humano se reduce porque el agente responde sin enviar al usuario a la fuente, el Publisher necesita nuevas superficies de monetización. “Upsell al agente” suena raro, pero es exactamente lo que todo esto sugiere: recomendar la instalación de app, merchandising, suscripciones, newsletters, y no porque el bot compre una camiseta, sino porque el bot podría trasladar esa recomendación al usuario como parte de su “servicio”. Lo importante aquí es entender el mecanismo: cuando el intermediario deja de ser un buscador y pasa a ser un agente, el Publisher tiene que aprender a influir en ese intermediario. La web deja de ser un escaparate y se convierte en un API.
La oportunidad para los anunciantes: el sitio web vuelve a importar, pero por razones distintas
Durante años se ha repetido que la web del anunciante estaba perdiendo relevancia frente a los marketplaces, walled gardens y plataformas cerradas, pero con WebMCP se plantea una hipótesis interesante: quizás no se muere la web, sino que se reinventa como entorno “agent-enabled”. No para que el humano navegue mejor, sino para que el agente pueda absorber más información, más rápido y sobre todo, tomar decisiones más informadas. De ahí surgen ideas como por ejemplo ofrecer especificaciones técnicas en volumen, datos que no están en el HTML visible, o incluso ofertas diseñadas para que el agente las evalúe como “mejor opción”. En términos de marketing, esto desplaza el centro de gravedad; ya no compites solo por la atención del usuario, compites por el criterio del agente y eso hace que el contenido cambie: menos copy persuasivo, más datos estructurados; menos “beneficios”, más evidencias; menos estética, más señal. Podemos predecir algo inevitable en nuestro sector: el nacimiento de una disciplina específica para optimizar ofertas para agentes… Le cambias el nombre, le pones un acrónimo, montas un vendor y ya tienes una nueva categoría para engordar el landscape.
Lo más incómodo: privacidad, consentimiento y asimetría informativa
En medio de todo este entusiasmo, vamos a parar la euforia dejando caer una bomba: si el agente actúa por el usuario, podría gestionar consentimientos y preferencias de datos; algo así como un antídoto a los cookie banners, pero el asunto es mucho más serio: el consentimiento no es un click, es una responsabilidad legal. Aún es pronto para saber cómo WebMCP abordaría la gestión de consentimiento o la trazabilidad de decisiones del agente, y cualquier conclusión más concreta sería especulativa, pero es evidente que si se habilita la ejecución “en nombre del usuario”, la pregunta no es técnica: es jurídica y de gobernanza. Y hay otro tema a tener en cuenta: nada obliga a que la información expuesta al agente sea idéntica a la que ve el humano: podrías darle al agente “más data para masticar” y esto abre un terreno resbaladizo, no necesariamente por mala fe, sino por incentivo: si el agente decide, el incentivo es alimentar al agente con la versión del mundo que más te conviene. Esto no es un problema nuevo, podemos decir que es “persuasion a escala”, solo que el receptor es otro.
La web como interfaz de máquina y el marketing como negociación de protocolos
La lectura estructural de todo este tema es bastante simple: la web fue diseñada para humanos, pero se está convirtiendo en un entorno donde los agentes ejecutan. Cuando esto ocurre, los activos que importan cambian. El SEO clásico se construyó alrededor del ranking en un buscador, pero si el agente es el que resume, compara y decide, el ranking deja de ser el único campo de batalla y aparece otro: cómo te “entiende” el agente y qué información le entregas de forma estructurada y cuando la interacción es estructurada, quien define el protocolo define la economía. En nuestro sector, eso siempre acaba en lo mismo: estándares, interoperabilidad y concentraciones de poder alrededor de quienes controlan la capa.
Si WebMCP avanza, el cambio no será una funcionalidad más de Chrome, será un cambio de mentalidad: pasar de diseñar webs para humanos a diseñar webs para que los agentes ejecuten. Esto afecta a publishers, a marcas, a afiliación, a retail media, a medición y a regulación… no es una “feature” sino una disputa por el control del journey cuando el journey ya no lo recorre una persona, sino un sistema y ya sabes amigo lector que en publicidad digital, cuando cambia la interfaz, cambia el reparto de poder.