Juicios y filtraciones de Google
Juan Gonzalez Villa
Resumen de la ponencia
Cómo funciona realmente Google: claves del juicio antimonopolio y la filtración de documentos internos
Juan González abrió su intervención agradeciendo a Carlos Sánchez y al equipo de Asdrubal SEO por organizar un evento que calificó como "un soplo de aire fresco para la comunidad". A partir de ahí, centró su charla en uno de los temas más impactantes y reveladores de los últimos años para el sector: el juicio antimonopolio contra Google en Estados Unidos y las filtraciones de documentos internos, que han ofrecido una visión sin precedentes sobre cómo funciona el buscador por dentro.
Tres fuentes clave para entender a Google
Juan estructuró su análisis en torno a tres grandes fuentes de información:
- Filtración masiva de APIs internas de Google (mayo 2023): Más de 2.500 documentos que Google reconoció como auténticos, aunque alegaron que estaban "fuera de contexto".
- Juicio antimonopolio en EE.UU.: Iniciado en 2020, pero con revelaciones clave desde 2023. Muchos documentos han sido publicados parcialmente censurados.
- Investigación de Mark Williams-Cook: SEO británico que descubrió endpoints activos en APIs de Google, recibió recompensa por reportarlo y publicó parte del contenido posteriormente.
Gracias a estos tres pilares, se ha podido reconstruir el sistema de ranking de Google con un nivel de detalle nunca antes visto.
El algoritmo, al desnudo: del clic al vector semántico
Google utiliza “señales crudas” (raw signals), que se agrupan en módulos y se transforman en señales de alto nivel, combinadas matemáticamente para generar una métrica final llamada IR Score (Information Retrieval Score), que determina el orden en la SERP.
Las señales se dividen en dos grandes categorías:
- Topicality: Relevancia frente a la intención de búsqueda.
- Quality: Calidad general del contenido, independiente de la query.
El papel de los clics (NavBoost)
Durante años Google negó usar clics como señal de ranking, pero hoy sabemos que eran fundamentales. El sistema NavBoost, activo desde 2005, recopila datos de comportamiento del usuario: clics, tiempo de permanencia, scroll, etc., todo segmentado por query, URL, dispositivo y ubicación.
Esto permite entender matices de intención según el contexto. Por ejemplo:
- “Banco Sabadell” desde móvil → Google asume que buscas una sucursal.
- Desde escritorio → Se prioriza el acceso a la banca online.
Hasta 2017, la clave del ranking era el feedback de clics, no la comprensión semántica.
La revolución del Machine Learning: del RankBrain al DeepRank
A partir de 2015-2018, Google empezó a integrar modelos de aprendizaje automático:
- RankBrain (2015): Primer modelo ML en ranking, afectaba solo a primeros resultados por su coste.
- RankEmbed (2017): Convierte páginas y búsquedas en embeddings para medir cercanía semántica.
- DeepRank (2018): Basado en BERT, centrado en comprensión semántica.
Estos modelos permiten comprender mejor queries comunes, aunque siguen fallando en búsquedas long tail. Google continúa combinando señales clásicas como BM25 con señales semánticas. Muchos pesos aún se ajustan manualmente.
Caso concreto: UAC Spam Score
El UAC Spam Score (escala de 0 a 127) detecta spam. El umbral de corte (por ejemplo, 64) se ajusta manualmente según la tasa de falsos positivos o negativos.
Calidad (Quality): mucho más que E-E-A-T
El bloque de calidad incluye señales como autoridad, confianza o experiencia, lo que Google presenta públicamente como E-E-A-T. Se mide en dos niveles:
- Page Quality
- Site Quality (cada vez con más peso)
Entre las señales destacadas en la filtración:
- Site Authority
- Title Match Score
- Chrome in Total: datos agregados del navegador
- Site Quality Standard Deviation: mide la variación de calidad entre páginas del mismo sitio
La investigación de Williams-Cook
Williams-Cook descubrió un endpoint para consultar el Site Quality por host o subdominio. Tras probar con 800.000 sitios, observó que:
- Google mide por host/subdominio, no dominio completo.
- No está correlacionado con tráfico ni métricas SEO como Domain Rating.
- Las búsquedas de marca influyen positivamente en el Site Quality.
- Google calcula embeddings para sitios enteros, reforzando la autoridad temática.
Además, clasifica los sitios por unas 25 temáticas, presentes en Search Trends y APIs de NLP.
Prominencia interna y uso de Chrome
El concepto de OnSite Prominence indica que las páginas con mayor probabilidad de recibir clics deben recibir más enlaces internos. No se trata solo de PageRank, sino de interacción esperada.
Google admitió en el juicio el uso de datos de Chrome, pese a haberlo negado anteriormente. Estos datos ayudan a construir, por ejemplo, los sitelinks.
Chrome recopila métricas como Site Engagement, poco conocidas pero accesibles para usuarios avanzados.
¿Y la IA? Gemini, Overviews y la nueva guerra
En el turno de preguntas surgieron temas clave:
- Legalidad del uso de datos de Chrome en Europa: podría obligar a separar productos.
- Entrenamiento de modelos como Gemini: Google ha usado datos reales de búsqueda, lo que les da ventaja sobre empresas como OpenAI.
Reflexión final
Juan concluyó con una advertencia: el juicio no debe centrarse solo en si Google tiene un monopolio hoy, sino en cómo evitar que lo mantenga gracias a la IA. Si entrena modelos con datos exclusivos, la competencia será imposible, aunque cambien las reglas.

Juan Gonzalez Villa — Director y fundador en USEO
¿Ha muerto ya definitivamente el SEO?
Destacado consultor SEO independiente con especialización en proyectos de ecommerce y SEO internacional.
Actualmente, ocupa la posición de director en su propia agencia, USEO. Con una experiencia de más de 9 años en el campo. Además es la mente pensante detrás de 10 link azules.
Ha realizado auditorías para cientos de sitios y colaborado con más de 120 clientes, abarcando tanto PYMES como grandes empresas.