SEOQuantum Open Nav

¿Deberíamos temer a Google BERT?

Par
le Viernes 07 Febrero 2020 - Mise à jour Sábado 02 Marzo 2024
Temps de lecture : 7 minutes

La última actualización de Google ha sumido a los expertos en SEO en la confusión. Google BERT es una versión mejorada del algoritmo Google Rankbrain. Google considera esta actualización como "uno de los mayores avances en la historia de los motores de búsqueda". Pero desde mi punto de vista, el impacto del algoritmo sería en realidad mínimo.

¿Qué pensar entonces?

¿Qué es BERT?

El algoritmo BERT es una red neuronal Open Source que permite el procesamiento automático del lenguaje natural. El acrónimo significa "Bidirectional Encoder Representations from Transformers" y fue introducido por Google el año pasado.

BERT es una tecnología que permite la integración de palabras y su desambiguación gracias al embedding de palabras (word embedding). Esta es su principal cualidad, pero lamentablemente también es su mayor defecto, ya que esta técnica requiere una gran capacidad de cálculo y su uso a gran escala es por lo tanto bastante costoso.

Word2vec y otros modelos permiten precalcular los vectores de palabras para cada frase y almacenarlos en una base de datos, para poder extraerlos más tarde. Este no es el caso de BERT, con el que es necesario recalcular sistemáticamente los vectores.

¿Cuál es la diferencia entre el word embedding (word2vec) y BERT?

Aquí tienes un ejemplo:

  1. Frase 1: El abogado se reúne varias veces con su cliente antes del juicio.
  2. Frase 2: Para elegir bien un aguacate: presta atención al color y al aspecto.

Si quiero que el algoritmo entienda el significado de la palabra "ABOGADO" que designa tanto una profesión como una fruta, con el word embedding, basta con extraer EL vector precalculado de la base de datos. Con este enfoque, existe un solo vector para la misma palabra.

Por el contrario, BERT es una tecnología que crea vectores "contextualizados", por lo que tendré que analizar las dos frases en la red BERT. BERT generará dos vectores muy diferentes para la palabra "abogado" que aparece en dos contextos muy distintos. Hablamos entonces de desambiguación léxica.

Gracias a su capacidad de desambiguación, BERT está a la vanguardia del progreso en muchas tareas de comprensión del lenguaje natural. Sin embargo, esta habilidad también lo hace exigente en cálculos y por lo tanto difícil de explotar. Es por eso que este tipo de algoritmo es poderoso en el análisis de preguntas o la reescritura de contenidos. Sin embargo, tiene sus limitaciones.

Sus necesidades de cálculo hacen que su aplicación en las consultas de búsqueda sea limitada, al menos por ahora. No hay duda de que habrá mejoras en un futuro cercano y que las necesidades de procesamiento eventualmente se reducirán.

¿Cómo ayuda BERT a los internautas?

La actualización de Google BERT permite a los internautas obtener mejores resultados a partir de consultas conversacionales largas (Google siempre está orientado hacia la optimización de la búsqueda por voz). Hoy en día, ya no es necesario utilizar una secuencia de palabras clave sin estructura para hacerse entender por Google.

Si la actualización de Google BERT afecta directamente a los internautas, es más complicado en lo que respecta a los especialistas en contenido. Google ha mejorado su comprensión del contexto, pero eso no significa que debas empezar a redactar miles de páginas dirigidas a la cola larga.

Esta actualización más bien incita a seguir escribiendo un contenido bien organizado, rico y completo.

¿Cuáles son los efectos de BERT en el SEO?

El impacto de esta actualización no es unánime. Google afirma que es el "mayor salto adelante de los últimos cinco años" con el 10% de los resultados de búsqueda afectados por el cambio.

Los consultores y expertos en SEO, por su parte, estiman que el impacto será mínimo. No predicen cambios significativos porque no controlan las consultas conversacionales de cola larga. La mayoría de las veces, supervisan frases más cortas y términos principales que no se ven afectados por la capacidad de procesamiento del lenguaje natural de BERT.

BERT se considera una actualización importante y por lo tanto no es sorprendente que su llegada venga acompañada de una gran cantidad de información errónea. Desafortunadamente, ya he leído comunicados de expertos en SEO que pretenden ser especialistas en la optimización de BERT. Seguir los consejos de estos expertos mal informados resulta en una pérdida de tiempo y dinero gastado en la persecución de una estrategia poco sabia que se basa en tácticas erróneas.

¿Es posible optimizar para BERT?

Seamos claros, BERT no es un criterio de clasificación. Y no es posible optimizar una página para un factor que no existe. BERT ayuda en la comprensión de las consultas de los internautas que utilizan la cola larga y, por lo tanto, mejora la relevancia de los resultados.

Los modelos BERT se aplican tanto a los resultados de búsqueda orgánicos como a los fragmentos destacados. Si bien es posible optimizar el contenido para este tipo de consultas, no puedes "optimizar para BERT".

En SEOQUANTUM, tenemos en cuenta a BERT, pero no optimizamos para BERT.

Te aconsejamos que te centres más en las expresiones de cola larga y en la intención de búsqueda del internauta.

BERT no es la única razón para favorecer las palabras clave de cola larga. Una página completa y rica siempre aparecerá al menos en cientos de búsquedas. Mira esto:

Este artículo sobre el procesamiento automático del lenguaje natural está referenciado en más de 100 palabras clave. El uso creciente de términos de búsqueda de cola larga como: "procesamiento del lenguaje natural con aprendizaje automático", "NPL significa procesamiento del lenguaje natural" y muchos otros podría mejorar su clasificación.

Ahora, supongamos que has decidido crear nuevos contenidos, en lugar de optimizar la página actual.

¿Qué expresión de cola larga apuntarías?

Hay muchas expresiones que podrían añadirse para formar frases que "agradarán" a BERT:

  • El mejor
  • ¿Qué es un buen
  • Cómo encontrar
  • Para principiantes
  • Para novatos

Mi predicción sobre Google BERT

Google BERT afectará al 20% de las búsquedas en un plazo de un año, el doble de su porcentaje actual.

Los internautas a menudo utilizan una secuencia de palabras clave porque piensan que Google entiende mejor este tipo de consulta. Sin embargo, esto no corresponde realmente a la forma en que harían una pregunta de forma natural. De hecho, no es natural.

A medida que más y más internautas descubran la capacidad de Google para entender consultas complejas, su forma de usar el motor de búsqueda cambiará. De hecho, pasarán de usar una secuencia de palabras clave a frases más largas. Es simplemente la naturaleza humana.

Resumen

Los algoritmos de búsqueda de Google son cada vez más sofisticados, por lo que es cada vez más difícil "engañar" al motor de búsqueda recurriendo a técnicas poco recomendables.

La capacidad de utilizar el contenido para elaborar una narrativa es lo que separará a los expertos en marketing de contenido de los aficionados. Cada actualización de Google ofrece más razones para crear un mejor contenido.

Una herramienta de análisis semántico como SEOQUANTUM puede ayudar a tu empresa a producir contenidos de calidad y te permite aumentar tu autoridad rápidamente.

Más recursos sobre BERT:
https://www.webrankinfo.com/dossiers/google-search/bert
https://www.blog.google/products/search/search-language-understanding-bert/
https://towardsdatascience.com/bert-explained-state-of-the-art-language-model-for-nlp-f8b21a9b6270

Need to go further?

If you need to delve deeper into the topic, the editorial team recommends the following 5 contents:

Promedio: 4 (3 votos)

Alors, prêts à booster votre référencement naturel ?

Testez notre version d'essai

Essayer pendant 7 jours
SEOQuantum