BERT är den största förändringen sedan RankBrain

Google BERT påverkar algoritmerna i allra högsta grad så det är värt att ha koll på vad BERT innebär.

BERT bygger på Natural Language Processing (NLP) och BERT står för Bidirectional Encoder Representations from Transformers. Tekniken gör det möjligt för Google att förstå hur användare söker på Google på ett mänskligt sätt. 

Google BERT påverkar 1 av 10 sökningar, vilket är den största förändringen sedan Google lanserade RankBrain för fem år sedan.

Till en början rullar Google ut BERT på alla engelsktalande sökningar och kommer att utvidga till fler språk löpande.

BERT kommer även att påverka Snippets för alla språk eller featured Snippets.

Med BERT kommer Google att enklare förstå kontexten i sökningen oavsett om den är avig. Nyanser, udda ordval och annat ska fångas upp av BERT och göra Googles algoritmer smartare.

BERT models can therefore consider the full context of a word by looking at the words that come before and after it—particularly useful for understanding the intent behind search queries, skriver Google på sin blogg.

Kan du optimera för BERT?

Det är inte troligt att du kan optimera specifikt för BERT. Det enda du kan göra är att skapa innehåll till dina egna användare på ett naturligt sätt. Desto mer användarvänligt ditt innehåll är desto högre kommer du att ranka på Google.

Här kan du läsa mer.