Googles algoritmer och uppdateringar

SEO idag skiljer sig från hur man jobbade med kanalen för ca 10 år sedan. Det finns en anledning till det: Google har kontinuerligt förbättrat sin algoritm så att användare ska få upp bättre och mer relevanta sökresultat baserat på deras intention. Under de senaste tio åren har Google, som är den ledande sökmotorn, genomfört flera större uppdateringar där var och en av dem har en direkt inverkan på hur man bäst tillämpar SEO. Här följer ett urval av Googles hittills viktigaste algoritmuppdateringar och de effekter de har haft på sökresultatet.

2022 — Helpful Content Update

Helpful content update är en ny uppdatering som släpptes i augusti 2022 vilket kan vara den största uppdateringen på 10 år. Google vill förbättra kvalitén på sökresultatet genom att få bort innehåll som enbart har som syfte att ranka på google och inte ger något värde till besökarna.

2021 — MUM (Multitask United Model)

Google MUM Update kommer förmodligen innebära en hel del förändringar för sökningar. MUM är en förkortning för "Multitask United Model", något som ger en fingervisning om vad den nya algoritmen kan göra: den kan behandla flera uppgifter samtidigt.

Den kan läsa, förstå och lära sig över 75 språk med hjälp av en mängd olika källor, bland annat video och ljud. Tanken är att MUM ska kombinera information från många olika källor för att ge svar på flera nivåer för komplexa sökfrågor.

2021 - Page Experience Update

Uppdateringen Page Experience, eller sidupplevelse, som infördes successivt under 2021, innebär en ny signal för ranking som bygger på mätvärden som mäter användarupplevelsen när det gäller hur snabbt en sida laddar, hur interaktiv den är och hur den ser ut rent visuellt. Redan befintliga indikatorer för hur en sida upplevs kombineras med Core Web Vitals som mäter de viktigaste faktorerna i fråga om användarupplevelsen.

Rent allmänt innebär uppdateringen Page Experience att Google tar hänsyn till den helhetsupplevelse som besökarna får på en sida. Google menar dock att denna sidupplevelse inte är lika viktig som att ha ett ”fantastiskt och relevant innehåll”.

Google har lagt till särskilda verktyg i Search Console för att ge överblick över webbplatsens viktigaste värden.

2019 – BERT

Googles BERT-uppdatering presenterades som den största förändringen under de senaste fem åren som skulle påverka en av tio sökningar. BERT är en algoritm för maskininlärning, en teknik för bearbetning av naturliga språk (NLP – Natural Languge Processing). Namnet BERT är en förkortning för Bidirectional Encoder Representations from Transformers.

BERT kan lista ut hela sammanhanget för ett ord genom att titta på orden som kommer före och efter. Den använder sig alltså av sammanhanget och sambandet som finns mellan alla orden i en mening istället för att titta på orden var för sig. Detta innebär en rejäl förbättring när det gäller förståelsen av sökfrågor och vad användarna vill med dem.

2018 – Medic

Med Googles Medic-uppdatering ville google göra det lättare att hitta kompetens och expertis på nätet. Man såg nu helt enkelt till att placera E-A-T innehåll högt upp i sökresultaten.

E-A-T står för Expertis, Auktoritet och Tillförlitlighet. E-A-T används av Google för att bedöma den övergripande kvaliteten på en sida och principen bygger på Googles riktlinjer för Search Quality Rater och blev vida känd efter uppdateringen i augusti 2018.

2018 – Hastighetsuppdatering (Mobil)

Google insåg att användare ville ha snabb information och införde den här uppdateringen för att gynna sidor som laddade snabbt i mobila enheter. Detta hade man redan infört för stationära sökningar. Uppdateringen berörde främst de sidor som var långsamma i mobilversionen.

Googles algoritmer har blivit mer och mer sofistikerade och bättre på att tolka användarens intention. Med hjälp av data och analys av användarens beteende kan Google idag skilja på om din intention är att leta efter information eller köpa någonting.

2016 – Possum

I september 2016 var det dags för ännu en lokal uppdatering. Googles algoritmuppdatering Possum införde flera förändringar till Googles filter för lokal rankning för att ytterligare förbättra resultatet för de lokala sökningarna. Med Possum blev resultaten mer varierande och berodde mer på användarens fysiska plats och frågans formulering. Vissa företag som vanligtvis inte rankade så bra i sökresultatet fick lättare att hamna högre upp för lokala sökningar efter den här uppdateringen.

2015 – Mobiluppdatering

SEO-branschen kallade den här Google-uppdateringen för "Mobilegeddon" eftersom de trodde att den helt skulle vända upp och ner på sökresultaten. 2015 gjordes över hälften av alla Google-sökningar på mobila enheter, och det var troligtvis detta som ledde till uppdateringen.

Med mobiluppdateringen fick mobilvänliga sidor bättre placering i sökresultaten i mobilsökningar. Trots sitt dramatiska smeknamn skapade den aldrig något kaos bland sökresultaten. Men den var ändå en viktig uppdatering som banade väg för den alltmer omfattande användningen av mobiltelefoner.

2015 - RankBrain

RankBrain är en toppmodern Google-algoritm som tillämpar maskininlärning för att hantera sökfrågor. Den kan göra gissningar kring ord som den inte känner till för att hitta ord med liknande innebörd och sedan komma upp med relevanta resultat. RankBrain-algoritmen analyserar tidigare sökningar och bygger sina resultat på dessa för att i det långa loppet kunna leverera allt bättre sökresultat.

Den här uppdateringen var ytterligare ett stort steg för Google att bättre kunna tyda intentionen bakom en sökning och tillhandahålla de bästa resultaten. I mars 2016 avslöjade Google att RankBrain var en av de tre viktigaste faktorerna för rankning.

Till skillnad från andra rankingfaktorer kan man inte riktigt optimera för RankBrain. Det man kan påverka dock är säkerställa att innehållet på webbplatsen är av hög kvalitet på sin sida. Uppdateringen har haft stor inverkan på resultatsidorna.

2014 – HTTPS/SSL

För att betona hur viktigt det är med säkerhet bestämde sig Google för att ge högre värdering till sidor som tillämpar HTTPS på rätt sätt för att göra förbindelsen mellan hemsidan och användaren säker. Samtidigt menade man att HTTPS kunde ses som ett tecken på att en sida var säker. Google hade dock redan antytt att kryptering kunde bli viktigare när en hemsida väl hade införlivat det. Idag är sidor med en osäker anslutning inte bara nedpriotirerade utan helt uteslutna ur Googles sökresultat.

2014 – Pigeon

En annan Google-uppdatering som hämtat namn från en fågel kom 2014, nämligen Google Pigeon, som handlade om lokal SEO. Pigeon-uppdateringen påverkade både resultatsidor och Google Maps. Man ville få lokala resultat att bli mer relevanta och av bättre kvalitet vilket ledde till mer precisa platsanvisningar och prioriterade resultat som låg närmare användarens plats.

2013 – Hummingbird

Hummingbird lägger mer vikt vid varje enskilt ord i en sökning och tar hänsyn till hela sökfrasen snarare än bara ett par av orden. Detta görs för att den lättare ska förstå vad varje användare har för intention med sin sökning och på så sätt kan Google besvara frågan direkt snarare än att bara rada upp sökresultat.

Vad Hummingbird fick för effekt var först lite oklart eftersom den här uppdateringen inte bestraffade dåliga metoder direkt. Kort och gott kan man säga att den rent allmänt ansåg att texter på en webbplats skulle vara lättlästa, skrivna med naturligt språk och inte skulle upprepa ett fåtal likadana ord hela tiden (keyword stuffing) utan istället använda sig av synonymer.

Med Hummingbird-uppdateringen lade Google grunden för röstsökning som blev viktigare i takt med att allt fler enheter (Google Home, Alexa) använde sig av det.

Så här ser Googles variationer i sökresultatet ut när de släpper en uppdatering. Källa: Cognitive SEO

2012 – Pirate

Pirate-uppdateringen var ett försök att få bukt med illegal spridning av upphovsrättsskyddat innehåll. Den ansåg för första gången att (flera) DMCA-anmälningar (Digital Millennium Copyright Act) om plagierat innehåll skulle ses som en negativ faktor för ranking. Den syftade alltså till att nedvärdera kopierat inehåll som någon helt enkelt tagit från en annan sida utan källhänvisning. Pirate algoritmen är en högst aktiv algoritm som Google fortsatt använder sig av.

2012 – Penguin

Googles Penguin-uppdatering tog hänsyn till de länkar som hemsidor fick från andra sidor. Algoritmen undersökte om externa länkar till sidan var äkta eller om de hade köpts för att lura sökmotorerna. Tidigare var det många som betalade för länkar, via så kallade länkfarmar, för att komma högre upp i sökresultaten. Googles Penguin-uppdatering försökte hindra människor från att köpa, byta länkar och skapa länkar på konstgjord väg.

De sidor som hade "falska" länkar blev sämre värderade och hamnade alltså längre ner i sökresultaten. Penguin-uppdateringen kördes flera gånger innan den 2016 lades till i Googles primära algoritm. Som väntat var det främst hemsidor med konstgjorda länkar som drabbades hårt av den här uppdateringen. Dessa sidor försvann från sökresultaten eftersom länkar av låg kvalitet plötsligt fick negativ effekt på rankingen. Penguin förändrade för alltid hur länkbyggandet ser ut. Det hjälper inte längre att ha dåliga, betalda tillbakalänkar. Istället måste du arbeta på att skaffa relevanta länkar med relevant innehåll från högt värderade sidor.

2012 – Venice

Googles algoritmuppdatering Venice var en lite speciell uppdatering då Google här tog hänsyn till att människor ofta vill ha lokala sökresultat. Efter Venice kunde man därmed få sökresultat baserat på var man befann sig eller utifrån IP-adressen.

2011 – Panda

Google fanns givetvis långt före 2011, men vi börjar med Panda eftersom det var den första större uppdateringen i "modern SEO-tid". Googles Panda försökte komma tillrätta med sidor som enbart hade skapats för att ranka i sökmotorerna. Den riktade främst in sig på sådant som fanns på sidorna.

Det vill säga, den tog reda på om en sida verkligen gav information kring de sökord som besökarna hade använt sig av. Det var särskilt två sorts sidor som drabbades av Panda-uppdateringen:

  • Sidor inom Affiliate
  • Sidor med tunt innehåll

Google förnyade regelbundet Panda-algoritmen efter första utgåvan och de tog med den i sin primära algoritm 2016. Panda-uppdateringen har haft en permanent inverkan på hur vi tillämpar SEO, eftersom det inte längre gick att komma undan med att bygga hemsidor med dålig kvalitet.

Sidor som hade "falska" länkar blev sämre värderade av Penguin och hamnade längre ner i sökresultaten

Varför det är viktigt med uppdateringar?

När Google gör en uppdatering innebär det att en webbplats kan prestera bra eller dåligt i sökresultatet. Genom att hålla sig uppdaterad på Googles algoritmuppdateringar kan man anpassa sig till algoritmen och bli mer medveten om vilka förändringar som sker. Varje gång Google släpper en ny viktig uppdatering bör man ta sig en titt på hur ranking samt trafiken till webbplatsen förändras.

Hur många gånger uppdaterar Google sin sökalgoritm?

Antalet sökningar på Google förändras hela tiden. Under 2020 gjorde Google 4 500 förändringar när det gäller sökningar. Den siffran innefattar förändringar av rankingssystemet, användargränssnittet med mera. Dessutom utförde Google mer än 600 000 experiment. Det innebär att Googles sökresultat förändras ungefär 12 gånger per dag. Google har historiskt sett inte alltid varit transparenta med vilka uppdateringar som sker och vad de innebär. På senare år aviserar dock Google när det kommer stora, omfattande uppdateringar som kallas ”Google Core Updates”.

Förväntningar på Googles algoritmuppdateringar

Google har blivit alltmer avancerade sedan början av 2010-talet. Deras första stora uppdateringar under årtiondet handlade om att komma tillrätta med oseriösa resultat och sidor som försökte lura systemet. Med tiden började uppdateringarna alltmer inrikta sig på sökresultat som ger bättre resultat för stationära, mobila och lokala sökningar och ge exakt vad användarna söker efter.

Algoritmen var helt klart avancerad redan från början, men med alla tillägg som gjorts genom åren är algoritmen numera av absolut toppklass. Med den nuvarande inriktningen på syfte är det troligt att Google kommer fortsätta rikta in sin algoritm på att förbättra tolkningen av sökfrågor och anpassa resultatet i enlighet med det.

Oavsett vilka nya algoritmuppdateringar som väntar i framtiden kommer det alltid vara fokus på att tillhandahålla det bästa resultatet och se till att ha en UX-vänlig och fantastiskt bra hemsida.

9 tips för att lyckas med din SEO-optimering

Vid SEO optimering tar du hänsyn till Googles algoritmer när du arbetar med din webbplats, för att kunna synas på Google i det organiska sökresultatet. Vi listar 9 av de viktigaste bitarna att tänka på när du ska komma igång, samt fördelarna med en SEO optimerad webbplats!

Läs mer

Utforska alla artiklar

Se alla

artiklar

SEO och kundens köpresa

Läs mer

artiklar

Användarvänlig struktur på en webbplats

Läs mer

artiklar

Vad är E-A-T?

Läs mer

Kontakta oss

Har du en fråga eller vill höra om hur vi kan hjälpa er med er digitala marknadsföring?

info@beet.se