Googles algoritmer

Pagerank algoritmeGoogles succes skyldes primært deres avancerede algoritmer, der efter utallige beregninger og sammenligninger frembringer de søgeresultater vi får præsenteret ve en søgning.

Lige siden Googles lancering fra mange år siden, har søgemaskinen arbejdet på, at give brugerne af søgemaskinen de mest relevante søgeresultater og det er de gode til, så gode at de er blevet den primære søgemaskine vi benytter i Danmark (90%).

Hvordan virker Googles algoritme?

Som udgangspunkt ve vi kun det Google slev har valgt at afslører og det vi kan teste os frem til.
Med andre ord, algoritmerne er top hemmelige, så det ikke bliver for let at manipulerer søgeresultaterne.

Vi ved dog en hel del, da Google selv har fortalt os meget i gennem de sidste mange år.

Helt i den spæde begyndelse bestod algoritmen af en delalgoritme ved navn Pagerank og flere andre delalgoritmer uden eget navn.

Pagerank har 100% fokus på links og har i mange år været grundstammen i hele den samlede algoritme core hos Google.

Læs en grundig forklaring på Pagerank her.

Der er sket utroligt meget inden for IT udvikling bare de sidste år og det har gjort det muligt for Google, at udvikle langt mere avancerede metoder til at analyserer hjemmesider.

I dag er det muligt, at ”se” hjemmesiden som brugeren ser den og dermed meget lettere forstå hvilke elementer på en hjemmeside der er vigtigst f.eks. brødtekst.

Det giver mulighed for at beregne langt mere nuanceret og dermed opnå bedre resultater.

I takt med de nye muligheder og Googles større og større markedsandele i verden, er det blevet lukrativt at få sin hjemmeside vist på mest relevante søgninger med meget trafik fra købelystne søgere.
Derfor er der opstået en meget stor industri, der hjælper hjemmesideejere med at opnå de bedste placeringer (SEO bureauer).

SEO bureauernes opgave er at tilrette hjemmesiderne og elementerne omkring (links), så den bedst muligt lever op til Googles algoritmer- og på den måde score høje placeringer som resultat.

For at hjælpe hjemmesideejere uden indsigt i algoritmerne godt på vej, har Google lavet en guide, der meget grundigt fortæller, hvordan en hjemmeside bør opsættes, hvad den bør indeholde osv, for den teoretisk vil opnå gode placeringer – Læs hele guiden her.

Algoritme justeringer

Google panda og Penguin algoritmeSmarte SEO bureauer og massiv udnyttelse af de kendte områder af algoritmerne, har fået Google til justerer deres algoritmer ofte, så det er svære at gennemskue dem og dermed også svære at manipulerer søgeresultaterne.

En af de mest effektive justeringer gennem tiden, var den Google lavede slutningen af 2012, hvor de ændrede måden Google anvender links i beregningerne.

Det ændrede fuldstændigt på søgeresultaterne og hjemmesider der før lå nummer 1 på masse af gode søgeresultater faldt til nærmest ikke at kunne findes.

Det skabte vild forvirring i SEO branchen og enorme udfordringer for de hjemmesider der blev ramt.

I mange tilfælde var det faktisk lettest helt at starte forfra med et helt nyt domænenavn, frem for at forsøge at rede stumperne.

Der blev fra Googles side udmeldt, at to nye algoritmer var søsat og de fik navnene Penguin og Panda.

Penguin tog sig af links og Panda af hvad der foregik på selve hjemmesiden. Begge algoritmer er stadigvæk aktive og en del af Googles core algoritme i dag.

Læs om Penguin her -og om Panda her.

Manuel gennemgang af mennesker

En ting er at beregne alt matematisk fordi det ganske enkelt er umuligt at nå manuel gennemgang af alle hjemmesider, men derfor behøves mennesker ikke at være udelukket som en del af arbejdet med forbedringer af søgeresultaterne- og det er de nu heller ikke.

Google har ansat særligt udvalgte medarbejdere til at foretage søgninger og analyserer de resultater de finder.
Vejledningen ti de ansatte er offentlig tilgængelig og den giver rigtig god indsigt i, hvad det er Google ønsker at vise og hvad de definerer som et ”Godt søgeresultat”

Når nye algoritmer udvikles, testes resultaterne af ved at lade dem blive gennemgået af søgeanalyse teamet, så resultatet kan sammenlignes – Hvad gav bedste søgeresultat? Før eller efter justeringerne i algoritmerne.

Du kan se hvad teamet bedømmer en hjemmeside på her: Guide til kvalitetsbedømmelse

Nyeste algoritmer

Google arbejder som tidligere nævnt konstant på forbedring af søgeresultaterne og i dag er en af de store udfordringer, at de gode søgeresultater ikke altid nødvendigvis er dem, der har optimeret til de kendte algoritmer.

Mindre hjemmesider lavet af private på hobbyplan kan sagtens bidrage med viden, der er langt mere interessant end den vi kan finde på store virksomheders hjemmesider og det er meget svært at gennemskue hvad brugeren får mest værdi ud af at besøge.

Det kan f.eks. være en forsker eller opfinder, der har et lille website og som slet ikke har SEO optimeret det.

Det kan dog løses og en af måderne, er ved at se nøje på, hvad en brugers adfærd er efter et klik i søgeresultaterne.
Kommer de meget hurtigt retur og klikker på en anden hjemmeside, ja så indikerer det jo, at de ikke fandt det de søgte.

Her afprøver Google hjemmesiderne konstant for at finde de gode søgeresultater – ikke ved at lade alle se en ny ”test hjemmeside” i hver søgning, men ved at lade f.eks. ½ % se den og måle på deres adfærd.

Nævnes hjemmesiden eller ejeren af hjemmesiden i bestemte sammenhæng på internettet, er det også et signal (ekspertise) der kan anvendes osv. Der er mange muligheder og der er ingen tvivl om, at Google anvender langt flere af dem, end vi forestiller os.

Googles vigtigste algoritme opdateringer siden år 2003

  • 2003: Boston, Cassandra, Dominic, Esmerelda, Fritz

    Boston: Opdatering der gjorde backlink analyse mere dybdegående
    Cassandra: Action mod skjult tekst, dårlige links, skjulte links – Sites blev straffet og taget helt ud af index for første gang
    Dominic: Action mod manipulerende linkteknikker
    Esmerelda: Mere linkjustering
    Fritz: Ændring af opdateringshastigheden fra månedlig til dagligt opdatering af indekset.

  • 2004: Brandy, Austin

    Brandy: Udvidelse af indekset, fokus på anchor tekster og LSI forståelse implementeret
    Austin: Algoritme, der fokuserede på at straffe sites der anvendte unaturlig metoder til at manipulerer søgeresultaterne

  • 2005: Allegra,Bourbon, Gilligan, Jagger

    Allegra: LSI algoritme opdateret
    Bourbon: Ændring af hvordan redirects, dublicate content og “ikke-canonical-urls” behandles
    Jagger: Fokus på fjernelse af lavkvalitets links værdi og værdi fra linkfarms
    Big-daddy:  5 måneders udrulning af større opdatering. Her vær der ændringer i Googles behandling af url canonisering, redirects etc

    Samme år kom:

    Nofollow blev introduceret som tag
    Google xml sitemap upload mulighed i GSC
    Personificeret søgning

  • 2007: Buffy

    Byffy: en samlet opdatering af flere elementer, der fik indflydelse på søgning på enkelte ords søgninger

    Dette år indførste Google ligeledes:

    Universal search, hvilket betød en sammenlægning af flere forskellige indekser, så ledes det blev muligt at søge i alt lige fra  videoer, nyheder,bøger etc. fra samme søgefelt.

  • 2008: Dewey

    Dewey: Trods opdateringen fik et navn, er der ikke sm sådan enighed om, hvad den egentlig justerede

    Samme år indførte Google:

    Suggeest, nu kom der forslag til søgninger frem, mens man tastede søgningen i søgefeltet på Google.

  • 2009: Vince, Caffeine

    Vince: Ændring i behandling af troværdighedssignaler, autoritet og rygte.
    Caffeiene: Google giver brugerne en mulighed for at se deres næste generation af søgeresultater -og mulighed for at indsende feedback

  • 2010: Monday, Caffeiene,

    Monday: Justering i kvaliteten på long tail søgeresultater
    Caffeiene: Nyt indeks, der giver 50% mere frisk indhold i søgeresultaterne og samler den største samling af webindhold i verden.

    Samme år indførte Google også:

    Google Places: En hjælp til lokale virksomheder, der fik mulighed for at blive vist oftere i lokale søgninger med en profil
    Google Instant: Søgeforslag kommer nu frem når du indtaster i søgefeltet- på hele sætninger.

  • 2011: PANDA

    Panda: Der var omkring 10 opdateringer af en ny panda algoritme i løbet af 2011 og en enkelt opdatering omkring friskhed af nyheder.

    Panda begyndte med kun at se på linkfarms og websites at meget lav kvalitet, men er løbende blevet opdateret til at omfatte mange andre områder f.eks.:

    Scrapet content
    Content kvalitetsevaluering
    Parkerede domæner

    og meget meget mere

  • 2012: PANDA og PENGUIN

    Panda: Fortsat masser af opdateringer
    Penguin: Introduktion af Penguin bl. a. action mod søgeordsspam, linksamarbejder og andre blackhat teknikker
    Top-heavy: Sider med for meget reklame “over the fold” blev straffet.

  • 2013: Phantom, Payday Loan, Hummingbird, Penguin, Panda

    Året hvor Google begynder at opdaterer mere uden at opfølge med forklaringer

    Panda: Fortsat masser af opdateringer
    Penguin: Fortsat masser af opdateringer
    Phantom: Uklare meninger om hvad opdateringen egentlig medførte, men den var der
    Payday Loan: Porno og lånesider bliver evalueret anderledes.
    Hummingbird: En algortime der forsøger at skabe beder personlige søgeresultater pba dine tidligere søgninger og adfærd onlien.

  • 2014: Top Heavy, Payday2, Penguin3, Panda 4,3

    Top-Heavy: Googles page layout algoritme opdateret
    Payday loan: Justering af søgeresultater mht. “meget spamy søgninger”
    Penguin 3: Mest ventet pga mange mente der ville blive ophævet straffe fra tidligere penguin rool-outs
    Panda 4.3: opdatering

    Samme år:

    Forbedret lokale søgninger
    Rankingboost til Https
    Fjernelse af Google author

  • 2015: Mobile-friendly, Core quality update, Hacked sites, Rrankbrain,

    Mobile-friendly: Ny algoritme booster mobilvenlige sites i Googles søgeindex for mobile enheder.
    Core opdatering: Meget modvilligt indrømmede Google efter flere måneder, at de havde lave en opdatering mht kvalitetssignaler.
    Hacket sites Ny algortime med formål, at fjerne hackede sites hurtigt fra indekset
    Rankbrain: Algoritme der analyserer Googlesøgninger og forbedrer visningen af relaterede søgninger etc. Rankbrain

  • 2016: Core opdatering, Possum

    Core opdatering: Panda bliver en del af Googles algoritme core og dermed realtime
    Søgeresultater: AdWords fjernes fra højre sidebar.
    Mobil reklame straf: Sites med fuldskærm pop-up eller pop-over på mobilbesøg straffes.
    Possum: Justering af dobbeltgængere i lokale søgeresultater
    Penguin 4: Nu en del af core algoritmen og dermed realtime- og straffer ikke længere et helt site men hver side enkeltvis.

  • 2017: Mobile penalty, Fred

    Mobile penalty: Sites med fuld – eller delskærms pop-ups på mobiler rankes nu lavere i Googles mobilindex.
    Fred: For mange reklamer på en url, menes at blive ramt af fred.

  • 2023 Helpfull content

    Google melder ud i sidste halvår af 2023, at deres onpage algoritme fremover vil give “helpfull content” en højere signalværdi og dermed indirekte bedre ranking.

    Der er intet om, hvordan de måler og hvad de mener er “Helpfull content” men deres retningslinjer til den manuelle gennemgang af deres søgeteam tilrettes,s å vi her kan læse, hvad helpfull content teoretisk bør bære for at opnå signalværdien.

    Læs mere om helpfull content hos Google her