Googles algoritmer
Googles succes skyldes primært deres avancerede algoritmer, der efter utallige beregninger og sammenligninger frembringer de søgeresultater vi får præsenteret ve en søgning.
Lige siden Googles lancering fra mange år siden, har søgemaskinen arbejdet på, at give brugerne af søgemaskinen de mest relevante søgeresultater og det er de gode til, så gode at de er blevet den primære søgemaskine vi benytter i Danmark (90%).
Hvordan virker Googles algoritme?
Som udgangspunkt ve vi kun det Google slev har valgt at afslører og det vi kan teste os frem til.
Med andre ord, algoritmerne er top hemmelige, så det ikke bliver for let at manipulerer søgeresultaterne.
Vi ved dog en hel del, da Google selv har fortalt os meget i gennem de sidste mange år.
Helt i den spæde begyndelse bestod algoritmen af en delalgoritme ved navn Pagerank og flere andre delalgoritmer uden eget navn.
Pagerank har 100% fokus på links og har i mange år været grundstammen i hele den samlede algoritme core hos Google.
Læs en grundig forklaring på Pagerank her.
Der er sket utroligt meget inden for IT udvikling bare de sidste år og det har gjort det muligt for Google, at udvikle langt mere avancerede metoder til at analyserer hjemmesider.
I dag er det muligt, at ”se” hjemmesiden som brugeren ser den og dermed meget lettere forstå hvilke elementer på en hjemmeside der er vigtigst f.eks. brødtekst.
Det giver mulighed for at beregne langt mere nuanceret og dermed opnå bedre resultater.
I takt med de nye muligheder og Googles større og større markedsandele i verden, er det blevet lukrativt at få sin hjemmeside vist på mest relevante søgninger med meget trafik fra købelystne søgere.
Derfor er der opstået en meget stor industri, der hjælper hjemmesideejere med at opnå de bedste placeringer (SEO bureauer).
SEO bureauernes opgave er at tilrette hjemmesiderne og elementerne omkring (links), så den bedst muligt lever op til Googles algoritmer- og på den måde score høje placeringer som resultat.
For at hjælpe hjemmesideejere uden indsigt i algoritmerne godt på vej, har Google lavet en guide, der meget grundigt fortæller, hvordan en hjemmeside bør opsættes, hvad den bør indeholde osv, for den teoretisk vil opnå gode placeringer – Læs hele guiden her.
Algoritme justeringer
Smarte SEO bureauer og massiv udnyttelse af de kendte områder af algoritmerne, har fået Google til justerer deres algoritmer ofte, så det er svære at gennemskue dem og dermed også svære at manipulerer søgeresultaterne.
En af de mest effektive justeringer gennem tiden, var den Google lavede slutningen af 2012, hvor de ændrede måden Google anvender links i beregningerne.
Det ændrede fuldstændigt på søgeresultaterne og hjemmesider der før lå nummer 1 på masse af gode søgeresultater faldt til nærmest ikke at kunne findes.
Det skabte vild forvirring i SEO branchen og enorme udfordringer for de hjemmesider der blev ramt.
I mange tilfælde var det faktisk lettest helt at starte forfra med et helt nyt domænenavn, frem for at forsøge at rede stumperne.
Der blev fra Googles side udmeldt, at to nye algoritmer var søsat og de fik navnene Penguin og Panda.
Penguin tog sig af links og Panda af hvad der foregik på selve hjemmesiden. Begge algoritmer er stadigvæk aktive og en del af Googles core algoritme i dag.
Læs om Penguin her -og om Panda her.
Manuel gennemgang af mennesker
En ting er at beregne alt matematisk fordi det ganske enkelt er umuligt at nå manuel gennemgang af alle hjemmesider, men derfor behøves mennesker ikke at være udelukket som en del af arbejdet med forbedringer af søgeresultaterne- og det er de nu heller ikke.
Google har ansat særligt udvalgte medarbejdere til at foretage søgninger og analyserer de resultater de finder.
Vejledningen ti de ansatte er offentlig tilgængelig og den giver rigtig god indsigt i, hvad det er Google ønsker at vise og hvad de definerer som et ”Godt søgeresultat”
Når nye algoritmer udvikles, testes resultaterne af ved at lade dem blive gennemgået af søgeanalyse teamet, så resultatet kan sammenlignes – Hvad gav bedste søgeresultat? Før eller efter justeringerne i algoritmerne.
Du kan se hvad teamet bedømmer en hjemmeside på her: Guide til kvalitetsbedømmelse
Nyeste algoritmer
Google arbejder som tidligere nævnt konstant på forbedring af søgeresultaterne og i dag er en af de store udfordringer, at de gode søgeresultater ikke altid nødvendigvis er dem, der har optimeret til de kendte algoritmer.
Mindre hjemmesider lavet af private på hobbyplan kan sagtens bidrage med viden, der er langt mere interessant end den vi kan finde på store virksomheders hjemmesider og det er meget svært at gennemskue hvad brugeren får mest værdi ud af at besøge.
Det kan f.eks. være en forsker eller opfinder, der har et lille website og som slet ikke har SEO optimeret det.
Det kan dog løses og en af måderne, er ved at se nøje på, hvad en brugers adfærd er efter et klik i søgeresultaterne.
Kommer de meget hurtigt retur og klikker på en anden hjemmeside, ja så indikerer det jo, at de ikke fandt det de søgte.
Her afprøver Google hjemmesiderne konstant for at finde de gode søgeresultater – ikke ved at lade alle se en ny ”test hjemmeside” i hver søgning, men ved at lade f.eks. ½ % se den og måle på deres adfærd.
Nævnes hjemmesiden eller ejeren af hjemmesiden i bestemte sammenhæng på internettet, er det også et signal (ekspertise) der kan anvendes osv. Der er mange muligheder og der er ingen tvivl om, at Google anvender langt flere af dem, end vi forestiller os.