Som et resultat av teknologiske fremskritt er det blitt mulig å utføre nødvendige operasjoner uten å forlate hjemmet. Nå kan du til og med jobbe gjennom nettet, og mange har lenge følt seg bra på dette feltet. Den vanligste måten å tjene penger på internett er å lage din egen nettside eller blogg. Takket være annonsen som er plassert på ressursen, kan eieren tjene godt. Riktignok fungerer denne ordningen bare når nettstedet eller bloggen er på de første sidene av søket. Enkelt sagt avhenger inntektsnivået til eieren av antall besøkende til ressursen.
Og det første du trenger å vite når du begynner på slike aktiviteter er hvordan søkealgoritmer fungerer, spesielt algoritmene til Yandex, den største søkemotoren på Runet.
Hva er søkealgoritmer?
Søkealgoritmer, også kjent som Yandex-algoritmer, er en slags matematisk formel der brukerens søk er ukjent. Søkeroboten løser denne formelen: erstatter ulike verdier med det ukjente og velger den mest passende.
Hvis vi forenkler definisjonen, kan vi uttrykke den som følger: en søkealgoritme eret spesialprogram som tar et "problem", i vårt tilfelle, et søk, og gir det en "løsning", det vil si at det viser en liste over nettsteder med informasjonen brukeren trenger.
Ved å løse "problemet" ser algoritmen gjennom alle søkeordene på sidene, sorterer mottatte data og genererer søkeresultatene som brukeren trenger. Takket være søkealgoritmen kan roboter analysere innholdet i hver ressurs. Basert på informasjonen som mottas, bestemmes plasseringen av nettstedet i søkeresultatene.
Hva påvirker søkealgoritmen?
Som du kan se, er søkeresultatene for det samme søket i forskjellige søkemotorer forskjellige. Så Yandex-algoritmen er vesentlig forskjellig fra Google. For eksempel, for renheten til eksperimentet, vil vi åpne to faner: en søkemotor fra Yandex, den andre fra Google. Hvis du skriver inn søket "hvordan gå til Japan for permanent opphold" i søkefeltet, kan du se at det første nettstedet i Yandex-søkeresultatene er på andreplass i Googles søkeresultater.
Søkemotoralgoritmer er underlagt strengt hemmelighold, de analyserer de samme nettstedsparametrene, men ingen vet hvilke de tar mer hensyn til og hvilke de tar mindre hensyn til. Selv SEO-er stiller dette spørsmålet.
Parametere som algoritmer fungerer med
Som allerede nevnt, styres Yandex sine søkealgoritmer av visse parametere. Generelt kan de deles inn i to grupper. Noen parametere er ansvarlige for det semantiske innholdet i ressursen, de kan være betingetkall det "tekst". Andre karakteriserer de tekniske egenskapene (design, plugins, etc.). Det er betinget mulig å utpeke dem som "ingeniørfunksjonelle". For klarhetens skyld er det verdt å dele alle parameterne inn i grupper og plassere dem i en tabell.
"Tekst" | "Engineering og funksjonell" |
Ressursspråk | Nettstedets alder, domenenavn, plassering. |
Populariteten til emnet og mengden tekst på hver side. | Antall sider og deres "vekt" |
Forholdet mellom søkeord og total tekst. | Tilgjengelighet av stilløsning |
Tall anbud og innholdsunikthetsnivå | Antall søk etter et bestemt søkeord og frekvensen av informasjonsoppdateringer. |
Skriftstørrelse og -type | Tilstedeværelse av multimediefiler, rammer, flash-moduler og metakoder |
Antall lenker i tekst | Stil for overskrifter, underoverskrifter og COP |
Søkeord samsvarer med katalogdelen der nettstedet er registrert. | Kommentarer i kode, sidetype, duplikater |
Rangering
Disse parameterne spiller en nøkkelrolle i rangeringsalgoritmer. Rangeringsalgoritmen er en måte å finne ut verdien av hver side. Enkelt sagt, hvisnettstedet har god ytelse i alle disse parameterne, da blir det høyere i søkeresultatene.
Yandex sine rangeringsalgoritmer endres nesten hvert år. De viktigste er oppk alt etter byer. Navnet på det nye søkekonseptet begynner med den siste bokstaven i navnet på den forrige algoritmen. Så søkemotoren laget algoritmer:
- "Magadan" (2008).
- "Nakhodka" (2008).
- "Arzamas" (2009).
- "Snezhinsk" (2009).
- "Konakovo" (2010).
- "Obninsk" (2010).
- Krasnodar (2010).
- Reykjavik (2011).
- "Kaliningrad" (2012).
- "Dublin" (2013).
- "Nachalovo" (2014).
- "Odessa" (2014).
- "Amsterdam" (2015).
- "Minusinsk" (2015).
- "Kirov" (2015).
I tillegg til dem har ytterligere tre Yandex-søkealgoritmer blitt utgitt de siste to årene. Og det er også spesielle algoritmer AGS-17 og AGS-30, hvis hovedoppgave er å se etter ressurser som ikke oppfyller kravene. Enkelt sagt, disse algoritmene ser etter nettsteder med ikke-unikt innhold og en overflod av søkeord, og pålegger dem straffer. Og nå litt om hver algoritme.
Algorithms 2008–2011
På to år har Yandex laget fire søkealgoritmer somkvalitativt forskjellig fra de tidligere, innledende versjonene. I 2008 begynte de for første gang i søkerangering å ta hensyn til det unike med innhold ("Magadan"). For første gang ble et nytt system introdusert som tok hensyn til tilstedeværelsen av stoppord ("Nakhodka").
I 2009 begynte Yandex-søkealgoritmen å ta hensyn til brukerens region, en ny klassifisering av geoavhengige og geouavhengige søk dukket opp. Den regionale formelen for valg av svar ("Arzamas") er betydelig forbedret. Problemstillingen har endret seg mye, 19 nye regionale rangeringsformler har dukket opp og de geouavhengige rangeringskriteriene er oppdatert ("Snezhinsk", "Konakovo").
I 2010 utviklet algoritmene til Yandex-søkemotorer aktivt nye formler for geoavhengige og geouavhengige spørringer ("Obninsk", "Krasnodar"). 2011 ble preget av begynnelsen på opprettelsen av personlig utstedelse, språkpreferansene til Internett-brukere begynte å bli tatt i betraktning.
Søkerangering 2012-2014
I 2012 har personaliseringen av søkeresultater endret seg betydelig: de begynte å ta hensyn til brukernes interesser på lang sikt, relevansen til ofte besøkte nettsteder (Kaliningrad) økte. I 2013 justerte Yandex-algoritmen allerede søkeresultatene dyktig til interessene til en bestemt bruker under en økt, med hensyn til kortsiktige interesser ("Dublin"). I 2014 ble hensynet til lenker for kommersielle forespørsler fjernet ved rangering av svar ("Starting").
Amsterdam, Minusinsk, Kirov
I søkeresultatene begynte det å dukke opp et kort med informasjon ved siden av resultatet når du holder musepekeren over lenken ("Amsterdam"). For første gang var oppgaven til Yandex-algoritmen å senke rangeringen av ressurser som hadde mange SEO-lenker. Tilstedeværelsen av en omfattende lenkeprofil har blitt hovedårsaken til tapet av stillinger. "Minusinsk"-algoritmen til "Yandex" begynte å massivt fjerne SEO-koblinger, litt senere ble regnskapet for koblingsfaktorer returnert, men bare i Moskva-regionen.
I den tredje algoritmen i år ble randomisering av relevante spørringer introdusert. Enkelt sagt, når du sender ut søk, kan du sortere dem etter dato, popularitet eller region ("Kirov").
Vladivostok og Palekh
Vladivostok-algoritmen, som begynte å fungere tidlig i 2016, begynte å ta hensyn til ressurstilpasningen til mobile enheter, og resultatene av mobile søkeresultater økte.
Palekh-algoritmen, som ble presentert i november, fortjener spesiell oppmerksomhet. Hovedessensen er å sammenligne betydningen av spørsmålet og sidene ved å bruke nevrale nettverk - kunstig intelligens som simulerer arbeidet til den menneskelige hjernen. Takket være dette har antallet sjeldne forespørsler økt. Opprinnelig fungerte denne algoritmen utelukkende med side titler, men, som skaperne sier, vil den over tid lære å "forstå" selve teksten. Algoritmen fungerer som følger:
- Systemet tar hensyn til statistikksamsvarer med forespørselen og tittelen, og øker dermed nøyaktigheten til søkeresultatene.
- Å jobbe med slike korrespondanser kalles "semantisk vektor". Denne tilnærmingen til søkerangering hjelper deg med å finne svar på de sjeldneste spørsmålene. En algoritme som har lært seg å forstå teksten kan gi resultater der det ikke vil være et eneste lignende ord med søket, men likevel samsvarer de fullstendig med hverandre i innhold.
For å si det enkelt, Yandex prøvde å lage en "smart" teknologi som søker etter svar ikke basert på nøkkelord, men på innholdet i selve teksten.
Baden-Baden
Den nye Yandex-algoritmen, utgitt i mars 2017, har blitt et virkelig gjennombrudd i søkerangeringssystemet. I søkeresultatene begynte det å dukke opp nettsteder med nyttig, forståelig og lesbart innhold. Hovedoppgaven til denne algoritmen er å gi brukeren ikke teksten som samsvarer med forespørselen, men med nødvendig informasjon.
Under arbeidet med Baden-Baden har ressurser med re-optimalisert informasjon av lav kvalitet gått ned i søkeresultatene. Ekspertene var sikre på at posisjonene til nettbutikkene ville falle, da det var for mange repeterende ord og produktbeskrivelser, som var praktisk t alt like. Men utviklerne av algoritmen tok hensyn til at det er spesifikke emner der repetisjonen av beslektede ord er uunngåelig. Så hvilke tekster er underlagt sanksjoner? Det er bedre å se dette med et eksempel.
Tekst som ikke samsvarer med søkealgoritmen
Tidligere brakte søkeroboter til toppposisjonene ressurser som inneholdt søkeord. Men tekstene på slike nettsteder ser ofte ut som et sett med søk fortynnet med "vann" av tekster av lav kvalitet. Og eksemplet nedenfor er et bevis på det:
Nike lanserer utallige sportsprodukter hvert år. Joggesko, joggesko, støvler, Nike dress, Nike T-skjorte, shorts, Nike treningsdress, bukser, Nike joggebukser, fotballer - disse og andre produkter kan du finne i enhver firmabutikk. Nike dame-, herre- og barnekolleksjoner formidler hovedtemaet til merket. Nike-klær er unikt ved at hvert produkt fanger merkevarens ånd.»
Slike tekster er til ingen nytte, de er ikke annet enn kister med nøkkelspørsmål. Det er her den nye algoritmen kjemper. Innhold med lav kvalitet vil helt sikkert miste posisjonene sine. Det er tre kriterier for innhold av lav kvalitet:
- Mangel på logikk i teksten.
- Mange søkeord.
- Tilstedeværelse i teksten av unaturlige setninger som dukket opp på grunn av direkte forekomst av søkeord.
Selvfølgelig er det ingen som kansellerte SEO-optimalisering, de grunnleggende prinsippene for søkemotorer forblir de samme. Men tilnærmingen, der det er 15-20 nøkkelspørringer per 1000 tegn, har lenge vært utdatert. "Baden-Baden"-algoritmen fokuserer på kvaliteten på innholdet.
Søkeresultater
Et viktig sted i prosessen med å finne informasjon erutgivelsesalgoritme. En SERP er en side med resultater som samsvarer med et spesifikt søk. Algoritmen for å utstede "Yandex" er utformet på en slik måte at den kan beregne sannsynligheten for å finne det mest relevante svaret og generere en utgang på ti ressurser. I tilfelle forespørselen er kompleks, kan 15 svar bli funnet i utdataene.
1. Ressursspråk |
2. Emnets popularitet og mengde tekst per side. |
3. Forholdet mellom søkeord og den totale tekstmengden. |
4. Antall sitater og innholdsunikthetsnivå |
5. Skriftstørrelse og -type |
6. Antall lenker i teksten |
7. Match søkeord med delen av katalogen der nettstedet er registrert. |
Faktisk fungerer det slik: hvis algoritmen er "kjent" med forespørselen og det er et høyst relevant svar på den, dannes det en utgang på ti svar. I tilfelle søkemotoren ikke finner slike svar, vil 15 lenker vises i søkeresultatene.
Her er faktisk alt det grunnleggende om hvordan søkealgoritmer fungerer. For at siden skal føles bra, er det nødvendig å fylle den med høykvalitets, informativt og lesbart innhold i søkeresultatene.