google

Google spletni iskalnik

googleSvetovni splet je sestavljen iz mreže milijard spletnih strani, ki so med seboj bolj ali manj povezane, prepletene in včasih celo podvojene. Za učinkovito pridobivanje informacij s te zmede spletnih strani moramo torej imeti sistem, ki omogoča razmeroma enostavno pregledovanje velikega števila spletnih strani – za to poskrbijo spletni iskalniki kot so Google, ki nam v pregledni obliki servirajo tiste spletne strani, ki nam za iskano temo lahko ponudijo najboljšo vsebino.

To je cilj spletne optimizacije, ki prilagaja stran tako, da je ta bolj cenjena pri spletnih iskalnikih. Optimizacija je sicer povsem legalen, legitimen in normalen proces, obstajajo pa tehnike, ki omogočijo hiter skok na visoka mesta, včasih tudi na dvomljive načine. Da bi takšna izkoriščanja iskalniki preprečili in svojim uporabnikom zagotovili najboljše možne rezultate, se iskalni algoritmi občasno posodabljajo

Posodobitev Google iskalnih algoritmov prinaša spremembe, ki povzročajo sive lase tistim, ki se s spletno optimizacijo trudijo prebiti višje med rezultati iskalnikov. Spremenijo se namreč kriteriji razvrščanja, tako da je potrebno spremeniti tudi način optimizacije in se osredotočiti na druge dejavnike. Problem je v tem, da dejavnikov razvrščanja rezultatov iskanj nihče ne pozna, vsaj ne povsem natančno. Ti dejavniki postanejo očitni le skozi dolgoročno prakso, treba je testirati različne pristope in primerjati množico spletnih strani. Šele takrat lahko ugotovimo, kaj deluje in kaj ne, torej kateri dejavniki so najpomembnejši za visoko uvrstitev. Ko to ugotovimo, lahko isto prakso uporabimo pri vseh spletnih straneh. In prav tu pride do težav, če se algoritmi iskalnikov spremenijo – stare preverjene metode ne delujejo več, včasih se tudi meseci trdega dela izkažejo za povsem zgrešene. Od že tako slabo poznanih kriterijev razvrščanja preidemo na spet neznane, ponovno je treba bolj ali manj ugibati, kaj bo iskalniku najbolj všeč.

Modne muhe iskalnika Google se lahko spreminjajo večkrat na leto, kar je ravno toliko, da algoritmi preprečujejo izkoriščanje novih ugotovitev glede razvrščanja spletnih strani. Morda se zdi, da s posodobitvami iskalniki zatirajo tiste, ki trdo delajo, da bi dosegli vrh, kar pa ni povsem res. Cilj iskalnikov namreč ni kaznovanje tistih, ki želijo svojo spletno stran spraviti na ugledne položaje v iskalnikih (razen če gre za nelegalne ali nelegitimne metode), temveč želijo svojim uporabnikom ponuditi kar se da relevantne rezultate za iskane ključne besede. To pomeni, da posodobitve ne bodo škodile tistim, ki se spletne optimizacije lotijo pravilno – nasprotno, te spletne strani bodo kvečjemu nagrajene. S padcem napačno optimiziranih spletnih strani, torej tistih, za katere iskalnik misli, da niso primerne za njihove uporabnike, pridejo na vrh boljše spletne strani. Tako je torej še vedno možno izvajati učinkovito spletno optimizacijo, če le to počnemo pazljivo in spretno. Prav zato se vedno priporoča za optimizacijo najeti strokovnjaka, ki bo znal pravilno predvideti dolgoročne cilje optimizacije in se izogniti praksam, ki bi jih iskalniki lahko ob naslednjih posodobitvah kaznovali. Če se optimizacija izvaja za obiskovalce, ne za iskalnike, bo dobro optimizirana spletna stran dolgoročno nagrajena, čeprav bo pot na vrh nekoliko daljša.