Úvahy extrémního SEO šamanizmu

Varování: autor tohoto článku byl pokousán SEO křečkem, proto u něj na krátkou dobu (doufám) mohlo dojít k výkyvu myšlenkových pochodů nad rámec běžné indexace…

Každý den na vašich stránkách řádí desítky různých robotů. Většinou se koordinovaně snaží získávat data potřebná k dalšímu zpracování. Ať už se jedná jen o roboty vyhledávačů, anebo jen crawlery emailů většinou jejich provoz něco stojí. Aby se minimalizovali náklady, tak se jejich tvůrci, zvláště těch větších, snaží vzdělávat webmástry a vštěpovat jim do hlavy, aby používali určité zlepšováky. Díky těmto zlepšovákům pak mohou obsah lépe a efektivně procházet.

Za minulé desetiletí se toho změnilo celkem dost. Přibyly různé vymoženosti jako  sitemap, anebo Google Webmaster Tools. GWT za pomoc při zařazování stránek do indexu nabízí zpětnou vazbu v podobě velice užitečných statistik. Sitemap zase rychlejší indexaci rozsáhlého obsahu. Jenomže narůstající množství nástrojů ovlivňujících chování robotů, v rukou šílených SEO mágů, se snadno může proměnit v smrtící zbraně vytvářející SEO paradoxy, vymykající se chápání běžných smrtelníků.

Paradox GPR penaliazce

Pokud se soustředíme na web jako celek není nic horšího než když jedna stránka z tohoto webu dostane penalizaci a tu pak šíří na zbytek webu, jako infekci. V diskuzích na oficiálním google webmaster fóru se často zmiňují jakési „pozicové“ penalizace. Existují webmástři, kteří podlehli SEO šamanizmu více než je zdrávo. Důkladně tak sledují a analyzují výkyvy každé stránky na webu. Právě oni jsou přesvědčení, že základním znakem google penalizace je posun v SERP o několik desítek pozic dolů. Stránka prý nepadne o 5, 17 anebo 25 místo dolů. Penalizace se pozná tak, že je násobkem desíti. Při velkém množství sledovaných stránek na webu se takovýto druh penalizace dá odhalit.

Za většinu penalizací může prodej či výměna odkazů. Nové sofistikované metody to google moc neulehčují. Pak jsou tu ty staré, kdy si někdo koupí odkaz přes fórum a majitel stránky odkaz vloží ručně. Samozřejmě žádný sitewide odkaz, ty se prodávají jen u nás. Moderní přístupy k SEO se snaží prosazovat konkrétní stránky nikoliv weby. Samozřejmě záleží na druhu reklamní kampaně, ale to už je spíše o SEM než SEO. Na druhou stranu snad nikdy jsem nedostal penalizaci za něco jiného než, nevhodný odkaz (prodaný, badrank).

Aby se nikdy nemohlo stát, že na stránku dáte nevhodný odkaz je tu vylepšení external nofollow. Ten tu je na ochranu vás nikoliv na ochranu návštěvníků, kteří google důvěřují. Takže pokud máte na stránce určené pro děti 10 nofollow odkazů na warez stránky plné hambaté reklamy, myslíte si, že vám bude google posílat dětské návštěvníky? Nevím jak vy, ale já si myslím, že prostě nebude. Nofollow tu rozhodně není od toho, aby vás zbavoval odpovědnosti za obsah – včetně odkazů. Když se na to kouknete podobně to může být i u ostatních příkladů, ať jsou u čehokoliv. Google vám nechá pěkný page rank, ale dá vám onu X0 penalizaci.

Paradox nulové penalizace

S využitím znalostí a kombinací různých metod ovládání robotů lze dosáhnout něčeho, co jsem označil paradox nulové penalizace. Představte si nějaký CMS, třeba wordpress. Dnes a denně se u wordpressu potýkám s duplicitním obsahem, který je způsoben napříkald tím, že článek je na hlavní stránce (indexu) a pak má ještě svoji stránku. Za pár dní je na druhé stránce při listování atd. Googlebot určitě neprochází všechny stránky každý den. Pak je tu reindexace, což je další z procesů, který pokud neproběhne u aktuální verze může vytvořit X kopií obsahu. Jednoduše řečeno může tu být pořádný bordel. Další jsou externí odkazy, třeba zmíněné v článku. Kdo ví kam budou směřovat za rok.

Paradox nulové penalizace je kombinací dvou prvků, ovlivňujících chování robota, tak, aby vše podstatné bylo v indexu jen jedenkrát a nic přitom nesouviselo s ničím. Hlavní výhodou tohoto konceptu je případ, kdy by nějaká stránka webu byla penalizována. Vzhledem k tomu, že se na ní ani z ní nic nepřenáší nemůže dojít k šíření penalizace.

A jak tohoto stavu docílit?

Základem je do každé stránky vložit meta tag pro roboty a nastavit jej na index a nofollow

<meta name=“robots“ content=“index, nofollow“ />

Každá stránka by tak měla být indexována, ale neměla by přenášet jakýkoliv linkjuice jinam.To je samozřejmě super, ale k čemu to bude, pokud se na ní nedostane crawler? Tady se využije nejmodernější vymoženosti jak pomáhat vyhledávačům a tou je sitemap. Tam budou umístěné pouze jednotlivé články. Teoretický výsledek bude tolik zaindexovaných stránek kolik je článků uvedených v sitemap. Z praxe samozřejmě víme o tom, že do indexu se dostanou i všechny ostatní stránky, jako by se nic nestalo. Vyhledávače totiž porušují své vlastní pravidla. Opět tedy dojde k duplicitě. Na druhou stranu každá stránka si nechá všechen link juice, který na ní povede. Jednotlivé články by pak měli být čistým odrazem kvality, jež přivedou linky z jiných stránek.

Link juice, ale nebude proudit a to je přesně to čemu se všechny vyhledávače snaží vyhnout…

Prohlášení a závěr: Všechny události a postavy jsou smyšlené. Autorovi článku se nakonec udělalo dobře, SEO křeček neutrpěl žádná zranění a po pár hodinách se vrátil ke kradení odkazů z wikipedie.

Share Button
(0)(0)

Jak bude reklama vypadat?
-
Kup si reklamu navždy pod tímto článkem jen za 100 Kč
Zobrazit formulář pro nákup

Další články k tématu

6 komentářů

  1. Josef Švejda napsal:

    Jak se kradou odkazy z Wikipedie?

    (0)
  2. Unreal][ napsal:

    Link juice se podle mych pozorovani u Googlu predava i s atributem nofollow, ale ma extremne malou vahu.

    (0)
  3. Kony napsal:

    Josef Švejda: dobrá otázka, taky bych jich pár bral :)

    (0)
  4. Jan Zaškolný napsal:

    Pěkná úvaha. Opravdu někdo něco takového zkoušel, nebo je to jen pomatení SEO křečka?

    (0)
  5. Palm Pre napsal:

    Dost mi tady chybí možnost sledování nových příspěvků v diskuzích pod články. Nedalo by se to zařídit?

    (0)
  6. tom11111 napsal:

    Jako u každého jiného wordpressu jsou komentáře pro všechny články na http://404m.com/comments/feed/

    (0)