Zlobivej Google nechce říct zákulisní informace … tentokrát se však prokecl :)

Dneska jsem na Twitter objevil screenshot anglického upozornění na penalizaci. Nevím jestli jsem neobjevil opožděně ameriku, ale nachází se tam moc důležitá informace, která mi chyběla do skládačky. Možná si toho už někdo dříve všiml a jen mi to uteklo. Nevím, ale je to velmi důležité…

Ha vidíte to tam! Je to černé na bílém!

This site appears to contain a significant percentage of low-quality or shallow pages …

Significant percentage!

Lidi z BHW měli pravdu. Opravdu je penalizace celého webu postavená na procentuálním zastoupení nekvalitních stránek. Je jedno jaký bordel tam děláte anebo co používáte. Jde jen o ty procenta.

Podle určitých návodů totiž máte například u WordPress z indexace vyřadit archive, tags a category. Prostě tam nechat jen příspěvky a stránky.  Tedy dát na ně noindex, follow. Fakt jsem věřil, že to je něco jako doporučená praxe. V Google zůstanou indexované jen stránky se zajímavými informacemi a zbytek se zahodí. V dobré víře jsem to dokonce nasadil i přímo sem na 404m.com.

Vůbec mě nenapadlo, že pravým důvodem bylo ulehčit nějakému algoritmu hodnocení webu jako celku. Mimochodem po mnoha měsících testování se to ukázalo jako poměrně velká chyba. Přes kategorie a štítky totiž proudí poměrně dost linkjuice v rámci webu a přijdete, tak o potenciálně dobré pozice například na Seznamu (viz první příklad v tomto článku). Navíc na ně směřují i odkazy. Popravdě od odstranění noindex se zvedla návštěvnost z Google o cca 10 %. Prostě se na nějakou dobrou/doporučenou praxi do budoucnu vykašlu a nechám na vyhledávači ať si sám zjistí, co je a co není důležité.

No a proč jsem z toho tak nadšený? Důvodů je několik a ne všechny jsou zrovna white hat friendly :) Co se ale týká samotného white hat, tak je to rozhodně dobrá zpráva pro lidi, co dělají kvalitní obsah. Znamená totiž, že by jste si neměli mít možnost odrovnat celý web jen několika nekvalitními posty. Takovéto případy se na SEO diskuzích opravdu řešily. V podstatě šlo o to, že někdo publikoval tiskové zprávy, články plné rozsáhlých citací a měl pocit, že mu to přineslo penalizaci. Přitom to všechno mělo jediný účel a to čtenářům co nejrychleji zprostředkovat důležitý obsah. Opravdu občas není čas přepisovat tiskovou zprávu, když jde třeba o bezpečnostní hrozbu.

Doposud se tak nějak věřilo, že to Google “umí nějak poznat”, co je důležité a je tomu třeba “prominout”. Což je samozřejmě naprostá blbost. Google ani Seznam nic poznat neumí, mohou fungovat tak maximálně na nějakém algoritmu a statistických vzorcích. Samozřejmě nezapomínejme na armádu brigádníků, co ladí algoritmus, ale to je prostě všechno. Nic se neděje z principu vyššího dobra anebo osvíceného algoritmu, který připomíná AI z budoucnosti. Stačí se držet při zemi a hned to SEO začne dávat smysl ;)


Jak bude reklama vypadat?
-
Kup si reklamu navždy pod tímto článkem jen za 100 Kč
Zobrazit formulář pro nákup

5 komentářů u „Zlobivej Google nechce říct zákulisní informace … tentokrát se však prokecl :)“

  1. Také už občas mívám dojem, že Google je umělou inteligencí převyšující člověka.

    Navíc by mě zajímalo, jak je to ve skutečnosti s kopírovaným obsahem, u kterého poctivě uvedeme zdroj.

    Bere ho google do toho procenta nekvalitního obsahu nebo odkaz na původní zdroj nějakým způsobem zohledňuje?

    Otázky tohohle typu mi přijdou spíš mezi nebem a zemí, než mezi klávesnicí a židlí :)

  2. Díky za zajímavý postřeh. Shoda prakticky ve všem, co jste napsal. Vždy jsem byl velice nedůvěřivý k různým doporučením, že něco “musí” být tak či onak, jinak penalizace :-)) Jen mi potvrzujete domněnky postavené na selském rozumu.

  3. Google „umí nějak poznat“ vs “mohou fungovat tak maximálně na nějakém algoritmu”. Co jiného je myšlení stroje než algoritmus? ;)

  4. Předpokládám, že algoritmus Googlu musí být v základě “jednoduchý”, aby to fungovalo dostatečně rychle a stabilně. Magie je právě v tom, aby z jednoduchých vstupů dokázal dělat na první pohled složité výstupy :)

    Navíc asi nikdy nepůjde o nějakou absolutní dokonalost, ale o optimalizaci, aby každá změna v algoritmu vedla k průměrně lepším výsledkům pro co největší množství dotazů, a přitom se to všechno zbytečně nezesložitělo.

    Práce s obrovskými objemy dat bude fungovat asi na jiných principech, než s jakými je člověk v běžné činnosti zvyklý pracovat.

  5. Ne alroritmus, ale tisice lidi. Algoritmus to jenom vybere, a pak to kontroluji lide.

Komentáře nejsou povoleny.