Autor Zpráva
marvays
Profil
Dobrý den. Už se tu na toto téma celkem hovořilo, nicméně se tu probíraly konkrétní příklady. Já bych chtěl spíš probrat otázku principu, jak to vlastně funguje, k čemu je to dobré a na co to má vliv. Protože podle mých výsledků (nebo výsledků mých webů) mi asi uniká, jak se s tímto pracuje.

Jak je možné, že na google mám zaindexované 4 stránky a jiné weby mají i několik tisíc. Přitom vždy mám a používám google webmaster tools a tam v pořádku naimportovanou sitemap. Stejně tak v robots.txt mám odkaz na sitemap uveden. Jak do google tak do seznamu mám zadán link na přidání jak rootu webu tak přímo adresy na sitemap. stejně tak vše mám i na bingu. Někde musím dělat chybu, protože to mám u všech webů :(

Pak je otázkou, jestli toto mám vůbec řešit. jestli je to důležité. Protože byť se mi ve výpisu zaindexované podstránek nezobrazují, při zadání klíčových slov se stránka ve fulltextu vždy vyhledá bez problémů. Všiml jsem si, že stránky s vysokým rankem zobrazí více zaindexovaných podstránek, než stránky s menším rankem. ale možná to byla jen náhoda, když sem to kontroloval.


Ale osobně dávám největší šanci jakési chybě, nebo neochotě ve správném zobrazení. stejný problém zjišťuji u počítání zpětných odkazů. Google vypíše jeden, přitom jich je například 200, které mi majesticseo najde. Takže si myslím,že u webu s rankem 2 se google nebo seznam neobtěžuje při dotazu vypsat vše a nechce se mnou ztrácet čas. U vysokých ranků se chová jinak :(
ninja
Profil
A co vám ukazuje GWT? Kolik stránek crawler prošel, kolik jich je v indexu? Ukazuje nějaké chyby v procházení?

Nejčastější důvod neobjevení konkrétního webu na SERP je jeho malá kvalita a relevance k danému tématu.

Vaše odpověď

Mohlo by se hodit

Zajímavé čtení:
Poptávání výměny odkazů je na této diskusi nežádoucí.

Prosím používejte diakritiku a interpunkci.

Ochrana proti spamu. Napište prosím číslo dvě-sta čtyřicet-sedm:

0