Autor | Zpráva | ||
---|---|---|---|
spleen Profil |
#1 · Zasláno: 3. 9. 2009, 15:50:52
prosím o radu, mám na stránkách vytvořen pro roboty vyhledávačů robots.txt
User-Agent: * Allow: / a sitemap.xml vytvořen v programu Micro-Sys.A1.Sitemap.Generator,v souboru xml jsou všechny stránky zaindexované, ale Google prostě některé najde, některé nikoliv, dík za radu |
||
grimword Profil |
#2 · Zasláno: 3. 9. 2009, 15:57:38
jak dlouho web jede?
|
||
spleen Profil |
#3 · Zasláno: 3. 9. 2009, 16:18:52
mám ho od prosince 2008 ( předtím byl po jiným webem), ještě takhle nějak vypadá část sitemap.xml
- <url> <loc>http://www.krusnohorsky.cz/view.php?cisloclanku=2009010602</loc> <priority>0.5</priority> <changefreq>daily</changefreq> </url> |
||
shaggy Profil |
#4 · Zasláno: 3. 9. 2009, 16:24:06
spleen
Dal som si vyhľadať tú jednu URL adresu, ktorú si uviedol a Google ju našiel - čiže nie je pravda čo tvrdíš, Google ťa nájde. Predpokladám, že tvoj problém nie je v tom, že by ťa nenašiel, ale v umiestnení stránok. A dúfam, že nečakáš že v tomto ti pomôže sitemap (lebo nepomôže). |
||
spleen Profil |
#5 · Zasláno: 3. 9. 2009, 16:30:29
sem právě psal, že nějakou stranku najde , a o nějakých neví, přitom pokud je to v "sitemap" tak by o ní aspoň měl vědět, nejde mi o umístění, čí pořadí, ale aby o ní prostě jen věděl., :-(
|
||
Marek Prokop Profil |
#6 · Zasláno: 3. 9. 2009, 21:09:13
Spleene, myslím, že možnosti sitemapy přeceňujete. Sitemapa Vám negarantuje zařazení stránek do výsledků hledání. Napomáhá jen tomu, že robot všechny stránky najde, stáhne a zpracuje, pokud je najít, stáhnout a zpracovat chce. Váš problém tedy asi je, že nechce. Přesvědčte ho přehlednou navigací, unikátním obsah každé stránky, unikátními titulky každé stránky, dostatkem zpětných odkazů.
Jinak ještě k té sitemapě -- pokud v ní každá položka vypadá jako na ukázce, pak ji asi máte úplně zbytečně. Všechny stránky přeci nemají střední prioritu a asi se nemění denně. |
||
Marek Prokop Profil |
#7 · Zasláno: 3. 9. 2009, 21:12:58
Ještě dodatek k tomu Vašemu robots.txt -- tohle:
User-Agent: * Allow: / je nesmysl. Sice asi neškodný nesmysl, ale rozhodně nesmysl. Standardní robots.txt, kterým nechcete nic zakazovat, vypadá takto: User-agent: * Disallow: |
||
Časová prodleva: 5 dní
|
|||
Homer Profil |
#8 · Zasláno: 8. 9. 2009, 11:45:48
Google nezaručuje indexaci všech souborů uvedených v sitemap. Zkus se podívat třeba sem: http://www.google.com/support/webmasters/bin/topic.py?topic=8476 . Také je dobré dát odkaz na sitemap do robots.txt.
|
||
Časová prodleva: 29 dní
|
|||
LukášA Profil * |
#9 · Zasláno: 7. 10. 2009, 09:38:05
Ten robots.txt nesmysl není, přímo takhle ho generuje webmaster tools když zakliknete, že chcete vše povolit ;)
|
||
Marek Prokop Profil |
#10 · Zasláno: 7. 10. 2009, 11:10:42
[#9] Ve standardu robots.txt žádné Allow není. Jistě, většina robotů ho asi podporuje a někdy může být užitečné, ale nevidím důvod ho používat tam, kde existuje standardní a 100% funkční řešení. V Google Webmaster Tools je tolik nesmyslů, že už mne tenhle další nepřekvapuje.
|
||
Časová prodleva: 14 let
|
0