Autor | Zpráva | ||
---|---|---|---|
quinux Profil |
#1 · Zasláno: 5. 1. 2006, 15:32:45
Zdravím,
potřeboval bych nějak zakázat úplné indexování určitých stránek vyhledávači. Jedna z možností, která mě napadá je do "a href" dát rel="nofollow" jenže tohle nepodporují ještě některé české vyhledávače, takže je to k ničemu. Další na řadě je robots.txt jenže tam nevím jak to zapsat jelikož adresa těch stránek se generuje dynamicky, ale končí vždy ..&print=1, jenže jak to mám zapsat do robots.txt - disallow /*&print=1 ? pokud Vás něco napadá budu Vám vděčný. Díky moc |
||
nakashi Profil |
#2 · Zasláno: 5. 1. 2006, 18:44:57
pokud adresa stranek, ktere nechces indexovat vzdy konci &print=1 mel by byt mozny zapis
User-Agent: * viz.: Robots.txt - zakázání přístupu robotům |
||
nakashi Profil |
#3 · Zasláno: 5. 1. 2006, 18:46:05
pardon, spravne by to melo byt asi takhle:
User-Agent: * :) |
||
quinux Profil |
#4 · Zasláno: 5. 1. 2006, 23:56:30
Díky za snahu, ale jak jsem již zjistil tak tohle nepůjde. 100% to nepodporuje jyxo.cz a ostatní nejspíše taky ne, české vyhledávače jsou pro mne důležité.
|
||
Jakub Profil |
#5 · Zasláno: 6. 1. 2006, 00:51:56
Nevím jak ostatní, ale Jyxo určitě robots.txt respektuje http://jyxo.cz/d/faqw.
Stejně tak Seznam http://fulltext.seznam.cz/url.py/infoScreen. |
||
quinux Profil |
#6 · Zasláno: 6. 1. 2006, 10:20:26
Jakub
Robots.txt ano, ale ten dany parametr Disallow: /*&print=1$ ne. ;o) |
||
Kajman_ Profil * |
#7 · Zasláno: 6. 1. 2006, 10:45:52
Parametry v robots.txt použít nelze.
Řešení je víc... V php při tisku kontrolovat, zda to je robot a v tom případě poslat kód 403. Pomocí rewrite udělat takovou adresu pro tisk, že půjde využít robots.txt. Zakázat to vyjmenováním robotů přímo v rewrite pravidlech. http://www.jakpsatweb.cz/server/mod_rewrite/mod-rewrite-priklady.html# zakaz_parametru_robotum V každém případě, bych tam dal i noindex a v odkazech nofollow. |
||
nakashi Profil |
#8 · Zasláno: 6. 1. 2006, 15:39:17
A hlavne, proc vlastne pouzivas zvlastni nahled stranky pro tisk?
Kdyz ji napises poradne a udelas zvlast cssko pro screen a print, tak nic takovyho nepotrebujes a nemusis resit ani roboty... |
||
Časová prodleva: 9 dní
|
|||
Slim Profil * |
#9 · Zasláno: 15. 1. 2006, 21:21:05
Ahojda, zajímalo by mě, jaktože se ve výpisu googlu objeví soubory, které tam už rok nejsou?
Počet zaindexovaných souborů zjišťuji zadáním site:www.example.com example To, že se zaindexuje 90% mýho webu, je ještě v poho, ale to, aby po roce stále ještě existovaly odkazy na rok smazané soubory, to mi připadá trochu hmmmm... díky za odpověď a případný návrh na řešení dotčená stránka: www.brandys.naseskola.cz |
||
Kajman_ Profil * |
#10 · Zasláno: 15. 1. 2006, 21:29:22
Buď u nich vracet kód 410 (nevím, jestli to pomůže ;-) nebo 404 a ručně říct googlu, že už tam být nemají:
http://www.google.com/webmasters/remove.html#outdated |
||
Časová prodleva: 3 dny
|
|||
Yuhů Profil |
#11 · Zasláno: 18. 1. 2006, 10:45:26
Podle mě je řešením použít v takovém url
1. meta tag robots s hodnotou noindex (pochopí všechny vyhledávače, snad kromě jyxa) 2. pokusně přidat zápis do robots.txt s hvězdičkou (pochopí Google, Jyxo a možná i další -- Seznam zatím ne) |
||
Časová prodleva: 2 měsíce
|
|||
Jasper Profil |
#12 · Zasláno: 10. 3. 2006, 22:56:04
Znáte nekdo soubor robot.txt Ted nemluvim o robots.txt
Dival jsem se do error logu na svem weu a nekdo z ip adresy patrici microsoftu opakovane hleda soubor robot.txt... |
||
Časová prodleva: 17 let
|
Toto téma je uzamčeno. Odpověď nelze zaslat.
0