Autor | Zpráva | ||
---|---|---|---|
Martin Weis Profil |
#1 · Zasláno: 19. 4. 2011, 21:08:44
Mám zakázaný adresář pomocí robots.txt. Chtěl bych v něm povolit přístup na stránku napoveda.html. Je toto možné provést nějakou konfigurací?
Šlo by to snad takto User-Agent: * Disallow: /cs/ Allow: /napoveda či takto: User-Agent: * Disallow: /cs/ Allow: /cs/napoveda Na uvedených příkladech na http://napoveda.seznam.cz/cz/fulltext-hledani-v-internetu/komunikace-s-vyhledavacim-robotem/robots.txt/ je totiž zřejmé že to povolit celý adresář a pak zakazovat podadresáře či stránky v něm se nacházející ale zajímalo by mě jestli to jde i opačným způsobem. |
||
Davex Profil |
#2 · Zasláno: 20. 4. 2011, 19:55:00
Jde to tím druhým způsobem. V tom prvním způsobu je asi povolen začátek neexistující cesty, takže by to nefungovalo.
|
||
Martin Weis Profil |
#3 · Zasláno: 22. 4. 2011, 02:49:31
Davex:
Děkuji, podařilo se mi mezitím najít v článku na jakpsatweb že pomocí konstrukce Allow novější specifikace robots.txt (zatím nikoli standard) dovoluje nějaké zakázané URL opět povolit . Článek byl psaný v roce 2008 a dle nápovědy kterou jsem zde již uvedl je patrné že i současný Seznambot podporuje tuto novou verzi 2.0 avšak je třeba umístit na druhou pozici příkaz Robot-version: 2.0 |
||
LudekBrno Profil |
#4 · Zasláno: 22. 4. 2011, 09:51:28
Já to mám udělané tím druhým způsobem, tedy mám hromadně zákázané všechny URL obsahující otazník a následně nějaké jednotlivé konkrétní stránky z nich povolené. Žádný příkaz "Robot-verison: 2.0" tam nemám a funguje to. Podle mě to má logiku, pokud dochází ke kolizi příkazů Disallow a Allow, tak vždycky platí ten pozdější.
|
||
Časová prodleva: 15 let
|
0