Autor Zpráva
Martin Weis
Profil
Mám zakázaný adresář pomocí robots.txt. Chtěl bych v něm povolit přístup na stránku napoveda.html. Je toto možné provést nějakou konfigurací?
Šlo by to snad takto

User-Agent: *
Disallow: /cs/
Allow: /napoveda

či takto:

User-Agent: *
Disallow: /cs/
Allow: /cs/napoveda

Na uvedených příkladech na http://napoveda.seznam.cz/cz/fulltext-hledani-v-internetu/komunikace-s-vyhledavacim-robotem/robots.txt/ je totiž zřejmé že to povolit celý adresář a pak zakazovat podadresáře či stránky v něm se nacházející ale zajímalo by mě jestli to jde i opačným způsobem.
Davex
Profil
Jde to tím druhým způsobem. V tom prvním způsobu je asi povolen začátek neexistující cesty, takže by to nefungovalo.
Martin Weis
Profil
Davex:
Děkuji, podařilo se mi mezitím najít v článku na jakpsatweb že pomocí konstrukce Allow novější specifikace robots.txt (zatím nikoli standard) dovoluje nějaké zakázané URL opět povolit . Článek byl psaný v roce 2008 a dle nápovědy kterou jsem zde již uvedl je patrné že i současný Seznambot podporuje tuto novou verzi 2.0 avšak je třeba umístit na druhou pozici příkaz Robot-version: 2.0
LudekBrno
Profil
Já to mám udělané tím druhým způsobem, tedy mám hromadně zákázané všechny URL obsahující otazník a následně nějaké jednotlivé konkrétní stránky z nich povolené. Žádný příkaz "Robot-verison: 2.0" tam nemám a funguje to. Podle mě to má logiku, pokud dochází ke kolizi příkazů Disallow a Allow, tak vždycky platí ten pozdější.

Vaše odpověď

Mohlo by se hodit

Zajímavé čtení:
Poptávání výměny odkazů je na této diskusi nežádoucí.

Prosím používejte diakritiku a interpunkci.

Ochrana proti spamu. Napište prosím číslo dvě-sta čtyřicet-sedm: