Autor | Zpráva | ||
---|---|---|---|
Ales Profil |
#1 · Zasláno: 30. 8. 2005, 10:49:34
Jak se dá zakazat indexovani vsech podstranek pomoci meta tagu nebo souboru robots.txt
Dik |
||
Georgík Profil |
#2 · Zasláno: 31. 8. 2005, 16:44:56
Dobrý den.
Asi nejlépe použít oba způsoby najednou. robots.txt: Do rootu webu se dá soubor robots.txt. V něm vyjmenujete konkrétní soubory, adresáře nebo množiny souborů. Například: User-agent: * Disallow: /*.htm Disallow: /pictureshow.php Disallow: /pictures/*.* meta: Do stránek pro zákaz indexování do všech zúčastněných stránek vložíte následující značku/y. Teoreticky by měla stačit značka se jménem "robots", ale ani vyjmenování všech robotů jení úplná 100% jistota. <meta name="robots" content="noindex,nofollow" /><!-- roboti jiní --> <meta name="googlebot" content="noindex,nofollow" /><!-- robot googlu --> <meta name="jyxobot" content="noindex,nofollow" /><!-- robot jyxa --> Pokud již Vaše stránky oindexované jsou, chvíli potrvá, než z vyhledávačů zcela zmizí. Klidně týdny i rok. Oni by rádi oindexovali i ledničky, že. Hodně štěstí. Jirka |
||
Ales Profil |
#3 · Zasláno: 1. 9. 2005, 10:58:58
Díky - je to OK
|
||
Časová prodleva: 8 dní
|
|||
habendorf Profil |
#4 · Zasláno: 9. 9. 2005, 11:59:48
Měl bych k tomu jednu otázku: je možno nějak zabránit vypsání souboru robots.txt, pokud ho přímo zadám do url? Stejně jako třeba nelze vypsat .htaccess?
|
||
Georgík Profil |
#5 · Zasláno: 9. 9. 2005, 17:37:20
Dobrý den.
Nemám zkušenosti, ale na Apache snad například MOD_REWRITE by to snad přinejhorším pro ne-vyhledávače mohl redirectnout jinam, nebo nějaké storno requestu atp. Pokud tedy dokáže rozpoznat clienty. Apache má možnost různých dalších modulů (~filtrů) MOD_* spouštěných asi nejen před *.PHP (*.JSP, *.TXT), ale je otázkou, zda je možnost jejich získání a instalace. U Windows tato kouzla nejsou tak rozšířená, ale zase tu jsou filtry ISAPI. Jinak nevím. Přesto hodně úspěchů. Jirka |
||
habendorf Profil |
#6 · Zasláno: 10. 9. 2005, 17:03:53
Georgík: Děkuji za odpověď. Šlo mi o to, že pomocí zákazu v robots.txt chce člověk něco schovat, např. rozpracované stránky, nebo prostě obecně věci, které nemají být vidět ani není žádoucí, aby se o jejich existenci vědělo. Jenže vypsání robots.txt v prohlížeči je nejsnazší způsob, jak tyto věci najít.
|
||
Fred Profil |
#7 · Zasláno: 10. 9. 2005, 17:52:43
habendorf Zdroj: http://www.searchguild.com/tpage22342-0.html
User-Agent: * Disallow: /aaa ...it's going to be quite difficult for hackers to know you meant to block /aaadmin-stuff/ |
||
habendorf Profil |
#8 · Zasláno: 11. 9. 2005, 16:00:28
Fred: jj, taky možnost, dík
|
||
Časová prodleva: 20 let
|
Toto téma je uzamčeno. Odpověď nelze zaslat.
0