Autor Zpráva
iiic
Profil
Pěkný večer…

Když chci vyřešit duplicity, které by mohly vzniknout pomocí provozních GET parametrů … ať už fbclid= od Facebooku, různé provozní backlink=, _fid= flash zpráviček, a jistě by se jich daly najít stovky…

Jedno z možných řešení je disallow adres s těmito parametry v robots.txt . Kromě toho, že nebudou tak hezké url adresy pro uživatele, má to nějaké nevýhody?

Napadá mě, když uživatel vezme podobnou url adresu s některým z parametrů, pro které mám disallow v robots souboru a někam na svůj web ji umístí, čímž mi udělá backlink (děkuji mu za to). Pomůže mi takový backlink nějak? Nebo se jeho potenciál zahodí, protože disallow?

Určitě preferuji rel cannonical a 301-ničky v kombinaci s přepsáním url adresy javascriptem, ale tohle robots řešení by bylo hodně rychlejší a línější, jen nevím, jestli tak není možné přijít o pagerank (když se tomu ještě říkalo pagerank).

Díky předem za jakékoliv připomínky.
Mlocik97
Profil
Google se na parametre nehrá... otaznik i hash v url pochopí, netreba riešiť
blaaablaaa
Profil
iiic:
Já bych to řešil cannonicalem, bez přesměrování. Max bych známé fbclid odstranil skriptem od Michala Špačka ( www.michalspacek.cz/zmena-url-a-skryvani-fbclid-pomoci-javascriptu ). Pokud budeš mít na nějaké parametry disallow, většina vyhledávačů bude ty stránky ignorovat.
Přidat cannonical do meta tagu je celkem trivální řešení, ne? Na každé stránce musíš znát jeji správnou url.
iiic
Profil
Díky za odpovědi, mě se nikdy moc nedaří přesně formulovat to, co chci :)

Mlocik97:

Google už to umí rozlišit ? Vím, že dříve s tím měl problém, když byl stejný obsah na moje/url a moje/url/?zbytecny=get-parameter problém… protože tam může být obsah rozdílný a nebo také nemusí, což pak byla duplicita. A co tedy taky Seznam, už taky pořešil? Jako je mi jasné, že to není velký problém, ten obsah zaindexovaný bude, ale pozice v SERPu by mohla být lepší, když je to uděláno dobře.
Každopádně mě jde hlavně o ten robots. Když si s tím tedy vyhledávače poradí a já použiji disallow v robots… není to pak horší (přijdu o určité url adresy i když jen duplicitní) než nedělat nic?

blaaablaaa:
je mi jasné že cannonical by byl lepší řešení ale zajímá mě primárně ten robots… jestli si tím nápadem člověk vastně neublíží oproti situaci, kdy nedělá nic. Protože tím disallow si sice uberu duplicity, ale tím, že si uberu zpětné odkazy, rozumím tomu dobře?
blaaablaaa
Profil
iiic:
Ještě je možnost nastavit ignorované get parametry přímo ve Webmaster Tools, ale to je jen pro google. Takže imho je jediné a správné řešení použití cannonical. Pokud to dáš do disallow, robot ho prostě indexovat nebude, protože pro něj ta stránka neexistuje.
Mlocik97 sem píše jen své nepodložené domněnky. Vyhledávač nemá moc šanci poznat, co je a co není jiná stránka, než z url a teoreticky pak může tu s parametry považovat za duplicitní a ignorovat.
Kajman
Profil
Pozor, když stránka je v robots.txt disallow, tak se může dostat do takového stavu, že vyhledávač si nenačte a neindexuje její obsah, ale její url zná, pokud se na ni odkazuje.

Také bych to nedal do robots.txt a použil cannonical.
Mlocik97
Profil
blaaablaaa:
"Mlocik97 sem píše jen své nepodložené domněnky."

ne píšem to čo napísal samotný Google. Vyhladávač že by nerozoznal znak otázkniku v URL? nezmysel.
Inak ale súhlasím s tým Cannonical.
blaaablaaa
Profil
Mlocik97:
Ano, ale nepozná, co z parametru stranka=moje-stranka, backlink=partner a iduzivatele=5 znamená jinou stránku a co z toho jsou třeba jen kódy na měření backlinků od partnera apod. Od toho je jen cannonical, aby vyhledávači řekl, které url je správné.

Vaše odpověď

Mohlo by se hodit

Zajímavé čtení:
Poptávání výměny odkazů je na této diskusi nežádoucí.

Prosím používejte diakritiku a interpunkci.

Ochrana proti spamu. Napište prosím číslo dvě-sta čtyřicet-sedm:

0