Autor Zpráva
janomajka
Profil
Ahoj,
už jsem ho tady mnohokrát zmiňoval, jedná se o projekt statni-sprava.eu , zejména o funkci volná místa. Cron importuje jednou týdně inzeráty z MPSV a ukládá je do databáze a pak je WP zobrazuje. Funguje to tak už cca 3 týdny a stránky se stále nezaindexovaly v googlu. Je to udělané tak, že je tam stránkování asi po 10inzerátech, čekal sem že se web rozroste asi tak o 800 stránek.

Projekt je stavěný na návštěvnost z vyhledávačů.

Proč není momentálně těch 1000 stránek zaindexovaných? Jak často je dobré spouštět cron?

Díky

Honza
Kubo2
Profil
janomajka:
A máš na ten web prirodzené kvalitné spätné odkazy? Mimochodom, Googlu sa mi zmieňuje o 79 nájdených výsledkoch (iba v rozmedzí tých voľných miest). To ti za tri týždne nestačí? Googlebot nemá na starosti indexovať do nemoty len tvoj pomerne mladý web pozostávajúci z prevažne automaticky generovaných stránok.
janomajka
Profil
Zpětné odkazy budou, momentálně makám na OnPage. Takže do budoucna to může fungovat jak si představuji?
Str4wberry
Profil
Chápu správně, že k hlavní části Volná místa se vyhledávač musí prokousat z toho formuláře?
Kubo2
Profil
janomajka:
Takže do budoucna to může fungovat jak si představuji?
To nejde úplne s istotou tvrdiť. Isté však je, že ten web je pre Google príliš mladý, aby mu jeho crawler venoval toľkú pozornosť a čas, koľko očakávaš.

Ak sa môžem spýtať, ako sa dá makať na on-page?

Str4wberry:
Chápu správně, že k hlavní části Volná místa se vyhledávač musí prokousat z toho formuláře?
V robots.txt má odkaz na XML sitemapu.
janomajka
Profil
A za jak dlouho můžu čekat všechny zaindexované stránky?

Jak často mám nastavit cron, aby to bylo pro google nejideálnější? Teď je 1x týdně.

Kubo2:
Ak sa môžem spýtať, ako sa dá makať na on-page?

Přidávám články, design, dolaďuju script na volná místa a snažím se udělat web co nejrozsáhlejší.
Amunak
Profil
Google moc dobře neindexuje tak složitý obsah, jako jsou tabulky s informacemi, zvlášť, když jich je milion. Mně funguje docela slušně:
- mít jich co nejméně
- dobře je kategorizovat
- umožnit na každou věc jednotlivě odkazovat
- mít seznam, kde jsou všechny naráz
- dát robotům dost času
- získat kvalitní zpětné odkazy (dobře, pokud budou přímo na ty produkty; o inzerátech tohle asi neplatí)

ale šlo o asi 300 položek, které jsou různé druhy jednoho zboží. Tohle co děláš je ale stejně k ničemu. Nezaměřuj se na roboty ale na lidi: kdybych jako člověk hledal inzerát, stránkování po 10 je strašně otravné. Měl bys tam hlavně přidat nějaké filtry; 4000 inzerátů (a to je jen Praha) nikdo procházet nebude. Ani člověk, ani robot. Udělej ta data nějak organizovaná a přístupnější.
Str4wberry
Profil
Google sice (na rozdíl od Seznamu*) nemá problém s indexováním stránek, na které nevede žádný odkaz a jsou jen v sitemap.xml, ale mohlo by to negativně ovlivnit dobu zaindexování.

*) Otestováno před dvěma lety.
janomajka
Profil
Já jsem myslel, že kdyby někdo našel v googlu např. volné místo Barman v Ostravě, klikne, a zobrazí se mu to volné místo mezi deseti volnými místy, proto jsem dělal to stránkování, aby se nemusel prokousavat stovkami stránkami - takhle to nefunguje?

Kategorizování udělám
Cody
Profil
Obecně bych si dával pozor na duplicity, pokud jen něco taháš z jiné databáze a bez přidané hodnoty pro uživatele to zobrazuješ, Google nebude mít důvod to všechno indexovat. Pomůže přidaná hodnota, klidně i automaticky, aby tvé výsledky nebyl shodné s jinými výskyty na internetu. Pak dále solidní kategorizace, solidní interní prolinkování a strukturovaná data. Tedy v obecné rovině.
petrxxx
Profil
Zamyslete se nad informační architekturou

Vaše odpověď

Mohlo by se hodit

Zajímavé čtení:
Poptávání výměny odkazů je na této diskusi nežádoucí.

Prosím používejte diakritiku a interpunkci.

Ochrana proti spamu. Napište prosím číslo dvě-sta čtyřicet-sedm: