Autor Zpráva
snazimse
Profil
Zdravím,

chci se zeptat, jak moc je náročné,na výkon,nebo spolehlivost.
Vzdálené parsování informací pouze plaintextu z jiného webu, vyplatí se to parsovat.

Pro ušetření práce? Tedy tak,že prostě parser, mi načte do zdrojáku, vždycky tu informací, z jiné stránky.

Ovšem jednou třeba za sto zobrazení, se stane, že vyhodí chybu ,že to nenačetlo, kvůli připojení třeba což je blbý. Prostě se tam nepřipojí.

Ale když, tam bude vícel lidí, tak to asi, může dělat problémy, si myslím. Co myslíte? Lepší by bylo buďto, naparsovat a uložit do databáze, nebo to rovnou vkládat do databáze, je to tak?

Problém, je ovšem, že třeba v případě kurzu by se to muselo spouštět, aspoň, jedenkrát, denně, ale asi lepší než to načítat z url, každému uživateli, předpokládám, že to je asi sebevražedné?

Co si o tom myslíte? Byl bych rád za radu.


Děkuji všem!
Chro.
Profil
Když pominu otázku souhlasu provozovatele s vytěžováním jeho webu takovým způsobem, obvyklou praxí je si data ukládat a nastavit jim nějakou platnost. U kurzů měn se jedná tedy o 24 hodin, u informací o aktuálním stavu hladin řek pak třeba hodinu. Po uplynutí této doby si pak stáhnout ze vzdáleného servru data aktualizovaná. Pokud se data nepodaří získat, zobrazovat data neaktuální s poznámkou o neaktuálnosti a v kratších intervalech se snažit data získat.

Pokud používáš k získávání dat funkci file_get_contents, přečti si
http://jecas.cz/ziskani-obsahu-timeout
snazimse
Profil
Chro.:

Děkuji za reakci a pomoc, no nejlepší asi bude to třeba denně aktualizovat, do databáze,

jen mě zajímala ta výkonnost, protože, kdyby bylo třeba 100 návštěvníků online pak by se připojily

a parser každému odeslal nově načtenou hodnotu, bude asi žrout výkonu a podle mě nepřípustné a nespolehlivé.

Ale chci se zeptat právě Vás zkušenějších, jde mi hlavně o výkon a spolehlivost, což nejlepší cesta mi přijde to denní aktualizování.

Co si o tom myslíte?
Alphard
Profil
Vždyť už bylo napsáno, že se data nemají stahovat pro každého návštěvníka, ale mají být aktualizovány ve vlastním uložišti. Pak se řekněme po delší nečinnosti stáhnou pro prvního, ale zbylých 99 dostate již nacachoné hodnoty.
snazimse
Profil
Alphard:

OK, pardon, moje nepozornost.

Asi jsem to přehlédl.

Díky
Alphard
Profil
Vzpomněl jsem si, že příklad jak toho dosáhnout je na Práce se soubory, viz funkce loadPage().
Chro.
Profil
Prostě napráskat do kódu funkci, která stáhne a zobrazí pořád ten samý obsah z cizího webu několikrát za sekundu nebo i minutu podle počtu návštěv na stránce je ve většině případů prasárna. Dá se to omluvit v případech jako kdyby nějaký web poskytoval info o GPS poloze létajícího talíře marťanů pohybujícím se rychlostí 5 Mach - co sekunda, to výrazně jiná hodnota. Ale jinak ne.
snazimse
Profil
Alphard:

Dobře, podívám se na to, prostuduji.


Chro.:

No právě, proto jsem přidal diskuzi, protože mi bylo jasné, že to není rentabilní.Ale dobrá metafora, to se mi líbí.

Vaše odpověď

Mohlo by se hodit


Prosím používejte diakritiku a interpunkci.

Ochrana proti spamu. Napište prosím číslo dvě-sta čtyřicet-sedm: