Autor | Zpráva | ||
---|---|---|---|
snazimse Profil |
Zdravím,
chci se zeptat, jak moc je náročné,na výkon,nebo spolehlivost. Vzdálené parsování informací pouze plaintextu z jiného webu, vyplatí se to parsovat. Pro ušetření práce? Tedy tak,že prostě parser, mi načte do zdrojáku, vždycky tu informací, z jiné stránky. Ovšem jednou třeba za sto zobrazení, se stane, že vyhodí chybu ,že to nenačetlo, kvůli připojení třeba což je blbý. Prostě se tam nepřipojí. Ale když, tam bude vícel lidí, tak to asi, může dělat problémy, si myslím. Co myslíte? Lepší by bylo buďto, naparsovat a uložit do databáze, nebo to rovnou vkládat do databáze, je to tak? Problém, je ovšem, že třeba v případě kurzu by se to muselo spouštět, aspoň, jedenkrát, denně, ale asi lepší než to načítat z url, každému uživateli, předpokládám, že to je asi sebevražedné? Co si o tom myslíte? Byl bych rád za radu. Děkuji všem! |
||
Chro. Profil |
#2 · Zasláno: 22. 3. 2015, 17:35:31
Když pominu otázku souhlasu provozovatele s vytěžováním jeho webu takovým způsobem, obvyklou praxí je si data ukládat a nastavit jim nějakou platnost. U kurzů měn se jedná tedy o 24 hodin, u informací o aktuálním stavu hladin řek pak třeba hodinu. Po uplynutí této doby si pak stáhnout ze vzdáleného servru data aktualizovaná. Pokud se data nepodaří získat, zobrazovat data neaktuální s poznámkou o neaktuálnosti a v kratších intervalech se snažit data získat.
Pokud používáš k získávání dat funkci file_get_contents, přečti si http://jecas.cz/ziskani-obsahu-timeout |
||
snazimse Profil |
#3 · Zasláno: 22. 3. 2015, 17:51:14
Chro.:
Děkuji za reakci a pomoc, no nejlepší asi bude to třeba denně aktualizovat, do databáze, jen mě zajímala ta výkonnost, protože, kdyby bylo třeba 100 návštěvníků online pak by se připojily a parser každému odeslal nově načtenou hodnotu, bude asi žrout výkonu a podle mě nepřípustné a nespolehlivé. Ale chci se zeptat právě Vás zkušenějších, jde mi hlavně o výkon a spolehlivost, což nejlepší cesta mi přijde to denní aktualizování. Co si o tom myslíte? |
||
Alphard Profil |
#4 · Zasláno: 22. 3. 2015, 17:58:07
Vždyť už bylo napsáno, že se data nemají stahovat pro každého návštěvníka, ale mají být aktualizovány ve vlastním uložišti. Pak se řekněme po delší nečinnosti stáhnou pro prvního, ale zbylých 99 dostate již nacachoné hodnoty.
|
||
snazimse Profil |
#5 · Zasláno: 22. 3. 2015, 18:00:54
Alphard:
OK, pardon, moje nepozornost. Asi jsem to přehlédl. Díky |
||
Alphard Profil |
#6 · Zasláno: 22. 3. 2015, 18:03:29
Vzpomněl jsem si, že příklad jak toho dosáhnout je na Práce se soubory, viz funkce loadPage().
|
||
Chro. Profil |
#7 · Zasláno: 22. 3. 2015, 18:23:46
Prostě napráskat do kódu funkci, která stáhne a zobrazí pořád ten samý obsah z cizího webu několikrát za sekundu nebo i minutu podle počtu návštěv na stránce je ve většině případů prasárna. Dá se to omluvit v případech jako kdyby nějaký web poskytoval info o GPS poloze létajícího talíře marťanů pohybujícím se rychlostí 5 Mach - co sekunda, to výrazně jiná hodnota. Ale jinak ne.
|
||
snazimse Profil |
#8 · Zasláno: 22. 3. 2015, 18:53:03
Alphard:
Dobře, podívám se na to, prostuduji. Chro.: No právě, proto jsem přidal diskuzi, protože mi bylo jasné, že to není rentabilní.Ale dobrá metafora, to se mi líbí. |
||
Časová prodleva: 9 let
|
0