« 1 2
Autor Zpráva
Kajman_
Profil *
Jan Tvrdík:
Ono ideální by bylo úplně vyměnit ten stávající šablonovací systém

To by bylo dost práce a ještě víc testování.

a automatickou invalidaci cache

Myslím, že místní administrátoři se bez problémů naučí ručně mazat cache templatů po úpravě samotného template. Automatická kontrola by zase stála kousek výkonu.
Chamurappi
Profil
Reaguji na Jana Tvrdíka:
úplně vyměnit ten stávající šablonovací systém
Mám raději drobnější úpravy, ideálně takové, které by šly co nejdřív nasadit do ostré verze.


Reaguji na Kajmana:
Grafy jsem přidal. Podle TOPlistu se chybová hláška včera ukazovala příležitostně od poledne do 16 hodin a pak pětkrát častěji od 17 do 21 hodin. S grafem využití CPU se ovšem tyto údaje moc nekryjí, ten ukazuje větší zátěž dopoledne a uklidnění ve 14 hodin.

Možná můžeme použít něco jako
Zkus.
Str4wberry
Profil
To by bylo dost práce a ještě víc testování.
Asi tak. Už takhle má nasazení sandboxu lehký skluz. :–)

Jinak zkoušel jsi, Kajmane, jak je na tom výkonnostně bb_codes.php a například hledání titulku podle odkazu?
Kajman_
Profil *
Chamurappi:
S grafem využití CPU se ovšem tyto údaje moc nekryjí

Díky za grafy. Co se zeptat hosingu, jak to přetížení počítají? Že nám ty grafy neodpovídají.

Zkus.
Večer to hlouběji otestuji a když to na localu dopadne dobře, můžeme to nechat otestovat i lidmi na sandboxu. Tohle použítí eval na heredoc mi nepřijde, že by mohlo být víc nebezpečné (na xss útoky atp. to bude náchylné jako současná funkce, a ta už taky počítá s tím, že proměnné jsou ošetřené dopředu). Ale mám přepsat i ty šablony na použití $GLOBALS? Nebo až třeba zase v dalším kroce?

Str4wberry:
jak je na tom výkonnostně bb_codes.php
To se používá jen při úpravách - a těch je proti jiným požadavkům minimum. Včera večer jsem si jen stihnul nainstalovat ten xdebug a mrknout v něm na hlavní stránku, výpis kategorie a výpis vlákna.
Chamurappi
Profil
Reaguji na Kajmana:
Co se zeptat hosingu, jak to přetížení počítají?
Háček může být v tom, že TOPlist měří jen lidi a dopolední zátěž můžou způsobovat převážně roboti, kteří třeba končí na chybě 503 mnohem častěji.
Zkopíroval jsem do /.sandbox/logs/ včerejší HTTP log. Nejprve jsem z něj chtěl sám vygenerovat hezký graf lidí a robotů, ale nevymyslel jsem žádný snadný postup.

Ale mám přepsat i ty šablony na použití $GLOBALS?
Raději postupně.
Ze zátěže způsobené skriptem bb_codes.php mám také trochu strach.
Kajman_
Profil *
V sandboxovém #time bylo stále více času než na ostré verzi, tak jsem zkusil i převést hromadně templaty na $GLOBALS a tím se to aspoň tak nějak vyrovnalo. Odhadem od pasu to přepsání templatů ušetřilo tak 20% původní zátěže při běžném prohlížení obsahu diskuse.

bb_codes.php se mi moc řešit nechce, je tam moc regulárů a schodí mi to na locale apache, php nebo tak něco, když si zkusím náhled faq z databází.

Chamurappi:
kteří třeba končí na chybě 503 mnohem častěji
Myslel jsem, že při chybě dojde 30x kód. Přijde mi, že ve webmaster tools jsou některé stránky blokovány robots.txt jen proto, že při žádosti o robots.txt dostane googlebot přesměrování na stránku s chybou a parsování takové věci se moc nepovede.
Chamurappi
Profil
Doplnil jsem grafy.

Reaguji na Kajmana:
přepsání templatů ušetřilo tak 20% původní zátěže
Čekal jsem sice více omračující procenta, ale každá pětina dobrá :-)

tak jsem zkusil i převést hromadně templaty na $GLOBALS
Teď by asi nebylo moc jednoduché přenést tuto úpravu do ostré verze, že?

Myslel jsem, že při chybě dojde 30x kód.
Dojde. Pardon, zvolil jsem jen nešikovnou formulaci.

a parsování takové věci se moc nepovede.
Myslím si, že to moc nehrozí, roboti by měli být zvyklí, že občas dostanou místo soupisu zákazů pro roboty nějakou webovou stránku. V HTML kódu té přetěžovací nevidím nic, co by šlo dezinterpretovat jako řádky z robots.txt. Z čeho konkrétně vyvozuješ to „přijde mi“?
Kajman_
Profil *
Chamurappi:
Teď by asi nebylo moc jednoduché přenést tuto úpravu do ostré verze, že?

Když nahraješ do sandboxového adresáře templaty html a txt pro ostrou verzi, můžu je převést jedna dvě. Pak stačí upravit jen ty dvě funkce, makeUp a parseTpl.

Z čeho konkrétně vyvozuješ to ‚přijde mi‘?
Nenapadl mě jiný důvod, proč by mělo být v chyby v procházení, omezeno souborem robots.txt
Rolovacia lista Adresa URL omezená souborem robots.txt 21.3.2011
Chamurappi
Profil
Reaguji na Kajmana:
Právě teď jsem nahrál tebou upravené šablony i funkce do ostré verze.

Rolovacia lista Adresa URL omezená souborem robots.txt 21.3.2011
V logu z 21. března (jehož kopii jsem opět dal do /.sandbox/logs/) jsem našel tuto zvláštnost:
66.249.72.246 - - [21/Mar/2011:22:13:10 +0100] "GET /%3Faction%3Dvthread%26forum%3D3%26topic%3D106067 HTTP/1.1" 302 248 "-" "Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)"
Nechápu, proč je adresa tak divně proenkódovaná, takhle přeci nemůže fungovat. Okolo té doby jsou normálně zapsané požadavky, též se stavem 302 — asi projev přetížení.
Když jsem si vyhledal všechny hity na /robots.txt, všiml jsem si, že jsou občas přesměrovány se stavem 302 a občas se stavem 301.
Kajman_
Profil *
Chamurappi:
Když jsem si vyhledal všechny hity na /robots.txt, všiml jsem si, že jsou občas přesměrovány se stavem 302 a občas se stavem 301.

Myslím, že ty 302 jsou díky přetížení a ty 301 by mohly být při požadavku na jinou doménu (djpw.cz, www.diskuse).

Google dokonce nabízí ve vyhledávání "diskuse 106067" zmršnou variantu, která se zmrší ještě víc, když se na ní klikne. Když si to zkusím na locale, tak dostanu You don't have permission to access /?action=vthread&forum=3&topic=106067 on this server. Asi je na ostré verzi jiná verze .htaccess než v sandboxu.

Při přetížení je teď kombinace stavových kódů 302 => 200, prosil jsem mailem Yuhůa, aby nachystal 302 => 503, tak pak roboti třeba sami zklidní četnost požadavků, když tam 503 dostanou.
Chamurappi
Profil
Dobrý den,
limity pro domén u jakpsatweb.cz jsme zvedli na 240s/1800s, takže by už
neměli žádné problémy nastat. Pokud by se přece jen hláška o překročení
limitů objevila, tak vás požádám, aby jste hned napsali, abychom se
mohli podívat do statistik, kolik byla v tu chvíli reálná spotřeba.

A je to.
pcmanik
Profil
Pred chvilou mi to zase hodilo hlasku s tym ze diskuse je pretizena a presmerovalo ma to na chybovu stranku na jpw.cz
Kajman_
Profil *
Tak jim pošli, ať se mrknout na 20:23:12. Ta přesměrování jsou na přetíženou diskusi.

Mon, 28 Mar 2011 18:23:12 GMT
GET / 200 OK   5.3 KB     84ms   
GET djpw.css   200 OK   5 KB     43ms   
GET djpw_jush.css   200 OK   666 B     52ms   
GET logo.png   200 OK   9.9 KB     78ms   
GET djpw.js   200 OK   36.6 KB     312ms   
GET rss.png   302 Found   222 B     59ms   
GET database.gif   200 OK   1 KB     54ms   
GET alert.gif   200 OK   599 B     56ms   
GET php.gif   302 Found   232 B     58ms   
GET home.gif   302 Found   233 B     90ms   
GET book.gif   302 Found   233 B     91ms   
GET pc.gif   302 Found   232 B     87ms   
GET stairs.gif   302 Found   234 B     95ms   
GET help.gif   302 Found   233 B     102ms   
GET css.gif   302 Found   232 B     112ms   
GET comment.gif   302 Found   235 B     112ms   
GET archive.gif   302 Found   235 B     116ms   
GET html.gif   302 Found   231 B     120ms   
GET w3c.gif   302 Found   233 B     127ms   
GET browser_error.gif   302 Found   239 B     126ms   
GET apache.gif   302 Found   234 B     133ms   
GET textpattern.gif   302 Found   237 B     136ms   
GET install.gif   302 Found   235 B     139ms   
GET hosting.gif   302 Found   235 B     142ms   
GET search.gif   302 Found   234 B     171ms   
GET graph.gif   302 Found   233 B     166ms   
GET para.gif   302 Found   233 B     167ms   
GET media.gif   302 Found   233 B     172ms   
GET fl.gif   302 Found   232 B     172ms   
GET actionscript.gif   302 Found   239 B     181ms   
GET work.gif   302 Found   233 B     167ms   
GET info.gif   302 Found   233 B     268ms   
GET snowflake.gif   302 Found   236 B     271ms   
GET reklama.js   302 Found   225 B     55ms   
GET djpw_jush.js   302 Found   230 B     77ms   
GET statistika.js   302 Found   222 B    


Jestli on ten server neposílá ke dnu nějaká jiná doména, co je na něm s djpw.
Kajman_
Profil *
Chamurappi:
> > limity pro domén u jakpsatweb.cz jsme zvedli na 240s/1800s, takže by už
> > neměly žádné problémy nastat.

Vypadá to, že to problémy nevyřešilo. Dnešních přetížení na toplistu je podobně jak předešlé dny.

Jan Tvrdík:
nebo opět zvážit přechod jinam (asi VPS).

Nebo koupit vlastní železo, platit housing a přemluvit Davexe, aby vlastní server rozběhnul :-)

Co využít kategorii hosting k poptávce řešící tento problém?
Kajman_
Profil *
Dnes vypadá statistika přetížení dobře. Je tam jen jedno a to nejpíš omylem, protože chybí parametr url.

Chamurappi:
V dnešním logu je 302 taky minimum? (U požadavku na rules nemusí jít o chybu, jidne asi ano).
Chamurappi
Profil
Reaguji na Kajmana:
V dnešním logu je 302 taky minimum?
Řekl bych, že ano. Je jich sice dost, ale všechno je rozumné (jiná/chybějící kategorie v adrese apod.).

Je tam jen jedno a to nejpíš omylem
Dotyčná IP dnes na naši diskusi nezavítala.
« 1 2

Vaše odpověď


Prosím používejte diakritiku a interpunkci.

Ochrana proti spamu. Napište prosím číslo dvě-sta čtyřicet-sedm:

0