Autor | Zpráva | ||
---|---|---|---|
d.b.cooper Profil * |
#1 · Zasláno: 20. 8. 2012, 10:59:29
zajímalo by mě jestli jde po spojení
$fp = fsockopen ("www.neco.com", 80, $errno, $errstr, 30); (který trvá nejdýl) měnit get fputs ($fp, "GET /?a=".$jmeno_bez diakritiky."doSelect=2 HTTP/1.0\r\nHost: www.example.com\r\n\r\n"); a tím načíst více podstránek na jedné doméně s jedním spojením tady je kód co sem zkoušel $fp = fsockopen ("www.neco.com", 80, $errno, $errstr, 30); foreach($array as $ind => $row) { $file = ""; if (!$fp) { echo "$errstr ($errno)<br>\n"; } else { fputs ($fp, "GET /?a=".$row." HTTP/1.0\r\nHost: www.neco.com\r\n\r\n"); $endRow = 0; while (!feof($fp)) { if($endRow == 100) { break; } $rowFp = fgets ($fp,128); $file .= $rowFp; echo htmlspecialchars($rowFp)."<br />"; $endRow++; } } /*kod na zpracovani zdrojaku*/ } fclose ($fp) testoval sem to ale mam pocit že to ani ten get nebere v potaz tak nevim jestli mi to pomůže a mam to zkoušet dál každopádně bych musel nějak resetovat to co je ve whilu protože mi to nejde po druhym průchodu foreachem od začátku zdrojáku pokud sem dal do foreache i spojení a ukončení spojení opakovat trvalo to vše stejně (dýl ... ) než s file_get_contents() takže by to ani nemělo smysl nahrazovat máte s tím někdo zkušenosti ? |
||
TomasJ Profil |
#2 · Zasláno: 20. 8. 2012, 11:29:14
foreach($array as $ind => $row) { |
||
d.b.cooper Profil * |
#3 · Zasláno: 20. 8. 2012, 12:54:08
je ... takze rikas ze by to melo fungovat tak jak to chci pouzit a mam hledat chybu ... nebo sem spatne pochopil pouziti fce
|
||
TomasJ Profil |
#4 · Zasláno: 20. 8. 2012, 16:00:38
Přesně nevím jak fungují požadavky u HTTP, takže víc neporadím.
|
||
Majkl578 Profil |
#5 · Zasláno: 20. 8. 2012, 17:58:32
Vhodné řešení na paralelní stažení více souborů (v tvém případě stránek) nabízí cURL. Doporučuji nastudovat použití curl_multi_* (example #1 je funkční vzorové řešení).
|
||
Časová prodleva: 12 let
|
0