Monitorare performance host

4 contenuti / 0 new
Ultimo contenuto
Monitorare performance host

Salve a tutti.
Vorrei sapere se esistono moduli drupal o tools php che consentano di monitorare nell'arco della giornata le prestazioni del provider su cui risiede il proprio sito. Ho questa necessità perchè ho u sito su bluhost.com (negli USA) che durante la giornata ha tempi di risposta decisamente variabili. Il tempo di presentazione della homepage passa da 2/3 sec. a 10/12 sec. in alcuni momenti della giornata. Ho provato a testare i tempi con webpagetest.org. L'assistenza bluehost dice che è colpa della lentezza dei nodi che sono attraversati in Europa (che bravi). Ho provato a fare un tracert verso il sito, e anche i loro nodi negli USA non sono poi così brillanti. Il problema però è che anche considerando 1 , 2 sec di ritardo dovuto alla lontananza, ma i rimanenti 10 sec. dove li perde? E' per questo che vorrei testare i tempi di risposta veri dell'host di bluehost.
Grazie

Problema interessante...

enzodrup wrote:
Vorrei sapere se esistono moduli drupal o tools php che consentano di monitorare nell'arco della giornata le prestazioni del provider su cui risiede il proprio sito. Ho questa necessità perchè ho u sito su bluhost.com (negli USA) che durante la giornata ha tempi di risposta decisamente variabili. Il tempo di presentazione della homepage passa da 2/3 sec. a 10/12 sec. in alcuni momenti della giornata. Ho provato a testare i tempi con webpagetest.org. L'assistenza bluehost dice che è colpa della lentezza dei nodi che sono attraversati in Europa (che bravi).

Eh si, in parte hanno ragione, ma solo in parte...
Avevi letto questo: http://www.drupalitalia.org/node/10633#comment-34296 ? Mi sembra di si...
enzodrup wrote:
Ho provato a fare un tracert verso il sito, e anche i loro nodi negli USA non sono poi così brillanti. Il problema però è che anche considerando 1 , 2 sec di ritardo dovuto alla lontananza, ma i rimanenti 10 sec. dove li perde? E' per questo che vorrei testare i tempi di risposta veri dell'host di bluehost.

Ci sono tanti tools credo. Quello che uso io è il banalissimo wget (ma sono su Linux). Ma mi sembra che ci sia una versione per Windows.

Con questo incantesimo:
wget -a stats.txt --no-dns-cache --no-cookies -p -O ./html.txt http://www.miosito.it[/codefilter_code]
Mi da una verbose diagnostica, ma scarica una serie di files (non solo l'HTML, ma di più del semplice .js, .css, ed immagini) e l'ultima riga è probabilmente quello che conta:
Downloaded: 14 files, 46K in 0.4s (113 KB/s)

FYI webpagetest.org mi dava 21 files, 63KB in 1.838s da Frankfurt, DE. Ovviamente loro controllano (stile yslow) il tempo di caricamento nel browser, mentre wget scrive i dati sul disco...

Qui l'analisi completo (escluso testo diagnostico):

--2010-06-01 10:52:10--  http://www.miosito.it/
2010-06-01
10:52:10 (28.6 KB/s) - `./html.txt' saved [5451/5451]
--2010-06-01 10:52:10--  http://www.miosito.it/robots.txt
2010-06-01
10:52:10 (6.19 MB/s) - `./html.txt' saved [68/68]
--2010-06-01 10:52:10--  http://www.miosito.it/Css/jhl.css
2010-06-01
10:52:11 (2.26 MB/s) - `./html.txt' saved [4443/4443]
--2010-06-01 10:52:11--  http://www.miosito.it/Css/FrontCover.css
2010-06-01
10:52:11 (54.5 MB/s) - `./html.txt' saved [595/595]
--2010-06-01 10:52:11--  http://www.miosito.it/Images/syger.png
2010-06-01
10:52:11 (71.5 KB/s) - `./html.txt' saved [14218/14218]
--2010-06-01 10:52:11--  http://www.miosito.it/Images/pcug.png
2010-06-01
10:52:11 (959 KB/s) - `./html.txt' saved [8729/8729]
--2010-06-01 10:52:11--  http://www.miosito.it/Pictures/jhl.jpg
2010-06-01
10:52:12 (934 KB/s) - `./html.txt' saved [5690/5690]
--2010-06-01 10:52:12--  http://www.miosito.it/Images/bookmark-button.gif
2010-06-01
10:52:12 (1.00 MB/s) - `./html.txt' saved [1536/1536]
--2010-06-01 10:52:12--  http://www.miosito.it/Scripts/AddThis.js
2010-06-01
10:52:12 (41.8 MB/s) - `./html.txt' saved [432/432]
--2010-06-01 10:52:12--  http://www.miosito.it/Images/valid-css.png
2010-06-01
10:52:12 (26.9 MB/s) - `./html.txt' saved [1428/1428]
--2010-06-01 10:52:12--  http://www.miosito.it/Images/valid-xhtml10.png
2010-06-01
10:52:12 (6.08 MB/s) - `./html.txt' saved [1882/1882]
--2010-06-01 10:52:12--  http://www.miosito.it/Images/valid-atom.png
2010-06-01
10:52:13 (7.22 MB/s) - `./html.txt' saved [1464/1464]
--2010-06-01 10:52:13--  http://www.miosito.it/Images/rss.gif
2010-06-01
10:52:13 (7.64 MB/s) - `./html.txt' saved [1512/1512]
--2010-06-01 10:52:13--  http://www.miosito.it/Scripts/GoogleAnalytics.js
2010-06-01
10:52:13 (9.81 MB/s) - `./html.txt' saved [107/107]
FINISHED --2010-06-01 10:52:13--
Downloaded: 14 files, 46K in 0.4s (116 KB/s)

(Sito con pagine HTML statico, per non introdurre altri fattori tipo tempo di esecuzione PHP).

Se ci sono idee o tools migliori, ben vengono...

HTH

John

Più imparo, più dubito.

Grazie John!
Allora le pagine che mi hai indacato meritano attenzione e tempo di lettura e comprension, quindi, le vedrò con un po' di calma.
Il comando wget con le opzioni che hai indicato l'ho subito provato su una macchina virtuale (Sun VirtualBox) su cui ho installato ubuntu. Guardando il file stats.txt, sembrerebbe iper veloce solo 0,5s per scaricare e salvare la pagina !!
Mi lascia però perplesso il risultato finale:

TERMINATO --2010-06-01 12:42:23--
Scaricati: 2 file, 16K in 0,4s (37,5 KB/s)

Perchè due file ? e i file .css, .js , le immagini? non li scarica? forse devo mettere qualche opzione in più?

Ciao Grazie ancora.

________________________________________________________________________________________
Quando risolverai il problema, scrivi come hai fatto, e se puoi scrivi [RISOLTO]
Sarà utile ad altri. Grazie
enzoazzolini.it

Mah, forse wget fa fatica con il .js e .css con query seguente. Anche da me su una pagina Drupal mi da due file (HTML e robots.txt) e basta. Sigh.

Comunque anch'io vedo una velocità intorno ai 40/45 KB/s

Non ho risolto il problema, ma se vuoi che 'scarica' più di una pagina HTML, puoi provare:
wget -a stats.txt --no-dns-cache --no-cookies --max-redirect=2 -p -r -l 1 -O ./html.txt http://www.miosito.it > /dev/null
Questo fa che segue anche gli anchor nella pagina, quindi scarica più pagine (compreso qualche 403)...
Con questo incantesimo scendo a 30/35 KB/s.

Più imparo, più dubito.