<div dir="ltr">Ciao a tutti,<div><br></div><div>Trovo sempre ispirazione ma soprattutto soluzioni in questo forum.</div><div><br></div><div>Mi scontro con il seguente problema:</div><div><br></div><div>Macchina virtuale con XP (non uccidetemi) sopra una Debian su I5 con 4 gb di ram.</div><div>La macchina virtuale è limitata a 1 cpu con 1,5 gb ram.</div><div><br></div><div>Ho uno script python dentro XP che apre un file testuale da 1,2 mb (scarsi) e fa una readlines()</div><div><br></div><div>Poi usa alcune cose di wx (una wx.ProgressDialog)<br clear="all"><div><br></div><div>Da li parte con un ciclo for all' interno di readlines per leggere tutte le righe e con queste produrre</div><div>altri documenti txt. In soldoni: prende il file grande e ne fa tanti di piccoli in base ai contenuti delle righe.</div><div><br></div><div>Ora il tutto funziona egregiamente tuttavia:</div><div><br></div><div>All'inizio è una scheggia, ma mano a mano che l'elaborazione procede la cpu si satura e il tutto entra in agonia e non finisce mai (un minuto per elaborare 50 righe) e dovendo elaborare 25/30 mila righe impiega ore.</div><div><br></div><div>Mi pare strano tanto che ho tolto la readlines() e ho impostato un readline() per leggere una riga alla volta anziché caricare tutto in memoria tanto per vedere se la situazione cambiava ma niente. Tale e quale.</div><div><br></div><div>Mi sa tanto da problema sulla virtuale.</div><div><br></div><div>Cosa suggerite?</div><div><br></div><div>Grazie per il vostro tempo.</div><div><br></div>-- <br><div class="gmail_signature"><div dir="ltr"><div><div dir="ltr"><div dir="ltr"><font face="monospace">Riccardo Brazzale</font></div><div dir="ltr"><br></div></div></div></div></div>
</div></div>