[Python] split di file di grandi dimensioni

Nicola Larosa nico a tekNico.net
Ven 4 Dic 2009 14:38:44 CET


> Daniele Varrazzo wrote:
>> Io infatti avrei salvato tutti i dizionari dopo un numero prefissato
>> di righe lette dal file di input. In questo modo l'occupazione di
>> memoria è controllata e le prestazioni credo siano in linea (qualche
>> file potrebbe avere poche righe, ma se su 1000 file aperti si
>> scrivono 1M di righe statisticamente siamo lì). Credo sia anche
>> molto più semplice da scrivere e meno soggetto ad errori.

David Mugnai wrote:
> non stiamo reinventando quello che già fa il sistema operativo con il 
> file buffer? invece di scrivere logica addizionale che mima quello che
> fa già il kernel potremmo provare ad aprire i file con bufsize=10M :)

Esattamente.

E aumentare il numero di file che si possono aprire insieme non è un
problema (24 è un limite ridicolo, tra l'altro, c'è qualcos'altro in ballo).

-- 
Nicola Larosa - http://www.tekNico.net/

Exposing real pre-emptive threading with shared mutable data structures
to application programmers is wrong. [...] Threads are a recipe for
deadlocks, race conditions, horrible non-reproducible bugs that take
endless pain to find, and hard-to-diagnose performance problems.
 - Tim Bray, September 2009


Maggiori informazioni sulla lista Python