<html><body style="word-wrap: break-word; -webkit-nbsp-mode: space; -webkit-line-break: after-white-space; "><br><div><blockquote type="cite"><div><blockquote type="cite">Gawk per Windows funziona discretamente bene.<br></blockquote><blockquote type="cite">Mi ha processato file di 900 mega in pochi secondi liberandomi di<br></blockquote><blockquote type="cite">molto lavoro manuale :)<br></blockquote><br>effettivamente ś, se il problema postato dall'op é per questioni di<br>lavoro io utilizzerei gawk, senza perdere tempo a implementare<br>qualcosa che esiste giá :-)<br>Non sono sicuro ma mi sembra che almeno awk sia installato di default<br>sui mac. In questo caso il comando diventa semplicemente:<br>awk '{print $0 &gt; "output_"$3".txt"}' input.txt<br><br>Personalmente l'ho utilizzato per problemi simili e su quantitá di<br>dati simili a quelli della domanda (10, 15 GB) e non ho mai dovuto<br>aspettare piu' di una ora.<br><br>Al massimo, se anche gawk dovesse essere lento, conviene semplificare<br>il problema alla base, ovvero: splittare il file in pezzi piu' piccoli<br>(comando split) e correrlo in parallelo, oppure ordinarlo (sort -k),<br>sempre che non sia importante mantenere l'ordine delle righe<br>originale.<font class="Apple-style-span" color="#000000"><font class="Apple-style-span" color="#144FAE"><br></font></font></div></blockquote><br></div><div>Sto provando con gawk per velocizzare lo split. Sono passate 2 ore ed il processo non è ancora terminato.</div><div>Volevo evitare gawk per avere uno script portabile senza richiedere all'utente di installare altro software.</div><div><br></div><div>Grazie</div><div>Ernesto</div></body></html>