<div dir="ltr"><div class="gmail_extra"><br><div class="gmail_quote">2015-07-14 0:28 GMT+01:00 enrico franchi <span dir="ltr"><<a href="mailto:enrico.franchi@gmail.com" target="_blank">enrico.franchi@gmail.com</a>></span>:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><br><div class="gmail_extra"><br><div class="gmail_quote"><span class="">On Mon, Jul 13, 2015 at 7:35 PM, Riccardo Magliocchetti <span dir="ltr"><<a href="mailto:riccardo.magliocchetti@gmail.com" target="_blank">riccardo.magliocchetti@gmail.com</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><span><br></span>
Qualche tempo fa era uscito qualcosa del genere dove veniva usata una commovente pipeline:<br>
<a href="http://aadrake.com/command-line-tools-can-be-235x-faster-than-your-hadoop-cluster.html" rel="noreferrer" target="_blank">http://aadrake.com/command-line-tools-can-be-235x-faster-than-your-hadoop-cluster.html</a></blockquote><div><br></div></span><div>E vorrei vedere! Chiunque faccia big data per davvero concorderebbe: 2 GB non e' abbastanza per pagare l'overhead di Hadoop e compagnia briscola. E ancora grep-sized. </div><div><br></div></div></div></div></blockquote><div><br></div><div>Comunque l'articolo e' spettacolare. Anche la metodologia e' molto solida e rigorosa. Piacevole lettura, grazie! </div></div><br><br clear="all"><div><br></div>-- <br><div class="gmail_signature"> .<br>..: -enrico-</div>
</div></div>