[Python] HTTP Client Asincrono

Matteo Scarpa fundor333 a gmail.com
Lun 10 Lug 2017 09:28:05 CEST


Posso suggerirti https://scrapy.org/ per il parsing di un gran numero di
pagine? Ha tutto integrata la gestione del "multitreding" e permette di
elaborare i risultati con beautifullsoup... Personalmente ho fatto di
quelle porcate con questo framework/libreria e ora non vado nemmeno più a
guardare quelle pagine ma leggo direttamente i risultati di scrapy

Il giorno lun 10 lug 2017 alle ore 09:08 Nicola Larosa <nico a teknico.net>
ha scritto:

> Lorenzo Mainardi wrote:
> > Sto cercando di fare un po' di scraping con BeautifulSoup e devo
> > scaricare quasi 10000 pagine.
> > Avevo iniziato con requests, ma i tempi diventano bibilici lavorando
> > in modo sincrono. Allora ho fatto i seguenti test:
> >
> > * twisted: non mi va di metterlo nel mezzo. Inoltre, avendoci lavorato
> > diversi anni fa lo considero troppo complesso per quello che devo
> > fare io
>
> Tornado: a gentler, kinder Twisted.
> <http://www.tornadoweb.org/en/stable/guide/async.html>
>
> Funziona una bellezza.
>
> --
> Nicola 'tekNico' Larosa <https://www.tekNico.net/>
> _______________________________________________
> Python mailing list
> Python a lists.python.it
> http://lists.python.it/mailman/listinfo/python
>
-- 

Fundor333
https://fundor333.com
-------------- parte successiva --------------
Un allegato HTML è stato rimosso...
URL: <http://lists.python.it/pipermail/python/attachments/20170710/8a592ddf/attachment.html>


Maggiori informazioni sulla lista Python