在公司做分布式深網(wǎng)爬蟲,搭建了一套穩(wěn)定的代理池服務(wù),為上千個爬蟲提供有效的代理,保證各個爬蟲拿到的都是對應(yīng)網(wǎng)站有效的代理IP,從而保證爬蟲快速穩(wěn)定的運行,當然在公司做的東西不能開源出來。不過呢,閑暇時間手癢,所以就想利用一些免費的資源搞一個簡單的代理池服務(wù)。
1、問題
代理IP從何而來?
剛自學(xué)爬蟲的時候沒有代理IP就去西刺、快代理之類有免費代理的網(wǎng)站去爬,還是有個別代理能用。當然,如果你有更好的代理接口也可以自己接入。
免費代理的采集也很簡單,無非就是:訪問頁面頁面 —> 正則/xpath提取 —> 保存如何保證代理質(zhì)量?
可以肯定免費的代理IP大部分都是不能用的,不然別人為什么還提供付費的(不過事實是很多代理商的付費IP也不穩(wěn)定,也有很多是不能用)。所以采集回來的代理IP不能直接使用,可以寫檢測程序不斷的去用這些代理訪問一個穩(wěn)定的網(wǎng)站,看是否可以正常使用。這個過程可以使用多線程或異步的方式,因為檢測代理是個很慢的過程。采集回來的代理如何存儲?
這里不得不推薦一個高性能支持多種數(shù)據(jù)結(jié)構(gòu)的NoSQL數(shù)據(jù)庫SSDB,用于代理Redis。支持隊列、hash、set、k-v對,支持T級別數(shù)據(jù)。是做分布式爬蟲很好中間存儲工具。如何讓爬蟲更簡單的使用這些代理?
答案肯定是做成服務(wù)咯,python有這么多的web框架,隨便拿一個來寫個api供爬蟲調(diào)用。這樣有很多好處,比如:當爬蟲發(fā)現(xiàn)代理不能使用可以主動通過api去delete代理IP,當爬蟲發(fā)現(xiàn)代理池IP不夠用時可以主動去refresh代理池。這樣比檢測程序更加靠譜。2、代理池設(shè)計
代理池由四部分組成:
ProxyGetter:
代理獲取接口,目前有5個免費代理源,每調(diào)用一次就會抓取這個5個網(wǎng)站的最新代理放入DB,可自行添加額外的代理獲取接口;DB:
用于存放代理IP,現(xiàn)在暫時只支持SSDB。至于為什么選擇SSDB,大家可以參考這篇文章,個人覺得SSDB是個不錯的Redis替代方案,如果你沒有用過SSDB,安裝起來也很簡單,可以參考這里;Schedule:
計劃任務(wù)用戶定時去檢測DB中的代理可用性,刪除不可用的代理。同時也會主動通過ProxyGetter去獲取最新代理放入DB;ProxyApi:
代理池的外部接