日本综合一区二区|亚洲中文天堂综合|日韩欧美自拍一区|男女精品天堂一区|欧美自拍第6页亚洲成人精品一区|亚洲黄色天堂一区二区成人|超碰91偷拍第一页|日韩av夜夜嗨中文字幕|久久蜜综合视频官网|精美人妻一区二区三区

RELATEED CONSULTING
相關(guān)咨詢
選擇下列產(chǎn)品馬上在線溝通
服務(wù)時(shí)間:8:30-17:00
你可能遇到了下面的問(wèn)題
關(guān)閉右側(cè)工具欄

新聞中心

這里有您想知道的互聯(lián)網(wǎng)營(yíng)銷解決方案
scrapy在python爬蟲使用的注意事項(xiàng)有哪些-創(chuàng)新互聯(lián)

這篇文章將為大家詳細(xì)講解有關(guān)scrapy在python爬蟲使用的注意事項(xiàng)有哪些,小編覺(jué)得挺實(shí)用的,因此分享給大家做個(gè)參考,希望大家閱讀完這篇文章后可以有所收獲。

成都創(chuàng)新互聯(lián)專注于企業(yè)成都全網(wǎng)營(yíng)銷、網(wǎng)站重做改版、邵武網(wǎng)站定制設(shè)計(jì)、自適應(yīng)品牌網(wǎng)站建設(shè)、HTML5建站、商城建設(shè)、集團(tuán)公司官網(wǎng)建設(shè)、外貿(mào)網(wǎng)站制作、高端網(wǎng)站制作、響應(yīng)式網(wǎng)頁(yè)設(shè)計(jì)等建站業(yè)務(wù),價(jià)格優(yōu)惠性價(jià)比高,為邵武等各大城市提供網(wǎng)站開(kāi)發(fā)制作服務(wù)。

1.如果需要大批量分布式爬取,建議采用Redis數(shù)據(jù)庫(kù)存儲(chǔ),可安裝scrapy-redis,使用redis數(shù)據(jù)庫(kù)來(lái)替換scrapy原本使用的隊(duì)列結(jié)構(gòu)(deque),并配合其它數(shù)據(jù)庫(kù)存儲(chǔ),例如MySQL或者M(jìn)ongoDB,爬取效率將會(huì)極大提高。并且其自帶的dupefilter.py負(fù)責(zé)執(zhí)行requst的去重,使用redis的set數(shù)據(jù)結(jié)構(gòu),通過(guò)settings文件正確設(shè)置后,即便停止scrapy爬蟲,當(dāng)下次重新開(kāi)始后也能自動(dòng)去重。原因就是在redis已經(jīng)存儲(chǔ)了request的信息。

2.當(dāng)涉及到代理IP,Headers頭中間請(qǐng)求信息處理的時(shí)候,可以通過(guò)中間件Middleware來(lái)實(shí)現(xiàn)。Spider中間件是介入到Scrapy的spider處理機(jī)制的鉤子框架,可以添加代碼來(lái)處理發(fā)送給 Spiders的response及spider產(chǎn)生的item和request。

3.合理設(shè)置settings文件,需要熟練掌握settings的各種設(shè)置。

4.可以重新定義def start_requests(self)函數(shù)來(lái)加載cookie信息,form信息的提交用scrapy.FormRequest以及scrapy.FormRequest.from_response這兩個(gè)函數(shù),scrapy.FormRequest.from_response能實(shí)現(xiàn)自動(dòng)提交form數(shù)據(jù)。

5.采用Scrapy+phantomJS。 downloadMiddleware 對(duì)從 scheduler 送來(lái)的 Request 對(duì)象在請(qǐng)求之前進(jìn)行預(yù)處理,可以實(shí)現(xiàn)添加 headers, user_agent,還有 cookie 等功能 。但也可以通過(guò)中間件直接返回 HtmlResponse 對(duì)象,略過(guò)請(qǐng)求的模塊,直接扔給 response 的回調(diào)函數(shù)處理。

class CustomMetaMiddleware(object):
    def process_request(self,request,spider):
        dcap = dict(DesiredCapabilities.PHANTOMJS)     
        dcap["phantomjs.page.settings.loadImages"] = False  
        dcap["phantomjs.page.settings.resourceTimeout"] = 10
        driver = webdriver.PhantomJS("D:xx\xx",desired_capabilities=dcap)
        driver.get(request.url)
        body = driver.page_source.encode('utf8')
        url = driver.current_url
        driver.quit()
        return HtmlResponse(request.url,body=body)

關(guān)于scrapy在python爬蟲使用的注意事項(xiàng)有哪些就分享到這里了,希望以上內(nèi)容可以對(duì)大家有一定的幫助,可以學(xué)到更多知識(shí)。如果覺(jué)得文章不錯(cuò),可以把它分享出去讓更多的人看到。


文章名稱:scrapy在python爬蟲使用的注意事項(xiàng)有哪些-創(chuàng)新互聯(lián)
文章來(lái)源:http://www.dlmjj.cn/article/cccepi.html