新聞中心
python爬蟲怎么做?
不管你用什么語言,爬蟲都只有這幾個步驟

1、發(fā)送請求
2、接受響應(yīng)
3、解析響應(yīng)
4、數(shù)據(jù)存儲
上面的怎么理解呢?我們以瀏覽器的工作過程作個大概的說明。比如,我們準(zhǔn)備在百度上查個問題。
首先,我們需要在瀏覽器地址欄輸入 http://www.baidu.com ,然后回車。其實這就是在發(fā)送請求,當(dāng)然瀏覽器為我們隱藏了很多細(xì)節(jié)。簡單粗暴的理解,瀏覽器會將地址以及本身的一些信息打包成一個 HTTP 包(計算機(jī)里就叫做請求),然后發(fā)給目標(biāo)地址。
其次,遠(yuǎn)程服務(wù)器在收到請求后,知道了瀏覽器想訪問 www.baidu.com ,于是也打了一個包(計算機(jī)里就叫做響應(yīng))然后返回,瀏覽器從而接受到了響應(yīng)。
然后,瀏覽器收到響應(yīng)后,會看看響應(yīng)的一些信息,比如返回的內(nèi)容的類型,比如這里是 HTML ,于是瀏覽器調(diào)用相應(yīng)的引擎渲染,最后百度頁面就展示出來了。
最后呢,如果瀏覽器開著緩存的話,會將訪問過的 HTML 文本緩存過來,也就是數(shù)據(jù)存儲了。
視頻加載中...
爬蟲是什么
- 抓取網(wǎng)絡(luò)上的資源,并解析,達(dá)到想要的目的
相關(guān)庫
- requests
- beautifulsoup4 + lxml
- pyquery
相關(guān)的框架
- pyspider
- srcapy
Python,可以幫忙搶票,可以爬蟲東西,關(guān)于Python爬蟲怎么做?今天教大家一個案例,python爬蟲多線程實戰(zhàn):爬取美桌1080p壁紙圖片 | 技術(shù)
技術(shù)點(diǎn)分析
· 爬蟲requests
· 多線程threading
· 文件io讀寫操作
· xpath 提取ur
· 正則
實戰(zhàn)
· 分析url
入門爬蟲,肯定先要對爬蟲有個明確的認(rèn)識。
網(wǎng)絡(luò)爬蟲:又被稱為網(wǎng)頁蜘蛛,網(wǎng)絡(luò)機(jī)器人,在FOAF社區(qū)中間,更經(jīng)常的稱為網(wǎng)頁追逐者,是一種按照一定的規(guī)則,自動地抓取萬維網(wǎng)信息的程序或者腳本。另外一些不常使用的名字還有螞蟻、自動索引、模擬程序或者蠕蟲。
其實簡單說,爬蟲就是爬取知識,爬取內(nèi)容。就像一只蜘蛛,不斷的在爬取網(wǎng)路上的內(nèi)容!互聯(lián)網(wǎng)上的內(nèi)容都是人寫出來的,有規(guī)律,大部分爬蟲是從發(fā)送請求——獲得頁面——解析頁面——下載內(nèi)容——儲存內(nèi)容這樣的流程來進(jìn)行。
如何入門爬蟲,可以看傳智播客Scrapy爬蟲框架視頻教程:
其它關(guān)于網(wǎng)絡(luò)爬蟲的教程:
網(wǎng)絡(luò)爬蟲-利用python實現(xiàn)爬取網(wǎng)頁神技1
網(wǎng)絡(luò)爬蟲-利用python實現(xiàn)爬取網(wǎng)頁神技2
Python之爬蟲開發(fā)帝王
到此,以上就是小編對于mongodb導(dǎo)出表數(shù)據(jù)的問題就介紹到這了,希望這1點(diǎn)解答對大家有用。
標(biāo)題名稱:mongodb怎么導(dǎo)出某個表索引
文章起源:http://www.dlmjj.cn/article/cojgojj.html


咨詢
建站咨詢
