开心六月综合激情婷婷|欧美精品成人动漫二区|国产中文字幕综合色|亚洲人在线成视频

    1. 
      
        <b id="zqfy3"><legend id="zqfy3"><fieldset id="zqfy3"></fieldset></legend></b>
          <ul id="zqfy3"></ul>
          <blockquote id="zqfy3"><strong id="zqfy3"><dfn id="zqfy3"></dfn></strong></blockquote>
          <blockquote id="zqfy3"><legend id="zqfy3"></legend></blockquote>
          打開APP
          userphoto
          未登錄

          開通VIP,暢享免費電子書等14項超值服

          開通VIP
          python爬蟲入門,10分鐘就夠了,這可能是我見過最簡單的基礎(chǔ)教學(xué)

          一、基礎(chǔ)入門

          1.1什么是爬蟲

          爬蟲(spider,又網(wǎng)絡(luò)爬蟲),是指向網(wǎng)站/網(wǎng)絡(luò)發(fā)起請求,獲取資源后分析并提取有用數(shù)據(jù)的程序。

          從技術(shù)層面來說就是 通過程序模擬瀏覽器請求站點的行為,把站點返回的HTML代碼/JSON數(shù)據(jù)/二進制數(shù)據(jù)(圖片、視頻) 爬到本地,進而提取自己需要的數(shù)據(jù),存放起來使用。

          想要學(xué)習(xí)Python又缺少系統(tǒng)化學(xué)習(xí)方案的朋友可以關(guān)注并私信“01”免費領(lǐng)取系統(tǒng)化的Python學(xué)習(xí)資料...愿大家都能在編程這條路,越走越遠。

          1.2爬蟲基本流程

          用戶獲取網(wǎng)絡(luò)數(shù)據(jù)的方式:

          方式1:瀏覽器提交請求--->下載網(wǎng)頁代碼--->解析成頁面

          方式2:模擬瀏覽器發(fā)送請求(獲取網(wǎng)頁代碼)->提取有用的數(shù)據(jù)->存放于數(shù)據(jù)庫或文件中

          爬蟲要做的就是方式2。

          1

          發(fā)起請求

          使用http庫向目標(biāo)站點發(fā)起請求,即發(fā)送一個Request

          Request包含:請求頭、請求體等

          Request模塊缺陷:不能執(zhí)行JS 和CSS 代碼

          2

          獲取響應(yīng)內(nèi)容

          如果服務(wù)器能正常響應(yīng),則會得到一個Response

          Response包含:html,json,圖片,視頻等

          3

          解析內(nèi)容

          解析html數(shù)據(jù):正則表達式(RE模塊)、xpath(主要使用)、beautiful soup、css

          解析json數(shù)據(jù):json模塊

          解析二進制數(shù)據(jù):以wb的方式寫入文件

          4

          保存數(shù)據(jù)

          數(shù)據(jù)庫(MySQL,Mongdb、Redis)或 文件的形式。

          1.3http協(xié)議 請求與響應(yīng)

          http協(xié)議

          Request:用戶將自己的信息通過瀏覽器(socket client)發(fā)送給服務(wù)器(socket server)

          Response:服務(wù)器接收請求,分析用戶發(fā)來的請求信息,然后返回數(shù)據(jù)(返回的數(shù)據(jù)中可能包含其他鏈接,如:圖片,js,css等)

          ps:瀏覽器在接收Response后,會解析其內(nèi)容來顯示給用戶,而爬蟲程序在模擬瀏覽器發(fā)送請求然后接收Response后,是要提取其中的有用數(shù)據(jù)。

          1.3.1

          request

          (1) 請求方式

          常見的請求方式:GET / POST

          (2)請求的URL

          url全球統(tǒng)一資源定位符,用來定義互聯(lián)網(wǎng)上一個唯一的資源 例如:一張圖片、一個文件、一段視頻都可以用url唯一確定

          (3)請求頭

          User-agent:請求頭中如果沒有user-agent客戶端配置,服務(wù)端可能將你當(dāng)做一個非法用戶host;

          cookies:cookie用來保存登錄信息

          注意:一般做爬蟲都會加上請求頭。

          請求頭需要注意的參數(shù):

          • Referrer:訪問源至哪里來(一些大型網(wǎng)站,會通過Referrer 做防盜鏈策略;所有爬蟲也要注意模擬)
          • User-Agent:訪問的瀏覽器(要加上否則會被當(dāng)成爬蟲程序)
          • cookie:請求頭注意攜帶

          (4)請求體

          請求體 如果是get方式,請求體沒有內(nèi)容 (get請求的請求體放在 url后面參數(shù)中,直接能看到) 如果是post方式,請求體是format data

          ps:1、登錄窗口,文件上傳等,信息都會被附加到請求體內(nèi) 2、登錄,輸入錯誤的用戶名密碼,然后提交,就可以看到post,正確登錄后頁面通常會跳轉(zhuǎn),無法捕捉到post

          1.3.2

          response

          (1)響應(yīng)狀態(tài)碼

          • 200:代表成功
          • 301:代表跳轉(zhuǎn)
          • 404:文件不存在
          • 403:無權(quán)限訪問
          • 502:服務(wù)器錯誤

          (2)response header

          響應(yīng)頭需要注意的參數(shù):Set-Cookie:BDSVRTM=0; path=/:可能有多個,是來告訴瀏覽器,把cookie保存下來

          (3)preview就是網(wǎng)頁源代碼

          json數(shù)據(jù)

          如網(wǎng)頁html,圖片

          二進制數(shù)據(jù)等

          02

          二、基礎(chǔ)模塊

          2.1requests

          requests是python實現(xiàn)的簡單易用的HTTP庫,是由urllib的升級而來。

          開源地址:

          https://github.com/kennethreitz/requests

          中文API:

          http://docs.python-requests.org/zh_CN/latest/index.html

          2.2re 正則表達式

          在 Python 中使用內(nèi)置的 re 模塊來使用正則表達式。

          缺點:處理數(shù)據(jù)不穩(wěn)定、工作量大

          2.3XPath

          Xpath(XML Path Language) 是一門在 XML 文檔中查找信息的語言,可用來在 XML 文檔中對元素和屬性進行遍歷。

          在python中主要使用 lxml 庫來進行xpath獲取(在框架中不使用lxml,框架內(nèi)直接使用xpath即可)

          lxml 是 一個HTML/XML的解析器,主要的功能是如何解析和提取 HTML/XML 數(shù)據(jù)。

          lxml和正則一樣,也是用 C 實現(xiàn)的,是一款高性能的 Python HTML/XML 解析器,我們可以利用之前學(xué)習(xí)的XPath語法,來快速的定位特定元素以及節(jié)點信息。

          2.4BeautifulSoup

          和 lxml 一樣,Beautiful Soup 也是一個HTML/XML的解析器,主要的功能也是如何解析和提取 HTML/XML 數(shù)據(jù)。

          使用BeautifulSoup需要導(dǎo)入bs4庫

          缺點:相對正則和xpath處理速度慢

          優(yōu)點:使用簡單

          2.5Json

          JSON(JavaScript Object Notation) 是一種輕量級的數(shù)據(jù)交換格式,它使得人們很容易的進行閱讀和編寫。同時也方便了機器進行解析和生成。適用于進行數(shù)據(jù)交互的場景,比如網(wǎng)站前臺與后臺之間的數(shù)據(jù)交互。

          在python中主要使用 json 模塊來處理 json數(shù)據(jù)。Json解析網(wǎng)站:

          https://www.sojson.com/simple_json.html

          2.6threading

          使用threading模塊創(chuàng)建線程,直接從threading.Thread繼承,然后重寫__init__方法和run方法

          03

          三、方法實例

          3.1get方法實例

          demo_get.py

          3.2post方法實例

          demo_post.py

          3.3添加代理

          demo_proxies.py

          3.4獲取ajax類數(shù)據(jù)實例

          demo_ajax.py

          3.5使用多線程實例

          demo_thread.py

          04

          四、爬蟲框架

          4.1Srcapy框架

          • Scrapy是用純Python實現(xiàn)一個為了爬取網(wǎng)站數(shù)據(jù)、提取結(jié)構(gòu)性數(shù)據(jù)而編寫的應(yīng)用框架,用途非常廣泛。
          • Scrapy 使用了 Twisted['tw?st?d](其主要對手是Tornado)異步網(wǎng)絡(luò)框架來處理網(wǎng)絡(luò)通訊,可以加快我們的下載速度,不用自己去實現(xiàn)異步框架,并且包含了各種中間件接口,可以靈活的完成各種需求。

          4.2Scrapy架構(gòu)圖

          4.3Scrapy主要組件

          • Scrapy Engine(引擎): 負責(zé)Spider、ItemPipeline、Downloader、Scheduler中間的通訊,信號、數(shù)據(jù)傳遞等。
          • Scheduler(調(diào)度器): 它負責(zé)接受引擎發(fā)送過來的Request請求,并按照一定的方式進行整理排列,入隊,當(dāng)引擎需要時,交還給引擎。
          • Downloader(下載器):負責(zé)下載Scrapy Engine(引擎)發(fā)送的所有Requests請求,并將其獲取到的Responses交還給Scrapy Engine(引擎),由引擎交給Spider來處理,
          • Spider(爬蟲):它負責(zé)處理所有Responses,從中分析提取數(shù)據(jù),獲取Item字段需要的數(shù)據(jù),并將需要跟進的URL提交給引擎,再次進入Scheduler(調(diào)度器),
          • Item Pipeline(管道):它負責(zé)處理Spider中獲取到的Item,并進行進行后期處理(詳細分析、過濾、存儲等)的地方.
          • Downloader Middlewares(下載中間件):你可以當(dāng)作是一個可以自定義擴展下載功能的組件。
          • Spider Middlewares(Spider中間件):你可以理解為是一個可以自定擴展和操作引擎和Spider中間通信的功能組件(比如進入Spider的Responses;和從Spider出去的Requests)

          4.4Scrapy的運作流程

          1. 引擎:Hi!Spider, 你要處理哪一個網(wǎng)站?
          2. Spider:老大要我處理xxxx.com。
          3. 引擎:你把第一個需要處理的URL給我吧。
          4. Spider:給你,第一個URL是xxxxxxx.com。
          5. 引擎:Hi!調(diào)度器,我這有request請求你幫我排序入隊一下。
          6. 調(diào)度器:好的,正在處理你等一下。
          7. 引擎:Hi!調(diào)度器,把你處理好的request請求給我。
          8. 調(diào)度器:給你,這是我處理好的request
          9. 引擎:Hi!下載器,你按照老大的下載中間件的設(shè)置幫我下載一下這個request請求
          10. 下載器:好的!給你,這是下載好的東西。(如果失?。簊orry,這個request下載失敗了。然后引擎告訴調(diào)度器,這個request下載失敗了,你記錄一下,我們待會兒再下載)
          11. 引擎:Hi!Spider,這是下載好的東西,并且已經(jīng)按照老大的下載中間件處理過了,你自己處理一下(注意!這兒responses默認是交給def parse()這個函數(shù)處理的)
          12. Spider:(處理完畢數(shù)據(jù)之后對于需要跟進的URL),Hi!引擎,我這里有兩個結(jié)果,這個是我需要跟進的URL,還有這個是我獲取到的Item數(shù)據(jù)。
          13. 引擎:Hi !管道 我這兒有個item你幫我處理一下!調(diào)度器!這是需要跟進URL你幫我處理下。然后從第四步開始循環(huán),直到獲取完老大需要全部信息。
          14. 管道``調(diào)度器:好的,現(xiàn)在就做!

          4.5制作Scrapy爬蟲4步曲

          1新建爬蟲項目scrapy startproject mySpider2明確目標(biāo) (編寫items.py)打開mySpider目錄下的items.py3制作爬蟲 (spiders/xxspider.py)scrapy genspider gushi365 'gushi365.com'4存儲內(nèi)容 (pipelines.py)設(shè)計管道存儲爬取內(nèi)容

          05

          五、常用工具

          5.1fidder

          fidder是一款抓包工具,主要用于手機抓包。

          5.2XPath Helper

          xpath helper插件是一款免費的chrome爬蟲網(wǎng)頁解析工具??梢詭椭脩艚鉀Q在獲取xpath路徑時無法正常定位等問題。

          谷歌瀏覽器插件xpath helper 的安裝和使用:

          https://jingyan.baidu.com/article/1e5468f94694ac484861b77d.html

          06

          六、分布式爬蟲

          6.1scrapy-redis

          Scrapy-redis是為了更方便地實現(xiàn)Scrapy分布式爬取,而提供了一些以redis為基礎(chǔ)的組件(pip install scrapy-redis)

          github網(wǎng)站:https://github.com/rolando/scrapy-redis

          6.2分布式策略

          • Master端(核心服務(wù)器) :搭建一個Redis數(shù)據(jù)庫,不負責(zé)爬取,只負責(zé)url指紋判重、Request的分配,以及數(shù)據(jù)的存儲
          • Slaver端(爬蟲程序執(zhí)行端) :負責(zé)執(zhí)行爬蟲程序,運行過程中提交新的Request給Master
          本站僅提供存儲服務(wù),所有內(nèi)容均由用戶發(fā)布,如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請點擊舉報。
          打開APP,閱讀全文并永久保存 查看更多類似文章
          猜你喜歡
          類似文章
          使用Scrapy構(gòu)建一個網(wǎng)絡(luò)爬蟲
          爬蟲之Scrapy框架
          Python Scrapy中文教程,Scrapy框架快速入門!
          一篇文章教會你理解Scrapy網(wǎng)絡(luò)爬蟲框架的工作原理和數(shù)據(jù)采集過程
          scrapy
          Python爬蟲之Scrapy框架介紹
          更多類似文章 >>
          生活服務(wù)
          分享 收藏 導(dǎo)長圖 關(guān)注 下載文章
          綁定賬號成功
          后續(xù)可登錄賬號暢享VIP特權(quán)!
          如果VIP功能使用有故障,
          可點擊這里聯(lián)系客服!

          聯(lián)系客服