這篇文章將為大家詳細講解有關Python3爬蟲利器中Scrapy-redis的安裝方法是什么,小編覺得挺實用的,因此分享給大家做個參考,希望大家閱讀完這篇文章后可以有所收獲。
創(chuàng)新互聯建站專注為客戶提供全方位的互聯網綜合服務,包含不限于做網站、成都網站制作、田陽網絡推廣、小程序設計、田陽網絡營銷、田陽企業(yè)策劃、田陽品牌公關、搜索引擎seo、人物專訪、企業(yè)宣傳片、企業(yè)代運營等,從售前售中售后,我們都將竭誠為您服務,您的肯定,是我們最大的嘉獎;創(chuàng)新互聯建站為所有大學生創(chuàng)業(yè)者提供田陽建站搭建服務,24小時服務熱線:028-86922220,官方網址:www.rwnh.cn
Scrapy-Redis是Scrapy的分布式擴展模塊,有了它,我們就可以方便地實現Scrapy分布式爬蟲的搭建。本節(jié)中,我們將介紹Scrapy-Redis的安裝方式。
相關鏈接
GitHub:https://github.com/rmax/scrapy-redis
PyPI:https://pypi.python.org/pypi/scrapy-redis
官方文檔:http://scrapy-redis.readthedocs.io
pip安裝
這里推薦使用pip安裝,命令如下:
pip3 install scrapy-redis
wheel安裝
此外,也可以到PyPI下載wheel文件安裝(詳見https://pypi.python.org/pypi/scrapy-redis#downloads),如當前的最新版本為0.6.8,則可以下載scrapy_redis-0.6.8-py2.py3-none-any.whl,然后通過pip安裝即可:
pip3 install scrapy_redis-0.6.8-py2.py3-none-any.whl
測試安裝
安裝完成之后,可以在Python命令行下測試:
$ python3 >>> import scrapy_redis
如果沒有錯誤報出,則證明庫已經安裝好了。
關于Python3爬蟲利器中Scrapy-Redis的安裝方法是什么就分享到這里了,希望以上內容可以對大家有一定的幫助,可以學到更多知識。如果覺得文章不錯,可以把它分享出去讓更多的人看到。
文章題目:Python3爬蟲利器中Scrapy-Redis的安裝方法是什么
文章源于:http://www.rwnh.cn/article36/jjshsg.html
成都網站建設公司_創(chuàng)新互聯,為您提供企業(yè)網站制作、全網營銷推廣、網站營銷、建站公司、Google、面包屑導航
聲明:本網站發(fā)布的內容(圖片、視頻和文字)以用戶投稿、用戶轉載內容為主,如果涉及侵權請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網站立場,如需處理請聯系客服。電話:028-86922220;郵箱:631063699@qq.com。內容未經允許不得轉載,或轉載時需注明來源: 創(chuàng)新互聯