内射老阿姨1区2区3区4区_久久精品人人做人人爽电影蜜月_久久国产精品亚洲77777_99精品又大又爽又粗少妇毛片

爬蟲urllib庫的使用方法

這篇文章給大家分享的是有關(guān)爬蟲urllib庫的使用方法的內(nèi)容。小編覺得挺實用的,因此分享給大家做個參考。一起跟隨小編過來看看吧。

創(chuàng)新互聯(lián)服務(wù)項目包括洪山網(wǎng)站建設(shè)、洪山網(wǎng)站制作、洪山網(wǎng)頁制作以及洪山網(wǎng)絡(luò)營銷策劃等。多年來,我們專注于互聯(lián)網(wǎng)行業(yè),利用自身積累的技術(shù)優(yōu)勢、行業(yè)經(jīng)驗、深度合作伙伴關(guān)系等,向廣大中小型企業(yè)、政府機構(gòu)等提供互聯(lián)網(wǎng)行業(yè)的解決方案,洪山網(wǎng)站推廣取得了明顯的社會效益與經(jīng)濟效益。目前,我們服務(wù)的客戶以成都為中心已經(jīng)輻射到洪山省份的部分城市,未來相信會繼續(xù)擴大服務(wù)區(qū)域并繼續(xù)獲得客戶的支持與信任!

URL(Uniform Resource Locator)對象代表統(tǒng)一資源定位器,它是指向互聯(lián)網(wǎng)“資源”的指針。資源可以是簡單的文件或目錄,也可以是對復(fù)雜對象的引用,例如對數(shù)據(jù)庫或搜索引擎的查詢。在通常情況下,URL 可以由協(xié)議名、主機、端口和資源路徑組成,即滿足如下格式:

protocol://host:port/path

例如如下的 URL 地址:

http://www.crazyit.org/index.php

urllib 模塊則包含了多個用于處理 URL 的子模塊:

urllib.request:這是最核心的子模塊,它包含了打開和讀取 URL 的各種函數(shù)。
urllib.error:主要包含由 urllib.request 子模塊所引發(fā)的各種異常。
urllib.parse:用于解析 URL。
urllib.robotparser:主要用于解析 robots.txt 文件。

通過使用 urllib 模塊可以打開任意 URL 所指向的資源,就像打開本地文件一樣,這樣程序就能完整地下載遠程頁面。如果再與 re 模塊結(jié)合使用,那么程序完全可以提取頁面中各種信息,這就是所謂的“網(wǎng)絡(luò)爬蟲”的初步原理。

下面先介紹 urllib.parse 子模塊中用于解析 URL 地址和查詢字符串的函數(shù):

urllib.parse.urlparse(urlstring, scheme='', allow_fragments=True):該函數(shù)用于解析 URL 字符串。程序返回一個 ParseResult 對象,可以獲取解析出來的數(shù)據(jù)。

urllib.parse.urlunparse(parts):該函數(shù)是上一個函數(shù)的反向操作,用于將解析結(jié)果反向拼接成 URL 地址。

urllib.parse.parse_qs(qs, keep_blank_values=False, strict_parsing=False, encoding='utf-8', errors='replace'):該該函數(shù)用于解析查詢字符串(application/x-www-form-urlencoded 類型的數(shù)據(jù)),并以 dict 形式返回解析結(jié)果。

urllib.parse.parse_qsl(qs, keep_blank_values=False, strict_parsing=False, encoding='utf-8', errors='replace'):該函數(shù)用于解析查詢字符串(application/x-www-form-urlencoded 類型的數(shù)據(jù)),并以列表形式返回解析結(jié)果。

urllib.parse.urlencode(query, doseq=False, safe='', encoding=None, errors=None, quote_via=quote_plus):將字典形式或列表形式的請求參數(shù)恢復(fù)成請求字符串。該函數(shù)相當于 parse_qs()、parse_qsl() 的逆函數(shù)。

urllib.parse.urljoin(base, url, allow_fragments=True):該函數(shù)用于將一個 base_URL 和另一個資源 URL 連接成代表絕對地址的 URL。

例如,如下程序使用 urlparse() 函數(shù)來解析 URL 字符串:

from urllib.parse import *

# 解析URL字符串
result = urlparse('http://www.crazyit.org:80/index.php;yeeku?name=fkit#frag')
print(result)
# 通過屬性名和索引來獲取URL的各部分
print('scheme:', result.scheme, result[0])
print('主機和端口:', result.netloc, result[1])
print('主機:', result.hostname)
print('端口:', result.port)
print('資源路徑:', result.path, result[2])
print('參數(shù):', result.params, result[3])
print('查詢字符串:', result.query, result[4])
print('fragment:', result.fragment, result[5])
print(result.geturl())

上面程序中使用 urlparse() 函數(shù)解析 URL 字符串,解析結(jié)果是一個 ParseResult 對象,該對象實際上是 tuple 的子類。因此,程序既可通過屬性名來獲取 URL 的各部分,也可通過索引來獲取 URL 的各部分。

感謝各位的閱讀!關(guān)于爬蟲urllib庫的使用方法就分享到這里了,希望以上內(nèi)容可以對大家有一定的幫助,讓大家可以學到更多知識。如果覺得文章不錯,可以把它分享出去讓更多的人看到吧!

網(wǎng)站題目:爬蟲urllib庫的使用方法
本文地址:http://www.rwnh.cn/article38/ipccpp.html

成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供網(wǎng)站改版、虛擬主機、網(wǎng)站設(shè)計響應(yīng)式網(wǎng)站、品牌網(wǎng)站制作、面包屑導(dǎo)航

廣告

聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網(wǎng)站立場,如需處理請聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時需注明來源: 創(chuàng)新互聯(lián)

成都app開發(fā)公司
清流县| 文登市| 武隆县| 梨树县| 肇源县| 温泉县| 宁晋县| 肥乡县| 河津市| 习水县| 商丘市| 正安县| 平顶山市| 鄂伦春自治旗| 鄯善县| 吉安市| 会东县| 莒南县| 兴文县| 成都市| 陵川县| 锦屏县| 本溪市| 九龙城区| 九龙坡区| 衢州市| 平邑县| 霍邱县| 桦南县| 洛浦县| 绥宁县| 金平| 钦州市| 盐山县| 武义县| 武山县| 吉木萨尔县| 东兴市| 石泉县| 尉氏县| 彭州市|