所幸要取得網(wǎng)頁內(nèi)容不是很復雜,就直接用urllib2來獲取內(nèi)容。
成都創(chuàng)新互聯(lián)公司為企業(yè)級客戶提高一站式互聯(lián)網(wǎng)+設計服務,主要包括成都網(wǎng)站設計、成都網(wǎng)站制作、重慶App定制開發(fā)、小程序設計、宣傳片制作、LOGO設計等,幫助客戶快速提升營銷能力和企業(yè)形象,創(chuàng)新互聯(lián)各部門都有經(jīng)驗豐富的經(jīng)驗,可以確保每一個作品的質(zhì)量和創(chuàng)作周期,同時每年都有很多新員工加入,為我們帶來大量新的創(chuàng)意。但是取出的內(nèi)容要如何處理,如何才能找到所需要的內(nèi)容。從網(wǎng)上搜索發(fā)現(xiàn)可以用HtmlParser或者BeautifulSoup來獲取,經(jīng)過嘗試之后果斷放棄HtmlParser。
BeautifulSoup:
python中的Beautiful是用Python寫的一個HTML/XML的解析器,它可以很好的處理不規(guī)范標記并生成剖析樹(parse tree)。
下載地址:http://www.crummy.com/software/BeautifulSoup/
下載完成之后,提取文件中的bs4文件夾??截惖剿璧奈募A路徑下。
具體使用文檔:http://www.crummy.com/software/BeautifulSoup/bs4/doc/
現(xiàn)在來說說我的使用方法:
假定需要解析url的代碼如下:
import urllib2
from bs4 import BeautifulSoup
def catch_url( url ):
content= urllib2.urlopen( url )
soup= BeautifulSoup( content )
return soup
然后,使用BeautifulSoup來解析一下京東的主頁:
def parse360buyContent( content ):
beauParse = BeautifulSoup( content )
soup= beauParse.findAll('div',{'id':'life'})
data= []
for con in soup:
text= con.a['href']
data.append({'text':text})
return data
可以看到,解析出的結果是一個list,通過for來取出每一個條目。如果需要取出此條目中的<a href="www.360buy.com/products/xxxx">,只要將a做為屬性來取出,而href則需要按字典
類型來取出。
由于用到的地方就這一點,所以未作深入研究,只是做為后續(xù)一個可查詢的紀錄。
文章題目:BeautifulSoup初識-創(chuàng)新互聯(lián)
鏈接地址:http://www.rwnh.cn/article32/djgdsc.html
成都網(wǎng)站建設公司_創(chuàng)新互聯(lián),為您提供網(wǎng)站收錄、動態(tài)網(wǎng)站、關鍵詞優(yōu)化、移動網(wǎng)站建設、網(wǎng)站維護、企業(yè)建站
聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉載內(nèi)容為主,如果涉及侵權請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網(wǎng)站立場,如需處理請聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉載,或轉載時需注明來源: 創(chuàng)新互聯(lián)
猜你還喜歡下面的內(nèi)容