這篇文章主要講解了“怎么利用Python爬取網(wǎng)頁內(nèi)容”,文中的講解內(nèi)容簡單清晰,易于學(xué)習(xí)與理解,下面請大家跟著小編的思路慢慢深入,一起來研究和學(xué)習(xí)“怎么利用Python爬取網(wǎng)頁內(nèi)容”吧!
為若羌等地區(qū)用戶提供了全套網(wǎng)頁設(shè)計制作服務(wù),及若羌網(wǎng)站建設(shè)行業(yè)解決方案。主營業(yè)務(wù)為成都網(wǎng)站建設(shè)、成都網(wǎng)站設(shè)計、若羌網(wǎng)站設(shè)計,以傳統(tǒng)方式定制建設(shè)網(wǎng)站,并提供域名空間備案等一條龍服務(wù),秉承以專業(yè)、用心的態(tài)度為用戶提供真誠的服務(wù)。我們深信只要達(dá)到每一位用戶的要求,就會得到認(rèn)可,從而選擇與我們長期合作。這樣,我們也可以走得更遠(yuǎn)!編寫執(zhí)行代碼
首先,你要安裝requests和BeautifulSoup4,然后執(zhí)行如下代碼. import requests from bs4 import BeautifulSoup iurl = 'http://news.sina.com.cn/c/nd/2017-08-03/doc-ifyitapp0128744.shtml' res = requests.get(iurl) res.encoding = 'utf-8' #print(len(res.text)) soup = BeautifulSoup(res.text,'html.parser') #標(biāo)題 H1 = soup.select('#artibodyTitle')[0].text #來源 time_source = soup.select('.time-source')[0].text #來源 origin = soup.select('#artibody p')[0].text.strip() #原標(biāo)題 oriTitle = soup.select('#artibody p')[1].text.strip() #內(nèi)容 raw_content = soup.select('#artibody p')[2:19] content = [] for paragraph in raw_content: content.append(paragraph.text.strip()) '@'.join(content) #責(zé)任編輯 ae = soup.select('.article-editor')[0].text
感謝各位的閱讀,以上就是“怎么利用Python爬取網(wǎng)頁內(nèi)容”的內(nèi)容了,經(jīng)過本文的學(xué)習(xí)后,相信大家對怎么利用Python爬取網(wǎng)頁內(nèi)容這一問題有了更深刻的體會,具體使用情況還需要大家實踐驗證。這里是創(chuàng)新互聯(lián),小編將為大家推送更多相關(guān)知識點的文章,歡迎關(guān)注!
網(wǎng)頁標(biāo)題:怎么利用Python爬取網(wǎng)頁內(nèi)容-創(chuàng)新互聯(lián)
本文路徑:http://www.rwnh.cn/article28/coiicp.html
成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供移動網(wǎng)站建設(shè)、標(biāo)簽優(yōu)化、外貿(mào)網(wǎng)站建設(shè)、App設(shè)計、外貿(mào)建站、用戶體驗
聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網(wǎng)站立場,如需處理請聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時需注明來源: 創(chuàng)新互聯(lián)
猜你還喜歡下面的內(nèi)容