竹内纱里奈和大战黑人_欧美成人黄色小视频_91福利影视_欧美在线观看视频网站_h色网站免费观看_97综合

極客小將

您現在的位置是:首頁 » python編程資訊

資訊內容

介紹python60行代碼寫一個簡單的筆趣閣爬蟲

極客小將2021-01-16-
簡介推薦(免費):Python視頻教程文章目錄系列文章目錄前言一、網頁解析二、代碼填寫1.獲取Html及寫入方法2.其余代碼總結前言利用python寫一個簡單的筆趣閣爬蟲,根據輸入的小說網址爬取整個小說并保存到txt文件。爬蟲用到了BeautifulSoup庫的select方法結果如圖所示:本文只用于學
j27少兒編程網-Scratch_Python_教程_免費兒童編程學習平臺

推薦(免費):python視頻教程j27少兒編程網-Scratch_Python_教程_免費兒童編程學習平臺

文章目錄j27少兒編程網-Scratch_Python_教程_免費兒童編程學習平臺

系列文章目錄前言一、網頁解析二、代碼填寫1.獲取Html及寫入方法2.其余代碼總結

前言j27少兒編程網-Scratch_Python_教程_免費兒童編程學習平臺

j27少兒編程網-Scratch_Python_教程_免費兒童編程學習平臺

利用python寫一個簡單的筆趣閣爬蟲,根據輸入的小說網址爬取整個小說并保存到txt文件。爬蟲用到了BeautifulSoup庫的select方法
結果如圖所示:

本文只用于學習爬蟲j27少兒編程網-Scratch_Python_教程_免費兒童編程學習平臺

j27少兒編程網-Scratch_Python_教程_免費兒童編程學習平臺

一、網頁解析j27少兒編程網-Scratch_Python_教程_免費兒童編程學習平臺

這里以斗羅大陸小說為例 網址:
http://www.biquge001.com/Book/2/2486/

可以發現每章的網頁地址和章節名都放在了 <"p id=list dl dd a>中的a標簽中,所以利用BeautfulSoup中的select方法可以得到網址和章節名j27少兒編程網-Scratch_Python_教程_免費兒童編程學習平臺

Tag = BeautifulSoup(getHtmlText(url), "html.parser") #這里的getHtmlText是自己寫的獲取html的方法urls = Tag.select("p #list dl dd a")

然后遍歷列表j27少兒編程網-Scratch_Python_教程_免費兒童編程學習平臺

for url in urls: href = "http://www.biquge001.com/" + url['href'] # 字符串的拼接 拼接成正確的網址 pageName = url.text # 每章的章名

然后每章小說的內容都存放在<p id=“content” 里 同理得
j27少兒編程網-Scratch_Python_教程_免費兒童編程學習平臺

substance = Tag.select("p #content") # 文章的內容

**后同理在首頁獲取小說的名稱
<"p id = info h1>j27少兒編程網-Scratch_Python_教程_免費兒童編程學習平臺

j27少兒編程網-Scratch_Python_教程_免費兒童編程學習平臺

bookName = Tag.select("p #info h1")

j27少兒編程網-Scratch_Python_教程_免費兒童編程學習平臺

二、代碼填寫j27少兒編程網-Scratch_Python_教程_免費兒童編程學習平臺

1.獲取Html及寫入方法j27少兒編程網-Scratch_Python_教程_免費兒童編程學習平臺

def getHtmlText(url): r = requests.get(url, headers=headers) r.encoding = r.apparent_encoding # 編碼轉換 r.raise_for_status() return r.textdef writeIntoTxt(filename, content): with open(filename, "w", encoding="utf-8") as f: f.write(content) f.close() print(filename + "已完成")

2.其余代碼j27少兒編程網-Scratch_Python_教程_免費兒童編程學習平臺

代碼如下(示例):j27少兒編程網-Scratch_Python_教程_免費兒童編程學習平臺

url = "http://www.biquge001.com/Book/2/2486/"substanceStr = ""bookName1 = ""html = getHtmlText(url)# 判斷是否存在這個文件Tag = BeautifulSoup(getHtmlText(url), "html.parser")urls = Tag.select("p #list dl dd a")bookName = Tag.select("p #info h1")for i in bookName: bookName1 = i.textif not os.path.exists(bookName1): os.mkdir(bookName1) print(bookName1 + "創建完成")else: print("文件已創建")for url in urls: href = "http://www.biquge001.com/" + url['href'] # 字符串的拼接 拼接成正確的網址 pageName = url.text # 每章的章名 path = bookName1 + "\" # 路徑 fileName = path + url.text + ".txt" # 文件名 = 路徑 + 章節名 + ".txt" Tag = BeautifulSoup(getHtmlText(href), "html.parser") # 解析每張的網頁 substance = Tag.select("p #content") # 文章的內容 for i in substance: substanceStr = i.text writeIntoTxt(fileName, substanceStr) time.sleep(1)

j27少兒編程網-Scratch_Python_教程_免費兒童編程學習平臺

總結j27少兒編程網-Scratch_Python_教程_免費兒童編程學習平臺

簡單利用了BeautfulSoup的select方法對筆趣閣的網頁進行了爬取 j27少兒編程網-Scratch_Python_教程_免費兒童編程學習平臺

更多相關學習敬請關注python教程欄目!

以上就是介紹python60行代碼寫一個簡單的筆趣閣爬蟲的詳細內容,更多請關注少兒編程網其它相關文章!j27少兒編程網-Scratch_Python_教程_免費兒童編程學習平臺

預約試聽課

已有385人預約都是免費的,你也試試吧...

主站蜘蛛池模板: 美日韩视频 | 欧美午夜在线视频 | 久久久久一区二区 | 欧美日韩亚洲天堂 | av国产精品 | 成人亚洲一区 | 亚洲视频第一页 | 精品国产第一国产综合精品 | 国产精品三级久久久久久电影 | 久久99精品国产一区二区三区 | 久久h | 免费观看一级毛片 | 99久久精品一区二区成人 | 久久久免费精品 | 国产精品视频福利 | 久久一级精品 | 国产精品久久久久婷婷二区次 | 精品国产乱码久久久久久丨区2区 | 日韩精品久久久久久久软件91 | 国产v亚洲v天堂无码 | www.99热这里只有精品 | 国产在线一二三区 | 色姑娘综合色 | 美女又爽 | 精品国产一区二区在线 | 国产精品久久久久久久久久免费 | 精品少妇一区二区三区免费观看 | 成人一二三区 | 国产精品电影在线观看 | 亚洲日本一区二区 | 欧美日韩成人在线视频 | 日韩久久久久 | 日本一区二区三区四区高清视频 | av在线播放网站 | 国偷自产视频一区二区久 | 欧美国产免费 | 久久91精品国产91久久跳 | 九九国产 | 在线观看视频免费播放 | 日韩一区电影 | 欧美a√ |