第一、幾種常用方法
讀取TXT文檔:urlopen()
讀取PDF文檔:pdfminer3k
第二、亂碼問題
(1)、
from urllib.request import urlopen
#訪問wiki內(nèi)容
html = urlopen("https://en.wikipedia.org/robots.txt")
print(html.read())
輸出的結(jié)果中出現(xiàn)亂碼原因:
計算機(jī)只能處理0和1兩個數(shù)字,所以想要處理文本,必須把文本變成0和1這樣的數(shù)字,最早的計算機(jī)使用八個0和1表示一個字節(jié),所以最大能夠表示整數(shù)是255=11111111.如果想要表示更大的數(shù),必須使用更多的字節(jié)。
由于計算機(jī)是美國人發(fā)明的,所以最早只有127個字符被編寫進(jìn)計算機(jī),即常見的阿拉伯?dāng)?shù)字,字母大小寫,以及鍵盤上的符號。此編碼被稱為ASCII編碼,比如大寫字母A的ASCII編碼是65,65再被轉(zhuǎn)換二進(jìn)制01000001,即是計算機(jī)處理的東西。
顯然,ASCII不能表示中文,故中國制定了自己的GB2312編碼,并且兼容ASCII編碼。問題是:使用GB2312編碼的慕課網(wǎng)三個字,假設(shè)編碼為61,62,63.但在ASCII碼表可能是其他字符。如下圖示,日文中的616263編碼成其他字符,打開后意思出錯。
![](/d/20211017/584162ef7edfd412b4d86a78c0d8da5d.gif)
解決方法:
國際上的unicode編碼,整合全世界所有編碼。故unicode編碼的內(nèi)容在任一臺計算機(jī)用unicode仍正常打開
![](/d/20211017/d0e2cf057c8fd8acebfeaae96124e7fd.gif)
又對于A,ASCII編碼為01000001,Unicode編碼:0000000001000001此時浪費空間
故出現(xiàn)UTF-8編碼:01000001此時用兩個八位存儲中文。
(2)、記事本使用unicode編碼,將記事本存到計算機(jī)時,將轉(zhuǎn)化為utf-8儲存。
在計算機(jī)中打開文本時,將轉(zhuǎn)化為unicode編碼
存儲原因:使用utf-8儲存節(jié)省空間,使用unicode打開保證最大的兼容
(3)、服務(wù)器讀取uncode編碼的文檔,轉(zhuǎn)化為utf-8格式傳給瀏覽器。因為網(wǎng)絡(luò)帶寬昂貴,轉(zhuǎn)化為了減少負(fù)擔(dān)。
(4)、python3字符串默認(rèn)使用Unicode編碼,所以python3支持多種語言
以Unicode表示的str通過encode()方法可以編碼為指定的bytes
如果bytes使用ASCII編碼,遇到ASCII碼表沒有的字符會以\x##表示,此時只用‘\x##'.decode('utf-8')即可
(5)、解決方法
from urllib.request import urlopen
#訪問wiki內(nèi)容
html = urlopen("https://en.wikipedia.org/robots.txt")
print(html.read().decode("utf-8"))
第三、pdfminer3k安裝
法一:
(1)、進(jìn)入網(wǎng)址直接下載并解壓:https://pypi.python.org/pypi/pdfminer3k/
(2)、以管理員身份運行命令行窗口,進(jìn)入軟件解壓縮位置,運行python setup.py install
![](/d/20211017/0f2c1fe631612ccfbf3eeb690839df6e.gif)
法二:
(3)、直接在pycharm中安裝
![](/d/20211017/9a410566ffb8408b9461a5b2d936991a.gif)
(4)、讀取pdf過程:首先創(chuàng)建一個分析器pdfparser和文檔對象pdfdocument,并通過兩個方法相互關(guān)聯(lián),然后調(diào)用文檔對象的初始化方法(可以傳參數(shù)),此時資源內(nèi)容被加載到文檔對象中。
![](/d/20211017/8bc9ec9c23a697e5cb9e649838ac7439.gif)
創(chuàng)建資源管理器和參數(shù)分析器,然后創(chuàng)建聚合器(整合資源管理器和參數(shù)分析器),通過聚合器創(chuàng)建解釋器(對pdf文檔進(jìn)行編碼,解釋成python能識別的格式)
![](/d/20211017/dbb7d3bd89db962b8638f7e5ed77d6a1.gif)
(5)、讀取pdf文檔:通過文檔對象的get_pages()方法得到pdf每一頁的內(nèi)容,通過解釋器的process_page()方法讀取一頁一頁。
![](/d/20211017/c27aa64951160d4ea209bdc046ef8dde.gif)
(6)、實例演示
![](/d/20211017/1b8aea36b570cf76f086fdab1b056f90.gif)
from pdfminer.converter import PDFPageAggregator
from pdfminer.layout import LAParams
from pdfminer.pdfparser import PDFParser, PDFDocument
from pdfminer.pdfinterp import PDFResourceManager, PDFPageInterpreter
from pdfminer.pdfdevice import PDFDevice
#獲得文檔對象,以二進(jìn)制讀方式打開
fp = open("naacl06-shinyama.pdf", "rb")
#創(chuàng)建一個與文檔關(guān)聯(lián)的分析器
parser = PDFParser(fp)
#創(chuàng)建一個pdf文檔的對象
doc = PDFDocument()
#連接解釋器與文檔對象
parser.set_document(doc)
doc.set_parser(parser)
#初始化文檔,如果文檔有密碼,寫與此。
doc.initialize("")
#創(chuàng)建pdf資源管理器
resource = PDFResourceManager()
#參數(shù)分析器
laparam = LAParams()
#創(chuàng)建聚合器
device = PDFPageAggregator(resource, laparams=laparam)
#創(chuàng)建pdf頁面解釋器
interpreter = PDFPageInterpreter(resource, device)
#使用文檔對象得到頁面的集合
for page in doc.get_pages():
#使用頁面解釋器讀取
interpreter.process_page(page)
#使用聚合器來獲得內(nèi)容
layout = device.get_result()
for out in layout:
if hasattr(out, "get_text"):
print(out.get_text())
一下用于讀取網(wǎng)站上pdf內(nèi)容
fp = urlopen(http://www.tencent.com/zh-cn/articles/8003251479983154.pdf)
補充內(nèi)容:
![](/d/20211017/7d5d7c11810c3476e29b74c1c9842b85.gif)
以上為個人經(jīng)驗,希望能給大家一個參考,也希望大家多多支持腳本之家。如有錯誤或未考慮完全的地方,望不吝賜教。
您可能感興趣的文章:- Python爬蟲爬取全球疫情數(shù)據(jù)并存儲到mysql數(shù)據(jù)庫的步驟
- Python爬取騰訊疫情實時數(shù)據(jù)并存儲到mysql數(shù)據(jù)庫的示例代碼
- MySQL和Python交互的示例
- 配置python連接oracle讀取excel數(shù)據(jù)寫入數(shù)據(jù)庫的操作流程
- Python 對Excel求和、合并居中的操作
- 如何用python合并多個excel文件
- python基于pyppeteer制作PDF文件
- python操作mysql、excel、pdf的示例