目錄
- 準(zhǔn)備數(shù)據(jù)集
- 導(dǎo)入所需的軟件包
- 將數(shù)據(jù)從文件加載到Python變量
- 拆分?jǐn)?shù)據(jù)進(jìn)行訓(xùn)練和測試
- 標(biāo)記化并準(zhǔn)備詞匯
- 預(yù)處理輸出標(biāo)簽/類
- 建立Keras模型并擬合
- 評估模型
- 混淆矩陣
- 保存模型
- 加載Keras模型
- 預(yù)測
- 輸出
- 結(jié)論
深度學(xué)習(xí)無處不在。在本文中,我們將使用Keras進(jìn)行文本分類。
準(zhǔn)備數(shù)據(jù)集
出于演示目的,我們將使用 20個新聞組 數(shù)據(jù)集。數(shù)據(jù)分為20個類別,我們的工作是預(yù)測這些類別。如下所示:
通常,對于深度學(xué)習(xí),我們將劃分訓(xùn)練和測試數(shù)據(jù)。
導(dǎo)入所需的軟件包
Python
import pandas as pd
import numpy as np
import pickle
from keras.preprocessing.text import Tokenizer
from keras.models import Sequential
from keras.layers import Activation, Dense, Dropout
from sklearn.preprocessing import LabelBinarizer
import sklearn.datasets as skds
from pathlib import Path
將數(shù)據(jù)從文件加載到Python變量
Python
# 為了復(fù)現(xiàn)性
np.random.seed(1237)
label_index = files_train.target
label_names = files_train.target_names
labelled_files = files_train.filenames
data_tags = ["filename","category","news"]
data_list = []
# 讀取文件中的數(shù)據(jù)并將其添加到列表
data = pd.DataFrame.from_records(data_list, columns=data_tags)
我們的數(shù)據(jù)無法以CSV格式提供。我們有文本數(shù)據(jù)文件,文件存放的目錄是我們的標(biāo)簽或類別。
我們將使用scikit-learn load_files方法。這種方法可以提供原始數(shù)據(jù)以及標(biāo)簽和標(biāo)簽索引。
最后我們得到一個數(shù)據(jù)框,其中包含文件名,類別和實際數(shù)據(jù)。
拆分?jǐn)?shù)據(jù)進(jìn)行訓(xùn)練和測試
Python
# 讓我們以80%的數(shù)據(jù)作為訓(xùn)練,剩下的20%作為測試。
train_size = int(len(data) * .8)
train_posts = data['news'][:train_size]
train_tags = data['category'][:train_size]
train_files_names = data['filename'][:train_size]
test_posts = data['news'][train_size:]
test_tags = data['category'][train_size:]
test_files_names = data['filename'][train_size:]
標(biāo)記化并準(zhǔn)備詞匯
Python
# 20個新聞組
num_labels = 20
vocab_size = 15000
batch_size = 100
# 用Vocab Size定義Tokenizer
tokenizer = Tokenizer(num_words=vocab_size)
tokenizer.fit_on_texts(train_posts)
在對文本進(jìn)行分類時,我們首先使用Bag Of Words方法對文本進(jìn)行預(yù)處理。
預(yù)處理輸出標(biāo)簽/類
在將文本轉(zhuǎn)換為數(shù)字向量后,我們還需要確保標(biāo)簽以神經(jīng)網(wǎng)絡(luò)模型接受的數(shù)字格式表示。
建立Keras模型并擬合
PowerShell
它為輸入數(shù)據(jù)的維度以及構(gòu)成模型的圖層類型提供了簡單的配置。
這是擬合度和測試準(zhǔn)確性的代碼段
100/8145 [..............................] - ETA: 31s - loss: 1.0746e-04 - acc: 1.0000
200/8145 [..............................] - ETA: 31s - loss: 0.0186 - acc: 0.9950
300/8145 [>.............................] - ETA: 35s - loss: 0.0125 - acc: 0.9967
400/8145 [>.............................] - ETA: 32s - loss: 0.0094 - acc: 0.9975
500/8145 [>.............................] - ETA: 30s - loss: 0.0153 - acc: 0.9960
...
7900/8145 [============================>.] - ETA: 0s - loss: 0.1256 - acc: 0.9854
8000/8145 [============================>.] - ETA: 0s - loss: 0.1261 - acc: 0.9855
8100/8145 [============================>.] - ETA: 0s - loss: 0.1285 - acc: 0.9854
8145/8145 [==============================] - 29s 4ms/step - loss: 0.1293 - acc: 0.9854 - val_loss: 1.0597 - val_acc: 0.8742
Test accuracy: 0.8767123321648251
評估模型
Python
for i in range(10):
prediction = model.predict(np.array([x_test[i]]))
predicted_label = text_labels[np.argmax(prediction[0])]
print(test_files_names.iloc[i])
print('Actual label:' + test_tags.iloc[i])
print("Predicted label: " + predicted_label)
在Fit方法訓(xùn)練了我們的數(shù)據(jù)集之后,我們將如上所述評估模型。
混淆矩陣
混淆矩陣是可視化模型準(zhǔn)確性的最佳方法之一。
保存模型
通常,深度學(xué)習(xí)的用例就像在不同的會話中進(jìn)行數(shù)據(jù)訓(xùn)練,而使用訓(xùn)練后的模型進(jìn)行預(yù)測一樣。
# 創(chuàng)建一個HDF5文件'my_model.h5'
model.model.save('my_model.h5')
# 保存令牌生成器,即詞匯表
with open('tokenizer.pickle', 'wb') as handle:
pickle.dump(tokenizer, handle, protocol=pickle.HIGHEST_PROTOCOL)
Keras沒有任何實用程序方法可將Tokenizer與模型一起保存。我們必須單獨序列化它。
加載Keras模型
Python
預(yù)測環(huán)境還需要注意標(biāo)簽。
encoder.classes_ #標(biāo)簽二值化
預(yù)測
如前所述,我們已經(jīng)預(yù)留了一些文件進(jìn)行實際測試。
Python
labels = np.array(['alt.atheism', 'comp.graphics', 'comp.os.ms-windows.misc',
'comp.sys.ibm.pc.hardware', 'comp.sys.mac.hardware', 'comp.windows.x',
'misc.forsale', 'rec.autos', 'rec.motorcycles', 'rec.sport.baseball',
'rec.sport.hockey', 'sci.crypt', 'sci.electronics', 'sci.med', 'sci.space',
'soc.religion.christian', 'talk.politics.guns', 'talk.politics.mideast',
'talk.politics.misc', 'talk.religion.misc'])
...
for x_t in x_tokenized:
prediction = model.predict(np.array([x_t]))
predicted_label = labels[np.argmax(prediction[0])]
print("File ->", test_files[i], "Predicted label: " + predicted_label)
i += 1
輸出
File -> C:DL20news-bydate20news-bydate-testcomp.graphics38758 Predicted label: comp.graphics
File -> C:DL20news-bydate20news-bydate-testmisc.forsale76115 Predicted label: misc.forsale
File -> C:DL20news-bydate20news-bydate-testsoc.religion.christian21329 Predicted label: soc.religion.christian
我們知道目錄名是文件的真實標(biāo)簽,因此上述預(yù)測是準(zhǔn)確的。
結(jié)論
在本文中,我們使用Keras python庫構(gòu)建了一個簡單而強(qiáng)大的神經(jīng)網(wǎng)絡(luò)。
以上就是Python如何使用神經(jīng)網(wǎng)絡(luò)進(jìn)行簡單文本分類的詳細(xì)內(nèi)容,更多關(guān)于python 神經(jīng)網(wǎng)絡(luò)進(jìn)行文本分類的資料請關(guān)注腳本之家其它相關(guān)文章!
您可能感興趣的文章:- numpy創(chuàng)建神經(jīng)網(wǎng)絡(luò)框架
- 教你使用Python建立任意層數(shù)的深度神經(jīng)網(wǎng)絡(luò)
- python神經(jīng)網(wǎng)絡(luò)編程之手寫數(shù)字識別
- python機(jī)器學(xué)習(xí)之神經(jīng)網(wǎng)絡(luò)
- pytorch動態(tài)神經(jīng)網(wǎng)絡(luò)(擬合)實現(xiàn)
- pytorch之深度神經(jīng)網(wǎng)絡(luò)概念全面整理