NLP是電話機(jī)器人的耳朵,有了這項(xiàng)技術(shù),機(jī)器人就能聽(tīng)懂客戶(hù)說(shuō)的意思,同時(shí)給出反應(yīng)。通過(guò)語(yǔ)音識(shí)別系統(tǒng),可以使機(jī)器人具有識(shí)別以及可以快速識(shí)別認(rèn)客戶(hù)對(duì)話的才能,在短時(shí)間內(nèi)對(duì)問(wèn)題做出回應(yīng),進(jìn)行人機(jī)交互對(duì)答。同時(shí),因?yàn)榻换シ治鱿到y(tǒng)選用抗噪性極強(qiáng)的深度神經(jīng)學(xué)算法以及卷積神經(jīng)網(wǎng)絡(luò)算法(卷積神經(jīng)網(wǎng)絡(luò)的整體結(jié)構(gòu),也成為影響其工作效率和效果的重要因素。
一個(gè)比較典型的做法,是首先對(duì)輸入的圖像展開(kāi)一個(gè)大卷積核神經(jīng)層加工,確保訓(xùn)練時(shí)間得到控制的同時(shí)有效降低錯(cuò)誤率。并且可以考慮以全連接型的神經(jīng)網(wǎng)絡(luò)和Softmax回歸作為算法結(jié)構(gòu)的結(jié)尾,輸出概率最高的幾個(gè)處理結(jié)果,便于衡量算法準(zhǔn)確率。),這就提高了機(jī)器人完結(jié)一問(wèn)多回的高度理解力。
深度學(xué)習(xí)技術(shù)既可以用于基于檢索的模型,也可以用于生成式模型,但是chatbot領(lǐng)域的研究似乎正在向生成式模型方向發(fā)展。 像seq2seq這樣的深度學(xué)習(xí)體系結(jié)構(gòu)非常適合l來(lái)生成文本,研究人員希望在這個(gè)領(lǐng)域取得快速進(jìn)展。 然而,我們?nèi)匀惶幱诮⒑侠?、良好的生成式模型的初期階段。現(xiàn)在上線的生產(chǎn)系統(tǒng)更可能是采用了基于檢索的模型。對(duì)話越長(zhǎng),就越難實(shí)現(xiàn)自動(dòng)化。 一種是短文本對(duì)話(更容易實(shí)現(xiàn)) ,其目標(biāo)是為單個(gè)輸入生成單個(gè)響應(yīng)。 例如,你可能收到來(lái)自用戶(hù)的特定問(wèn)題,并回復(fù)相應(yīng)的答案。 另一種是很長(zhǎng)的談話(更難實(shí)現(xiàn)) ,談話過(guò)程會(huì)經(jīng)歷多個(gè)轉(zhuǎn)折,需要跟蹤之前說(shuō)過(guò)的話。 客戶(hù)服務(wù)中的對(duì)話通常是涉及多個(gè)問(wèn)題的長(zhǎng)時(shí)間對(duì)話。