CTI論壇(ctiforum.com)(編譯/老秦):人工智能(AI)作為客戶服務(wù)技術(shù)(包括啟用語音的技術(shù))中的嵌入式功能正變得越來越普遍。
公司每年使用AI來處理數(shù)十億的客戶通信。AI系統(tǒng)可以響應(yīng)最常見和最簡單的查詢,例如我的帳戶余額是多少,從而使人工座席可以自由處理更復(fù)雜的客戶服務(wù)問題。AI系統(tǒng)的設(shè)計(jì)不僅可以理解客戶的查詢,還可以確定最佳的響應(yīng)方式,這是否意味著提供直接答案,提出明確的問題,將交互傳遞給現(xiàn)場座席,下訂單或其他。
對(duì)系統(tǒng)進(jìn)行編程以做出這些決定并采取這些行動(dòng)絕非易事,而且要承擔(dān)與承擔(dān)該任務(wù)的人員相同的失敗。因此,偏見可能會(huì)滲入算法,特別是因?yàn)锳I僅與輸入的訓(xùn)練數(shù)據(jù)一樣好,并且該數(shù)據(jù)可能包括關(guān)于性別,種族,性取向或其他歷史或社會(huì)不平等因素。
在許多公司正在擴(kuò)大對(duì)AI的使用的時(shí)候,意識(shí)到這些偏見并緩解它們是當(dāng)務(wù)之急。
這是一個(gè)重要的問題,因?yàn)槲覀冋谧龀鲈絹碓街匾腁I決策,Spark Beyond的首席執(zhí)行官兼聯(lián)合創(chuàng)始人Sagie Davidovich說。Spark Beyond是使用AI的自動(dòng)化研究引擎的提供商。您要有責(zé)任心,透明性和包容性。
發(fā)現(xiàn)AI語音識(shí)別系統(tǒng)包含歧視特定人群的偏見。Pro Privacy.com的數(shù)字隱私專家Ray Walsh說:這令人不安,因?yàn)檫@類算法通常部署在所有公民使用的平臺(tái)上。結(jié)果,這些技術(shù)可能積極地導(dǎo)致偏見或歧視的重新表達(dá)。
如果不加發(fā)現(xiàn),人工智能的偏見可能導(dǎo)致有害的歧視性做法,競選結(jié)果失真,違反法規(guī)或失去公眾信任。
沒有比在2016年失敗的Microsoft Twitter機(jī)器人Tay失敗命運(yùn)更明顯的事實(shí)了。Microsoft將Tay描述為一種對(duì)話理解的實(shí)驗(yàn),其中Tay參與度越高,越聰明,它就會(huì)通過隨意而有趣的對(duì)話。
但是,一旦Tay上線,人們就開始在Twitter上發(fā)布推文,其中包括各種厭惡種族主義言論。Tay開始向用戶重復(fù)這些種族主義,厭惡女性的情緒。僅僅運(yùn)行了16個(gè)小時(shí),Microsoft就停止了該技術(shù)的使用。
Tay當(dāng)然不是第一次發(fā)生這樣的事情。多年來,自動(dòng)化技術(shù)也被歸咎于貸款行業(yè)的偏見。金融機(jī)構(gòu)成群結(jié)隊(duì)地轉(zhuǎn)向自動(dòng)化,以加快貸款批準(zhǔn)和拒絕決策的速度,大概沒有相同的偏見,而這種偏見可能會(huì)滲入人類的思維過程。
WPEngine的研究至少在理論上支持了這一觀點(diǎn)。在接受調(diào)查的受訪者中,有92%的人表示,他們相信AI將為檢查組織和數(shù)據(jù)相關(guān)偏見提供機(jī)會(huì)。53%的人表示,他們相信AI為克服人類偏見提供了機(jī)會(huì)。
但是研究還發(fā)現(xiàn),將近一半(45%)的人認(rèn)為AI的偏見可能導(dǎo)致少數(shù)群體的代表不平等。
最后,確實(shí)發(fā)現(xiàn)借貸過程中的自動(dòng)化系統(tǒng)存在偏見,因?yàn)樗鼈兪褂玫臄?shù)據(jù)和變量往往會(huì)歧視屬于少數(shù)族裔的抵押貸款申請(qǐng)人。
如今,已顯示出功能更強(qiáng)大的計(jì)算系統(tǒng)和更易獲得的數(shù)據(jù)可以消除早期技術(shù)的某些固有偏見,但許多專家都同意,當(dāng)今的系統(tǒng)中仍然存在某些偏見。
Davidovich說:我們需要開始考慮AI系統(tǒng)中的偏見。
聲明:版權(quán)所有 非合作媒體謝絕轉(zhuǎn)載
原文網(wǎng)址:https://www.speechtechmag.com/Articles/Editorial/Features/Overcoming-Bias-Requires-an-AI-Reboot-140548.aspx