用 Loki 做個能究責的 NLU 模型 - 以金融場景應用為例


Details
講題:Loki 做個能究責的 NLU 模型 - 以金融場景應用為例
程序
7:00pm - 7:25pm 入座
7:25pm - 7:30pm 講員介紹
7:30pm - 8:00pm 分享: 用 Loki 做個能究責的 NLU 模型 - 以金融場景應用為例
8:00pm - 8:20pm Q&A
8:20pm - 9:00pm 會後自由分享
摘要:
本次分享,藉由一個不同於類神經網路的方法,讓語言模型的每一個階段都成為透明可讀的結果。如此一來,當 NLP 應用的結果出錯時,我們將不但能回溯究竟是哪一段程式碼,由哪一個開發人員,依哪一道開發規則而撰寫的,更重要的是,模型的透明可讀性,讓我們甚至能回溯到是「哪一個訓練句子」導致 NLP 人工智慧的回應不如預期。一旦能搞清楚錯誤的根源,軟體開發人員自然能加以改善。這就是一個可以被「究責」的「可被信賴的 AI」。
我們將以金融應用場景的「換匯」做為示範,比較透過類神經網路產生的資料模型,以及使用 Loki 這種透明可讀的語言模型在「原理」、「開發」、「應用」、「改善」四個方向的差異。
當然,Loki 不單是用 Python3 撰寫的,它也會長出 Python3 的程式碼供開發者驅動你的 NLU 模型喲!
大綱:
- 何為「究責」?AI 應用的下一步在哪裡? (3min)
- Loki 架構簡介
- 類神經網路模型 - 以 LUIS 為例
- 透明可讀的語言模型 - 以 Loki 為例
背景補充:
人工智慧領域雖然已經進入醫療、法律以及金融領域,但往往擔任的是資料分析的參謀助理,而非決策副手的角色。
若仔細思考其原因,即能發現以資料驅動的人工智慧應用,因其缺乏顯性因果邏輯的特性,而難以究責。即便是 Google 高層也因為「類神經網路的不可解釋性,對產業歸責有著極大影響」而只將 NLP 應用擺在各種不用負責任的場景[[參照] (https://www.ithome.com.tw/news/131558)]。透過類神經網路產生的 NLP 應用,當結果出錯時,即便是投入多年研究的今日,仍難以確定是哪些資料或是哪些原因導致模型的輸出結果是如此,也因此諸如聊天機器人這種最貼近人機互動的應用,也往往淪為資料查詢的助理而已。畢竟在聊天室的介面下查錯資料,頂多只是回到上一層選項而已。但這也大大地限制了 NLP/NLU 的各種人工智慧應用的前進。
講者介紹
PeterWolf (卓騰語言科技創辦人;最接近人腦運作方式的中文斷詞引擎 Articut 的創造者) (Founder of Droidtown Linguistic Tech. Co. Ltd., The Creater of Articut CWS engine that works like humans.)
Host
Dainese
這次 PyCon TW x PyHUG 聯合線上直播
Youtube 線上直播連結 (https://www.youtube.com/watch?v=PAd9-DMaJPQ)

用 Loki 做個能究責的 NLU 模型 - 以金融場景應用為例