TWI776589B - 情緒回話系統 - Google Patents
情緒回話系統 Download PDFInfo
- Publication number
- TWI776589B TWI776589B TW110125613A TW110125613A TWI776589B TW I776589 B TWI776589 B TW I776589B TW 110125613 A TW110125613 A TW 110125613A TW 110125613 A TW110125613 A TW 110125613A TW I776589 B TWI776589 B TW I776589B
- Authority
- TW
- Taiwan
- Prior art keywords
- text
- response
- emotion
- post
- sent
- Prior art date
Links
Images
Landscapes
- Machine Translation (AREA)
- External Artificial Organs (AREA)
Abstract
一種情緒回話系統包含一儲存單元、一通訊單元、及電連接該通訊單元及該儲存單元的一處理單元。該處理單元經由該通訊單元接收來自一電腦設備的一發文文句,且將該發文文句及N個情緒標記之其中每一者輪流輸入至該儲存單元所儲存的一語言生成模型,以產生M個候選回應文句,再將該發文文句及每一該候選回應文句輪流輸入至該儲存單元所儲存的一語言理解模型,以決定P個回應文句,且將該P個回應文句經由該通訊單元傳送回該電腦設備,而能夠實現一種生成創新且有趣的文句的情緒回話系統。
Description
本發明是有關於一種回話系統,特別是指一種根據使用者的發話內容而自動回覆的情緒回話系統。
近年來由於深度神經網路(Deep neural network,DNN)機器學習技術的進步、雲端服務提供大量的運算資源、及網路上大數據的易於取得,加速產業各界關注人機對話系統的發展,例如蘋果公司的Siri個人語音助理,或其他公司的對話系統、服務、與機器人。雖然人機對話系統已達商業應用階段,但多數仍以文句模版比對知識庫的方式回應使用者,導致使用者對其回覆感到生硬、呆板、及低於預期。因此,是否存有其他的對話或回話系統以提供更佳的使用者體驗便成為一個待解決的問題。
因此,本發明的目的,即在提供一種用於人機對話以生成創新且有趣的文句的情緒回話系統。
於是,本發明提供一種情緒回話系統,適用於一電腦設備,並包含一儲存單元、一通訊單元、及一處理單元。該儲存單元儲存一語言生成模型及一語言理解模型。該通訊單元用於與該電腦設備建立連線。
該處理單元電連接該通訊單元及該儲存單元,並經由該通訊單元接收來自該電腦設備的一發文文句,且將該發文文句及N個情緒標記之其中每一者輪流輸入至該語言生成模型,以產生M個候選回應文句,再將該發文文句及該M個候選回應文句之其中每一者輪流輸入至該語言理解模型,以決定P個回應文句,且將該P個回應文句經由該通訊單元傳送回該電腦設備,N、M、及P都是正整數,且M大於或等於N,P小於或等於M。
在一些實施態樣中,其中,每一該情緒標記表示對應產生的該候選回應文句的情緒,並等於K個數值之其中一者,K是正整數且K大於或等於N,該K個數值之其中每一者對應一種情緒。
在一些實施態樣中,其中,儲存單元還儲存一策略表,該策略表包含之前至少一次的該P個回應文句所對應的該等情緒標記,及該N個情緒標記之間的對應關係。該處理單元根據之前至少一次的該P個回應文句所對應的該等情緒標記,以在該策略表中決定對應該發文文句的該N個情緒標記。
在另一些實施態樣中,其中,該儲存單元還儲存一情緒分類模型,該處理單元接收到該發文文句時,先將該發文文句輸入至該情緒分類模型以獲得該發文文句的一發文情緒標記。該儲存單元還儲存一策略表,該策略表包含該發文文句的該發文情緒標記、之前至少一次的該P個回應文句所對應的該等情緒標記、及該N個情緒標記之間的對應關係。該處理單元根據該發文文句的該發文情緒標記、或根據該發文文句的該發文情緒標記、之前至少一次的該P個回應文句所對應的該等情緒標記與之前至少一次的該發文文句的該發文情緒標記,以在該策略表中決定對應該發文文句的該N個情緒標記。
在另一些實施態樣中,其中,K等於5,該五個數值分別代表喜歡(like)、悲傷(sadness)、噁心(或厭惡)(disgust)、憤怒(anger)、及開心(或幸福或高興)(happiness)的情緒。
在另一些實施態樣中,其中,該處理單元將該發文文句及該M個候選回應文句之其中每一者輪流輸入至該語言理解模型,以產生分別對應的M個連貫性(coherence)分數,該處理單元選擇該等連貫性分數之其中最高的P個所對應的該P個候選回應文句,作為該P個回應文句。
在另一些實施態樣中,其中,該語言生成模型是一種GPT-2語言生成模型,並已先完成自我監督方式訓練(Self-supervised training),且作為訓練的每一輸入資料的格式為已知的[該發文文句[對應該回應文句的該情緒標記]該回應文句]。
在另一些實施態樣中,其中,該語言理解模型是一種BERT語言理解模型,並先經過回歸訓練,且作為訓練的資料包含已知的多組[該發文文句[SEP]該回應文句,該連貫性分數],已知的該連貫性分數等於0.0及1.0,以分別表示對應的該發文文句及該回應文句是不成對的對話及成對的對話,[SEP]是用來分開該發文文句及該回應文句的符號。
本發明的功效在於:藉由該處理單元先根據該語言生成模型產生對應該發文文句與該N個情緒標記的該M個候選回應文句,再根據該語言理解模型由該M個候選回應文句決定其中P個作為該P個回應文句,以回傳至該電腦設備,而能夠實現一種根據使用者的發話內容而自動回覆且提供更佳的使用者體驗的情緒回話系統。
在本發明被詳細描述之前,應當注意在以下的說明內容中,類似的元件是以相同的編號來表示。
參閱圖1,本發明情緒回話系統1之一第一實施例,適用於一電腦設備9,並包含一儲存單元12、一通訊單元15、及電連接該通訊單元15及該儲存單元12的一處理單元11。該電腦設備9例如是一電腦主機、一行動裝置(如智慧型手機、平板電腦等)或其他具備連網功能的運算裝置。該儲存單元12例如包含一硬碟及一記憶體,該通訊單元15例如是一網路卡、一無線網路晶片或其他具備連網功能的網路元件或裝置。該處理單元11例如是一個或多個中央處理器或其他運算晶片或元件。
該儲存單元12儲存已經過訓練的一語言生成模型13、一語言理解模型14、及一策略表16。該通訊單元15用於與該電腦設備9建立連線。在本實施例中,該語言生成模型13是一種GPT(Generative pre-training)-2語言生成模型,該語言理解模型14是一種BERT(Bidirectional encoder representations from transforms)語言理解模型。
該GPT-2語言生成模型是一種包含12層轉換器(Transformer)疊加的深度神經網路,用於學習出估計下一個字詞的條件機率函數。在本實施例中,該GPT-2語言生成模型是先完成自我監督方式訓練(Self-supervised training),且作為訓練的每一輸入資料的格式為已知的[一發文文句[對應一回應文句的一情緒標記]該回應文句],例如:[“最近事好多[喜歡]有得忙有錢賺啊”]。舉例來說,該等輸入資料是170萬個句子,訓練該GPT-2語言生成模型共需100回合(epoch),且費時約200小時。
此外,由於GPT類型的語言模型只使用到轉換器(Transformer)的解碼器架構,且只看前面出現過的文字來預測下一個字。但在閱讀文句時,有時會需要看前後文,以便對文意有完整的理解。因此,基於轉換器的雙向編碼器表示技術(BERT)能夠接受整句或整段文字,以進行如主題分析、情感分類、自動問答、文意比對等關於文字理解的任務。
該BERT語言理解模型的訓練方式是基於遮罩式的語言模型(Masked language model,MLM)及下一句的預測(Next sentence prediction,NSP)。在本實施例中,該語言理解模型14是先經過回歸訓練,且作為訓練的資料包含已知的多組[一發文文句[SEP]一回應文句,一連貫性分數],已知的該連貫性分數例如等於0.0及1.0,以分別表示對應的該發文文句及該回應文句是不成對的對話及成對的對話,其中,[SEP]是模型中用來分開兩段文句(即該發文文句與該回應文句)的符號。用以進行兩段文句是否成對(也就是是否連貫)的訓練資料,如:[我好想你[SEP]麻辣火鍋最好吃,0.0]、[我好想你[SEP]那我們要多多歡聚啊,1.0]。舉例來說,該BERT語言理解模型例如是藉由Google提供的開源模型,並已針對文句作過下一句預測(NSP)的大量訓練,再藉由前述170萬句中的15000組訓練資料作微調訓練,且其中7500組的該連貫性分數等於1.0,其餘7500組的該連貫性分數等於0.0。另外要特別說明的是:在其他的實施例中,表示不成對與成對的對話的該連貫性分數也可以分別等於0與10、0與1000、或其他數值。
該處理單元11經由該通訊單元15藉由一瀏覽器或以Web API方式獲得來自該電腦設備9的一發文文句(即一使用者操作該電腦設備9而輸入該發文文句),並將該發文文句及N個情緒標記之其中每一者輪流輸入至該語言生成模型13,以產生M個候選回應文句。該處理單元11再將該發文文句及該M個候選回應文句之其中每一者輪流輸入至該語言理解模型14,以決定P個回應文句。每一該情緒標記表示對應產生的該候選回應文句的情緒,並等於K個數值之其中一者,K是正整數且K大於或等於N,該K個數值之其中每一者對應一種情緒。N、M、及P都是正整數,M大於或等於N,P小於或等於M。在本實施例中,K等於5,該五個數值分別代表喜歡(like)、悲傷(sadness)、厭惡 (或噁心)(disgust)、憤怒(anger)、及快樂 (或幸福或高興或開心)(happiness)的情緒。
更詳細地說,該策略表16包含之前至少一次的該P個回應文句所對應的該等情緒標記,及該N個情緒標記之間的對應關係。該處理單元11根據之前至少一次的該P個回應文句所對應的該等情緒標記,以在該策略表16中決定對應該發文文句的該N個情緒標記。舉例來說,N=2,M=4,該處理單元11接收到該使用者的第一次的該發文文句時,例如是過去一預定時間(如24小時或30分鐘)內初次收到時,且該策略表16指示對應第一次收到(即尚無之前的該3個回應文句)時,根據該策略表16的對應關係決定該2個情緒指標例如是快樂(如5)與悲傷(如2),再將第一次的該發文文句與快樂的該情緒指標輸入該語言生成模型13,以產生該2個候選回應文句,類似地,將第一次的該發文文句與悲傷的該情緒指標輸入該語言生成模型13,以產生另外該2個候選回應文句,因此,共產生該4個候選回應文句。
再者,該處理單元11是將該發文文句及該M個候選回應文句之其中每一者輪流輸入至該語言理解模型14,以產生該發文文句與分別對應該M個候選回應文句的該M個連貫性(coherence)分數,該處理單元11選擇該等連貫性分數之其中最高的P個所對應的該P個候選回應文句,而作為該P個回應文句。該處理單元11再將該回應文句經由該通訊單元15傳送回該電腦設備9。
舉例來說,承續前例,P=3,該處理單元11將第一次的該發文文句與該4個候選回應文句之其中每一者輪流輸入至該語言理解模型14,而獲得對應的該4個連貫性分數,再選擇其中3個最高分的該連貫性分數(如1.0、0.96、0.88)所對應的該3個候選回應文句作為該3個回應文句。接著,當該使用者接續該3個回應文句發出第二次的該發文文句時,該處理單元11同樣是根據之前至少一次的該3個回應文句所對應的該3個情緒標記,以在該策略表16中決定對應該發文文句的該2個情緒標記。再舉例來說,該策略表16指示前一次的該3個回應文句所對應的該3個情緒指標例如是快樂、快樂、及悲傷時,所決定的該2個情緒指標例如是喜歡(如1)與快樂(如5)。
本發明情緒回話系統1之一第二實施例大致上是與該第一實施例相同,不同的地方在於:該情緒回話系統1還包含一情緒分類模型17。其中,該策略表16是包含該發文文句的該發文情緒標記、之前至少一次的該P個回應文句所對應的該等情緒標記、及該N個情緒標記之間的對應關係。該處理單元11接收到該發文文句時,是先將該發文文句輸入至該情緒分類模型17以獲得該發文文句的一發文情緒標記,並根據該發文文句的該發文情緒標記,或根據該發文文句的該發文情緒標記、之前至少一次的該P個回應文句所對應的該等情緒標記與之前至少一次的該發文文句的該發文情緒標記,以在該策略表16中決定對應該發文文句的該N個情緒標記。
該情緒分類模型17是一種BERT語言模型,且是一種情緒(或情感)分類模型,例如可運用Google預先訓練好且開源的中文BERT模型,再以自己的訓練資料,進行微調訓練。訓練資料的格式如:[“最近事好多”,“悲傷”],其中第一個字串是一文句,第二個字串是對應該文句的情緒類別文字。同樣運用上述170萬句中的文字與情感資訊,即可完成以BERT為基礎的情緒分類模型。舉例來說,如http://web.glis.ntnu.edu.tw:5003/emotion網址所提供的模型即屬於該種情緒分類模型。該發文情緒標記表示對應的該發文文句的情緒,並等於該K個數值之其中一者。換句話說,藉由設計該策略表16所儲存的各種對應關係,每一該回應文句(即該候選回應文句)所對應的該情緒標記可以是根據該發文文句的該發文情緒標記而決定,也可以是根據當次的該發文文句的該發文情緒標記、之前至少一次的該P個回應文句所對應的該等情緒標記、及之前至少一次的該發文文句的該發文情緒標記來決定。
另外要特別補充說明的是:在其他的實施例中,該語言生成模型13、該語言理解模型14、及該情緒分類模型17也可以是其他的模型。例如,可以運用SVM(Support Vector Machine)來建構另一情緒分類模型,LSTM(Long Short Term Memory)來建構另一語言生成模型,SVR(Support Vector Regression)來建構另一語言理解模型以評估連貫性分數,但都不以此為限。
綜上所述,藉由該處理單元11先根據該語言生成模型13產生對應該發文文句及該N個情緒標記的該M個候選回應文句,再根據該語言理解模型14由該M個候選回應文句決定其中該P個作為該P個回應文句,以回傳至該電腦設備9,而能夠實現一種根據使用者的發話內容而自動回覆創新且有趣的文句的情緒回話系統1,故確實能達成本發明的目的。
惟以上所述者,僅為本發明的實施例而已,當不能以此限定本發明實施的範圍,凡是依本發明申請專利範圍及專利說明書內容所作的簡單的等效變化與修飾,皆仍屬本發明專利涵蓋的範圍內。
1:情緒回話系統
11:處理單元
12:儲存單元
13:語言生成模型
14:語言理解模型
15:通訊單元
16:策略表
17:情緒分類模型
9:電腦設備
本發明的其他的特徵及功效,將於參照圖式的實施方式中清楚地呈現,其中:
圖1是一方塊圖,說明本發明情緒回話系統的一實施例。
1:情緒回話系統
11:處理單元
12:儲存單元
13:語言生成模型
14:語言理解模型
15:通訊單元
16:策略表
17:情緒分類模型
9:電腦設備
Claims (5)
- 一種情緒回話系統,適用於一電腦設備,並包含:一儲存單元,儲存一語言生成模型、一語言理解模型、一情緒分類模型、及一策略表;一通訊單元,用於與該電腦設備建立連線;及一處理單元,電連接該通訊單元及該儲存單元,並經由該通訊單元接收來自該電腦設備的一發文文句,且將該發文文句及N個情緒標記之其中每一者輪流輸入至該語言生成模型,以產生M個候選回應文句,再將該發文文句及該M個候選回應文句之其中每一者輪流輸入至該語言理解模型,以決定P個回應文句,且將該P個回應文句經由該通訊單元傳送回該電腦設備,N、M、及P都是正整數,M大於或等於N,P小於或等於M,每一該情緒標記表示對應產生的該候選回應文句的情緒,並等於K個數值之其中一者,K是正整數且K大於或等於N,該K個數值之其中每一者對應一種情緒,該處理單元接收到該發文文句時,先將該發文文句輸入至該情緒分類模型以獲得該發文文句的一發文情緒標記,該策略表包含該發文文句的該發文情緒標記、之前至少一次的該P個回應文句所對應的該等情緒標記、及該N個情緒標記之間的對應關係,該處理單元根據該發文文句的該發文情緒標記、或根據該發文文句的該發文情緒標記、之前至少一次的該P個回應文句所對應的該等情緒標記與之前至少一次的該發文文句的該發文情緒標記,以在 該策略表中決定對應該發文文句的該N個情緒標記。
- 如請求項1所述的情緒回話系統,其中,K等於5,該五個數值分別代表喜歡(like)、悲傷(sadness)、噁心(或厭惡)(disgust)、憤怒(anger)、及開心(或幸福或高興)(happiness)的情緒。
- 如請求項1所述的情緒回話系統,其中,該處理單元將該發文文句及該M個候選回應文句之其中每一者輪流輸入至該語言理解模型,以產生分別對應的M個連貫性(coherence)分數,該處理單元選擇該等連貫性分數之其中最高的P個所對應的該P個候選回應文句,作為該P個回應文句。
- 如請求項1所述的情緒回話系統,其中,該語言生成模型是一種GPT-2語言生成模型,並已先完成自我監督方式訓練(Self-supervised training),且作為訓練的每一輸入資料的格式為已知的[該發文文句[對應該回應文句的該情緒標記]該回應文句]。
- 如請求項1所述的情緒回話系統,其中,該語言理解模型是一種BERT語言理解模型,並先經過回歸訓練,且作為訓練的資料包含已知的多組[該發文文句[SEP]該回應文句,該連貫性分數],已知的該連貫性分數等於0.0及1.0,以分別表示對應的該發文文句及該回應文句是不成對的對話及成對的對話,[SEP]是用來分開該發文文句及該回應文句的符號。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
TW110125613A TWI776589B (zh) | 2021-07-13 | 2021-07-13 | 情緒回話系統 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
TW110125613A TWI776589B (zh) | 2021-07-13 | 2021-07-13 | 情緒回話系統 |
Publications (2)
Publication Number | Publication Date |
---|---|
TWI776589B true TWI776589B (zh) | 2022-09-01 |
TW202303440A TW202303440A (zh) | 2023-01-16 |
Family
ID=84957910
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
TW110125613A TWI776589B (zh) | 2021-07-13 | 2021-07-13 | 情緒回話系統 |
Country Status (1)
Country | Link |
---|---|
TW (1) | TWI776589B (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TW200506657A (en) * | 2003-08-11 | 2005-02-16 | Univ Nat Cheng Kung | Semantic emotion classifying system |
CN104871150A (zh) * | 2012-07-20 | 2015-08-26 | 韦韦欧股份有限公司 | 在对话交互系统中推断搜索输入中的用户意图的方法和系统 |
CN107657017A (zh) * | 2017-09-26 | 2018-02-02 | 百度在线网络技术(北京)有限公司 | 用于提供语音服务的方法和装置 |
TW201828280A (zh) * | 2017-01-18 | 2018-08-01 | 宏碁股份有限公司 | 語音辨識方法及其電子裝置 |
CN109844743A (zh) * | 2017-06-26 | 2019-06-04 | 微软技术许可有限责任公司 | 在自动聊天中生成响应 |
TW201935370A (zh) * | 2018-02-12 | 2019-09-01 | 中華電信股份有限公司 | 從文字內容評核客戶服務品質之系統及方法 |
-
2021
- 2021-07-13 TW TW110125613A patent/TWI776589B/zh active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TW200506657A (en) * | 2003-08-11 | 2005-02-16 | Univ Nat Cheng Kung | Semantic emotion classifying system |
CN104871150A (zh) * | 2012-07-20 | 2015-08-26 | 韦韦欧股份有限公司 | 在对话交互系统中推断搜索输入中的用户意图的方法和系统 |
TW201828280A (zh) * | 2017-01-18 | 2018-08-01 | 宏碁股份有限公司 | 語音辨識方法及其電子裝置 |
CN109844743A (zh) * | 2017-06-26 | 2019-06-04 | 微软技术许可有限责任公司 | 在自动聊天中生成响应 |
CN107657017A (zh) * | 2017-09-26 | 2018-02-02 | 百度在线网络技术(北京)有限公司 | 用于提供语音服务的方法和装置 |
TW201935370A (zh) * | 2018-02-12 | 2019-09-01 | 中華電信股份有限公司 | 從文字內容評核客戶服務品質之系統及方法 |
Also Published As
Publication number | Publication date |
---|---|
TW202303440A (zh) | 2023-01-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108711420B (zh) | 多语言混杂模型建立、数据获取方法及装置、电子设备 | |
KR102041621B1 (ko) | 인공지능 음성인식 기반 기계학습의 대규모 말뭉치 구축을 위한 대화형 말뭉치 분석 서비스 제공 시스템 및 구축 방법 | |
Vougiouklis et al. | A neural network approach for knowledge-driven response generation | |
CN109271493A (zh) | 一种语言文本处理方法、装置和存储介质 | |
WO2016004266A2 (en) | Generating computer responses to social conversational inputs | |
WO2020199600A1 (zh) | 情感极性分析方法及相关装置 | |
Reganti et al. | Modeling satire in English text for automatic detection | |
CN108304373A (zh) | 语义词典的构建方法、装置、存储介质和电子装置 | |
Sun et al. | Speech emotion recognition based on genetic algorithm–decision tree fusion of deep and acoustic features | |
CN112463942A (zh) | 文本处理方法、装置、电子设备及计算机可读存储介质 | |
Fan et al. | Phonetics and ambiguity comprehension gated attention network for humor recognition | |
CN111046674A (zh) | 语义理解方法、装置、电子设备和存储介质 | |
Zhang et al. | Advances in multi-turn dialogue comprehension: A survey | |
Bharathi et al. | Machine Learning Based Approach for Sentiment Analysis on Multilingual Code Mixing Text. | |
CN116821290A (zh) | 面向多任务对话的大语言模型训练方法和交互方法 | |
CN118378148A (zh) | 多标签分类模型的训练方法、多标签分类方法及相关装置 | |
CN114020886A (zh) | 语音意图识别方法、装置、设备及存储介质 | |
CN107734123A (zh) | 一种联系人排序方法和装置 | |
CN112233648B (zh) | 结合rpa及ai的数据的处理方法、装置、设备及存储介质 | |
CN113869068A (zh) | 场景服务推荐方法、装置、设备及存储介质 | |
Nguyen et al. | Building a chatbot system to analyze opinions of english comments | |
TWI776589B (zh) | 情緒回話系統 | |
Wang et al. | Emily: Developing An Emotion-affective Open-Domain Chatbot with Knowledge Graph-based Persona | |
CN113743126B (zh) | 一种基于用户情绪的智能交互方法和装置 | |
US20230215417A1 (en) | Using token level context to generate ssml tags |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
GD4A | Issue of patent certificate for granted invention patent |