TW202119259A - 對話系統之訊息回饋方法 - Google Patents
對話系統之訊息回饋方法 Download PDFInfo
- Publication number
- TW202119259A TW202119259A TW108139400A TW108139400A TW202119259A TW 202119259 A TW202119259 A TW 202119259A TW 108139400 A TW108139400 A TW 108139400A TW 108139400 A TW108139400 A TW 108139400A TW 202119259 A TW202119259 A TW 202119259A
- Authority
- TW
- Taiwan
- Prior art keywords
- message
- processing unit
- operation processing
- generate
- vector
- Prior art date
Links
Images
Landscapes
- Machine Translation (AREA)
Abstract
本發明係提供一種對話系統之訊息回饋方法,其係採用運算處理單元接收訊息至斷詞運算處理單元切分訊息,並進行向量化運算生成多個訊息向量值,再將其多個訊息向量值經由轉換運算處理單元進行依存句法分析,以生成訊息轉換向量值,並透過代換運算處理單元運算並比對訊息的詞性與極性,而產生訊息代換向量結果,最後經由匹配運算處理單元推估訊息語義後,匹配板模以生成訊息回饋結果,而使得對話系統的訊息回饋可大幅增加其豐富性,而更加人性化,並可應用於各場域之需求。
Description
本發明係有關於一種對話系統之訊息回饋方法。
答與對話系統是以文字或語音模擬人類交談的電腦程式,可透過簡訊、應用程式、公司網頁、社群媒體等進行人機互動服務。近年來,由於自然語言處理、機器學習、語音辨識等技術突飛猛進,促使眾多知名企業以及新創企業,紛紛投入資源開發更直覺、更便利的人機互動技術,造成問答語對話系統相關的軟體和硬體蓬勃發展。
自然語言處理將複雜的語言轉化為電腦容易處理、計算的形式,早期是人工訂定規則,現在則是讓機器自己學習,早期的方式是基於一套詞彙資料庫,用程式語言寫好人工訂定的規則,讓電腦依指令做出反應。但這種人工方式不可能包含所有語言的歧異性,例如,當同樣的詞在不同上下文產生不同意思,就會和原本的人工規則相互牴觸,由於自然語言處理引進機器學習的演算法,不再用程式語言命令電腦所有規則,而是建立演算法模型,讓電腦學會從訓練的資料中,尋找資料所含的特定模式和趨勢。
然而,自然語言理解的目標是將訊息轉換為可被機器處理的語義表示,因為同樣的意思有很多種不同的表達方式,對機器而言,理解一句話中其每個詞彙的確切含義並不重要,重要的是理解這句話表達的意思,可以說,自然語言處理是所有對話系統的基礎,目前有一些公司將自然語言理解作為一種雲端服務提供,方便其他產品快速的具備語義理解能力,藉由使用者上傳數據,平台根據數據訓練出模型並提供介面供使用者使用,使用這類服務的好處是能夠快速的搭建出資料驅動的自然語言理解模組,壞處是這些平台因為強調通用性,所以靈活性不夠,因此如果有客製化的需求,就很難被滿足,使得使用者與對話系統互動時,會覺得不夠有趣或是變化性不足,少了人性化的感覺。
有鑒於習知對話系統其使用上之缺點未臻理想之事實,如何開發出一種更增加對話系統之訊息回饋方法的變化性以及趣味性,同時提升對話的豐富性,服務社會大眾及促進此業之發展,為相關領域之技術人員有待克服之課題。
本發明之主要目的,係提供一種有關於一種對話系統之訊息回饋方法,使得對話系統的訊息回饋可大幅增加其豐富性,而更加人性化,並可應用於各場域之需求。
為了達到上述之目的,本發明之一實施例係揭示一種對話系統之訊息回饋方法,其一斷詞運算處理單元、一轉換運算處理單元、一代換運算處理單元以及一匹配運算處理單元執行於一運算處理單元內,其該訊息回饋之方法步驟包含:接收一訊息至該斷詞運算處理單元,該斷詞運算處理單元切分該訊息,並透過一詞向量模型進行向量化,以生成複數個訊息向量值;接收該些個訊息向量值至該轉換運算處理單元,該轉換運算處理單元依據該些個訊息向量值透過分析樹進行依存句法分析,以生成一訊息轉換向量值;接收該訊息轉換向量值至該代換運算處理單元,該代換運算處理單元依據該訊息轉換向量值進行運算,並比對該訊息之詞性與極性,以生成一訊息代換向量結果;以及接收該訊息代換向量結果至該匹配運算處理單元,該匹配運算處理單元依據該訊息代換向量結果進行運算推估該訊息之語義,並匹配一板模,以生成一訊息回饋結果。
本發明提供一實施例,一種對話系統之訊息回饋方法,其中該斷詞運算處理單元更包含一Jieba模型,該Jieba模型透過動態規劃查找最大概率路徑,以生成該訊息之切分路徑。
本發明提供一實施例,一種對話系統之訊息回饋方法,其中該斷詞運算處理單元更連結至一第一資料庫,該第一資料庫包含一停用詞庫以及一詞性語料庫。
本發明提供一實施例,一種對話系統之訊息回饋方法,其中該依存句法分析係分析該訊息中之詞彙與詞彙間之依存關係,以生成該訊息轉換向量值。
本發明提供一實施例,一種對話系統之訊息回饋方法,其中該代換運算處理單元更連結至一第二資料庫,該第二資料庫包含該詞性語料庫以及一情感語料庫,經由該情感語料庫比對該訊息之極性,以生成該訊息代換向量結果。
本發明提供一實施例,一種對話系統之訊息回饋方法,其中該匹配運算處理單元更連結至一第三資料庫,該第三資料庫包含一槽資料庫以及一板模語料庫。
本發明提供一實施例,一種對話系統之訊息回饋方法,更包含:該匹配運算處理單元依據該槽資料庫進行槽填充與正則表達式之運算,以推估該訊息之語義;以及匹配單元依據該板模語料庫匹配該訊息之語義之板模,以生成該訊息回饋結果。
本發明提供一實施例,一種對話系統之訊息回饋方法,更包含:匹配該板模,並經由匹配運算處理單元依據該匹配之板模進行訊息融合,以生成該訊息回饋結果。
為使 貴審查委員對本發明之特徵及所達成之功效有更進一步之瞭解與認識,謹佐以實施例及配合說明,說明如後:
在下文中,將藉由圖式來說明本發明之各種實施例來詳細描述本發明。然而本發明之概念可能以許多不同型式來體現,且不應解釋為限於本文中所闡述之例式性實施例。
本發明為一種對話系統之訊息回饋方法,該方法係透過接收使用者藉由外部裝置輸入之訊息,其中外部裝置,例如:智慧型手機、平板終端、或個人電腦,並將訊息經由運算處理單元執行對話系統之應用程式,因而在邏輯上構成複數個運算處理單元,例如:斷詞運算處理單元、轉換運算處理單元、代換運算處理單元以及匹配運算處理單元,其中運算處理單元,例如:如係智慧型手機、平板終端、或個人電腦內的中央處理單元 (Central Processing Unit,下稱CPU)。而斷詞運算處理單元、轉換運算處理單元、代換運算處理單元以及匹配運算處理單元包含對應執行的程式代碼,例如:作業系統 (Operating System,下稱OS)之應用程式、或執行資訊處理之應用程式程式,其中斷詞運算處理單元、轉換運算處理單元、代換運算處理單元以及匹配運算處理單元所存取之資料,例如:執行應用程式而進行資訊處理、斷詞、轉換、代換以及匹配所獲得之資料,而本實施例透過同義詞轉換、句構轉換與模板匹配方法,加強回答句子的趣味性,並分別使用斷詞、轉換、代換以及匹配之運算處理單元尋找可替換原詞語之同義詞,且經由分析樹分析理解與轉換句法結構以擴充趣味語句。
首先請參閱第1圖,其為本發明之一實施例之方法流程圖,如圖所示;本發明一種對話系統之訊息回饋方法,其一斷詞運算處理單元、一轉換運算處理單元、一代換運算處理單元以及一匹配運算處理單元執行於一運算處理單元內,其該訊息回饋之方法步驟包含:
步驟S1:接收一訊息至該斷詞運算處理單元,該斷詞運算處理單元切分該訊息,並透過一詞向量模型進行向量化,以生成複數個訊息向量值;
步驟S3:接收該些個訊息向量值至該轉換運算處理單元,該轉換運算處理單元依據該些個訊息向量值透過分析樹進行依存句法分析,以生成一訊息轉換向量值;
步驟S5:接收該訊息轉換向量值至該代換運算處理單元,該代換運算處理單元依據該訊息轉換向量值進行運算,並比對該訊息之詞性與極性,以生成一訊息代換向量結果;以及
步驟S7:接收該訊息代換向量結果至該匹配運算處理單元,該匹配運算處理單元依據該訊息代換向量結果進行運算推估該訊息之語義,並匹配一板模,以生成一訊息回饋結果。
請一併參閱第2圖,其為本發明之一實施例之方法執行示意圖,如圖所示;如步驟S1所示,本實施例係透過外部裝置接收使用者所輸入之訊息,並經由運算處理單元1接收使用者所輸入的訊息M0後,經由斷詞運算處理單元11切分訊息M0,其中斷詞運算處理單元11還包含Jieba模型111,以及連結第一資料庫113,其第一資料庫113中包含停用詞庫1131以及詞性語料庫1132,停用詞庫1131包含多個可忽略的詞彙,因此進行切分訊息M0時,比對停用詞庫1131將可忽略的詞彙先行移除,經由Jieba模型111透過動態規劃查找最大概率的路徑,對於訊息中的句子由右至左反向計算最大概率,其中最大概率為詞典中出現頻率最高的詞彙,依據最大概率的詞彙進行切分後產生切分之訊息M01,再將切分之訊息M01透過詞性語料庫1132標註各個詞彙的詞性。
最後透過詞向量模型112進一步將訊息M0向量化,以生成多個訊息向量值MV0,其中於本實施例中,詞向量模型112係採用連續詞袋模型進行運算,依據上下文預測輸入之訊息,其輸入層為上下文之詞彙的獨熱編碼(one-hot),若詞彙向量空間為300,則將所有上下文之詞彙的獨熱編碼(one-hot)分別乘以輸入權重矩陣W,而將所得之向量結果疊加並求出平均作為隱層向量,再乘以輸出權重矩陣W’,最後將所得之向量進行運算處理,而生成多個訊息向量值MV0,其實施例之結果如下表所示。
表1
切分之訊息 | 訊息向量值 |
推薦 | [ 1.34852231, -1.46168220, -0.283846796, 0.255507112, ……, -0.443848014, -0.8964715, 0.0746758208 ] |
妳 | [-0.2767603, -2.567376, 0.31333858, -2.8562715, ……, 1.1565245, -1.0315146, -0.05259507 ] |
一家 | [ 1.36319029, 0.0964600965, -0.992826164, 0.963028193, ……, -1.97089803, 1.47236884, -1.21806753 ] |
十分 | [ -0.640089333, -0.508031607, 0.751339614, -0.00508919, ……, -1.94071484, -1.21032155, -9.48012710e-01 ] |
有名 | [ -0.19840051, -1.8523711, -1.7301005, 1.0065434, ……, 0.98326397, 0.54569906, -0.19769758 ] |
的 | 可忽略的詞彙 |
蔥油餅 | [ -0.02399684, -0.3525999, -0.09041012, -0.26115584, ……, -0.08557495, 0.0546789, 0.08464683 ] |
如步驟S3所示,為了加強訊息M0的豐富性,將進行句構轉換,透過轉換運算處理單元12接收多個訊息向量值MV0後,經由分析樹作為中文依存句法的分析,其中依存句法分析係分析訊息M0中之詞彙與詞彙間之依存關係,而依存句法存在一個共同的基本假設,一個依存關係連結兩個詞,分別是核心詞和依存詞,因此依存關係可以細分為不同的類型,表示兩個詞之間的具體句法關係,依存句法通過分析訊息M0內詞彙之間的依存關係揭示其句法結構,最後生成訊息轉換向量值MV1。
如步驟S5所示,接著由代換運算處理單元13接收訊息轉換向量值MV1進一步運算處理後,將比對訊息M0的詞性與極性,其中代換運算處理單元13更連結至第二資料庫,而第二資料庫131包含情感語料庫1311,因此藉由情感語料庫1311比對訊息M0極性,以生成訊息代換向量結果。
如步驟S7所示,最後匹配運算處理單元14依據訊息代換向量結果進行運算處理進而推估訊息M0中的語義,且匹配其板模,其中匹配運算處理單元14更連結至一第三資料庫141,其第三資料庫141包含槽資料庫1411以及板模語料庫1412,參閱第3圖,其為本發明之一實施例之部分流程圖。如圖所示,其中該匹配運算處理單元依據該訊息代換向量結果MV2進行運算推估該訊息之語義的步驟中,更包含:
步驟S71: 該匹配運算處理單元依據該槽資料庫進行槽填充與正則表達式之運算,以推估該訊息之語義;以及
步驟S73: 匹配單元依據該板模語料庫匹配該訊息之語義之板模,以生成該訊息回饋結果。
如步驟S71所示,其匹配運算處理單元14依據所連結之槽資料庫1411進行槽填充與正則表達式的運算處理,進一步推估原訊息M0的意圖,再由步驟S73所示,依據匹配運算處理單元14所連結之板模語料庫1412匹配訊息M0語義的板模,參閱第4圖,其為本發明之一實施例之部分流程圖。如圖所示,其中匹配運算處理單元14依據該板模語料庫1412匹配該訊息M0之語義之板模的步驟中,更包含:。
步驟S731: 匹配該板模,並經由匹配運算處理單元依據該匹配之板模進行訊息融合;以及
步驟S733:匹配運算處理單元依據訊息融合結果,生成該訊息回饋結果。
如步驟S731所示,以經由匹配運算處理單元14所匹配的板模進一步擴充訊息M0,而增加訊息M0的豐富性以及趣味性,並進行依據匹配的板模進行訊息M0融合,最後執行步驟S733,匹配運算處理單元14依據訊息M0的融合結果,而生成訊息回饋結果M2。
綜上所述,本發明為一種對話系統之訊息回饋方法,其提供同義詞彙對換、句構轉換與模板匹配的方法,加強回答句子的趣味性,經由斷詞運算處理單元、轉換運算處理單元、代換運算處理單元以及匹配運算處理單元尋找可替換原詞彙的同義詞後,進一步理解句法結構以擴充訊息,亦可依據使用者之需求進行客製化,並透過擴充詞性語料庫以及情感語料庫使得訊息更加人性化而不單調。
故本發明實為一具有新穎性、進步性及可供產業上利用者,應符合我國專利法專利申請要件無疑,爰依法提出發明專利申請,祈 鈞局早日賜准專利,至感為禱。
惟以上所述者,僅為本發明之較佳實施例而已,並非用來限定本發明實施之範圍,舉凡依本發明申請專利範圍所述之形狀、構造、特徵及精神所為之均等變化與修飾,均應包括於本發明之申請專利範圍內。
S1~S7:步驟
1:運算處理單元
11:斷詞運算處理單元
111:Jieba模型
112:詞向量模型
113:第一資料庫
1131:停用詞庫
1132:詞性語料庫
12:轉換運算處理單元
13:代換運算處理單元
131:第二資料庫
1311:詞性語料庫
14:匹配運算處理單元
141:第三資料庫
1411:槽資料庫
1412:板模語料庫
M0:訊息
M1:切分之訊息
M2:訊息回饋結果
MV0:訊息向量值
MV1:訊息轉換向量值
MV2:訊息代換向量結果
第1圖:其是本發明之一實施例之方法流程圖
第2圖:其是本發明之一實施例之方法執行示意圖
第3圖:其是本發明之一實施例之部分流程圖
第4圖:其是本發明之一實施例之部分流程圖
S1~S7:步驟
Claims (8)
- 一種對話系統之訊息回饋方法,其一斷詞運算處理單元、一轉換運算處理單元、一代換運算處理單元以及一匹配運算處理單元執行於一運算處理單元內,其該訊息回饋之方法步驟包含: 接收一訊息至該斷詞運算處理單元,該斷詞運算處理單元切分該訊息,並透過一詞向量模型進行向量化,以生成複數個訊息向量值; 接收該些個訊息向量值至該轉換運算處理單元,該轉換運算處理單元依據該些個訊息向量值透過分析樹進行依存句法分析,以生成一訊息轉換向量值; 接收該訊息轉換向量值至該代換運算處理單元,該代換運算處理單元依據該訊息轉換向量值進行運算,並比對該訊息之詞性與極性,以生成一訊息代換向量結果;以及 接收該訊息代換向量結果至該匹配運算處理單元,該匹配運算處理單元依據該訊息代換向量結果進行運算推估該訊息之語義,並匹配一板模,以生成一訊息回饋結果。
- 如申請專利範圍第1項所述之對話系統之訊息回饋方法,其中該斷詞運算處理單元更包含一Jieba模型,該Jieba模型透過動態規劃查找最大概率路徑,以生成該訊息之切分路徑。
- 如申請專利範圍第1項所述之對話系統之訊息回饋方法,其中該斷詞運算處理單元更連結至一第一資料庫,該第一資料庫包含一停用詞庫以及一詞性語料庫。
- 如申請專利範圍第1項所述之對話系統之訊息回饋方法,其中該依存句法分析係分析該訊息中之詞彙與詞彙間之依存關係,以生成該訊息轉換向量值。
- 如申請專利範圍第1項所述之對話系統之訊息回饋方法,其中該代換運算處理單元更連結至一第二資料庫,該第二資料庫包含一情感語料庫,經由該情感語料庫比對該訊息之極性,以生成該訊息代換向量結果。
- 如申請專利範圍第1項所述之對話系統之訊息回饋方法,其中該匹配運算處理單元更連結至一第三資料庫,該第三資料庫包含一槽資料庫以及一板模語料庫。
- 如申請專利範圍第6項所述之對話系統之訊息回饋方法,其中該匹配運算處理單元依據該訊息代換向量結果進行運算推估該訊息之語義的步驟中,更包含: 該匹配運算處理單元依據該槽資料庫進行槽填充與正則表達式之運算,以推估該訊息之語義;以及 匹配單元依據該板模語料庫匹配該訊息之語義之板模,以生成該訊息回饋結果。
- 如申請專利範圍第7項所述之對話系統之訊息回饋方法,其中於匹配單元依據該板模語料庫匹配該訊息之語義之板模,以生成該訊息回饋結果的步驟中,更包含: 匹配該板模,並經由匹配運算處理單元依據該匹配之板模進行訊息融合,以生成該訊息回饋結果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
TW108139400A TW202119259A (zh) | 2019-10-31 | 2019-10-31 | 對話系統之訊息回饋方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
TW108139400A TW202119259A (zh) | 2019-10-31 | 2019-10-31 | 對話系統之訊息回饋方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
TW202119259A true TW202119259A (zh) | 2021-05-16 |
Family
ID=77020779
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
TW108139400A TW202119259A (zh) | 2019-10-31 | 2019-10-31 | 對話系統之訊息回饋方法 |
Country Status (1)
Country | Link |
---|---|
TW (1) | TW202119259A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117910467A (zh) * | 2024-03-15 | 2024-04-19 | 成都启英泰伦科技有限公司 | 一种离线语音识别过程中的分词处理方法 |
-
2019
- 2019-10-31 TW TW108139400A patent/TW202119259A/zh unknown
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117910467A (zh) * | 2024-03-15 | 2024-04-19 | 成都启英泰伦科技有限公司 | 一种离线语音识别过程中的分词处理方法 |
CN117910467B (zh) * | 2024-03-15 | 2024-05-10 | 成都启英泰伦科技有限公司 | 一种离线语音识别过程中的分词处理方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7346609B2 (ja) | 自然言語理解(nlu)フレームワークを使用して意味探索を実行するシステムおよび方法 | |
US10936664B2 (en) | Dialogue system and computer program therefor | |
JP6676110B2 (ja) | 発話文生成装置とその方法とプログラム | |
WO2018153213A1 (zh) | 一种多语言混合语音识别方法 | |
RU2509350C2 (ru) | Способ семантической обработки естественного языка с использованием графического языка-посредника | |
Zhang et al. | AMBERT: A pre-trained language model with multi-grained tokenization | |
WO2019001127A1 (zh) | 基于虚拟人物的人工智能交互方法及人工智能交互装置 | |
US20170286408A1 (en) | Sentence creation system | |
KR101627428B1 (ko) | 딥 러닝을 이용하는 구문 분석 모델 구축 방법 및 이를 수행하는 장치 | |
KR101677859B1 (ko) | 지식 베이스를 이용하는 시스템 응답 생성 방법 및 이를 수행하는 장치 | |
Atmadja et al. | Comparison on the rule based method and statistical based method on emotion classification for Indonesian Twitter text | |
Hirat et al. | A survey on emotion detection techniques using text in blogposts | |
CN112860896A (zh) | 语料泛化方法及用于工业领域的人机对话情感分析方法 | |
de Velasco et al. | Emotion Detection from Speech and Text. | |
Tahayna et al. | Context-Aware Sentiment Analysis using Tweet Expansion Method. | |
Armstrong et al. | Jampatoisnli: A jamaican patois natural language inference dataset | |
TW202119259A (zh) | 對話系統之訊息回饋方法 | |
TW201937479A (zh) | 一種多語言混合語音識別方法 | |
Dehkharghani et al. | A novel approach to sentiment analysis in Persian using discourse and external semantic information | |
Mezza et al. | A multi-dimensional, cross-domain and hierarchy-aware neural architecture for iso-standard dialogue act tagging | |
Chenal et al. | Predicting sentential semantic compatibility for aggregation in text-to-text generation | |
Zhang et al. | Investigations in automatic humor recognition | |
JP5718406B2 (ja) | 発話文生成装置、対話装置、発話文生成方法、対話方法、発話文生成プログラム、及び対話プログラム | |
Kim et al. | Dialogue act classification model based on deep neural networks for a natural language interface to databases in korean | |
Barros et al. | Improving the naturalness and expressivity of language generation for Spanish |