TWI746214B - 機器閱讀理解方法、機器閱讀理解裝置及非暫態電腦可讀取媒體 - Google Patents
機器閱讀理解方法、機器閱讀理解裝置及非暫態電腦可讀取媒體 Download PDFInfo
- Publication number
- TWI746214B TWI746214B TW109136179A TW109136179A TWI746214B TW I746214 B TWI746214 B TW I746214B TW 109136179 A TW109136179 A TW 109136179A TW 109136179 A TW109136179 A TW 109136179A TW I746214 B TWI746214 B TW I746214B
- Authority
- TW
- Taiwan
- Prior art keywords
- historical
- question
- data
- sub
- feature
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
- G06F40/35—Discourse or dialogue representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/042—Knowledge-based neural networks; Logical representations of neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Machine Translation (AREA)
Abstract
一種機器閱讀理解方法,包含以下步驟:由處理器對至少一歷史對話資料以及現在問題資料分別執行關聯擴增自注意特徵擷取處理以取得至少一歷史對話特徵以及現在問題特徵;以及由處理器依據至少一歷史對話特徵以及現在問題特徵執行機器閱讀理解分析以取得回應輸出。
Description
本案是有關於一種機器閱讀理解方法、機器閱讀理解裝置及非暫態電腦可讀取媒體,特別是以多輪對話記憶特徵建立記憶特徵融合神經網路的機器閱讀理解方法、機器閱讀理解裝置及非暫態電腦可讀取媒體。
企業對於對話式人工智慧的需求遽增。傳統作法為單句問答方法,以一問一答式單句檢索式問答理解,無法進行上下文理解,對於人類習慣對話方式所造成的問句若不完整的情況,很容易發生誤判。若是透過多輪對話的檢索式問答,整合歷史對話紀錄,能有效校正單句無法理解的情況,提升對話式人工智慧的體驗。
此外,自然語言的文句結構複雜,而且一句話可能包含多個資訊。若是能將一句話擴展成多具結構單純的內容,能有效提高機器閱讀理解的準確度。
本案之一態樣是在提供一種機器閱讀理解方法,包含以下步驟:由處理器對至少一歷史對話資料以及現在問題資料分別執行關聯擴增自注意特徵擷取處理以取得至少一歷史對話特徵以及現在問題特徵;以及由處理器依據至少一歷史對話特徵以及現在問題特徵執行機器閱讀理解分析以取得回應輸出。
本案之另一態樣是在提供一種機器閱讀理解裝置,包含記憶體以及處理器。記憶體用以儲存至少一歷史對話資料。處理器耦接於記憶體,用以對至少一歷史對話資料以及現在問題資料分別執行關聯擴增自注意特徵擷取處理以取得至少一歷史對話特徵以及現在問題特徵,並依據至少一歷史對話特徵以及現在問題特徵執行機器閱讀理解分析以取得回應輸出。
本案之另一態樣是在提供一種非暫態電腦可讀取媒體,其包含至少一程式指令用以執行機器閱讀理解方法,其中機器閱讀理解方法包含下列步驟:由處理器對至少一歷史對話資料以及現在問題資料分別執行關聯擴增自注意特徵擷取處理以取得至少一歷史對話特徵以及現在問題特徵;以及由處理器依據至少一歷史對話特徵以及現在問題特徵執行機器閱讀理解分析以取得回應輸出。
以下揭示提供許多不同實施例或例證用以實施本發明的不同特徵。特殊例證中的元件及配置在以下討論中被用來簡化本案。所討論的任何例證只用來作解說的用途,並不會以任何方式限制本發明或其例證之範圍和意義。
請參閱第1圖。第1圖係一種機器閱讀理解裝置100的示意圖。如第1圖所繪式,機器閱讀理解裝置100包含處理器110以及記憶體130。處理器110與記憶體130相耦接。處理器110包含記憶特徵融合神經網路(MFNN)電路112A以及機器閱讀理解(MRC)分析電路112B。
於部分實施例中,記憶體130用以儲存歷史對話資料,歷史對話資料包含歷史問題資料以及歷史回應資料。
請參閱第2圖。第2圖係根據本發明之一些實施例所繪示之一種機器閱讀理解方法200的示意圖。本發明的實施方式不以此為限制。
應注意到,此機器閱讀理解方法200可應用於與第1圖中的機器閱讀理解裝置100的結構相同或相似之系統。而為使敘述簡單,以下將以第2圖為例執行對操作方法敘述,然本發明不以第1圖的應用為限。
需注意的是,於一些實施例中,機器閱讀理解方法200亦可實作為一電腦程式,並儲存於一非暫態電腦可讀取媒體中,而使電腦、電子裝置、或前述如第1圖中的機器閱讀理解裝置100中的處理器110讀取此記錄媒體後執行此一操作方法,處理器可以由一或多個晶片組成。非暫態電腦可讀取記錄媒體可為唯讀記憶體、快閃記憶體、軟碟、硬碟、光碟、隨身碟、磁帶、可由網路存取之資料庫或熟悉此技藝者可輕易思及具有相同功能之非暫態電腦可讀取記錄媒體。
另外,應瞭解到,在本實施方式中所提及的盲掃方法的操作,除特別敘明其順序者外,均可依實際需要調整其前後順序,甚至可同時或部分同時執行。
再者,在不同實施例中,此些操作亦可適應性地增加、置換、及/或省略。
請參閱第2圖。機器閱讀理解方法200包含以下步驟。
於步驟S210:對歷史對話資料以及現在問題資料分別執行關聯擴增自注意(RASA)特徵擷取處理以取得歷史對話特徵以及現在問題特徵。
請一併參閱第1圖,於部分實施例中,步驟S210可由如第1圖中的記憶特徵融合神經網路(MFNN)電路112A所執行。關於步驟S210的詳細操作方式將於以下一併參閱第3圖說明。
請參閱第3圖。第3圖係根據本發明之一些實施例所繪示之一種記憶特徵融合神經網路(MFNN)處理300的操作示意圖。記憶特徵融合神經網路(MFNN)處理300包含多個RASA特徵擷取處理RASAC。
如第3圖所繪式。Q0係為現在問題資料,Q1至QN與A1至AN為歷史對話資料。其中Q1至QN係為歷史問題資料,A1至AN係為歷史回應資料。處理器110依據現在問題資料產生現在問題特徵,並依據歷史對話資料產生歷史對話特徵。
詳細而言,現在問題資料Q0經由RASA特徵擷取處理RASAC後產生現在問題特徵O0,歷史問題資料Q1至QN經由RASA特徵擷取處理RASAC後產生歷史問題特徵O1至ON,歷史回應資料A1至AN經由RASA特徵擷取處理RASAC後產生歷史回應特徵R1至RN。處理器110再將包含歷史問題特徵和歷史回應特徵的歷史對話特徵與現在問題特徵相串接,以產生串接特徵C。
於部分實施例中,於產生現在問題特徵O0、歷史問題特徵O1至ON與歷史回應特徵R1至RN時,處理器110並將現在問題資料Q0,歷史問題資料Q1至QN,歷史回應資料A1至AN分別與文本資料P一起執行RASA特徵擷取處理RASAC以產生現在問題特徵O0、歷史問題特徵O1至ON,歷史回應特徵A1至AN。
請參閱第4圖。第4圖係根據本發明之一些實施例所繪示之一種RASA特徵擷取處理RASAC的詳細示意圖。在此以依據現在問題資料Q0產生現在問題特徵O0為例進行說明。
如第4圖所繪式,處理器110對文本特徵P執行RASA分析RRA後產生文本特徵P-S,處理器110對現在問題資料Q0執行RASA分析RRA後產生現在問題子特徵Q0-S。接著處理器110將文本特徵P-S與現在問題子特徵Q0-S串接,以產生現在問題特徵O0。
依此類推,處理器110對歷史問題資料Q1執行RASA分析RRA後產生歷史問題子特徵Q1-S(未繪式)。接著處理器110將文本特徵P-S與歷史問題子特徵Q1-S串接,以產生歷史問題特徵O1,其餘依此類推。
同理,處理器110對歷史回應資料A1執行RASA分析RRA後產生歷史回應子特徵A1-S(未繪式)。接著處理器110將文本特徵P-S與歷史回應子特徵A1-S串接,以產生歷史回應特徵R1,其餘依此類推。
於部分實施例中,處理器110並調整現在問題特徵O0、歷史回應特徵O1至ON以及歷史回應特徵R1至RN的特徵長度。
關於RASA分析RRA的詳細說明,將於以下一併參閱第5A圖至第10圖說明。
請請參閱第5A圖與第5B圖。第5A圖係根據本發明之一些實施例所繪示之一種語句樹500A的示意圖。第5B圖係根據本發明之一些實施例所繪示之一種語句樹500B的示意圖。
於處理器110執行RASA分析RRA時,處理器110先將歷史問題資料、歷史回應資料以及現在問題資料分別拆解為子歷史問題資料、子歷史回應資料以及子現在問題資料。
詳細而言,於處理器110拆解語句時,處理器110將歷史問題資料、歷史回應資料以及現在問題資料分別拆解為多個詞組,分析多個詞組的多個詞性,並依據多個詞組以及多個詞性組成多個子歷史問題資料、多個子歷史回應資料以及多個子現在問題資料。
舉例而言,假設現在問題資料Q0係為「我想要看搭配學生方案的Samsung128G手機」。經分析後,取得多個詞組「我」、「想要」、「看」、「搭配」、「學生方案」、「的」、「Samsung」、「128G」、「手機」。上述詞組中,與詞組「我」、「學生方案」、「Samsung」、「128G」、「手機」相對應的詞性係為名詞,與詞組「想要」、「看」、「搭配」相對應的詞性係為動詞,與詞組「的」相對應的詞性係為助詞。經上述拆解後,處理器110即可產生如語句樹500A所示之詞組關係圖。於拆解出詞組關係圖後,處理器110即可產生多個子現在問題資料。
舉例而言,請一併參閱第5B圖。語句樹500B的子現在問題資料為「想要看手機」。然,子現在問題資料不以此為限制,其他的子現在問題資料包含「想要看Samsung手機」、「想要看128G手機」、「想要看搭配學生方案手機」等。
關於歷史回應資料拆解為多個子歷史回應資料的方式以及歷史問題資料拆解為多個子歷史問題資料的方式與上述第5A圖、第5B圖中所述之方式相類似或相同,在此不多做說明。
於部分實施例中,處理器110更依據上述詞組與詞性產生多個關聯遮罩(Mask)。關聯遮罩分別包含多個關聯指標,用以標示詞組之間的主從關係。
舉例而言,請一併參閱第6A圖和第6B圖。第6A圖係根據本發明之一些實施例所繪示之一種關聯遮罩M6A的示意圖。第6B圖係根據本發明之一些實施例所繪示之一種關聯遮罩M6B的示意圖。
關聯遮罩M6A與第5A圖中的語句樹500A相對應,而關聯遮罩M6B與第5B圖中的語句樹500B相對應。如第6A圖所示之關聯遮罩M6A係為二維之關聯遮罩。關聯指標M(i,j)=1時表示j為i的祖先節點或i=j。反之,關聯指標M(i,j)=0時表示j不為i的祖先節點且i≠j。
於部分實施例中,歷史問題資料、歷史回應資料以及現在問題資料可為中文以外的其他語言。以下將以英文為例進行說明。
請請參閱第7A圖。第7A圖係根據本發明之一些實施例所繪示之一種語句樹700A的示意圖。舉例而言,假設現在問題資料Q0係為「show me the flights from Taipei to Tokyo」。經分析後,取得多個詞組「show」、「me」、「the」、「flights」、「from」、「Taipei」、「to」、「Tokyo」。上述詞組中,與詞組「show」相對應的詞性係為動詞,與詞組「me」相對應的詞性係為受詞,與詞組「the」相對應的詞性係為冠詞,與詞組「flights」、「Taipei」、「Tokyo」相對應的詞性係為名詞,與詞組「from」、「to」相對應的詞性係為介詞。經上述拆解後,處理器110即可產生如語句樹700A所示之詞組關係圖。於拆解出詞組關係圖後,處理器110即可產生多個子現在問題資料。
舉例而言,請一併參閱第7B圖。第7B圖係根據本發明之一些實施例所繪示之一種語句樹700B的示意圖。語句樹700B相對應的子現在問題資料為「show flights to Tokyo」。然,子現在問題資料不以此為限制,其他的子現在問題資料包含「show flights from Taipei」、「show flights」等。
請再一併參閱第8A圖和第8B圖。第8A圖係根據本發明之一些實施例所繪示之一種關聯遮罩M8A的示意圖。第8B圖係根據本發明之一些實施例所繪示之一種關聯遮罩M8B的示意圖。
關聯遮罩M8A與第7A圖中的語句樹700A相對應,而關聯遮罩M8B與第7B圖中的語句樹700B相對應。
請參閱第9圖。第9圖係根據本發明之一些實施例所繪示之一種RASA分析RRA的示意圖。於第9圖中,以輸入為現在問題資料Q0輸出為現在問題子特徵Q0-S為例進行說明。現在問題資料Q0被拆解為多個子現在問題資料Q0S1至Q0SN。
現在問題資料Q0以及多個子現在問題資料Q0S1至Q0SN分別執行基於關聯的自注意分析(Relation-based Self Attention)RBSA後,產生現在問題向量CM1以及多個子現在問題向量CS1至CSN。詳細而言,現在問題資料Q0依據與現在問題資料Q0相對應的關聯遮罩執行基於關聯的自注意分析RBSA後,產生現在問題向量CM1。子現在問題資料Q0S1依據與子現在問題資料Q0S1相對應的關聯遮罩執行基於關聯的自注意分析RBSA後產生子現在問題向量CS1。子現在問題資料Q0S2依據與子現在問題資料Q0S2相對應的關聯遮罩執行基於關聯的自注意分析RBSA後產生子現在問題向量CS2,其餘依此類推。
接著處理器110將多個子現在問題向量CS1至CSN相加,產生總子現在問題向量SCS。接著將總子現在問題向量SCS與現在問題向量CM1串接後,產生現在問題子特徵Q0-S。於部分實施例中,處理器110更用以調整現在問題子特徵Q0-S的特徵長度。
同理,歷史問題資料亦可拆解為多個子歷史問題資料,且歷史問題資料以及多個子歷史問題資料經由基於關聯的自注意分析RBSA後產生歷史問題向量以及多個子歷史問題向量。處理器110將多個子歷史問題向量相加後與歷史問題向量串接,產生歷史問題子特徵。
同樣地,歷史回應資料亦可拆解為多個子歷史回應資料,且歷史回應資料以及多個子歷史回應資料經由基於關聯的自注意分析RBSA後產生歷史回應向量以及多個子歷史回應向量。處理器110將多個子歷史回應向量相加後與歷史回應向量串接,產生歷史回應子特徵。
請參閱第10圖。第10圖係根據本發明之一些實施例所繪示之一種基於關聯的自注意分析RBSA的示意圖。第10圖中以現在問題資料Q0為例進行說明,其餘子現在問題資料、歷史問題資料、子歷史問題資料、歷史回應資料、歷史回應資料等的執行方式依此類推。
如第10圖所繪示,處理器110依據現在問題資料Q0執行雙向預訓練轉換(BERT,Bidirectional Encoder Representations from Transformers)處理以產生輸出
。處理器110依據現在問題資料Q0執行雙向預訓練轉換BERT處理後再執行基於關聯的自注意分析RBSA以產生輸出
。處理器110再依據輸出
以及輸出
產生輸出
以產生歷史問題向量CM1。於執行基於關聯的自注意分析RBSA時,處理器110並依據與現在問題資料Q0相對應的關聯遮罩MASK進行。
如第10圖所繪示,於部分實施例中,基於關聯的自注意分析RBSA包含自注意力機制(Self-attention Mechanism)SAA以及深度神經網路分析DNN。於執行自注意力機制SAA後產生
,並依據輸出
執行深度神經網路分析DNN產生輸出
。
上述算式中的
係為關聯遮罩MASK,softmax係為自注意力機制SAA的轉換函式。
係為查詢。
係為鍵。
係為值。
係為K的維度。
係為調整參數。
係為經深度神經網路分析DNN的輸出。
係為經自注意力機制SAA的輸出。
係為經雙向預訓練轉換BERT處理後的輸出。
係為
和
經上述算式計算後產生的輸出。
請再回到第2圖。於步驟S230中,依據歷史對話特徵以及現在問題特徵執行MRC分析以取得回應輸出。請一併參閱第1圖,於部分實施例中,步驟S230可由如第1圖中的處理器110的MRC分析電路112B所執行。
於本案中,各種MRC分析方式均可用以產生CNN編碼。以下將舉一種MRC分析方式為例進行說明。舉例而言,於部分實施例中,MRC分析方式包含以下步驟:資料標準化、卷積神經網路CNN編碼、產生回應輸出。
詳細而言,於部分實施例中,處理器110將步驟S210產生的串接特徵C標準化後,進行CNN編碼,再依據CNN編碼後的結果依據相關語言的資料產生回應輸出。
於部分實施例中,處理器250可為伺服器或其他裝置。於部分實施例中,處理器250可以是具有儲存、運算、資料讀取、接收信號或訊息、傳送信號或訊息等功能的伺服器、電路、中央處理單元(central processor unit, CPU)、微處理器(MCU)或其他具有同等功能的裝置。於部分實施例中,相機110、214可以是具有影像擷取、拍照等功能的電路其他具有同等功能的裝置。於部分實施例中,記憶體130可以是具有儲存功能的元件或類似功能的元件。
由上述本案之實施方式可知,本案之實施例藉由提供一種機器閱讀理解方法、機器閱讀理解裝置及非暫態電腦可讀取媒體,融合歷史對話記錄並整合上下文重要資訊,以實現支援多輪對話的檢索式詢問,能有效校正單句無法理解的情況,可有效增進溝通效率並提升對話式體驗。此外,透過關聯擴增方式將一句話擴展成多句結構單純的內容,作為自注意機制特徵,能有效提高機器閱讀理解準確度。綜合上述,本案之實施方式係為基於關聯擴增自注意機制的多輪對話檢索式問答對話,使用句擴增 (關聯擴增子句)、新特徵(關聯擴增自注意特徵、多輪對話記憶特徵)及新架構(記憶特徵融合神經網路,Memory Fusion Neural Network (MFNN))達成高準度。
另外,上述例示包含依序的示範步驟,但該些步驟不必依所顯示的順序被執行。以不同順序執行該些步驟皆在本揭示內容的考量範圍內。在本揭示內容之實施例的精神與範圍內,可視情況增加、取代、變更順序及/或省略該些步驟。
雖然本案已以實施方式揭示如上,然其並非用以限定本案,任何熟習此技藝者,在不脫離本案之精神和範圍內,當可作各種之更動與潤飾,因此本案之保護範圍當視後附之申請專利範圍所界定者為準。
100:機器閱讀理解裝置
110:處理器
112A:MFNN電路
112B:MRC分析電路
200:機器閱讀理解方法
S210至S230:步驟
300:MFNN處理
Q0:現在問題資料
Q1至QN:歷史問題資料
A1至AN:歷史回應資料
P:文本
O0:現在問題特徵
O1至ON:歷史問題特徵
R1至RN:歷史回應特徵
C:串接特徵
RASAC:RASA特徵擷取處理
P-S:文本特徵
Q0-S:現在問題子特徵
RRA:RASA分析
500A、500B:語句樹
i、j:座標
M6A、M6B:關聯遮罩
700A、700B:語句樹
M8A、M8B:關聯遮罩
Q0S1至Q0SN:子現在問題資料
RBSA:基於關聯的自注意分析
CM1:現在問題向量
CS1至CSN:子現在問題向量
SCS:總子現在問題向量
BERT:雙向預訓練轉換
SAA:自注意力機制
MASK:關聯遮罩
:輸出
:輸出
:輸出
:輸出
DNN:深度神經網路分析
為讓本揭示之上述和其他目的、特徵、優點與實施例能夠更明顯易懂,所附圖式之說明如下:
第1圖係一種機器閱讀理解裝置的示意圖;
第2圖係根據本發明之一些實施例所繪示之一種機器閱讀理解方法的示意圖;
第3圖係根據本發明之一些實施例所繪示之一種記憶特徵融合神經網路處理的操作示意圖;
第4圖係根據本發明之一些實施例所繪示之一種RASA特徵擷取處理的詳細示意圖;
第5A圖係根據本發明之一些實施例所繪示之一種語句樹的示意圖;
第5B圖係根據本發明之一些實施例所繪示之一種語句樹的示意圖;
第6A圖係根據本發明之一些實施例所繪示之一種關聯遮罩的示意圖;
第6B圖係根據本發明之一些實施例所繪示之一種關聯遮罩的示意圖;
第7A圖係根據本發明之一些實施例所繪示之一種語句樹的示意圖;
第7B圖係根據本發明之一些實施例所繪示之一種語句樹的示意圖;
第8A圖係根據本發明之一些實施例所繪示之一種關聯遮罩的示意圖;
第8B圖係根據本發明之一些實施例所繪示之一種關聯遮罩的示意圖;
第9圖係根據本發明之一些實施例所繪示之一種RASA分析的示意圖;以及
第10圖係根據本發明之一些實施例所繪示之一種基於關聯的自注意分析的示意圖。
200:機器閱讀理解方法
S210至S230:步驟
Claims (18)
- 一種機器閱讀理解方法,包含:由一處理器對至少一歷史對話資料以及一現在問題資料分別執行一關聯擴增自注意(RASA)特徵擷取處理以取得至少一歷史對話特徵以及一現在問題特徵;由該處理器依據複數個關聯遮罩執行該關聯擴增自注意特徵擷取處理,其中該些關聯遮罩分別與該至少一歷史對話資料以及該現在問題資料的其中一者相對應,且該些關聯遮罩分別係依據該至少一歷史對話資料以及該現在問題資料的其中該者所包含的複數個詞組所產生;以及由該處理器依據該至少一歷史對話特徵以及該現在問題特徵執行一機器閱讀理解(MRC)分析以取得一回應輸出。
- 如請求項1所述之機器閱讀理解方法,其中該至少一歷史對話資料包含至少一歷史問題資料以及至少一歷史回應資料,且該至少一歷史對話特徵包含至少一歷史問題特徵以及至少一歷史回應特徵。
- 如請求項2所述之機器閱讀理解方法,其中對該至少一歷史對話資料以及該現在問題資料分別執行該關聯擴增自注意特徵擷取處理包含:對該至少一歷史問題資料、該至少一歷史回應資料以及該現在問題資料分別執行一關聯擴增自注意分析以取得 至少一歷史問題子特徵、至少一歷史回應子特徵以及一現在問題子特徵;對一文本資料執行該關聯擴增自注意分析以取得一文本特徵;以及將該至少一歷史問題子特徵、該至少一歷史回應子特徵以及該現在問題子特徵分別與該文本特徵串接以產生該至少一歷史問題特徵、該至少一歷史回應特徵以及該現在問題特徵。
- 如請求項3所述之機器閱讀理解方法,更包含:由該處理器分別調整該至少一歷史問題特徵、該至少一歷史回應特徵以及該現在問題特徵的一長度。
- 如請求項3所述之機器閱讀理解方法,其中對該至少一歷史問題資料、該至少一歷史回應資料以及該現在問題資料分別執行該關聯擴增自注意分析以取得該至少一歷史問題子特徵、該至少一歷史回應子特徵以及該現在問題子特徵包含:將該至少一歷史問題資料、該至少一歷史回應資料以及該現在問題資料分別拆解為複數個子歷史問題資料、複數個子歷史回應資料以及複數個子現在問題資料;依據該至少一歷史問題資料、該至少一歷史回應資料以及該現在問題資料分別產生至少一歷史問題向量、至少 一歷史回應向量以及一現在問題向量;依據該些子歷史問題資料、該些子歷史回應資料以及該些子現在問題資料分別產生複數個子歷史問題向量、複數個子歷史回應向量以及複數個子現在問題向量;以及依據該至少一歷史問題向量、該至少一歷史回應向量、該現在問題向量、該些子歷史問題向量、該些子歷史回應向量以及該些子現在問題向量產生該至少一歷史問題子特徵、該至少一歷史回應子特徵以及該現在問題子特徵。
- 如請求項5所述之機器閱讀理解方法,其中依據該至少一歷史問題向量、該至少一歷史回應向量、該現在問題向量、該些子歷史問題向量、該些子歷史回應向量以及該些子現在問題向量產生該至少一歷史問題子特徵、該至少一歷史回應子特徵以及該現在問題子特徵包含:將該些子歷史問題向量相加後與該至少一歷史問題向量串接以產生該至少一歷史問題子特徵;將該些子歷史回應向量相加後與該至少一歷史回應向量串接以產生該至少一歷史回應子特徵;以及將該些子現在問題向量相加後與該現在問題向量串接以產生該現在問題子特徵。
- 如請求項6所述之機器閱讀理解方法,其中依據該至少一歷史問題向量、該至少一歷史回應向量、 該現在問題向量、該些子歷史問題向量、該些子歷史回應向量以及該些子現在問題向量產生該至少一歷史問題子特徵、該至少一歷史回應子特徵以及該現在問題子特徵更包含:分別調整該至少一歷史問題子特徵、該至少一歷史回應子特徵以及該現在問題子特徵的一長度。
- 如請求項5所述之機器閱讀理解方法,其中將該至少一歷史問題資料、該至少一歷史回應資料以及該現在問題資料分別拆解為該些子歷史問題資料、該些子歷史回應資料以及該些子現在問題資料包含:將該至少一歷史問題資料、該至少一歷史回應資料以及該現在問題資料分別拆解為該些詞組;分析該些詞組的複數個詞性;以及依據該些詞組以及該些詞性組成該些子歷史問題資料、該些子歷史回應資料以及該些子現在問題資料。
- 如請求項8所述之機器閱讀理解方法,其中該些關聯遮罩包含複數個關聯指標,以標示該些詞組之間的主從關係。
- 如請求項5所述之機器閱讀理解方法,其中依據該至少一歷史問題資料、該至少一歷史回應資料以及該現在問題資料分別產生該至少一歷史問題向量、該 至少一歷史回應向量以及該現在問題向量包含:將該至少一歷史問題資料依據與該至少一歷史問題資料相對應的一關聯遮罩執行一基於關聯的自注意分析,以產生該至少一歷史問題向量;將該至少一歷史回應資料依據與該至少一歷史回應資料相對應的一關聯遮罩執行該基於關聯的自注意分析,以產生該至少一歷史回應向量;以及將該現在問題資料依據與該現在問題資料相對應的一關聯遮罩執行該基於關聯的自注意分析,以產生該現在問題向量。
- 如請求項10所述之機器閱讀理解方法,其中依據該至少一歷史問題資料、該至少一歷史回應資料以及該現在問題資料分別產生該至少一歷史問題向量、該至少一歷史回應向量以及該現在問題向量包含:於執行該基於關聯的自注意分析前先執行一深度雙向預訓練轉換(BERT)處理。
- 如請求項5所述之機器閱讀理解方法,其中依據該至少一歷史問題資料、該至少一歷史回應資料以及該現在問題資料分別產生該至少一歷史問題向量、該至少一歷史回應向量以及該現在問題向量包含:執行一深度雙向預訓練轉換處理以產生複數個第一結果; 執行該深度雙向預訓練轉換處理後再執行該基於關聯的自注意分析以產生複數個第二結果;以及依據該些第一結果以及該些第二結果產生該至少一歷史問題向量、該至少一歷史回應向量以及該現在問題向量。
- 如請求項5所述之機器閱讀理解方法,其中依據該些子歷史問題資料、該些子歷史回應資料以及該些子現在問題資料分別產生該些子歷史問題向量、該些子歷史回應向量以及該些子現在問題向量包含:將該些子歷史問題資料依據與該些子歷史問題資料相對應的複數個關聯遮罩執行複數個基於關聯的自注意分析,以產生該些子歷史問題向量;將該些子歷史回應資料依據與該些子歷史回應資料相對應的複數個關聯遮罩執行該些基於關聯的自注意分析,以產生該些子歷史回應向量;以及將該些子現在問題資料依據與該些子現在問題資料相對應的複數個關聯遮罩執行該些基於關聯的自注意分析,以產生該些子現在問題向量。
- 如請求項13所述之機器閱讀理解方法,其中該些基於關聯的自注意分析分別包含:執行一自注意分析;以及執行一深度神經網路分析。
- 如請求項1所述之機器閱讀理解方法,更包含:由該處理器將該至少一歷史對話特徵以及該現在問題特徵串接後產生一串接特徵;以及由該處理器調整該串接特徵的長度後執行該機器閱讀理解(MRC)分析。
- 一種機器閱讀理解裝置,包含:一記憶體,用以儲存至少一歷史對話資料;以及一處理器,耦接於該記憶體,用以對該至少一歷史對話資料以及一現在問題資料分別執行一關聯擴增自注意特徵擷取處理以取得至少一歷史對話特徵以及一現在問題特徵,並依據該至少一歷史對話特徵以及該現在問題特徵執行一機器閱讀理解分析以取得一回應輸出;其中該處理器更用以依據複數個關聯遮罩執行該關聯擴增自注意特徵擷取處理,其中該些關聯遮罩分別與該至少一歷史對話資料以及該現在問題資料的其中一者相對應,且該些關聯遮罩分別係依據該至少一歷史對話資料以及該現在問題資料的其中該者所包含的複數個詞組所產生。
- 如請求項16所述之機器閱讀理解裝置,其中該至少一歷史對話資料包含至少一歷史問題資料以及至少一歷史回應資料,且該至少一歷史對話特徵包含至 少一歷史問題特徵以及至少一歷史回應特徵。
- 一種非暫態電腦可讀取媒體,其包含至少一程式指令用以執行一機器閱讀理解方法,其中該機器閱讀理解方法包含下列步驟:由一處理器對至少一歷史對話資料以及一現在問題資料分別執行一關聯擴增自注意特徵擷取處理以取得至少一歷史對話特徵以及一現在問題特徵;由該處理器依據複數個關聯遮罩執行該關聯擴增自注意特徵擷取處理,其中該些關聯遮罩分別與該至少一歷史對話資料以及該現在問題資料的其中一者相對應,且該些關聯遮罩分別係依據該至少一歷史對話資料以及該現在問題資料的其中該者所包含的複數個詞組所產生;以及由該處理器依據該至少一歷史對話特徵以及該現在問題特徵執行一機器閱讀理解分析以取得一回應輸出。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
TW109136179A TWI746214B (zh) | 2020-10-19 | 2020-10-19 | 機器閱讀理解方法、機器閱讀理解裝置及非暫態電腦可讀取媒體 |
CN202011244096.8A CN114386434A (zh) | 2020-10-19 | 2020-11-10 | 机器阅读理解方法、机器阅读理解装置及非暂态计算机可读取媒体 |
US16/952,051 US11610067B2 (en) | 2020-10-19 | 2020-11-18 | Machine reading comprehension method, machine reading comprehension device and non-transient computer readable medium for building a memory feature fusion neural network with multiple rounds of dialogue memory feature |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
TW109136179A TWI746214B (zh) | 2020-10-19 | 2020-10-19 | 機器閱讀理解方法、機器閱讀理解裝置及非暫態電腦可讀取媒體 |
Publications (2)
Publication Number | Publication Date |
---|---|
TWI746214B true TWI746214B (zh) | 2021-11-11 |
TW202217595A TW202217595A (zh) | 2022-05-01 |
Family
ID=79907474
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
TW109136179A TWI746214B (zh) | 2020-10-19 | 2020-10-19 | 機器閱讀理解方法、機器閱讀理解裝置及非暫態電腦可讀取媒體 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11610067B2 (zh) |
CN (1) | CN114386434A (zh) |
TW (1) | TWI746214B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110598671B (zh) * | 2019-09-23 | 2022-09-27 | 腾讯科技(深圳)有限公司 | 基于文本的虚拟形象行为控制方法、设备和介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170372200A1 (en) * | 2016-06-23 | 2017-12-28 | Microsoft Technology Licensing, Llc | End-to-end memory networks for contextual language understanding |
TW201923548A (zh) * | 2017-11-15 | 2019-06-16 | 財團法人資訊工業策進會 | 產生對話式使用者介面的方法及系統 |
CN111259668A (zh) * | 2020-05-07 | 2020-06-09 | 腾讯科技(深圳)有限公司 | 阅读任务处理方法、模型训练方法、装置和计算机设备 |
CN111259130A (zh) * | 2020-02-14 | 2020-06-09 | 支付宝(杭州)信息技术有限公司 | 用于在对话中提供答复语句的方法及装置 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11562243B2 (en) * | 2017-11-17 | 2023-01-24 | Meta Platforms, Inc. | Machine-learning models based on non-local neural networks |
US10741176B2 (en) * | 2018-01-31 | 2020-08-11 | International Business Machines Corporation | Customizing responses to users in automated dialogue systems |
US11302330B2 (en) * | 2019-06-03 | 2022-04-12 | Microsoft Technology Licensing, Llc | Clarifying questions for rewriting ambiguous user utterance |
US11721335B2 (en) * | 2019-07-01 | 2023-08-08 | Koninklijke Philips N.V. | Hierarchical self-attention for machine comprehension |
US11704714B2 (en) * | 2020-05-20 | 2023-07-18 | Amazon Technologies, Inc. | Reformulation of tail queries for product searches |
US11568138B2 (en) * | 2020-08-25 | 2023-01-31 | Beijing Wodong Tianjun Information Technology Co., Ltd. | System for entity and evidence-guided relation prediction and method of using the same |
-
2020
- 2020-10-19 TW TW109136179A patent/TWI746214B/zh active
- 2020-11-10 CN CN202011244096.8A patent/CN114386434A/zh active Pending
- 2020-11-18 US US16/952,051 patent/US11610067B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170372200A1 (en) * | 2016-06-23 | 2017-12-28 | Microsoft Technology Licensing, Llc | End-to-end memory networks for contextual language understanding |
TW201923548A (zh) * | 2017-11-15 | 2019-06-16 | 財團法人資訊工業策進會 | 產生對話式使用者介面的方法及系統 |
CN111259130A (zh) * | 2020-02-14 | 2020-06-09 | 支付宝(杭州)信息技术有限公司 | 用于在对话中提供答复语句的方法及装置 |
CN111259668A (zh) * | 2020-05-07 | 2020-06-09 | 腾讯科技(深圳)有限公司 | 阅读任务处理方法、模型训练方法、装置和计算机设备 |
Also Published As
Publication number | Publication date |
---|---|
TW202217595A (zh) | 2022-05-01 |
US20220121825A1 (en) | 2022-04-21 |
US11610067B2 (en) | 2023-03-21 |
CN114386434A (zh) | 2022-04-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Zhao et al. | A survey of large language models | |
JP7346609B2 (ja) | 自然言語理解(nlu)フレームワークを使用して意味探索を実行するシステムおよび方法 | |
US10970487B2 (en) | Templated rule-based data augmentation for intent extraction | |
US10706084B2 (en) | Method and device for parsing question in knowledge base | |
US8543374B2 (en) | Translation system combining hierarchical and phrase-based models | |
AU2020298542B2 (en) | Deriving multiple meaning representations for an utterance in a natural language understanding framework | |
WO2020233380A1 (zh) | 缺失语义补全方法及装置 | |
WO2021139266A1 (zh) | 融合外部知识的bert模型的微调方法、装置及计算机设备 | |
US20220309357A1 (en) | Knowledge graph (kg) construction method for eventuality prediction and eventuality prediction method | |
CN111401077A (zh) | 语言模型的处理方法、装置和计算机设备 | |
US20220245353A1 (en) | System and method for entity labeling in a natural language understanding (nlu) framework | |
Hwang et al. | Cost-effective end-to-end information extraction for semi-structured document images | |
TWI746214B (zh) | 機器閱讀理解方法、機器閱讀理解裝置及非暫態電腦可讀取媒體 | |
CN114896983A (zh) | 模型训练方法、文本处理方法、装置和计算机设备 | |
US20220238103A1 (en) | Domain-aware vector encoding (dave) system for a natural language understanding (nlu) framework | |
US20220245361A1 (en) | System and method for managing and optimizing lookup source templates in a natural language understanding (nlu) framework | |
CN116050425A (zh) | 建立预训练语言模型的方法、文本预测方法及装置 | |
US20220229990A1 (en) | System and method for lookup source segmentation scoring in a natural language understanding (nlu) framework | |
US20220229998A1 (en) | Lookup source framework for a natural language understanding (nlu) framework | |
US20220229986A1 (en) | System and method for compiling and using taxonomy lookup sources in a natural language understanding (nlu) framework | |
US20220237383A1 (en) | Concept system for a natural language understanding (nlu) framework | |
US20220107946A1 (en) | System and method for automatically generating question and query pairs | |
CN113536797A (zh) | 一种切片文档关键信息单模型抽取方法及系统 | |
US20220229987A1 (en) | System and method for repository-aware natural language understanding (nlu) using a lookup source framework | |
US20220245352A1 (en) | Ensemble scoring system for a natural language understanding (nlu) framework |