JP2021106016A - 対話生成方法、装置、電子機器及び媒体 - Google Patents
対話生成方法、装置、電子機器及び媒体 Download PDFInfo
- Publication number
- JP2021106016A JP2021106016A JP2021049009A JP2021049009A JP2021106016A JP 2021106016 A JP2021106016 A JP 2021106016A JP 2021049009 A JP2021049009 A JP 2021049009A JP 2021049009 A JP2021049009 A JP 2021049009A JP 2021106016 A JP2021106016 A JP 2021106016A
- Authority
- JP
- Japan
- Prior art keywords
- feature
- question
- learning model
- dialogue
- features
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
- G06F40/35—Discourse or dialogue representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/3332—Query translation
- G06F16/3334—Selection or weighting of terms from queries, including natural language queries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3344—Query execution using natural language analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
- G06F16/353—Clustering; Classification into predefined classes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Databases & Information Systems (AREA)
- Human Computer Interaction (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Machine Translation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
Description
質問情報を取得するステップと、
前記質問情報を少数ショット学習モデルに入力して第1特徴を生成するステップと、
前記質問情報を深層学習モデルに入力して第2特徴を生成するステップと、
前記第1特徴と前記第2特徴を組み合わせて特徴シーケンスを生成するステップと、
前記特徴シーケンスを融合モデルに入力して前記質問情報に対応する対話情報を生成するステップと、を含む。
質問情報を取得するための取得モジュールと、
前記質問情報の第1特徴を生成するための少数ショット学習モデルと、
前記質問情報の第2特徴を生成するための深層学習モデルと、
前記質問情報に対応する対話情報を生成するための融合モデルと、
前記質問情報を少数ショット学習モデルに入力して第1特徴を生成するための第1の入力モジュールと、
前記質問情報を深層学習モデルに入力して第2特徴を生成するための第2の入力モジュールと、
前記第1特徴と前記第2特徴を組み合わせて特徴シーケンスを生成するための組み合わせモジュールと、
前記特徴シーケンスを融合モデルに入力して前記質問情報に対応する対話情報を生成するための生成モジュールと、を含む。
少なくとも1つのプロセッサと、
前記少なくとも1つのプロセッサと通信可能に接続されるメモリと、を含み、
前記メモリには、前記少なくとも1つのプロセッサによって実行可能な命令が記憶されており、前記命令は、前記少なくとも1つのプロセッサが第1の態様に記載の対話生成方法を実行できるように、前記少なくとも1つのプロセッサによって実行される。
第5の態様によれば、コンピュータプログラムを提供し、前記コンピュータプログラムは、コンピュータに第1の態様に記載の対話生成方法を実行させる。
取得された質問をそれぞれ少数ショット学習モデルと深層学習モデルに入力して第1特徴と第2特徴を生成し、第1特徴と第2特徴を組み合わせて特徴シーケンスを生成し、特徴シーケンスを融合モデルに入力して質問情報に対応する対話情報を生成し、これにより、少数ショット学習モデル、深層学習モデル、及び融合モデルを連携して質問に対応する対話情報を生成することで、モデルはサンプルが少ない場合とサンプルが多い場合の両方でより良い効果を取得し、閾値を設けて少数ショット学習モデルと深層学習モデルを選択する必要がなく、サンプル量の増加に伴って質問理解の精度が低下するという問題が起こりにくく、モデルの安定性が向上する。
x_i_class=(cos(a、x_i1)*x_i1+cos(a、x_i2)*x_i1+…+cos(a、x_in)*x_in)/n
として表すことができ、
さらに、サンプル量が多い場合、入力された質問情報との類似度が高いサンプルが意図特徴に与える影響が大きいことを保証するために、類似度が最も大きいk個のサンプルの質問特徴を選択して意図特徴を表すことができ、すなわち、
x_i_class=(t_1*cos(a、x_i1)*x_i1+…+t_n*cos(a、x_in)*x_in)/k、
ここで、t_1〜t_nのうち、cos値に対応する最大のk個が1、残りが0であり、これにより、質問情報の質問特徴との類似度が最も高い質問サンプルは意図特徴に与える影響が大きい。
トレーニングサンプル2:私が車で西二旗へ行くルート ROUTE kw_go:行く user_route_arrival:西二旗 user_travel_type:車で、
トレーニングサンプル3:ナビゲーションで西二旗に行くと渋滞するか TRAFFI Cuser_navi:ナビゲーション kw_go:行く user_route_arrival:西二旗 kw_traffic:渋滞するか、
トレーニングサンプル4:前方道路状況 TRAFFICkw_traffic:道路状況。
(1)下層特徴レベルでは、深層学習モデルにおける埋め込んだ後の特徴表現と少数ショット学習モデルで取得された質問特長表現とカテゴリ表現を、予め設定された複数の融合演算子によって融合し、
(2)中層特徴レベルでは、深層学習モデルにおける融合した後の特徴表現と少数ショット学習モデルにおける関係計算された表現を、予め設定された複数の融合演算子によって融合し、
(3)上層特徴レベルでは、深層学習モデルで最終的に予測された各意図の確率と少数ショット学習モデルで最終的に予測された各意図の確率分布を、予め設定された複数の融合演算子によって融合する。
少数ショット学習モデル520は、前記質問情報の第1特徴を生成することに用いられる。
深層学習モデル530は、前記質問情報の第2特徴を生成することに用いられる。
融合モデル540は、前記質問情報に対応する対話情報を生成することに用いられる。
第1の入力モジュール550は、前記質問情報を少数ショット学習モデルに入力して、第1特徴を生成することに用いられる。
第2の入力モジュール560は、前記質問情報を深層学習モデルに入力して、第2特徴を生成することに用いられる。
組み合わせモジュール570は、前記第1特徴と前記第2特徴を組み合わせて、特徴シーケンスを生成することに用いられる。
生成モジュール580は、前記特徴シーケンスを融合モデルに入力して、前記質問情報に対応する対話情報を生成することに用いられる。
本出願の実施例によれば、本出願は、コンピュータプログラムを提供し、コンピュータプログラムは、コンピュータに本出願によって提供される対話生成方法を実行させる。
Claims (23)
- 対話生成方法であって、
質問情報を取得するステップと、
前記質問情報を少数ショット学習モデルに入力して第1特徴を生成するステップと、
前記質問情報を深層学習モデルに入力して第2特徴を生成するステップと、
前記第1特徴と前記第2特徴を組み合わせて特徴シーケンスを生成するステップと、
前記特徴シーケンスを融合モデルに入力して前記質問情報に対応する対話情報を生成するステップと、を含む、
ことを特徴とする対話生成方法。 - 前記第1特徴は質問特徴とサポートセット特徴とを含み、
前記質問情報を少数ショット学習モデルに入力して第1特徴を生成するステップは、
前記少数ショット学習モデルが前記質問情報に対して特徴抽出を行って、前記質問特徴を生成するステップと、
前記少数ショット学習モデルが前記質問特徴に基づいて前記質問情報に対応するサポートセットを取得し、前記質問情報に対応するサポートセットのサポートセット特徴を取得するステップと、を含む、
ことを特徴とする請求項1に記載の対話生成方法。 - 前記少数ショット学習モデルが前記質問特徴に基づいて前記質問情報に対応するサポートセットを取得するステップは、
前記少数ショット学習モデルが複数の候補サポートセットを取得し、各前記候補サポートセットの意図特徴を取得するステップと、
前記少数ショット学習モデルが前記質問特徴及び各前記候補サポートセットの意図特徴に基づいて前記複数の候補サポートセットに対する前記質問特徴の直接得点を生成するステップと、
前記複数の候補サポートセットに対する前記質問特徴の直接得点に基づいて、前記複数の候補サポートセットから前記質問情報に対応するサポートセットを選択するステップと、を含む、
ことを特徴とする請求項2に記載の対話生成方法。 - 前記各候補サポートセットの意図特徴に基づいて前記複数の候補サポートセット間のコンテキスト特徴を生成するステップと、
前記質問特徴、前記各候補サポートセットの意図特徴及び前記コンテキスト特徴に基づいて、比較得点を生成し、前記直接得点と前記比較得点に基づいて、前記複数の候補サポートセットから前記質問情報に対応するサポートセットを選択するステップと、をさらに含む、
ことを特徴とする請求項3に記載の対話生成方法。 - 前記候補サポートセットは複数の質問を含み、
前記候補サポートセットの意図特徴は、
前記候補サポートセットにおける複数の質問の質問特徴を取得するステップ、及び
前記複数の質問の質問特徴に基づいて前記候補サポートセットの意図特徴を生成するステップによって取得される、
ことを特徴とする請求項3に記載の対話生成方法。 - 前記少数ショット学習モデル、前記深層学習モデル及び前記融合モデルを連携トレーニングして1つの統合されたモデルを取得する、
ことを特徴とする請求項1に記載の対話生成方法。 - 前記第2特徴は低次特徴と高次特徴とを含み、
前記質問情報を深層学習モデルに入力して第2特徴を生成するステップは、
前記深層学習モデルが前記質問情報に対して特徴抽出を行って、前記質問情報の特徴情報を生成するステップと、
前記深層学習モデルが前記特徴情報に対して特徴埋め込み処理を行って、前記質問情報の前記低次特徴を生成するステップと、
前記深層学習モデルが前記低次特徴を特徴融合して、前記高次特徴を生成するステップと、を含む、
ことを特徴とする請求項1に記載の対話生成方法。 - 前記深層学習モデルが前記質問情報の外部特徴ベクトルも受信し、前記外部特徴ベクトルが予め設定されたベクトル表現モデルによって生成され、
前記深層学習モデルが前記低次特徴を特徴融合して、前記高次特徴を生成するステップは、
前記深層学習モデルが前記低次特徴と前記外部特徴ベクトルを特徴融合して、前記高次特徴を生成するステップを含む、
ことを特徴とする請求項7に記載の対話生成方法。 - 前記深層学習モデルが前記質問情報の外部知識ベクトルも受信し、前記外部知識ベクトルが予め設定されたトレーニングサンプルにおける前記質問情報とマッチングするターゲットトレーニングサンプルに対応するベクトル表現であり、
前記深層学習モデルが前記低次特徴を特徴融合して、前記高次特徴を生成するステップは、
前記低次特徴、前記外部知識ベクトル及び前記外部特徴ベクトルを特徴融合して、前記高次特徴を生成するステップを含む、
ことを特徴とする請求項8に記載の対話生成方法。 - 前記第1特徴と前記第2特徴を組み合わせて特徴シーケンスを生成するステップは、
予め設定された複数の融合演算子によって前記第1特徴と前記第2特徴を組み合わせて、前記特徴シーケンスを生成するステップであって、前記融合演算子は、スプライシング演算子、内積演算子及び双線形特徴交差積を含むステップを含む、
ことを特徴とする請求項1に記載の対話生成方法。 - 対話生成装置であって、
質問情報を取得するための取得モジュールと、
前記質問情報の第1特徴を生成するための少数ショット学習モデルと、
前記質問情報の第2特徴を生成するための深層学習モデルと、
前記質問情報に対応する対話情報を生成するための融合モデルと、
前記質問情報を少数ショット学習モデルに入力して第1特徴を生成するための第1の入力モジュールと、
前記質問情報を深層学習モデルに入力して第2特徴を生成するための第2の入力モジュールと、
前記第1特徴と前記第2特徴を組み合わせて特徴シーケンスを生成するための組み合わせモジュールと、
前記特徴シーケンスを融合モデルに入力して前記質問情報に対応する対話情報を生成するための生成モジュールと、を含む、
ことを特徴とする対話生成装置。 - 前記第1特徴は質問特徴とサポートセット特徴とを含み、前記少数ショット学習モデルは、前記質問情報に対して特徴抽出を行って、前記質問特徴を生成し、及び前記質問特徴に基づいて前記質問情報に対応するサポートセットを取得し、前記質問情報に対応するサポートセットのサポートセット特徴を取得する、
ことを特徴とする請求項11に記載の対話生成装置。 - 前記少数ショット学習モデルは、複数の候補サポートセットを取得し、各前記候補サポートセットの意図特徴を取得し、前記質問特徴及び各前記候補サポートセットの意図特徴に基づいて前記複数の候補サポートセットに対する前記質問特徴の直接得点を生成し、前記複数の候補サポートセットに対する前記質問特徴の直接得点に基づいて、前記複数の候補サポートセットから前記質問情報に対応するサポートセットを選択する、
ことを特徴とする請求項12に記載の対話生成装置。 - 前記少数ショット学習モデルは、前記各候補サポートセットの意図特徴に基づいて前記複数の候補サポートセット間のコンテキスト特徴を生成し、前記質問特徴、前記各候補サポートセットの意図特徴及び前記コンテキスト特徴に基づいて、比較得点を生成し、前記直接得点と前記比較得点に基づいて、前記複数の候補サポートセットから前記質問情報に対応するサポートセットを選択する、
ことを特徴とする請求項13に記載の対話生成装置。 - 前記候補サポートセットは複数の質問を含み、前記少数ショット学習モデルは、前記候補サポートセットにおける複数の質問の質問特徴を取得し、前記複数の質問の質問特徴に基づいて前記候補サポートセットの意図特徴を生成する、
ことを特徴とする請求項13に記載の対話生成装置。 - 前記少数ショット学習モデル、前記深層学習モデル及び前記融合モデルを連携トレーニングして1つの統合されたモデルを取得する、
ことを特徴とする請求項11に記載の対話生成装置。 - 前記第2特徴は低次特徴と高次特徴とを含み、前記深層学習モデルは、前記質問情報に対して特徴抽出を行って、前記質問情報の特徴情報を生成し、前記特徴情報に対して特徴埋め込み処理を行って、前記質問情報の前記低次特徴を生成し、前記低次特徴を特徴融合して、前記高次特徴を生成する、
ことを特徴とする請求項11に記載の対話生成装置。 - 前記深層学習モデルは前記質問情報の外部特徴ベクトルも受信し、前記外部特徴ベクトルは予め設定されたベクトル表現モデルによって生成され、前記深層学習モデルは前記低次特徴と前記外部特徴ベクトルを特徴融合して、前記高次特徴を生成する、
ことを特徴とする請求項17に記載の対話生成装置。 - 前記深層学習モデルは、前記質問情報の外部知識ベクトルも受信し、前記外部知識ベクトルは予め設定されたトレーニングサンプルにおける前記質問情報とマッチングするターゲットトレーニングサンプルに対応するベクトル表現であり、前記深層学習モデルは、前記低次特徴、前記外部知識ベクトル及び前記外部特徴ベクトルを特徴融合して、前記高次特徴を生成する、
ことを特徴とする請求項18に記載の対話生成装置。 - 前記組み合わせモジュールは、予め設定された複数の融合演算子によって前記第1特徴と前記第2特徴を組み合わせて、前記特徴シーケンスを生成し、前記融合演算子は、スプライシング演算子、内積演算子及び双線形特徴交差積を含む、
ことを特徴とする請求項11に記載の対話生成装置。 - 少なくとも1つのプロセッサと、
前記少なくとも1つのプロセッサと通信可能に接続されるメモリと、を含み、
前記メモリには、前記少なくとも1つのプロセッサによって実行可能な命令が記憶され、前記命令は、前記少なくとも1つのプロセッサが請求項1〜10のいずれかに記載の対話生成方法を実行できるように、前記少なくとも1つのプロセッサによって実行される、
ことを特徴とする電子機器。 - コンピュータ命令が記憶されている非一時的なコンピュータ読み取り可能な記憶媒体であって、
前記コンピュータ命令は、前記コンピュータに請求項1〜10のいずれかに記載の対話生成方法を実行させる、
ことを特徴とする非一時的なコンピュータ読み取り可能な記憶媒体。 - コンピュータプログラムであって、
前記コンピュータプログラムは、コンピュータに請求項1〜10のいずれかに記載の対話生成方法を実行させる、
ことを特徴とするコンピュータプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010991996.2A CN111831813B (zh) | 2020-09-21 | 2020-09-21 | 对话生成方法、装置、电子设备及介质 |
CN202010991996.2 | 2020-09-21 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021106016A true JP2021106016A (ja) | 2021-07-26 |
JP7204802B2 JP7204802B2 (ja) | 2023-01-16 |
Family
ID=72918505
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021049009A Active JP7204802B2 (ja) | 2020-09-21 | 2021-03-23 | 対話生成方法、装置、電子機器及び媒体 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20210248471A1 (ja) |
EP (1) | EP3913521A1 (ja) |
JP (1) | JP7204802B2 (ja) |
KR (1) | KR20210119338A (ja) |
CN (1) | CN111831813B (ja) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112329475B (zh) * | 2020-11-03 | 2022-05-20 | 海信视像科技股份有限公司 | 语句处理方法及装置 |
CN112449025B (zh) * | 2020-12-10 | 2022-11-08 | 郑州埃文计算机科技有限公司 | 一种基于自注意力机制的ip场景预测方法 |
CN112528005B (zh) * | 2020-12-25 | 2022-08-09 | 中山大学 | 基于知识检索图和预训练模型的中文对话知识检索方法 |
CN112925894B (zh) * | 2021-03-26 | 2022-07-05 | 支付宝(杭州)信息技术有限公司 | 对话中标问匹配方法、系统及装置 |
CN114118101B (zh) * | 2021-11-26 | 2022-12-09 | 北京百度网讯科技有限公司 | 对话数据生成方法及装置、设备和介质 |
CN115146653B (zh) * | 2022-07-21 | 2023-05-02 | 平安科技(深圳)有限公司 | 对话剧本构建方法、装置、设备及存储介质 |
CN116071609B (zh) * | 2023-03-29 | 2023-07-18 | 中国科学技术大学 | 基于目标特征动态自适应提取的小样本图像分类方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018206307A (ja) * | 2017-06-09 | 2018-12-27 | エヌ・ティ・ティ レゾナント株式会社 | 情報処理装置、情報処理方法、及びプログラム |
WO2020046807A1 (en) * | 2018-08-30 | 2020-03-05 | Google Llc | Cross-lingual classification using multilingual neural machine translation |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109657036B (zh) * | 2018-11-12 | 2021-02-02 | 中国科学院自动化研究所 | 基于类脑语义层次时序记忆推理模型的问答方法、系统 |
US20200242736A1 (en) * | 2019-01-29 | 2020-07-30 | Nvidia Corporation | Method for few-shot unsupervised image-to-image translation |
CN110134774B (zh) * | 2019-04-29 | 2021-02-09 | 华中科技大学 | 一种基于注意力决策的图像视觉问答模型、方法和系统 |
CN110188864B (zh) * | 2019-05-06 | 2021-07-06 | 南京大学 | 基于分布表示和分布度量的小样本学习方法 |
CN111522965A (zh) * | 2020-04-22 | 2020-08-11 | 重庆邮电大学 | 一种基于迁移学习的实体关系抽取的问答方法及系统 |
-
2020
- 2020-09-21 CN CN202010991996.2A patent/CN111831813B/zh active Active
-
2021
- 2021-03-23 JP JP2021049009A patent/JP7204802B2/ja active Active
- 2021-04-29 US US17/302,266 patent/US20210248471A1/en active Pending
- 2021-05-04 EP EP21171957.0A patent/EP3913521A1/en active Pending
- 2021-09-13 KR KR1020210122103A patent/KR20210119338A/ko unknown
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018206307A (ja) * | 2017-06-09 | 2018-12-27 | エヌ・ティ・ティ レゾナント株式会社 | 情報処理装置、情報処理方法、及びプログラム |
WO2020046807A1 (en) * | 2018-08-30 | 2020-03-05 | Google Llc | Cross-lingual classification using multilingual neural machine translation |
Also Published As
Publication number | Publication date |
---|---|
KR20210119338A (ko) | 2021-10-05 |
JP7204802B2 (ja) | 2023-01-16 |
EP3913521A1 (en) | 2021-11-24 |
US20210248471A1 (en) | 2021-08-12 |
CN111831813B (zh) | 2021-02-05 |
CN111831813A (zh) | 2020-10-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7204802B2 (ja) | 対話生成方法、装置、電子機器及び媒体 | |
Uc-Cetina et al. | Survey on reinforcement learning for language processing | |
US20200251091A1 (en) | System and method for defining dialog intents and building zero-shot intent recognition models | |
JP7283009B2 (ja) | 対話理解モデルの訓練方法、装置、デバイス及び記憶媒体 | |
CN111738016B (zh) | 多意图识别方法及相关设备 | |
JP7108675B2 (ja) | 意味マッチング方法、装置、電子機器、記憶媒体及びコンピュータプログラム | |
CN111368046B (zh) | 人机对话方法、装置、电子设备及存储介质 | |
KR20210040319A (ko) | 엔티티 링킹 방법, 장치, 기기, 저장 매체 및 컴퓨터 프로그램 | |
JP2021182430A (ja) | 意味解析モデルのトレーニング方法及び装置、電子機器並びに記憶媒体 | |
KR102565673B1 (ko) | 시멘틱 표현 모델의 생성 방법, 장치, 전자 기기 및 저장 매체 | |
EP4113357A1 (en) | Method and apparatus for recognizing entity, electronic device and storage medium | |
US11947578B2 (en) | Method for retrieving multi-turn dialogue, storage medium, and electronic device | |
CN110678882A (zh) | 使用机器学习从电子文档选择回答跨距 | |
CN115238045A (zh) | 一种生成式事件论元抽取方法、系统及存储介质 | |
Souha et al. | Pre-Trained Models for Intent Classification in Chatbot: Comparative Study and Critical Analysis | |
JP2022076439A (ja) | 対話管理 | |
Prajwal et al. | Universal semantic web assistant based on sequence to sequence model and natural language understanding | |
CN114416941A (zh) | 融合知识图谱的对话知识点确定模型的生成方法及装置 | |
CN114330285A (zh) | 语料处理方法、装置、电子设备及计算机可读存储介质 | |
Ye et al. | A natural language-based flight searching system | |
Kumari et al. | Conversational question answering system using rasa framework | |
CN117521674B (zh) | 对抗信息的生成方法、装置、计算机设备和存储介质 | |
Godewithana et al. | Intelligent Hybrid Chatbot Solution for Archaeological Sites Tracking | |
Fang et al. | Hagan: Hierarchical attentive adversarial learning for task-oriented dialogue system | |
Shalyminov | Data-efficient methods for dialogue systems |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210323 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220425 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220607 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220905 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221220 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221228 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7204802 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |