JP7204802B2 - 対話生成方法、装置、電子機器及び媒体 - Google Patents
対話生成方法、装置、電子機器及び媒体 Download PDFInfo
- Publication number
- JP7204802B2 JP7204802B2 JP2021049009A JP2021049009A JP7204802B2 JP 7204802 B2 JP7204802 B2 JP 7204802B2 JP 2021049009 A JP2021049009 A JP 2021049009A JP 2021049009 A JP2021049009 A JP 2021049009A JP 7204802 B2 JP7204802 B2 JP 7204802B2
- Authority
- JP
- Japan
- Prior art keywords
- feature
- features
- question
- learning model
- question information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 71
- 238000013136 deep learning model Methods 0.000 claims description 104
- 239000013598 vector Substances 0.000 claims description 92
- 230000004927 fusion Effects 0.000 claims description 68
- 238000012549 training Methods 0.000 claims description 49
- 238000000605 extraction Methods 0.000 claims description 35
- 230000003993 interaction Effects 0.000 claims description 24
- 230000015654 memory Effects 0.000 claims description 21
- 230000008569 process Effects 0.000 claims description 15
- 238000012545 processing Methods 0.000 claims description 11
- 238000004590 computer program Methods 0.000 claims description 9
- 238000013528 artificial neural network Methods 0.000 claims description 5
- 239000000284 extract Substances 0.000 claims description 4
- 230000000694 effects Effects 0.000 description 18
- 230000006870 function Effects 0.000 description 13
- 238000007726 management method Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 10
- 230000002457 bidirectional effect Effects 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 8
- 230000000052 comparative effect Effects 0.000 description 7
- 230000007246 mechanism Effects 0.000 description 7
- 238000004458 analytical method Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 230000007423 decrease Effects 0.000 description 4
- 230000002452 interceptive effect Effects 0.000 description 4
- 238000009825 accumulation Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000011218 segmentation Effects 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 241000699666 Mus <mouse, genus> Species 0.000 description 2
- 238000004140 cleaning Methods 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 241000699670 Mus sp. Species 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000007499 fusion processing Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000001939 inductive effect Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000000153 supplemental effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
- G06F40/35—Discourse or dialogue representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/3332—Query translation
- G06F16/3334—Selection or weighting of terms from queries, including natural language queries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3344—Query execution using natural language analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
- G06F16/353—Clustering; Classification into predefined classes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Databases & Information Systems (AREA)
- Human Computer Interaction (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Machine Translation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
質問情報を取得するステップと、
前記質問情報を少数ショット学習モデルに入力して第1特徴を生成するステップと、
前記質問情報を深層学習モデルに入力して第2特徴を生成するステップと、
前記第1特徴と前記第2特徴を組み合わせて特徴シーケンスを生成するステップと、
前記特徴シーケンスを融合モデルに入力して前記質問情報に対応する対話情報を生成するステップと、を含む。
質問情報を取得するための取得モジュールと、
前記質問情報の第1特徴を生成するための少数ショット学習モデルと、
前記質問情報の第2特徴を生成するための深層学習モデルと、
前記質問情報に対応する対話情報を生成するための融合モデルと、
前記質問情報を少数ショット学習モデルに入力して第1特徴を生成するための第1の入力モジュールと、
前記質問情報を深層学習モデルに入力して第2特徴を生成するための第2の入力モジュールと、
前記第1特徴と前記第2特徴を組み合わせて特徴シーケンスを生成するための組み合わせモジュールと、
前記特徴シーケンスを融合モデルに入力して前記質問情報に対応する対話情報を生成するための生成モジュールと、を含む。
少なくとも1つのプロセッサと、
前記少なくとも1つのプロセッサと通信可能に接続されるメモリと、を含み、
前記メモリには、前記少なくとも1つのプロセッサによって実行可能な命令が記憶されており、前記命令は、前記少なくとも1つのプロセッサが第1の態様に記載の対話生成方法を実行できるように、前記少なくとも1つのプロセッサによって実行される。
第5の態様によれば、コンピュータプログラムを提供し、前記コンピュータプログラムは、コンピュータに第1の態様に記載の対話生成方法を実行させる。
取得された質問をそれぞれ少数ショット学習モデルと深層学習モデルに入力して第1特徴と第2特徴を生成し、第1特徴と第2特徴を組み合わせて特徴シーケンスを生成し、特徴シーケンスを融合モデルに入力して質問情報に対応する対話情報を生成し、これにより、少数ショット学習モデル、深層学習モデル、及び融合モデルを連携して質問に対応する対話情報を生成することで、モデルはサンプルが少ない場合とサンプルが多い場合の両方でより良い効果を取得し、閾値を設けて少数ショット学習モデルと深層学習モデルを選択する必要がなく、サンプル量の増加に伴って質問理解の精度が低下するという問題が起こりにくく、モデルの安定性が向上する。
x_i_class=(cos(a、x_i1)*x_i1+cos(a、x_i2)*x_i1+…+cos(a、x_in)*x_in)/n
として表すことができ、
さらに、サンプル量が多い場合、入力された質問情報との類似度が高いサンプルが意図特徴に与える影響が大きいことを保証するために、類似度が最も大きいk個のサンプルの質問特徴を選択して意図特徴を表すことができ、すなわち、
x_i_class=(t_1*cos(a、x_i1)*x_i1+…+t_n*cos(a、x_in)*x_in)/k、
ここで、t_1~t_nのうち、cos値に対応する最大のk個が1、残りが0であり、これにより、質問情報の質問特徴との類似度が最も高い質問サンプルは意図特徴に与える影響が大きい。
トレーニングサンプル2:私が車で西二旗へ行くルート ROUTE kw_go:行く user_route_arrival:西二旗 user_travel_type:車で、
トレーニングサンプル3:ナビゲーションで西二旗に行くと渋滞するか TRAFFI Cuser_navi:ナビゲーション kw_go:行く user_route_arrival:西二旗 kw_traffic:渋滞するか、
トレーニングサンプル4:前方道路状況 TRAFFICkw_traffic:道路状況。
(1)下層特徴レベルでは、深層学習モデルにおける埋め込んだ後の特徴表現と少数ショット学習モデルで取得された質問特長表現とカテゴリ表現を、予め設定された複数の融合演算子によって融合し、
(2)中層特徴レベルでは、深層学習モデルにおける融合した後の特徴表現と少数ショット学習モデルにおける関係計算された表現を、予め設定された複数の融合演算子によって融合し、
(3)上層特徴レベルでは、深層学習モデルで最終的に予測された各意図の確率と少数ショット学習モデルで最終的に予測された各意図の確率分布を、予め設定された複数の融合演算子によって融合する。
少数ショット学習モデル520は、前記質問情報の第1特徴を生成することに用いられる。
深層学習モデル530は、前記質問情報の第2特徴を生成することに用いられる。
融合モデル540は、前記質問情報に対応する対話情報を生成することに用いられる。
第1の入力モジュール550は、前記質問情報を少数ショット学習モデルに入力して、第1特徴を生成することに用いられる。
第2の入力モジュール560は、前記質問情報を深層学習モデルに入力して、第2特徴を生成することに用いられる。
組み合わせモジュール570は、前記第1特徴と前記第2特徴を組み合わせて、特徴シーケンスを生成することに用いられる。
生成モジュール580は、前記特徴シーケンスを融合モデルに入力して、前記質問情報に対応する対話情報を生成することに用いられる。
本出願の実施例によれば、本出願は、コンピュータプログラムを提供し、コンピュータプログラムは、コンピュータに本出願によって提供される対話生成方法を実行させる。
Claims (19)
- 対話生成方法であって、
質問情報を取得するステップと、
前記質問情報を少数ショット学習モデルに入力して第1特徴を生成するステップであって、前記第1特徴は質問特徴とサポートセット特徴とを含むステップと、
前記質問情報を深層学習モデルに入力して第2特徴を生成するステップであって、前記第2特徴は低次特徴と高次特徴とを含むステップと、
前記第1特徴と前記第2特徴を組み合わせて特徴シーケンスを生成するステップと、
前記特徴シーケンスを融合モデルに入力して前記質問情報に対応する対話情報を生成するステップと、を含み、
前記第1特徴と前記第2特徴を組み合わせて特徴シーケンスを生成するステップが、
予め設定された複数の融合演算子によって前記第1特徴と前記第2特徴を組み合わせて、前記特徴シーケンスを生成するステップであって、前記融合演算子は、スプライシング演算子、内積演算子及び双線形特徴交差積を含むステップを含む、
ことを特徴とする対話生成方法。 - 前記質問情報を少数ショット学習モデルに入力して第1特徴を生成するステップは、
前記少数ショット学習モデルが前記質問情報に対して特徴抽出を行って、前記質問特徴を生成するステップと、
前記少数ショット学習モデルが前記質問特徴に基づいて前記質問情報に対応するサポートセットを取得し、前記質問情報に対応するサポートセットのサポートセット特徴を取得するステップと、を含み、
前記少数ショット学習モデルが前記質問特徴に基づいて前記質問情報に対応するサポートセットを取得するステップが、
前記少数ショット学習モデルが複数の候補サポートセットを取得し、各前記候補サポートセットの意図特徴を取得するステップと、
前記少数ショット学習モデルが前記質問特徴及び各前記候補サポートセットの意図特徴に基づいて前記複数の候補サポートセットに対する前記質問特徴の直接得点を生成するステップと、
前記複数の候補サポートセットに対する前記質問特徴の直接得点に基づいて、前記複数の候補サポートセットから前記質問情報に対応するサポートセットを選択し、取得された前記質問情報に対応するサポートセットの意図特徴を前記質問情報に対応するサポートセットのサポートセット特徴とするステップと、を含む、
ことを特徴とする請求項1に記載の対話生成方法。 - 前記各候補サポートセットの意図特徴に基づいて前記複数の候補サポートセット間のコンテキスト特徴を生成するステップと、
前記質問特徴、前記各候補サポートセットの意図特徴及び前記コンテキスト特徴に基づいて、比較得点を生成し、前記直接得点と前記比較得点に基づいて、前記複数の候補サポートセットから前記質問情報に対応するサポートセットを選択するステップと、をさらに含む、
ことを特徴とする請求項2に記載の対話生成方法。 - 前記候補サポートセットは複数の質問を含み、
前記候補サポートセットの意図特徴は、
前記候補サポートセットにおける複数の質問の質問特徴を取得するステップ、及び
前記複数の質問の質問特徴に基づいて前記候補サポートセットの意図特徴を生成するステップによって取得される、
ことを特徴とする請求項2に記載の対話生成方法。 - 前記少数ショット学習モデル、前記深層学習モデル及び前記融合モデルを連携トレーニングして1つの統合されたモデルを取得し、
前記連携トレーニングは、前記少数ショット学習モデルと前記深層学習モデルを同じエンドツーエンドのニューラルネットワークに入れ、全体的な学習とトレーニングを行って、前記少数ショット学習モデルで生成された質問特徴とサポートセット特徴、及び前記深層学習モデルで生成された低次特徴と高次特徴を、複数の融合演算子によって融合された後、融合後の特徴を前記融合モデルに入力して、最終結果を取得することによって行われる、
ことを特徴とする請求項1に記載の対話生成方法。 - 前記質問情報を深層学習モデルに入力して第2特徴を生成するステップは、
前記深層学習モデルが前記質問情報に対して特徴抽出を行って、前記質問情報の特徴情報を生成するステップと、
前記深層学習モデルが前記特徴情報に対して特徴埋め込み処理を行って、前記質問情報の前記低次特徴を生成するステップと、
前記深層学習モデルが前記低次特徴を特徴融合して、前記高次特徴を生成するステップと、を含む、
ことを特徴とする請求項1に記載の対話生成方法。 - 前記深層学習モデルが前記質問情報の外部特徴ベクトルも受信し、前記外部特徴ベクトルが、前記質問情報を予め設定されたベクトル表現モデルに入力することによって生成され、
前記深層学習モデルが前記低次特徴を特徴融合して、前記高次特徴を生成するステップは、
前記深層学習モデルが前記低次特徴と前記外部特徴ベクトルを特徴融合して、前記高次特徴を生成するステップを含む、
ことを特徴とする請求項6に記載の対話生成方法。 - 前記深層学習モデルが前記質問情報の外部知識ベクトルも受信し、前記外部知識ベクトルが予め設定されたトレーニングサンプルにおける前記質問情報とマッチングするターゲットトレーニングサンプルに対応するベクトル表現であり、前記ベクトル表現が、次元と分類意図の数が等しい、取りうる値が1または0であるベクトルであり、ベクトルの各次元が1つの意図に対応し、
前記深層学習モデルが前記低次特徴を特徴融合して、前記高次特徴を生成するステップは、
前記低次特徴、前記外部知識ベクトル及び前記外部特徴ベクトルを特徴融合して、前記高次特徴を生成するステップを含む、
ことを特徴とする請求項7に記載の対話生成方法。 - 対話生成装置であって、
質問情報を取得するための取得モジュールと、
前記質問情報の第1特徴を生成するための少数ショット学習モデルであって、前記第1特徴は質問特徴とサポートセット特徴とを含む少数ショット学習モデルと、
前記質問情報の第2特徴を生成するための深層学習モデルであって、前記第2特徴は低次特徴と高次特徴とを含む深層学習モデルと、
前記質問情報に対応する対話情報を生成するための融合モデルと、
前記質問情報を少数ショット学習モデルに入力して第1特徴を生成するための第1の入力モジュールと、
前記質問情報を深層学習モデルに入力して第2特徴を生成するための第2の入力モジュールと、
前記第1特徴と前記第2特徴を組み合わせて特徴シーケンスを生成するための組み合わせモジュールと、
前記特徴シーケンスを融合モデルに入力して前記質問情報に対応する対話情報を生成するための生成モジュールと、を含み、
前記組み合わせモジュールが、さらに、予め設定された複数の融合演算子によって前記第1特徴と前記第2特徴を組み合わせて、前記特徴シーケンスを生成し、前記融合演算子は、スプライシング演算子、内積演算子及び双線形特徴交差積を含む、
ことを特徴とする対話生成装置。 - 前記少数ショット学習モデルは、前記質問情報に対して特徴抽出を行って、前記質問特徴を生成し、及び前記質問特徴に基づいて前記質問情報に対応するサポートセットを取得し、前記質問情報に対応するサポートセットのサポートセット特徴を取得し、
前記少数ショット学習モデルは、さらに、複数の候補サポートセットを取得し、各前記候補サポートセットの意図特徴を取得し、前記質問特徴及び各前記候補サポートセットの意図特徴に基づいて前記複数の候補サポートセットに対する前記質問特徴の直接得点を生成し、前記複数の候補サポートセットに対する前記質問特徴の直接得点に基づいて、前記複数の候補サポートセットから前記質問情報に対応するサポートセットを選択し、取得された前記質問情報に対応するサポートセットの意図特徴を前記質問情報に対応するサポートセットのサポートセット特徴とする、
ことを特徴とする請求項9に記載の対話生成装置。 - 前記少数ショット学習モデルは、前記各候補サポートセットの意図特徴に基づいて前記複数の候補サポートセット間のコンテキスト特徴を生成し、前記質問特徴、前記各候補サポートセットの意図特徴及び前記コンテキスト特徴に基づいて、比較得点を生成し、前記直接得点と前記比較得点に基づいて、前記複数の候補サポートセットから前記質問情報に対応するサポートセットを選択する、
ことを特徴とする請求項10に記載の対話生成装置。 - 前記候補サポートセットは複数の質問を含み、前記少数ショット学習モデルは、前記候補サポートセットにおける複数の質問の質問特徴を取得し、前記複数の質問の質問特徴に基づいて前記候補サポートセットの意図特徴を生成する、
ことを特徴とする請求項10に記載の対話生成装置。 - 前記少数ショット学習モデル、前記深層学習モデル及び前記融合モデルを連携トレーニングして1つの統合されたモデルを取得し、
前記連携トレーニングは、前記少数ショット学習モデルと前記深層学習モデルを同じエンドツーエンドのニューラルネットワークに入れ、全体的な学習とトレーニングを行って、前記少数ショット学習モデルで生成された質問特徴とサポートセット特徴、及び前記深層学習モデルで生成された低次特徴と高次特徴を、複数の融合演算子によって融合された後、融合後の特徴を前記融合モデルに入力して、最終結果を取得することによって行われる、
ことを特徴とする請求項9に記載の対話生成装置。 - 前記深層学習モデルは、前記質問情報に対して特徴抽出を行って、前記質問情報の特徴情報を生成し、前記特徴情報に対して特徴埋め込み処理を行って、前記質問情報の前記低次特徴を生成し、前記低次特徴を特徴融合して、前記高次特徴を生成する、
ことを特徴とする請求項9に記載の対話生成装置。 - 前記深層学習モデルは前記質問情報の外部特徴ベクトルも受信し、前記外部特徴ベクトルは、前記質問情報を予め設定されたベクトル表現モデルに入力することによって生成され、前記深層学習モデルは前記低次特徴と前記外部特徴ベクトルを特徴融合して、前記高次特徴を生成する、
ことを特徴とする請求項14に記載の対話生成装置。 - 前記深層学習モデルは、前記質問情報の外部知識ベクトルも受信し、前記外部知識ベクトルは予め設定されたトレーニングサンプルにおける前記質問情報とマッチングするターゲットトレーニングサンプルに対応するベクトル表現であり、前記ベクトル表現が、次元と分類意図の数が等しい、取りうる値が1または0であるベクトルであり、ベクトルの各次元が1つの意図に対応し、前記深層学習モデルは、前記低次特徴、前記外部知識ベクトル及び前記外部特徴ベクトルを特徴融合して、前記高次特徴を生成する、
ことを特徴とする請求項15に記載の対話生成装置。 - 少なくとも1つのプロセッサと、
前記少なくとも1つのプロセッサと通信可能に接続されるメモリと、を含み、
前記メモリには、前記少なくとも1つのプロセッサによって実行可能な命令が記憶され、前記命令は、前記少なくとも1つのプロセッサが請求項1~8のいずれかに記載の対話生成方法を実行できるように、前記少なくとも1つのプロセッサによって実行される、
ことを特徴とする電子機器。 - コンピュータ命令が記憶されている非一時的なコンピュータ読み取り可能な記憶媒体であって、
前記コンピュータ命令は、コンピュータに請求項1~8のいずれかに記載の対話生成方法を実行させる、
ことを特徴とする非一時的なコンピュータ読み取り可能な記憶媒体。 - コンピュータプログラムであって、
前記コンピュータプログラムは、コンピュータに請求項1~8のいずれかに記載の対話生成方法を実行させる、
ことを特徴とするコンピュータプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010991996.2 | 2020-09-21 | ||
CN202010991996.2A CN111831813B (zh) | 2020-09-21 | 2020-09-21 | 对话生成方法、装置、电子设备及介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021106016A JP2021106016A (ja) | 2021-07-26 |
JP7204802B2 true JP7204802B2 (ja) | 2023-01-16 |
Family
ID=72918505
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021049009A Active JP7204802B2 (ja) | 2020-09-21 | 2021-03-23 | 対話生成方法、装置、電子機器及び媒体 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20210248471A1 (ja) |
EP (1) | EP3913521A1 (ja) |
JP (1) | JP7204802B2 (ja) |
KR (1) | KR20210119338A (ja) |
CN (1) | CN111831813B (ja) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112329475B (zh) * | 2020-11-03 | 2022-05-20 | 海信视像科技股份有限公司 | 语句处理方法及装置 |
CN112449025B (zh) * | 2020-12-10 | 2022-11-08 | 郑州埃文计算机科技有限公司 | 一种基于自注意力机制的ip场景预测方法 |
CN112528005B (zh) * | 2020-12-25 | 2022-08-09 | 中山大学 | 基于知识检索图和预训练模型的中文对话知识检索方法 |
CN112925894B (zh) * | 2021-03-26 | 2022-07-05 | 支付宝(杭州)信息技术有限公司 | 对话中标问匹配方法、系统及装置 |
CN114118101B (zh) * | 2021-11-26 | 2022-12-09 | 北京百度网讯科技有限公司 | 对话数据生成方法及装置、设备和介质 |
US20230297603A1 (en) * | 2022-03-18 | 2023-09-21 | Adobe Inc. | Cross-lingual meta-transfer learning adaptation to natural language understanding |
CN115146653B (zh) * | 2022-07-21 | 2023-05-02 | 平安科技(深圳)有限公司 | 对话剧本构建方法、装置、设备及存储介质 |
CN116071609B (zh) * | 2023-03-29 | 2023-07-18 | 中国科学技术大学 | 基于目标特征动态自适应提取的小样本图像分类方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018206307A (ja) | 2017-06-09 | 2018-12-27 | エヌ・ティ・ティ レゾナント株式会社 | 情報処理装置、情報処理方法、及びプログラム |
WO2020046807A1 (en) | 2018-08-30 | 2020-03-05 | Google Llc | Cross-lingual classification using multilingual neural machine translation |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10607146B2 (en) * | 2016-06-02 | 2020-03-31 | International Business Machines Corporation | Predicting user question in question and answer system |
CN110555160A (zh) * | 2018-03-30 | 2019-12-10 | 优酷网络技术(北京)有限公司 | 用于推荐系统的数据处理方法、数据处理装置和电子设备 |
JP7149560B2 (ja) * | 2018-04-13 | 2022-10-07 | 国立研究開発法人情報通信研究機構 | リクエスト言換システム、リクエスト言換モデル及びリクエスト判定モデルの訓練方法、及び対話システム |
CN111046149A (zh) * | 2018-10-12 | 2020-04-21 | 中国移动通信有限公司研究院 | 内容推荐方法及装置、电子设备及存储介质 |
CN109657036B (zh) * | 2018-11-12 | 2021-02-02 | 中国科学院自动化研究所 | 基于类脑语义层次时序记忆推理模型的问答方法、系统 |
US20200242736A1 (en) * | 2019-01-29 | 2020-07-30 | Nvidia Corporation | Method for few-shot unsupervised image-to-image translation |
CN110134774B (zh) * | 2019-04-29 | 2021-02-09 | 华中科技大学 | 一种基于注意力决策的图像视觉问答模型、方法和系统 |
CN110188864B (zh) * | 2019-05-06 | 2021-07-06 | 南京大学 | 基于分布表示和分布度量的小样本学习方法 |
CN111522965A (zh) * | 2020-04-22 | 2020-08-11 | 重庆邮电大学 | 一种基于迁移学习的实体关系抽取的问答方法及系统 |
-
2020
- 2020-09-21 CN CN202010991996.2A patent/CN111831813B/zh active Active
-
2021
- 2021-03-23 JP JP2021049009A patent/JP7204802B2/ja active Active
- 2021-04-29 US US17/302,266 patent/US20210248471A1/en active Pending
- 2021-05-04 EP EP21171957.0A patent/EP3913521A1/en active Pending
- 2021-09-13 KR KR1020210122103A patent/KR20210119338A/ko unknown
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018206307A (ja) | 2017-06-09 | 2018-12-27 | エヌ・ティ・ティ レゾナント株式会社 | 情報処理装置、情報処理方法、及びプログラム |
WO2020046807A1 (en) | 2018-08-30 | 2020-03-05 | Google Llc | Cross-lingual classification using multilingual neural machine translation |
Also Published As
Publication number | Publication date |
---|---|
CN111831813A (zh) | 2020-10-27 |
KR20210119338A (ko) | 2021-10-05 |
EP3913521A1 (en) | 2021-11-24 |
JP2021106016A (ja) | 2021-07-26 |
CN111831813B (zh) | 2021-02-05 |
US20210248471A1 (en) | 2021-08-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7204802B2 (ja) | 対話生成方法、装置、電子機器及び媒体 | |
Uc-Cetina et al. | Survey on reinforcement learning for language processing | |
CN112507715B (zh) | 确定实体之间关联关系的方法、装置、设备和存储介质 | |
JP7283009B2 (ja) | 対話理解モデルの訓練方法、装置、デバイス及び記憶媒体 | |
JP7280930B2 (ja) | 意味認識方法、装置、機器及び記憶媒体 | |
KR20210040851A (ko) | 텍스트 인식 처리 방법, 장치, 전자 기기 및 저장매체 | |
KR20210040319A (ko) | 엔티티 링킹 방법, 장치, 기기, 저장 매체 및 컴퓨터 프로그램 | |
JP7108675B2 (ja) | 意味マッチング方法、装置、電子機器、記憶媒体及びコンピュータプログラム | |
JP7106802B2 (ja) | リソースソート方法、ソートモデルをトレーニングする方法及び対応する装置 | |
CN111738016B (zh) | 多意图识别方法及相关设备 | |
JP2022517292A (ja) | 自然言語及び知識グラフに基づく表現学習方法及び装置 | |
KR102565673B1 (ko) | 시멘틱 표현 모델의 생성 방법, 장치, 전자 기기 및 저장 매체 | |
CN114092707A (zh) | 一种图像文本视觉问答方法、系统及存储介质 | |
JP2022003537A (ja) | 対話意図の認識方法及び装置、電子機器並びに記憶媒体 | |
CN112560479A (zh) | 摘要抽取模型训练方法、摘要抽取方法、装置和电子设备 | |
CN111259671A (zh) | 文本实体的语义描述处理方法、装置及设备 | |
KR20210157342A (ko) | 언어 모델의 훈련 방법, 장치, 전자 기기 및 판독 가능 기록 매체 | |
US11947578B2 (en) | Method for retrieving multi-turn dialogue, storage medium, and electronic device | |
EP4113357A1 (en) | Method and apparatus for recognizing entity, electronic device and storage medium | |
US11321370B2 (en) | Method for generating question answering robot and computer device | |
JP2021192289A (ja) | 機械学習モデルの敵対的訓練方法、装置、電子機器及び媒体 | |
CN111414561A (zh) | 用于呈现信息的方法和装置 | |
US11704326B2 (en) | Generalization processing method, apparatus, device and computer storage medium | |
EP3855341A1 (en) | Language generation method and apparatus, electronic device and storage medium | |
CN112949758A (zh) | 应答模型的训练方法、应答方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210323 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220425 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220607 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220905 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221220 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221228 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7204802 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |