JP2023508062A - 対話モデルの訓練方法、装置、コンピュータ機器及びプログラム - Google Patents
対話モデルの訓練方法、装置、コンピュータ機器及びプログラム Download PDFInfo
- Publication number
- JP2023508062A JP2023508062A JP2022538829A JP2022538829A JP2023508062A JP 2023508062 A JP2023508062 A JP 2023508062A JP 2022538829 A JP2022538829 A JP 2022538829A JP 2022538829 A JP2022538829 A JP 2022538829A JP 2023508062 A JP2023508062 A JP 2023508062A
- Authority
- JP
- Japan
- Prior art keywords
- dialogue
- interaction
- features
- feature
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 86
- 238000012549 training Methods 0.000 title claims abstract description 64
- 230000003993 interaction Effects 0.000 claims abstract description 395
- 230000004044 response Effects 0.000 claims abstract description 117
- 238000003860 storage Methods 0.000 claims abstract description 18
- 238000009826 distribution Methods 0.000 claims description 104
- 239000013598 vector Substances 0.000 claims description 88
- 238000005070 sampling Methods 0.000 claims description 23
- 230000015654 memory Effects 0.000 claims description 18
- 230000002452 interceptive effect Effects 0.000 claims description 17
- 238000012545 processing Methods 0.000 claims description 16
- 238000000605 extraction Methods 0.000 claims description 8
- 239000000284 extract Substances 0.000 claims description 6
- 238000013473 artificial intelligence Methods 0.000 abstract description 24
- 238000010586 diagram Methods 0.000 description 14
- 230000006870 function Effects 0.000 description 12
- 230000001133 acceleration Effects 0.000 description 10
- 238000004891 communication Methods 0.000 description 9
- 230000008569 process Effects 0.000 description 9
- 238000002474 experimental method Methods 0.000 description 7
- 238000003058 natural language processing Methods 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 6
- 238000011156 evaluation Methods 0.000 description 5
- 238000010801 machine learning Methods 0.000 description 5
- 241000282412 Homo Species 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 238000013461 design Methods 0.000 description 3
- 230000033001 locomotion Effects 0.000 description 3
- 230000000306 recurrent effect Effects 0.000 description 3
- 230000002457 bidirectional effect Effects 0.000 description 2
- 239000000919 ceramic Substances 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000001965 increasing effect Effects 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 230000001747 exhibiting effect Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000001939 inductive effect Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 238000012804 iterative process Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000003278 mimic effect Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000006641 stabilisation Effects 0.000 description 1
- 238000011105 stabilization Methods 0.000 description 1
- 238000013526 transfer learning Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3344—Query execution using natural language analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/10—Text processing
- G06F40/12—Use of codes for handling textual entities
- G06F40/126—Character encoding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
- G06N3/0442—Recurrent networks, e.g. Hopfield networks characterised by memory or gating, e.g. long short-term memory [LSTM] or gated recurrent units [GRU]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
- G06N3/0455—Auto-encoder networks; Encoder-decoder networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/098—Distributed learning, e.g. federated learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
- G06N7/01—Probabilistic graphical models, e.g. probabilistic networks
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Abstract
Description
本願は、2020年05月25日に提出された、出願番号が202010450194.0であり、発明の名称が「対話モデルの訓練方法、装置、コンピュータ機器及び記憶媒体」である中国特許出願に基づく優先権を主張し、該中国特許出願の全内容が参照として本願に組み込まれる。
対話モデルにおける先験的ネットワークと事後的ネットワークによって、第1対話の少なくとも2つの第1対話特徴と少なくとも2つの第2対話特徴を取得するステップであって、前記先験的ネットワークは、対話特徴の確率分布を出力するためのものであり、前記事後的ネットワークは、前記先験的ネットワークから出力された対話特徴の確率分布を推定するためのものであり、前記第1対話特徴は、1つの対話における対話発話文と1つの対話返答の事後的特徴を表すためのものであり、前記第2対話特徴は、1つの対話における前記対話発話文と1つの対話返答の先験的特徴を表すためのものであり、前記第1対話は、1つの第1対話発話文と少なくとも2つの第1対話返答とを含む、ステップと、
前記第1対話の少なくとも2つの第1対話特徴と少なくとも2つの第2対話特徴に基づいて、前記対話モデルを更新するステップと、
前記第1対話の少なくとも2つの第1対話特徴に基づいて、前記事後的ネットワークを更新するステップと、
第2対話の少なくとも2つの第1対話特徴と少なくとも2つの第2対話特徴に基づいて、前記対話モデルの判別器を更新するステップと、
訓練終了条件を満たすことに応答して、訓練により得られたモデルを対話モデルとするステップと、を含む。
対話発話文を取得するステップと、
前記対話発話文を対話モデルに入力し、前記対話モデルにおける先験的ネットワークによって、複数の対話返答に対応する第2対話特徴から、1つの目標対話特徴をランダムに抽出するステップと、
前記対話モデルにおけるデコーダによって、前記目標対話特徴に対して復号を行い、目標対話返答を出力するステップと、
前記目標対話返答を展示するステップと、を含む。
対話モデルにおける先験的ネットワークと事後的ネットワークによって、第1対話の少なくとも2つの第1対話特徴と少なくとも2つの第2対話特徴を取得するように構成される特徴取得モジュールであって、前記先験的ネットワークは、対話特徴の確率分布を出力するためのものであり、前記事後的ネットワークは、前記先験的ネットワークから出力された対話特徴の確率分布を推定するためのものであり、前記第1対話特徴は、1つの対話における対話発話文と1つの対話返答の事後的特徴を表すためのものであり、前記第2対話特徴は、1つの対話における前記対話発話文と1つの対話返答の先験的特徴を表すためのものであり、前記第1対話は、1つの第1対話発話文と少なくとも2つの第1対話返答とを含む、特徴取得モジュールと、
前記第1対話の少なくとも2つの第1対話特徴と少なくとも2つの第2対話特徴に基づいて、前記対話モデルを更新するように構成されるモデル更新モジュールであって、
前記モデル更新モジュールは更に、前記第1対話の少なくとも2つの第1対話特徴に基づいて、前記事後的ネットワークを更新するように構成され、
前記モデル更新モジュールは更に、第2対話の少なくとも2つの第1対話特徴と少なくとも2つの第2対話特徴に基づいて、前記対話モデルの判別器を更新するように構成される、モデル更新モジュールと、
訓練終了条件を満たすことに応答して、訓練により得られたモデルを対話モデルとするように構成されるモデル取得モジュールと、を備える。
対話発話文を取得するように構成される対話取得モジュールと、
前記対話発話文を対話モデルに入力し、前記対話モデルにおける先験的ネットワークによって、複数の対話返答に対応する第1対話特徴から、1つの目標対話特徴をランダムに抽出するように構成される特徴抽出モジュールと、
前記対話モデルにおけるデコーダによって、前記目標対話特徴に対して復号を行い、目標対話返答を出力するように構成される返答出力モジュールと、
前記目標対話返答を展示するように構成される返答展示モジュールと、を備える。
該モデル更新モジュール702は更に、該第1対話の少なくとも2つの第1対話特徴に基づいて、該事後的ネットワークを更新するように構成され、
該モデル更新モジュール702は更に、第2対話の少なくとも2つの第1対話特徴と少なくとも2つの第2対話特徴に基づいて、該対話モデルの判別器を更新するように構成され、該第2対話は、第2対話発話文と、少なくとも2つの第2対話返答と、を含む。
特徴抽出モジュール802は、該対話発話文を対話モデルに入力し、該対話モデルにおける先験的ネットワークによって、複数の対話返答に対応する第1対話特徴から、1つの目標対話特徴をランダムに抽出するように構成され、
返答出力モジュール803は、該対話モデルにおけるデコーダによって、該目標対話特徴に対して復号を行い、目標対話返答を出力するように構成され、
返答展示モジュール804は、該目標対話返答を展示するように構成される。
120 サーバ
701 特徴取得モジュール
702 モデル更新モジュール
703 モデル取得モジュール
801 対話取得モジュール
802 特徴抽出モジュール
803 返答出力モジュール
804 返答展示モジュール
900 端末
901 プロセッサ
902 メモリ
903 外部機器インタフェース
904 無線周波数回路
905 ディスプレイ
906 カメラユニット
907 オーディオ回路
908 位置決めユニット
909 電源
910 センサ
911 加速度センサ
912 ジャイロセンサ
913 圧力センサ
914 指紋センサ
915 光学センサ
916 近接センサ
1000 サーバ
1001 プロセッサ
1002 メモリ
Claims (14)
- 対話モデルの訓練方法であって、
対話モデルにおける先験的ネットワークと事後的ネットワークによって、第1対話の少なくとも2つの第1対話特徴と少なくとも2つの第2対話特徴を取得するステップであって、前記先験的ネットワークは、対話特徴の確率分布を出力するためのものであり、前記事後的ネットワークは、前記先験的ネットワークから出力された対話特徴の確率分布を推定するためのものであり、前記第1対話特徴は、1つの対話における対話発話文と1つの対話返答の事後的特徴を表すためのものであり、前記第2対話特徴は、1つの対話における前記対話発話文と1つの対話返答の先験的特徴を表すためのものであり、前記第1対話は、1つの第1対話発話文と少なくとも2つの第1対話返答とを含む、ステップと、
前記第1対話の少なくとも2つの第1対話特徴と少なくとも2つの第2対話特徴に基づいて、前記対話モデルを更新するステップと、
前記第1対話の少なくとも2つの第1対話特徴に基づいて、前記事後的ネットワークを更新するステップと、
第2対話の少なくとも2つの第1対話特徴と少なくとも2つの第2対話特徴に基づいて、前記対話モデルの判別器を更新するステップと、
訓練終了条件を満たすことに応答して、訓練により得られたモデルを対話モデルとするステップと、を含むことを特徴とする、対話モデルの訓練方法。 - 対話モデルにおける先験的ネットワークと事後的ネットワークによって、第1対話の少なくとも2つの第1対話特徴と少なくとも2つの第2対話特徴を取得するステップは、
前記第1対話のいずれか1つの前記第1対話返答に対して、前記対話モデルのエンコーダによって、前記第1対話発話文と前記第1対話返答に対してそれぞれ符号化を行い、前記第1対話発話文の第1ベクトルと前記第1対話返答の第2ベクトルを得るステップと、
前記第1対話の少なくとも2つの第1対話特徴を取得するステップであって、前記第1対話の前記第1対話特徴は、前記事後的ネットワークによって前記第1対話発話文の第1ベクトルと前記第1対話返答の第2ベクトルとを処理することで得られたものである、ステップと、
前記第1対話の少なくとも2つの第2対話特徴を取得するステップであって、前記第1対話の前記第2対話特徴は、前記先験的ネットワークによって前記第1対話発話文の第1ベクトルと前記第1対話返答の属する返答種別とを処理することで得られたものである、ステップと、を含むことを特徴とする
請求項1に記載の方法。 - 前記第1対話の少なくとも2つの第1対話特徴を取得するステップは、
前記第1ベクトルと前記第2ベクトルを前記事後的ネットワークに入力し、第1パラメータ平均値と第1パラメータ分散を出力するステップと、
前記第1パラメータ平均値、前記第1パラメータ分散及び第1サンプリング値に基づいて、第1対話特徴を取得するステップであって、前記第1サンプリング値は、標準正規分布からサンプリングを行うことで得られたものである、ステップと、を含むことを特徴とする
請求項2に記載の方法。 - 前記第1対話の少なくとも2つの第2対話特徴を取得するステップは、
前記第1ベクトルと前記第1対話返答の属する返答種別に基づいて、目標確率分布を決定するステップであって、前記目標確率分布は、前記先験的ネットワークから出力された確率分布のうちの前記返答種別に対応する確率分布である、ステップと、
前記第1ベクトルを前記先験的ネットワークに入力し、第2パラメータ平均値と第2パラメータ分散を得るステップと、
前記第2パラメータ平均値、前記第2パラメータ分散及び第2サンプリング値に基づいて、第2対話特徴を取得するステップであって、前記第2サンプリング値は、前記目標確率分布に対してサンプリングを行うことで得られたものである、ステップと、を含むことを特徴とする
請求項2に記載の方法。 - 前記第1対話の少なくとも2つの第1対話特徴と少なくとも2つの第2対話特徴に基づいて、前記対話モデルを更新するステップは、
前記第1対話のいずれか1つの前記第1対話返答に対して、前記第1対話返答に対応する第1対話特徴と第2対話特徴を取得するステップと、
第1ベクトル、前記第1対話返答に対応する第1対話特徴と第2対話特徴に基づいて、判別器損失を取得するステップであって、前記第1ベクトルは、前記第1対話発話文を符号化することで得られたものである、ステップと、
前記第1ベクトル、前記第1対話返答に対応する第1対話特徴と第2対話特徴に基づいて、再構築損失を取得するステップと、
前記判別器損失に基づいて、前記対話モデルにおける事後的ネットワークと先験的ネットワークのパラメータを更新するステップと、
前記再構築損失に基づいて、前記対話モデルにおけるエンコーダ、前記事後的ネットワーク、前記先験的ネットワーク及びデコーダのパラメータを更新するステップと、
前記判別器損失に基づいて、前記対話モデルの判別器のパラメータを更新するステップと、を含むことを特徴とする
請求項1に記載の方法。 - 第1ベクトル、前記第1対話返答に対応する第1対話特徴と第2対話特徴に基づいて、判別器損失を取得するステップは、
前記対話モデルの判別器によって、前記第1対話発話文の第1ベクトル、前記第1対話返答に対応する第1対話特徴と第2対話特徴に基づいて、前記第1対話返答に対応する第1対話特徴と第2対話特徴との第1ワッサースタイン距離を取得し、前記第1ワッサースタイン距離を判別器損失とするステップを含むことを特徴とする
請求項5に記載の方法。 - 第1ベクトル、前記第1対話返答に対応する第1対話特徴と第2対話特徴に基づいて、再構築損失を取得するステップは、
前記対話モデルにおけるデコーダによって、前記第1対話特徴に対して復号を行い、目標対話特徴を取得するステップと、
前記第1ベクトル、前記第1対話返答に対応する前記第1対話特徴と第2対話特徴、前記目標対話特徴に基づいて、再構築損失を取得するステップと、を含むことを特徴とする
請求項5に記載の方法。 - 前記第1対話の少なくとも2つの第1対話特徴に基づいて、前記事後的ネットワークを更新するステップは、
前記第1対話のいずれか1つの第1対話特徴に対して、前記少なくとも2つの第1対話特徴のうちの前記第1対話特徴以外の他の第1対話特徴の平均値を取得し、前記平均値を平均対話特徴とするステップと、
前記第1対話特徴と前記平均対話特徴との第2ワッサースタイン距離を取得し、前記第2ワッサースタイン距離をセマンティック損失とするステップと、
前記セマンティック損失に基づいて、前記事後的ネットワークのパラメータを更新するステップと、を含むことを特徴とする
請求項1に記載の方法。 - 対話返答生成方法であって、
対話発話文を取得するステップと、
前記対話発話文を対話モデルに入力し、前記対話モデルにおける先験的ネットワークによって、複数の対話返答に対応する第2対話特徴から、1つの目標対話特徴をランダムに抽出するステップと、
前記対話モデルにおけるデコーダによって、前記目標対話特徴に対して復号を行い、目標対話返答を出力するステップと、
前記目標対話返答を展示するステップと、を含むことを特徴とする、対話返答生成方法。 - 対話モデルの訓練装置であって、
対話モデルにおける先験的ネットワークと事後的ネットワークによって、第1対話の少なくとも2つの第1対話特徴と少なくとも2つの第2対話特徴を取得するように構成される特徴取得モジュールであって、前記先験的ネットワークは、対話特徴の確率分布を出力するためのものであり、前記事後的ネットワークは、前記先験的ネットワークから出力された対話特徴の確率分布を推定するためのものであり、前記第1対話特徴は、1つの対話における対話発話文と1つの対話返答の事後的特徴を表すためのものであり、前記第2対話特徴は、1つの対話における前記対話発話文と1つの対話返答の先験的特徴を表すためのものであり、前記第1対話は、1つの第1対話発話文と少なくとも2つの第1対話返答とを含む、特徴取得モジュールと、
前記第1対話の少なくとも2つの第1対話特徴と少なくとも2つの第2対話特徴に基づいて、前記対話モデルを更新するように構成されるモデル更新モジュールであって、
前記モデル更新モジュールは更に、前記第1対話の少なくとも2つの第1対話特徴に基づいて、前記事後的ネットワークを更新するように構成され、
前記モデル更新モジュールは更に、第2対話の少なくとも2つの第1対話特徴と少なくとも2つの第2対話特徴に基づいて、前記対話モデルの判別器を更新するように構成される、モデル更新モジュールと、
訓練終了条件を満たすことに応答して、訓練により得られたモデルを対話モデルとするように構成されるモデル取得モジュールと、を備えることを特徴とする、対話モデルの訓練装置。 - 前記特徴取得モジュールは、前記第1対話のいずれか1つの前記第1対話返答に対して、前記対話モデルのエンコーダによって、前記第1対話発話文と前記第1対話返答に対してそれぞれ符号化を行い、前記第1対話発話文の第1ベクトルと前記第1対話返答の第2ベクトルを得て、
前記第1対話の少なくとも2つの第1対話特徴を取得し、前記第1対話の前記第1対話特徴は、前記事後的ネットワークによって前記第1ベクトルと前記第2ベクトルを処理することで得られたものであり、
前記第1対話の少なくとも2つの第2対話特徴を取得し、前記第1対話の前記第2対話特徴は、前記先験的ネットワークによって前記第1ベクトルと前記第1対話返答の属する返答種別を処理することで得られたものであるように構成されることを特徴とする
請求項10に記載の装置。 - 対話返答生成装置であって、
対話発話文を取得するように構成される対話取得モジュールと、
前記対話発話文を対話モデルに入力し、前記対話モデルにおける先験的ネットワークによって、複数の対話返答に対応する第1対話特徴から、1つの目標対話特徴をランダムに抽出するように構成される特徴抽出モジュールと、
前記対話モデルにおけるデコーダによって、前記目標対話特徴に対して復号を行い、目標対話返答を出力するように構成される返答出力モジュールと、
前記目標対話返答を展示するように構成される返答展示モジュールと、を備えることを特徴とする、対話返答生成装置。 - コンピュータ機器であって、前記コンピュータ機器は、プロセッサと、メモリと、を備え、前記メモリは、少なくとも1つのプログラムコードを記憶するように構成され、前記少なくとも1つのプログラムコードは、前記プロセッサによりロードされ、請求項1~8に記載の対話モデルの訓練方法を実行し、又は、請求項9に記載の対話返答生成方法を実行することを特徴とする、コンピュータ機器。
- コンピュータに、請求項1~8のうちいずれか一項に記載の対話モデルの訓練方法を実行させるか又は請求項9に記載の対話返答生成方法を実行させる少なくとも1つのプログラムを記憶した、記憶媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010450194.0 | 2020-05-25 | ||
CN202010450194.0A CN111680123B (zh) | 2020-05-25 | 2020-05-25 | 对话模型的训练方法、装置、计算机设备及存储介质 |
PCT/CN2021/091954 WO2021238599A1 (zh) | 2020-05-25 | 2021-05-06 | 对话模型的训练方法、装置、计算机设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023508062A true JP2023508062A (ja) | 2023-02-28 |
JP7431977B2 JP7431977B2 (ja) | 2024-02-15 |
Family
ID=72434775
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022538829A Active JP7431977B2 (ja) | 2020-05-25 | 2021-05-06 | 対話モデルの訓練方法、装置、コンピュータ機器及びプログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US20220309088A1 (ja) |
JP (1) | JP7431977B2 (ja) |
CN (1) | CN111680123B (ja) |
WO (1) | WO2021238599A1 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111680123B (zh) * | 2020-05-25 | 2024-01-26 | 腾讯科技(深圳)有限公司 | 对话模型的训练方法、装置、计算机设备及存储介质 |
CN112702329B (zh) * | 2020-12-21 | 2023-04-07 | 四川虹微技术有限公司 | 一种流量数据异常检测方法、装置和存储介质 |
CN113254597B (zh) * | 2021-06-23 | 2021-09-28 | 腾讯科技(深圳)有限公司 | 模型训练方法、查询处理方法及相关设备 |
CN113569212B (zh) * | 2021-07-30 | 2024-04-26 | 上海交通大学 | 基于自动编码器的击键动力学身份认证与识别方法及系统 |
CN117785964A (zh) * | 2024-02-28 | 2024-03-29 | 宜宾市万事通网络信息服务有限公司 | 应用于网络服务的数据处理方法及系统 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3454260A1 (en) | 2017-09-11 | 2019-03-13 | Tata Consultancy Services Limited | Bilstm-siamese network based classifier for identifying target class of queries and providing responses thereof |
US10303978B1 (en) * | 2018-03-26 | 2019-05-28 | Clinc, Inc. | Systems and methods for intelligently curating machine learning training data and improving machine learning model performance |
CN108897797A (zh) * | 2018-06-12 | 2018-11-27 | 腾讯科技(深圳)有限公司 | 对话模型的更新训练方法、装置、存储介质及电子设备 |
KR102204979B1 (ko) | 2018-08-24 | 2021-01-19 | 네이버 주식회사 | 딥러닝 생성모델과 다중모달 분포를 이용하여 멀티턴 대화 응답을 생성하는 방법 및 시스템 |
US11544524B2 (en) * | 2018-09-28 | 2023-01-03 | Samsung Electronics Co., Ltd. | Electronic device and method of obtaining emotion information |
CN110222164B (zh) * | 2019-06-13 | 2022-11-29 | 腾讯科技(深圳)有限公司 | 一种问答模型训练方法、问题语句处理方法、装置及存储介质 |
CN110457457B (zh) * | 2019-08-02 | 2023-09-22 | 腾讯科技(深圳)有限公司 | 对话生成模型的训练方法、对话生成方法及装置 |
CN111143509B (zh) * | 2019-12-09 | 2023-06-30 | 天津大学 | 一种基于静态-动态注意力变分网络的对话生成方法 |
CN111680123B (zh) * | 2020-05-25 | 2024-01-26 | 腾讯科技(深圳)有限公司 | 对话模型的训练方法、装置、计算机设备及存储介质 |
-
2020
- 2020-05-25 CN CN202010450194.0A patent/CN111680123B/zh active Active
-
2021
- 2021-05-06 JP JP2022538829A patent/JP7431977B2/ja active Active
- 2021-05-06 WO PCT/CN2021/091954 patent/WO2021238599A1/zh active Application Filing
-
2022
- 2022-04-07 US US17/715,778 patent/US20220309088A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
CN111680123B (zh) | 2024-01-26 |
CN111680123A (zh) | 2020-09-18 |
JP7431977B2 (ja) | 2024-02-15 |
US20220309088A1 (en) | 2022-09-29 |
WO2021238599A1 (zh) | 2021-12-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7431977B2 (ja) | 対話モデルの訓練方法、装置、コンピュータ機器及びプログラム | |
US20220165288A1 (en) | Audio signal processing method and apparatus, electronic device, and storage medium | |
US20220172737A1 (en) | Speech signal processing method and speech separation method | |
CN110490213A (zh) | 图像识别方法、装置及存储介质 | |
CN112069309B (zh) | 信息获取方法、装置、计算机设备及存储介质 | |
CN110147533B (zh) | 编码方法、装置、设备及存储介质 | |
CN111985240A (zh) | 命名实体识别模型的训练方法、命名实体识别方法及装置 | |
CN110162604B (zh) | 语句生成方法、装置、设备及存储介质 | |
WO2020151685A1 (zh) | 编码方法、装置、设备及存储介质 | |
CN111368525A (zh) | 信息搜索方法、装置、设备及存储介质 | |
CN111324699A (zh) | 语义匹配的方法、装置、电子设备及存储介质 | |
CN111753498A (zh) | 文本处理方法、装置、设备及存储介质 | |
CN114281956A (zh) | 文本处理方法、装置、计算机设备及存储介质 | |
CN113822076A (zh) | 文本生成方法、装置、计算机设备及存储介质 | |
CN114282587A (zh) | 数据处理方法、装置、计算机设备及存储介质 | |
CN110990549B (zh) | 获取答案的方法、装置、电子设备及存储介质 | |
CN112988984B (zh) | 特征获取方法、装置、计算机设备及存储介质 | |
CN113486260B (zh) | 互动信息的生成方法、装置、计算机设备及存储介质 | |
CN113762585B (zh) | 数据的处理方法、账号类型的识别方法及装置 | |
CN114328815A (zh) | 文本映射模型的处理方法、装置、计算机设备及存储介质 | |
CN111310701B (zh) | 手势识别方法、装置、设备及存储介质 | |
CN111737415A (zh) | 实体关系抽取方法、实体关系学习模型的获取方法及设备 | |
CN113822084A (zh) | 语句翻译方法、装置、计算机设备及存储介质 | |
CN113761195A (zh) | 文本分类方法、装置、计算机设备及计算机可读存储介质 | |
CN112035649A (zh) | 问答模型处理方法、装置、计算机设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220622 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220622 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230626 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230914 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231010 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240105 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240122 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240202 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7431977 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |