JP2022003537A - 対話意図の認識方法及び装置、電子機器並びに記憶媒体 - Google Patents
対話意図の認識方法及び装置、電子機器並びに記憶媒体 Download PDFInfo
- Publication number
- JP2022003537A JP2022003537A JP2021145446A JP2021145446A JP2022003537A JP 2022003537 A JP2022003537 A JP 2022003537A JP 2021145446 A JP2021145446 A JP 2021145446A JP 2021145446 A JP2021145446 A JP 2021145446A JP 2022003537 A JP2022003537 A JP 2022003537A
- Authority
- JP
- Japan
- Prior art keywords
- support
- sample
- sentence
- word
- vector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 108
- 239000013598 vector Substances 0.000 claims abstract description 308
- 230000008569 process Effects 0.000 claims abstract description 40
- 238000012549 training Methods 0.000 claims description 78
- 238000012545 processing Methods 0.000 claims description 28
- 238000013528 artificial neural network Methods 0.000 claims description 20
- 230000015654 memory Effects 0.000 claims description 20
- 238000004590 computer program Methods 0.000 claims description 19
- 230000000306 recurrent effect Effects 0.000 claims description 14
- 238000010586 diagram Methods 0.000 description 23
- 238000005516 engineering process Methods 0.000 description 13
- 238000004364 calculation method Methods 0.000 description 12
- 230000007246 mechanism Effects 0.000 description 9
- 238000010801 machine learning Methods 0.000 description 8
- 238000013135 deep learning Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 7
- 238000007796 conventional method Methods 0.000 description 6
- 238000013473 artificial intelligence Methods 0.000 description 5
- 238000000605 extraction Methods 0.000 description 5
- 230000003993 interaction Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000013507 mapping Methods 0.000 description 4
- 241000699666 Mus <mouse, genus> Species 0.000 description 2
- 230000004913 activation Effects 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000006403 short-term memory Effects 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 241000699670 Mus sp. Species 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000004880 explosion Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007787 long-term memory Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 238000005303 weighing Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
- G06F40/35—Discourse or dialogue representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/26—Techniques for post-processing, e.g. correcting the recognition result
- G06V30/262—Techniques for post-processing, e.g. correcting the recognition result using context analysis, e.g. lexical, syntactic or semantic context
- G06V30/274—Syntactic or semantic context, e.g. balancing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/049—Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/19—Recognition using electronic means
- G06V30/19007—Matching; Proximity measures
- G06V30/19093—Proximity measures, i.e. similarity or distance measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/216—Parsing using statistical methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/284—Lexical analysis, e.g. tokenisation or collocates
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
- G06F40/295—Named entity recognition
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/1822—Parsing for meaning understanding
Abstract
Description
第6の態様によれば、コンピュータプログラムを提供し、前記コンピュータプログラムは、コンピュータに本出願の第1の態様に記載の対話意図の認識方法を実行させる。
Importanceサンプル=tanh(W1*TFサンプル+W2*IDFサンプル+b)
Importanceサポート=tanh(W1*TFサポート+W2*IDFサポート+b)
本出願の実施例によれば、本出願は、コンピュータプログラムを提供し、コンピュータプログラムは、コンピュータに本出願によって提供される対話意図の認識方法を実行させる。
Claims (26)
- 意図カテゴリ予測対象のサンプル文及び複数の意図カテゴリがタグ付けされたサポート文を取得するステップと、
前記サンプル文及び前記サポート文を事前トレーニング済みの意図認識モデルに入力し、前記意図認識モデルが前記サンプル文及び前記サポート文に基づいて前記サンプル文に対応するサンプル文ベクトル及び前記サポート文に対応するカテゴリベクトルを生成し、前記サンプル文ベクトルと前記カテゴリベクトルとのマッチング度を計算し、複数の前記マッチング度に基づいて、前記サンプル文の予測意図カテゴリを取得するステップと、
を含む、対話意図の認識方法。 - 前記サンプル文及び前記サポート文に基づいて、前記サポート文に対応するカテゴリベクトルを生成するステップが、
前記サンプル文及び前記サポート文に基づいて、前記サポート文に対応するサポート文ベクトルを生成するステップと、
前記サポート文ベクトルに基づいて、前記サポート文に対応する前記カテゴリベクトルを生成するステップと、
を含む請求項1に記載の認識方法。 - 前記サンプル文及び前記サポート文に基づいて、前記サポート文に対応するサポート文ベクトルを生成するステップが、
前記サンプル文に基づいて、対応するサンプル単語ベクトル系列を生成するステップと、
前記サポート文に基づいて、対応するサポート単語ベクトル系列を生成するステップと、
前記サンプル単語ベクトル系列を再帰型ニューラルネットワークによる時系列モデルに入力して、前記サンプル文のサンプル単語の出力隠れ状態を取得するステップと、
前記サポート単語ベクトル系列を前記再帰型ニューラルネットワークによる時系列モデルに入力して、前記サポート文のサポート単語の出力隠れ状態を取得するステップと、
前記サンプル単語の出力隠れ状態及び前記サポート単語の出力隠れ状態に基づいて、前記サンプル文に対応する出力ベクトル系列を生成するステップと、
前記サポート文に対応する出力ベクトル系列に基づいて、前記サポート文ベクトルを生成するステップと、
を含む請求項2に記載の認識方法。 - 前記サンプル文及び前記サポート文に基づいて、前記サンプル文に対応するサンプル文ベクトルを生成するステップが、
前記サンプル文に基づいて、対応するサンプル単語ベクトル系列を生成するステップと、
前記サポート文に基づいて、対応するサポート単語ベクトル系列を生成するステップと、
前記サンプル単語ベクトル系列を再帰型ニューラルネットワークによる時系列モデルに入力して、前記サンプル文のサンプル単語の出力隠れ状態を取得するステップと、
前記サポート単語ベクトル系列を前記再帰型ニューラルネットワークによる時系列モデルに入力して、前記サポート文のサポート単語の出力隠れ状態を取得するステップと、
前記サンプル単語の出力隠れ状態及び前記サポート単語の出力隠れ状態に基づいて、前記サンプル文に対応する出力ベクトル系列を生成するステップと、
前記サンプル文に対応する出力ベクトル系列に基づいて、前記サンプル文ベクトルを生成するステップと、
を含む請求項1に記載の認識方法。 - 前記サンプル文に基づいて、対応するサンプル単語ベクトル系列を生成するステップが、
前記サンプル文に対して単語分割処理を行って、複数の前記サンプル単語を取得するステップと、
前記サンプル単語に対して品詞タグ付けを行って、サンプル単語の品詞を取得するステップと、
前記サンプル単語に対して名前付きエンティティ認識を行って、サンプル単語の名前付きエンティティを取得するステップと、
前記サンプル単語、前記サンプル単語の品詞及び前記サンプル単語の名前付きエンティティに基づいて、前記サンプル文に対応する前記サンプル単語ベクトル系列を生成するステップと、
を含む請求項3又は4に記載の認識方法。 - 前記サポート文に基づいて、対応するサポート単語ベクトル系列を生成するステップが、
前記サポート文に対して単語分割処理を行って、複数の前記サポート単語を取得するステップと、
前記サポート単語に対して品詞タグ付けを行って、サポート単語の品詞を取得するステップと、
前記サポート単語に対して名前付きエンティティ認識を行って、サポート単語の名前付きエンティティを取得するステップと、
前記サポート単語、前記サポート単語の品詞及び前記サポート単語の名前付きエンティティに基づいて、前記サポート文に対応する前記サポート単語ベクトル系列を生成するステップと、
を含む請求項3又は4に記載の認識方法。 - 前記サンプル文に対応する出力ベクトル系列に基づいて、前記サンプル文ベクトルを生成するステップが、
コーパスにおける前記サンプル文の前記サンプル単語の出現頻度及びサンプル逆文書頻度を取得するステップと、
前記サンプル単語の出現頻度及び前記サンプル逆文書頻度に基づいて、前記サンプル単語に対応する出力ベクトルの重みを生成するステップと、
前記サンプル文に対応する出力ベクトル系列内の出力ベクトル及び対応する重みに基づいて、前記サンプル文ベクトルを生成するステップと、
を含む請求項4に記載の認識方法。 - 前記サポート文に対応する出力ベクトル系列に基づいて、前記サポート文ベクトルを生成するステップが、
コーパスにおける前記サポート文の前記サポート単語の出現頻度及びサポート逆文書頻度を取得するステップと、
前記サポート単語の出現頻度及び前記サポート逆文書頻度に基づいて、前記サポート単語に対応する出力ベクトルの重みを生成するステップと、
前記サポート文に対応する出力ベクトル系列内の出力ベクトル及び対応する重みに基づいて、前記サポート文ベクトルを生成するステップと、
を含む請求項3に記載の認識方法。 - 前記サポート文ベクトルに基づいて、前記サポート文に対応する前記カテゴリベクトルを生成するステップが、
同一のタグ付け意図カテゴリの前記サポート文ベクトルを取得するステップと、
同一のタグ付け意図カテゴリの前記サポート文ベクトルに基づいて、このタグ付け意図カテゴリに対応する前記カテゴリベクトルを生成するステップと、
を含む請求項2に記載の認識方法。 - 前記複数の前記マッチング度に基づいて、前記サンプル文の予測意図カテゴリを取得するステップが、
複数の前記マッチング度のうち最も高いマッチング度に対応する前記カテゴリベクトルのタグ付け意図カテゴリを、前記サンプル文の予測意図カテゴリとして決定するステップを含む請求項1に記載の認識方法。 - 意図カテゴリがタグ付けされた第1のトレーニング文及び複数の第2のトレーニング文を取得するステップと、
前記第1のトレーニング文及び前記第2のトレーニング文をトレーニング対象の意図認識モデルに入力して、前記第1のトレーニング文に対応する予測意図カテゴリを取得するステップと、
前記第1のトレーニング文に対応する予測意図カテゴリと前記第1のトレーニング文に対応するタグ付け意図カテゴリとの差が予め設定されたトレーニング終了条件に合致するまで、前記第1のトレーニング文に対応する予測意図カテゴリと前記第1のトレーニング文に対応するタグ付け意図カテゴリとの差に基づいて、前記トレーニング対象の意図認識モデルのモデルパラメータを調整し、前記意図カテゴリがタグ付けされた第1のトレーニング文及び複数の第2のトレーニング文を取得するステップに戻り、最終回のモデルパラメータが調整された前記トレーニング対象の意図認識モデルを前記トレーニング済みの意図認識モデルとして決定するステップと、
を含む請求項1に記載の認識方法。 - 意図カテゴリ予測対象のサンプル文及び複数の意図カテゴリがタグ付けされたサポート文を取得するための第1の取得モジュールと、
前記サンプル文及び前記サポート文を事前トレーニング済みの意図認識モデルに入力し、前記意図認識モデルが前記サンプル文及び前記サポート文に基づいて前記サンプル文に対応するサンプル文ベクトル及び前記サポート文に対応するカテゴリベクトルを生成し、前記サンプル文ベクトルと前記カテゴリベクトルとのマッチング度を計算し、複数の前記マッチング度に基づいて、前記サンプル文の予測意図カテゴリを取得するための生成モジュールと、
を備える、対話意図の認識装置。 - 前記生成モジュールが、
前記サンプル文及び前記サポート文に基づいて、前記サポート文に対応するサポート文ベクトルを生成するための第1の生成サブモジュールと、
前記サポート文ベクトルに基づいて、前記サポート文に対応する前記カテゴリベクトルを生成するための第2の生成サブモジュールと、
を備える請求項12に記載の認識装置。 - 前記第1の生成サブモジュールが、
前記サンプル文に基づいて、対応するサンプル単語ベクトル系列を生成するための第1の生成ユニットと、
前記サポート文に基づいて、対応するサポート単語ベクトル系列を生成するための第2の生成ユニットと、
前記サンプル単語ベクトル系列を再帰型ニューラルネットワークによる時系列モデルに入力して、前記サンプル文のサンプル単語の出力隠れ状態を取得するための第1の入力ユニットと、
前記サポート単語ベクトル系列を前記再帰型ニューラルネットワークによる時系列モデルに入力して、前記サポート文のサポート単語の出力隠れ状態を取得するための第2の入力ユニットと、
前記サンプル単語の出力隠れ状態及び前記サポート単語の出力隠れ状態に基づいて、前記サポート文に対応する出力ベクトル系列を生成するための第3の生成ユニットと、
前記サポート文に対応する出力ベクトル系列に基づいて、前記サポート文ベクトルを生成するための第1の出力ユニットと、
を備える請求項13に記載の認識装置。 - 前記生成モジュールが、第3の生成サブモジュールを備え、
前記第3の生成サブモジュールが、
前記サンプル文に基づいて、対応するサンプル単語ベクトル系列を生成するための第4の生成ユニットと、
前記サポート文に基づいて、対応するサポート単語ベクトル系列を生成するための第5の生成ユニットと、
前記サンプル単語ベクトル系列を再帰型ニューラルネットワークによる時系列モデルに入力して、前記サンプル文のサンプル単語の出力隠れ状態を取得するための第3の入力ユニットと、
前記サポート単語ベクトル系列を前記再帰型ニューラルネットワークによる時系列モデルに入力して、前記サポート文のサポート単語の出力隠れ状態を取得するための第4の入力ユニットと、
前記サンプル単語の出力隠れ状態及び前記サポート単語の出力隠れ状態に基づいて、前記サンプル文に対応する出力ベクトル系列を生成するための第6の生成ユニットと、
前記サンプル文に対応する出力ベクトル系列に基づいて、前記サンプル文ベクトルを生成するための第2の出力ユニットと、
を備える請求項12に記載の認識装置。 - 前記第1の生成ユニット及び前記第4の生成ユニットが、
前記サンプル文に対して単語分割処理を行って、複数の前記サンプル単語を取得し、
前記サンプル単語に対して品詞タグ付けを行って、サンプル単語の品詞を取得し、
前記サンプル単語に対して名前付きエンティティ認識を行って、サンプル単語の名前付きエンティティを取得し、
前記サンプル単語、前記サンプル単語の品詞及び前記サンプル単語の名前付きエンティティに基づいて、前記サンプル文に対応する前記サンプル単語ベクトル系列を生成する請求項14又は15に記載の認識装置。 - 前記第2の生成ユニット及び前記第5の生成ユニットが、
前記サポート文に対して単語分割処理を行って、複数の前記サポート単語を取得し、
前記サポート単語に対して品詞タグ付けを行って、サポート単語の品詞を取得し、
前記サポート単語に対して名前付きエンティティ認識を行って、サポート単語の名前付きエンティティを取得し、
前記サポート単語、前記サポート単語の品詞及び前記サポート単語の名前付きエンティティに基づいて、前記サポート文に対応する前記サポート単語ベクトル系列を生成する請求項14又は15に記載の認識装置。 - 前記第2の出力ユニットが、
コーパスにおける前記サンプル文の前記サンプル単語のサンプル単語の出現頻度及びサンプル逆文書頻度を取得し、
前記サンプル単語の出現頻度及び前記サンプル逆文書頻度に基づいて、前記サンプル単語に対応する出力ベクトルの重みを生成し、
前記サンプル文に対応する出力ベクトル系列内の出力ベクトル及び対応する重みに基づいて、前記サンプル文ベクトルを生成する請求項15に記載の認識装置。 - 前記第1の出力ユニットが、
コーパスにおける前記サポート文の前記サポート単語のサポート単語の出現頻度及びサポート逆文書頻度を取得し、
前記サポート単語の出現頻度及び前記サポート逆文書頻度に基づいて、前記サポート単語に対応する出力ベクトルの重みを生成し、
前記サポート文に対応する出力ベクトル系列内の出力ベクトル及び対応する重みに基づいて、前記サポート文ベクトルを生成する請求項15に記載の認識装置。 - 前記第2の生成ユニットが、
同一のタグ付け意図カテゴリの前記サポート文ベクトルを取得するための第1の取得サブユニットと、
同一のタグ付け意図カテゴリの前記サポート文ベクトルに基づいて、このタグ付け意図カテゴリに対応する前記カテゴリベクトルを生成するための第1の生成サブユニットと、
を備える請求項14に記載の認識装置。 - 前記生成モジュールが、
複数の前記マッチング度のうち最も高いマッチング度に対応する前記カテゴリベクトルのタグ付け意図カテゴリを、前記サンプル文の予測意図カテゴリとして決定するための決定サブモジュールを備える請求項12に記載の認識装置。 - 意図カテゴリがタグ付けされた第1のトレーニング文及び複数の第2のトレーニング文を取得するための第2の取得モジュールと、
前記第1のトレーニング文及び前記第2のトレーニング文をトレーニング対象の意図認識モデルに入力して、前記第1のトレーニング文に対応する予測意図カテゴリを取得するための入力モジュールと、
前記第1のトレーニング文に対応する予測意図カテゴリと前記第1のトレーニング文に対応するタグ付け意図カテゴリとの差が予め設定されたトレーニング終了条件に合致するまで、前記第1のトレーニング文に対応する予測意図カテゴリと前記第1のトレーニング文に対応するタグ付け意図カテゴリとの差に基づいて、前記トレーニング対象の意図認識モデルのモデルパラメータを調整し、前記意図カテゴリがタグ付けされた第1のトレーニング文及び複数の第2のトレーニング文を取得するステップに戻り、最終回のモデルパラメータが調整された前記トレーニング対象の意図認識モデルを前記トレーニング済みの意図認識モデルとして決定するための決定モジュールと、
を備える請求項12に記載の認識装置。 - 少なくとも1つのプロセッサと、
該少なくとも1つのプロセッサと通信可能に接続されるメモリと、
を備え、
前記メモリには、前記少なくとも1つのプロセッサによって実行可能な命令が記憶され、前記命令が、前記少なくとも1つのプロセッサが請求項1から11のいずれか一項に記載の対話意図の認識方法を実行できるように、前記少なくとも1つのプロセッサによって実行される電子機器。 - コンピュータ命令が記憶されている非一時的なコンピュータ読み取り可能な記憶媒体であって、
前記コンピュータ命令が、コンピュータに請求項1から11のいずれか一項に記載の対話意図の認識方法を実行させる非一時的なコンピュータ読み取り可能な記憶媒体。 - コンピュータプログラムを備えるコンピュータプログラム製品であって、
前記コンピュータプログラムがプロセッサによって実行される場合、請求項1から11のいずれか一項に記載の方法のステップが実現されるコンピュータプログラム製品。 - コンピュータに請求項1〜11のいずれか一項に記載の対話意図の認識方法を実行させるコンピュータプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011449389.XA CN112560505A (zh) | 2020-12-09 | 2020-12-09 | 一种对话意图的识别方法、装置、电子设备及存储介质 |
CN202011449389.X | 2020-12-09 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022003537A true JP2022003537A (ja) | 2022-01-11 |
JP7309798B2 JP7309798B2 (ja) | 2023-07-18 |
Family
ID=75061591
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021145446A Active JP7309798B2 (ja) | 2020-12-09 | 2021-09-07 | 対話意図の認識方法及び装置、電子機器並びに記憶媒体 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20220044081A1 (ja) |
JP (1) | JP7309798B2 (ja) |
CN (1) | CN112560505A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115906835A (zh) * | 2022-11-23 | 2023-04-04 | 之江实验室 | 一种基于聚类和对比学习的中文问句文本表示学习的方法 |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112989003B (zh) * | 2021-04-01 | 2023-04-18 | 网易(杭州)网络有限公司 | 意图识别方法、装置、处理设备及介质 |
CN113723111B (zh) * | 2021-09-04 | 2023-11-14 | 中国科学院新疆理化技术研究所 | 一种小样本意图识别方法、装置、设备及存储介质 |
CN114676689A (zh) * | 2022-03-09 | 2022-06-28 | 青岛海尔科技有限公司 | 语句文本的识别方法和装置、存储介质及电子装置 |
CN117151107A (zh) * | 2022-05-24 | 2023-12-01 | 中国电信股份有限公司 | 一种意图识别方法、装置、存储介质和电子设备 |
CN116542256B (zh) * | 2023-07-05 | 2024-02-06 | 广东数业智能科技有限公司 | 一种融合对话上下文信息的自然语言理解方法与装置 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018528458A (ja) * | 2015-12-04 | 2018-09-27 | 三菱電機株式会社 | 発話を処理する方法 |
JP2019204268A (ja) * | 2018-05-23 | 2019-11-28 | 株式会社日立製作所 | ニューラルネットワークを用いた情報処理方法、システムおよびその構築システム |
US20200097563A1 (en) * | 2018-09-21 | 2020-03-26 | Salesforce.Com, Inc. | Intent classification system |
JP2020521210A (ja) * | 2017-10-31 | 2020-07-16 | ▲騰▼▲訊▼科技(深▲セン▼)有限公司 | 情報処理方法及び端末、コンピュータ記憶媒体 |
JP2020123331A (ja) * | 2019-01-29 | 2020-08-13 | 株式会社リコー | 意図識別方法、装置、及びコンピュータ読み取り可能な記憶媒体 |
JP2020187282A (ja) * | 2019-05-16 | 2020-11-19 | ヤフー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100174539A1 (en) * | 2009-01-06 | 2010-07-08 | Qualcomm Incorporated | Method and apparatus for vector quantization codebook search |
CN107562816B (zh) * | 2017-08-16 | 2021-02-09 | 苏州狗尾草智能科技有限公司 | 用户意图自动识别方法及装置 |
CN108628974B (zh) * | 2018-04-25 | 2023-04-18 | 平安科技(深圳)有限公司 | 舆情信息分类方法、装置、计算机设备和存储介质 |
CN111767737A (zh) * | 2019-05-30 | 2020-10-13 | 北京京东尚科信息技术有限公司 | 文本意图相似度确定方法、装置、电子设备和存储介质 |
KR20190098928A (ko) * | 2019-08-05 | 2019-08-23 | 엘지전자 주식회사 | 음성 인식 방법 및 장치 |
CN111178537B (zh) * | 2019-12-09 | 2023-11-17 | 华为云计算技术有限公司 | 一种特征提取模型训练方法及设备 |
CN111860580B (zh) * | 2020-06-09 | 2024-02-20 | 北京百度网讯科技有限公司 | 识别模型获取及类别识别方法、装置及存储介质 |
-
2020
- 2020-12-09 CN CN202011449389.XA patent/CN112560505A/zh active Pending
-
2021
- 2021-09-07 JP JP2021145446A patent/JP7309798B2/ja active Active
- 2021-09-15 US US17/476,177 patent/US20220044081A1/en active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018528458A (ja) * | 2015-12-04 | 2018-09-27 | 三菱電機株式会社 | 発話を処理する方法 |
JP2020521210A (ja) * | 2017-10-31 | 2020-07-16 | ▲騰▼▲訊▼科技(深▲セン▼)有限公司 | 情報処理方法及び端末、コンピュータ記憶媒体 |
JP2019204268A (ja) * | 2018-05-23 | 2019-11-28 | 株式会社日立製作所 | ニューラルネットワークを用いた情報処理方法、システムおよびその構築システム |
US20200097563A1 (en) * | 2018-09-21 | 2020-03-26 | Salesforce.Com, Inc. | Intent classification system |
JP2020123331A (ja) * | 2019-01-29 | 2020-08-13 | 株式会社リコー | 意図識別方法、装置、及びコンピュータ読み取り可能な記憶媒体 |
JP2020187282A (ja) * | 2019-05-16 | 2020-11-19 | ヤフー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115906835A (zh) * | 2022-11-23 | 2023-04-04 | 之江实验室 | 一种基于聚类和对比学习的中文问句文本表示学习的方法 |
CN115906835B (zh) * | 2022-11-23 | 2024-02-20 | 之江实验室 | 一种基于聚类和对比学习的中文问句文本表示学习的方法 |
Also Published As
Publication number | Publication date |
---|---|
JP7309798B2 (ja) | 2023-07-18 |
CN112560505A (zh) | 2021-03-26 |
US20220044081A1 (en) | 2022-02-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7317791B2 (ja) | エンティティ・リンキング方法、装置、機器、及び記憶媒体 | |
JP7309798B2 (ja) | 対話意図の認識方法及び装置、電子機器並びに記憶媒体 | |
JP7283009B2 (ja) | 対話理解モデルの訓練方法、装置、デバイス及び記憶媒体 | |
US20220004714A1 (en) | Event extraction method and apparatus, and storage medium | |
CN112560479B (zh) | 摘要抽取模型训练方法、摘要抽取方法、装置和电子设备 | |
JP7264866B2 (ja) | イベント関係の生成方法、装置、電子機器及び記憶媒体 | |
CN111143576A (zh) | 一种面向事件的动态知识图谱构建方法和装置 | |
KR20210040851A (ko) | 텍스트 인식 처리 방법, 장치, 전자 기기 및 저장매체 | |
KR102565673B1 (ko) | 시멘틱 표현 모델의 생성 방법, 장치, 전자 기기 및 저장 매체 | |
JP7108675B2 (ja) | 意味マッチング方法、装置、電子機器、記憶媒体及びコンピュータプログラム | |
CN112507715A (zh) | 确定实体之间关联关系的方法、装置、设备和存储介质 | |
KR20210040319A (ko) | 엔티티 링킹 방법, 장치, 기기, 저장 매체 및 컴퓨터 프로그램 | |
KR101754473B1 (ko) | 문서를 이미지 기반 컨텐츠로 요약하여 제공하는 방법 및 시스템 | |
CN111259671B (zh) | 文本实体的语义描述处理方法、装置及设备 | |
CN111931500B (zh) | 搜索信息的处理方法、装置 | |
CN111326251B (zh) | 一种问诊问题输出方法、装置以及电子设备 | |
CN111274397B (zh) | 建立实体关系检测模型的方法以及装置 | |
US11321370B2 (en) | Method for generating question answering robot and computer device | |
JP7295200B2 (ja) | 汎化処理方法、装置、デバイス、コンピュータ記憶媒体及びプログラム | |
CN112507101A (zh) | 一种建立预训练语言模型的方法和装置 | |
RU2712101C2 (ru) | Предсказание вероятности появления строки с использованием последовательности векторов | |
JP2021192289A (ja) | 機械学習モデルの敵対的訓練方法、装置、電子機器及び媒体 | |
US20230306205A1 (en) | System and method for personalized conversational agents travelling through space and time | |
JP2022028897A (ja) | 文章翻訳方法、装置、電子機器及び記憶媒体 | |
WO2022228127A1 (zh) | 要素文本处理方法、装置、电子设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210907 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221021 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221129 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230216 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230314 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230613 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230627 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230705 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7309798 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |