JP2019049957A - 問い合わせのターゲットクラスを特定しそれらの応答を提供するBiLSTM−シャムネットワークベース分類器 - Google Patents
問い合わせのターゲットクラスを特定しそれらの応答を提供するBiLSTM−シャムネットワークベース分類器 Download PDFInfo
- Publication number
- JP2019049957A JP2019049957A JP2018041710A JP2018041710A JP2019049957A JP 2019049957 A JP2019049957 A JP 2019049957A JP 2018041710 A JP2018041710 A JP 2018041710A JP 2018041710 A JP2018041710 A JP 2018041710A JP 2019049957 A JP2019049957 A JP 2019049957A
- Authority
- JP
- Japan
- Prior art keywords
- bilstm
- queries
- sham
- model
- query
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000004044 response Effects 0.000 title claims abstract description 35
- 238000013145 classification model Methods 0.000 claims abstract description 66
- 238000000034 method Methods 0.000 claims abstract description 36
- 239000013598 vector Substances 0.000 claims description 102
- 238000012549 training Methods 0.000 claims description 55
- 230000015654 memory Effects 0.000 claims description 26
- 230000006870 function Effects 0.000 claims description 22
- 230000006403 short-term memory Effects 0.000 claims description 12
- 230000007787 long-term memory Effects 0.000 claims description 11
- 238000012545 processing Methods 0.000 claims description 10
- 230000002441 reversible effect Effects 0.000 claims description 9
- 238000004891 communication Methods 0.000 claims description 6
- 230000002085 persistent effect Effects 0.000 claims description 4
- 238000012795 verification Methods 0.000 abstract description 5
- 238000012360 testing method Methods 0.000 abstract description 4
- 239000010410 layer Substances 0.000 description 53
- 241000276573 Cottidae Species 0.000 description 14
- 238000013459 approach Methods 0.000 description 13
- 238000007726 management method Methods 0.000 description 10
- 238000004422 calculation algorithm Methods 0.000 description 9
- 230000036541 health Effects 0.000 description 7
- 238000013528 artificial neural network Methods 0.000 description 6
- 238000011156 evaluation Methods 0.000 description 6
- 238000000926 separation method Methods 0.000 description 6
- 238000010200 validation analysis Methods 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 5
- 230000008901 benefit Effects 0.000 description 4
- 230000002457 bidirectional effect Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 238000010606 normalization Methods 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 230000035935 pregnancy Effects 0.000 description 3
- 230000003252 repetitive effect Effects 0.000 description 3
- 238000013500 data storage Methods 0.000 description 2
- 239000007943 implant Substances 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000003058 natural language processing Methods 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 241000282421 Canidae Species 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000011022 operating instruction Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000002356 single layer Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
- G06F40/295—Named entity recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Abstract
Description
この特許出願は、2017年9月11日出願の印度国特許出願第201721032101号の優先権を主張する。
双方向長短期メモリ(BiLSTM)−シャムネットワークベース分類器により、一つ若しくはそれ以上のハードウエアプロセッサを介して、一つ若しくはそれ以上のユーザの問い合わせを取得するステップであって、前記一つ若しくはそれ以上のユーザの問い合わせはワードのシーケンスで構成され、BiLSTM−シャムネットワークベース分類器はシャムモデル及び分類モデルを含み、シャムモデル及び分類モデルは、埋め込みレイヤ、単独のBiLSTMレイヤ、及び時間分散高密度(TDD)レイヤ含む、共通のベースネットワークを含む、取得するステップと、
繰り返して複数の所定のステップを実行するステップと
を含み、
前記複数の所定のステップは、
前記共通のベースネットワークの前記埋め込みレイヤで、ワードツーベクトルモデルを用いて学習される、個々のワードのベクトル表示のシーケンスとして前記一つ若しくはそれ以上のユーザの問い合わせを表すステップであって、ワードの前記シーケンスが対応するベクトルにより置換され、前記対応するベクトルがワードツーベクトルモデルを用いて初期化され、前記対応するベクトルが前記BiLSTM−シャムネットワークベース分類器システムのトレーニングの間、持続的に更新される、表すステップと、
あらゆる時間ステップにおける一つ若しくはそれ以上の「t」隠れ状態を生成するために、前記共通のベースネットワークの前記単独のBiLSTMレイヤへ、個々のワードのベクトル表示の前記シーケンスをインプットするステップであって、個々のワードの前記ベクトル表示は正順と逆順のうちの少なくとも一つにてインプットされる、インプットするステップと、
ベクトルのシーケンスを取得するために、前記共通のベースネットワークの前記時間分散高密度(TDD)レイヤを介して、前記単独のBiLSTMレイヤから取得されるアウトプットを処理するステップと、
ファイナルベクトルを形成するために、前記分類モデルのマックスプールレイヤを用いて、ベクトルの前記シーケンスの、ディメンジョンに関する最大値を取得するステップと、及び、
前記分類モデルのソフトレイヤにより、前記ファイナルベクトルに基づいて前記一つ若しくはそれ以上の問い合わせの少なくとも一つのターゲットクラスを決定して、前記決定されるターゲットクラスに基づいて前記一つ若しくはそれ以上の問い合わせへの応答を出力するステップと
であり、
平方根カルバックライブラ発散(KLD)損失関数がベクトルの前記シーケンスに適用されて前記分類モデルを最適化する。
前記BiLSTM−シャムネットワークベース分類器のトレーニングの間、問い合わせのセットに関連する一つ若しくはそれ以上のエラーを判別するステップであって、前記一つ若しくはそれ以上のエラーは、問い合わせの前記セットに対して決定される一つ若しくはそれ以上のターゲットクラスを含む、判別するステップと、
前記一つ若しくはそれ以上のエラーに基づいて、誤分類された問い合わせと問い合わせの対のセットを生成するステップと、及び、
ターゲットクラスを決定して一つ若しくはそれ以上の後続の問い合わせに対する応答を出力するために、一つ若しくはそれ以上の正しい対と共に、誤分類された問い合わせと問い合わせの対の前記セットを用いて、シャムモデルを繰り返しトレーニングするステップであって、前記共通のベースネットワークの一つ若しくはそれ以上の重みが、前記BiLSTM−シャムネットワークベース分類器のトレーニングの間、前記シャムモデル及び前記分類モデルにより共有される、トレーニングするステップと
を含んでもよい。
前記一つ若しくはそれ以上の重みを用いて、前記一つ若しくはそれ以上の問い合わせを前記シャムモデルを介して通過させることにより、複数の問い合わせ埋め込みを取得するステップと、
前記シャムモデルを最適化するために前記複数の問い合わせ埋め込みについて対照発散損失を適用するステップと、及び、
前記BiLSTM−シャムネットワークベース分類器システムの一つ若しくはそれ以上のパラメータを更新するステップと
を含んでいてもよい。一つの実施形態では、対照発散損失を適用する前記ステップは、
前記複数の問い合わせ埋め込みの間のユークリッド距離を算出するステップと、
前記算出されたユークリッド距離に基づいて前記対照発散損失を計算するステップと
を含む。
命令を格納するメモリと、
一つ若しくはそれ以上の通信インタフェースと、及び、
前記一つ若しくはそれ以上の通信インタフェースを介して前記メモリと結合する一つ若しくはそれ以上のハードウエアプロセッサと
を含み、
前記一つ若しくはそれ以上のハードウエアプロセッサは、
双方向長短期メモリ(BiLSTM)−シャムネットワークベース分類器により、一つ若しくはそれ以上のハードウエアプロセッサを介して、一つ若しくはそれ以上のユーザの問い合わせを取得する命令であって、前記一つ若しくはそれ以上のユーザの問い合わせはワードのシーケンスで構成され、BiLSTM−シャムネットワークベース分類器はシャムモデル及び分類モデルを含み、シャムモデル及び分類モデルは、埋め込みレイヤ、単独のBiLSTMレイヤ、及び時間分散高密度(TDD)レイヤ含む、共通のベースネットワークを含む、取得する命令と、
繰り返して複数の所定のステップを実行する命令と
を実行するように構成されており、
前記複数の所定のステップは、
前記共通のベースネットワークの前記埋め込みレイヤで、ワードツーベクトルモデルを用いて学習される、個々のワードのベクトル表示のシーケンスとして前記一つ若しくはそれ以上のユーザの問い合わせを表すステップであって、ワードの前記シーケンスが対応するベクトルにより置換され、前記対応するベクトルがワードツーベクトルモデルを用いて初期化され、前記対応するベクトルが前記BiLSTM−シャムネットワークベース分類器システムのトレーニングの間、持続的に更新される、表すステップと、
あらゆる時間ステップにおける一つ若しくはそれ以上の「t」隠れ状態を生成するために、前記共通のベースネットワークの前記単独のBiLSTMレイヤへ、個々のワードのベクトル表示の前記シーケンスをインプットするステップであって、個々のワードの前記ベクトル表示は正順と逆順のうちの少なくとも一つにてインプットされる、インプットするステップと、
ベクトルのシーケンスを取得するために、前記共通のベースネットワークの前記時間分散高密度(TDD)レイヤを介して、前記単独のBiLSTMレイヤから取得されるアウトプットを処理するステップと、
ファイナルベクトルを形成するために、前記分類モデルのマックスプールレイヤを用いて、ベクトルの前記シーケンスの、ディメンジョンに関する最大値を取得するステップと、及び、
前記分類モデルのソフトレイヤにより、前記ファイナルベクトルに基づいて前記一つ若しくはそれ以上の問い合わせの少なくとも一つのターゲットクラスを決定して、前記決定されるターゲットクラスに基づいて前記一つ若しくはそれ以上の問い合わせへの応答を出力するステップと
であり、
平方根カルバックライブラ発散(KLD)損失関数がベクトルの前記シーケンスに適用されて前記分類モデルを最適化する。
更に、
前記BiLSTM−シャムネットワークベース分類器のトレーニングの間、問い合わせのセットに関連する一つ若しくはそれ以上のエラーを判別する命令であって、前記一つ若しくはそれ以上のエラーは、問い合わせの前記セットに対して決定される一つ若しくはそれ以上のターゲットクラスを含む、判別する命令と、
誤分類された問い合わせと問い合わせの対のセットを生成する命令と、及び、
ターゲットクラスを決定して一つ若しくはそれ以上の後続の問い合わせに対する応答を出力するために、一つ若しくはそれ以上の正しい対と共に、誤分類された問い合わせと問い合わせの対の前記セットを用いて、シャムモデルを繰り返しトレーニングする命令であって、前記共通のベースネットワークの一つ若しくはそれ以上の重みが、前記BiLSTM−シャムネットワークベース分類器のトレーニングの間、前記シャムモデル及び前記分類モデルにより共有される、トレーニングする命令と
を実行するように構成されていてもよい。
更に、
前記一つ若しくはそれ以上の重みを用いて、前記一つ若しくはそれ以上の問い合わせを前記シャムモデルを介して通過させることにより、複数の問い合わせ埋め込みを取得する命令と、
前記シャムモデルを最適化するために前記複数の問い合わせ埋め込みについて対照発散損失を適用する命令と、及び、
前記BiLSTM−シャムネットワークベース分類器システムの一つ若しくはそれ以上のパラメータを更新する命令と
を実行するように構成されていてもよい。一つの実施形態では、前記対照発散損失は、
前記複数の問い合わせ埋め込みの間のユークリッド距離を算出し、前記算出されたユークリッド距離に基づいて前記対照発散損失を計算することにより、
適用される。
双方向長短期メモリ(BiLSTM)−シャムネットワークベース分類器により、一つ若しくはそれ以上のハードウエアプロセッサを介して、一つ若しくはそれ以上のユーザの問い合わせを取得するステップであって、前記一つ若しくはそれ以上のユーザの問い合わせはワードのシーケンスで構成され、BiLSTM−シャムネットワークベース分類器システムはシャムモデル及び分類モデルを含み、シャムモデル及び分類モデルは、埋め込みレイヤ、単独のBiLSTMレイヤ、及び時間分散高密度(TDD)レイヤ含む、共通のベースネットワークを含む、取得するステップと、
繰り返して複数の所定のステップを実行するステップと
を行わせ、
前記複数の所定のステップは、
前記共通のベースネットワークの前記埋め込みレイヤで、ワードツーベクトルモデルを用いて学習される、個々のワードのベクトル表示のシーケンスとして前記一つ若しくはそれ以上のユーザの問い合わせを表すステップであって、ワードの前記シーケンスが対応するベクトルにより置換され、前記対応するベクトルがワードツーベクトルモデルを用いて初期化され、前記対応するベクトルが前記BiLSTM−シャムネットワークベース分類器システムのトレーニングの間、持続的に更新される、表すステップと、
あらゆる時間ステップにおける一つ若しくはそれ以上の「t」隠れ状態を生成するために、前記共通のベースネットワークの前記単独のBiLSTMレイヤへ、個々のワードのベクトル表示の前記シーケンスをインプットするステップであって、個々のワードの前記ベクトル表示は正順と逆順のうちの少なくとも一つにてインプットされる、インプットするステップと、
ベクトルのシーケンスを取得するために、前記共通のベースネットワークの前記時間分散高密度(TDD)レイヤを介して、前記単独のBiLSTMレイヤから取得されるアウトプットを処理するステップと、
ファイナルベクトルを形成するために、前記分類モデルのマックスプールレイヤを用いて、ベクトルの前記シーケンスの、ディメンジョンに関する最大値を取得するステップと、及び、
前記分類モデルのソフトレイヤにより、前記ファイナルベクトルに基づいて前記一つ若しくはそれ以上の問い合わせの少なくとも一つのターゲットクラスを決定して、前記決定されるターゲットクラスに基づいて前記一つ若しくはそれ以上の問い合わせへの応答を出力するステップと
であり、
平方根カルバックライブラ発散(KLD)損失関数がベクトルの前記シーケンスに適用されて前記分類モデルを最適化する。
更に、
前記BiLSTM−シャムネットワークベース分類器のトレーニングの間、問い合わせのセットに関連する一つ若しくはそれ以上のエラーを判別するステップであって、前記一つ若しくはそれ以上のエラーは、問い合わせの前記セットに対して決定される一つ若しくはそれ以上のターゲットクラスを含む、判別するステップと、
前記一つ若しくはそれ以上のエラーに基づいて、誤分類された問い合わせと問い合わせの対のセットを生成するステップと、及び、
ターゲットクラスを決定して一つ若しくはそれ以上の後続の問い合わせに対する応答を出力するために、一つ若しくはそれ以上の正しい対と共に、誤分類された問い合わせと問い合わせの対の前記セットを用いて、シャムモデルを繰り返しトレーニングするステップであって、前記ベースネットワークの一つ若しくはそれ以上の重みが、前記BiLSTM−シャムネットワークベース分類器のトレーニングの間、前記シャムモデル及び前記分類モデルにより共有される、トレーニングするステップと
を行わせてもよい。
更に、
前記一つ若しくはそれ以上の重みを用いて、前記一つ若しくはそれ以上の問い合わせを前記シャムモデルを介して通過させることにより、複数の問い合わせ埋め込みを取得するステップと、
前記シャムモデルを最適化するために前記複数の問い合わせ埋め込みについて対照発散損失を適用するステップと、及び、
前記BiLSTM−シャムネットワークベース分類器システムの一つ若しくはそれ以上のパラメータを更新するステップと
を行わせてもよい。一つの実施形態では、対照発散損失を適用する前記ステップは、
前記複数の問い合わせ埋め込みの間のユークリッド距離を算出するステップと、
前記算出されたユークリッド距離に基づいて前記対照発散損失を計算するステップと
を含む。
を本明細書に記載するが、開示する実施形態の精神及び範囲から乖離すること無く、修正、適合、及び他の実装が可能である。以下の詳細な説明は例示としてのみ考慮され、真の範囲及び精神は以下の特許請求の範囲により示されることが、意図されている。
i)問い合わせが、それらの小文字に変換された。システムは、このステップを行うことにより大文字と小文字とを区別しないものとされた。
ii)テキストからの特別な文字の除去。
iii)全ての略語を捕獲してそれらを実際の意味と置き換える。例えば、mlは出産休暇許可(maternity leave)と置き換え、smlは特別出産休暇許可(special maternity leave)と置き換える。
ストップワードの除去は無かった。テキストから或るワードを除去することは分類器のパフォーマンスの僅かな劣化に繋がることが観察され、よって、より良好な予測の正確性のためには全てのワードが要求される、との結論に到ったからである。
Claims (18)
- プロセッサ実装方法において、
双方向長短期メモリ(BiLSTM)−シャムネットワークベース分類器により、一つ若しくはそれ以上のハードウエアプロセッサを介して、一つ若しくはそれ以上のユーザの問い合わせを取得するステップであって、前記一つ若しくはそれ以上のユーザの問い合わせはワードのシーケンスで構成され、BiLSTM−シャムネットワークベース分類器はシャムモデル及び分類モデルを含み、シャムモデル及び分類モデルは、埋め込みレイヤ、単独のBiLSTMレイヤ、及び時間分散高密度(TDD)レイヤ含む、共通のベースネットワークを含む、取得するステップと、
繰り返して複数の所定のステップを実行するステップと
を含み、
前記複数の所定のステップは、
前記共通のベースネットワークの前記埋め込みレイヤで、ワードツーベクトルモデルを用いて学習される、個々のワードのベクトル表示のシーケンスとして前記一つ若しくはそれ以上のユーザの問い合わせを表すステップと、
あらゆる時間ステップにおける「t」隠れ状態を生成するために、前記共通のベースネットワークの前記単独のBiLSTMレイヤへ、個々のワードのベクトル表示の前記シーケンスをインプットするステップであって、個々のワードの前記ベクトル表示は正順と逆順のうちの少なくとも一つにてインプットされる、インプットするステップと、
ベクトルのシーケンスを取得するために、前記共通のベースネットワークの前記時間分散高密度(TDD)レイヤを介して、前記単独のBiLSTMレイヤから取得されるアウトプットを処理するステップと、
ファイナルベクトルを形成するために、前記分類モデルのマックスプールレイヤを用いて、ベクトルの前記シーケンスの、ディメンジョンに関する最大値を取得するステップと、及び、
前記分類モデルのソフトレイヤにより、前記ファイナルベクトルに基づいて前記一つ若しくはそれ以上の問い合わせの少なくとも一つのターゲットクラスを決定して、前記決定されるターゲットクラスに基づいて前記一つ若しくはそれ以上の問い合わせへの応答を出力するステップと
である、プロセッサ実装方法。 - 平方根カルバックライブラ発散(KLD)損失関数がベクトルの前記シーケンスに適用されて前記分類モデルを最適化する、請求項1に記載のプロセッサ実装方法。
- ワードの前記シーケンスが対応するベクトルにより置換され、前記対応するベクトルがワードツーベクトルモデルを用いて初期化され、前記対応するベクトルが前記BiLSTM−シャムネットワークベース分類器システムのトレーニングの間、持続的に更新される、請求項1に記載のプロセッサ実装方法。
- 更に、
前記BiLSTM−シャムネットワークベース分類器のトレーニングの間、問い合わせのセットに関連する一つ若しくはそれ以上のエラーを判別するステップであって、前記一つ若しくはそれ以上のエラーは、問い合わせの前記セットに対して決定される一つ若しくはそれ以上のターゲットクラスを含む、判別するステップと、
前記一つ若しくはそれ以上のエラーに基づいて、誤分類された問い合わせと問い合わせの対のセットを生成するステップと、及び、
ターゲットクラスを決定して一つ若しくはそれ以上の後続の問い合わせに対する応答を出力するために、一つ若しくはそれ以上の正しい対と共に、誤分類された問い合わせと問い合わせの対の前記セットを用いて、シャムモデルを繰り返しトレーニングするステップであって、前記共通のベースネットワークの一つ若しくはそれ以上の重みが、前記BiLSTM−シャムネットワークベース分類器のトレーニングの間、前記シャムモデル及び前記分類モデルにより共有される、トレーニングするステップと
を含む、請求項1に記載のプロセッサ実装方法。 - 更に、
前記一つ若しくはそれ以上の重みを用いて、前記一つ若しくはそれ以上の問い合わせを前記シャムモデルを介して通過させることにより、複数の問い合わせ埋め込みを取得するステップと、
前記シャムモデルを最適化するために前記複数の問い合わせ埋め込みについて対照発散損失を適用するステップと、及び、
前記BiLSTM−シャムネットワークベース分類器システムの一つ若しくはそれ以上のパラメータを更新するステップと
を含む、請求項4に記載のプロセッサ実装方法。 - 対照発散損失を適用する前記ステップは、
前記複数の問い合わせ埋め込みの間のユークリッド距離を算出するステップと、
前記算出されたユークリッド距離に基づいて前記対照発散損失を計算するステップと
を含む、請求項5に記載のプロセッサ実装方法。 - 双方向長短期メモリ(BiLSTM)−シャムネットワークベース分類器システムにおいて、
命令を格納するメモリと、
一つ若しくはそれ以上の通信インタフェースと、及び、
前記一つ若しくはそれ以上の通信インタフェースを介して前記メモリと結合する一つ若しくはそれ以上のハードウエアプロセッサと
を含み、
前記一つ若しくはそれ以上のハードウエアプロセッサは、
双方向長短期メモリ(BiLSTM)−シャムネットワークベース分類器により、一つ若しくはそれ以上のハードウエアプロセッサを介して、一つ若しくはそれ以上のユーザの問い合わせを取得する命令であって、前記一つ若しくはそれ以上のユーザの問い合わせはワードのシーケンスで構成され、BiLSTM−シャムネットワークベース分類器はシャムモデル及び分類モデルを含み、シャムモデル及び分類モデルは、埋め込みレイヤ、単独のBiLSTMレイヤ、及び時間分散高密度(TDD)レイヤ含む、共通のベースネットワークを含む、取得する命令と、
繰り返して複数の所定のステップを実行する命令と
を実行するように構成されており、
前記複数の所定のステップは、
前記共通のベースネットワークの前記埋め込みレイヤで、ワードツーベクトルモデルを用いて学習される、個々のワードのベクトル表示のシーケンスとして前記一つ若しくはそれ以上のユーザの問い合わせを表すステップと、
あらゆる時間ステップにおける「t」隠れ状態を生成するために、前記共通のベースネットワークの前記単独のBiLSTMレイヤへ、個々のワードのベクトル表示の前記シーケンスをインプットするステップであって、個々のワードの前記ベクトル表示は正順と逆順のうちの少なくとも一つにてインプットされる、インプットするステップと、
ベクトルのシーケンスを取得するために、前記共通のベースネットワークの前記時間分散高密度(TDD)レイヤを介して、前記単独のBiLSTMレイヤから取得されるアウトプットを処理するステップと、
ファイナルベクトルを形成するために、前記分類モデルのマックスプールレイヤを用いて、ベクトルの前記シーケンスの、ディメンジョンに関する最大値を取得するステップと、及び、
前記分類モデルのソフトレイヤにより、前記ファイナルベクトルに基づいて前記一つ若しくはそれ以上の問い合わせの少なくとも一つのターゲットクラスを決定して、前記決定されるターゲットクラスに基づいて前記一つ若しくはそれ以上の問い合わせへの応答を出力するステップと
である、BiLSTM−シャムネットワークベース分類器システム。 - 平方根カルバックライブラ発散(KLD)損失関数がベクトルの前記シーケンスに適用されて前記分類モデルを最適化する、請求項7に記載のBiLSTM−シャムネットワークベース分類器システム。
- ワードの前記シーケンスが対応するベクトルにより置換され、前記対応するベクトルがワードツーベクトルモデルを用いて初期化され、前記対応するベクトルが前記BiLSTM−シャムネットワークベース分類器システムのトレーニングの間、持続的に更新される、請求項7に記載のBiLSTM−シャムネットワークベース分類器システム。
- 前記一つ若しくはそれ以上のハードウエアプロセッサは、
更に、
前記BiLSTM−シャムネットワークベース分類器のトレーニングの間、問い合わせのセットに関連する一つ若しくはそれ以上のエラーを判別する命令であって、前記一つ若しくはそれ以上のエラーは、問い合わせの前記セットに対して決定される一つ若しくはそれ以上のターゲットクラスを含む、判別する命令と、
誤分類された問い合わせと問い合わせの対のセットを生成する命令と、及び、
ターゲットクラスを決定して一つ若しくはそれ以上の後続の問い合わせに対する応答を出力するために、一つ若しくはそれ以上の正しい対と共に、誤分類された問い合わせと問い合わせの対の前記セットを用いて、シャムモデルを繰り返しトレーニングする命令であって、前記共通のベースネットワークの一つ若しくはそれ以上の重みが、前記BiLSTM−シャムネットワークベース分類器のトレーニングの間、前記シャムモデル及び前記分類モデルにより共有される、トレーニングする命令と
を実行するように構成されている、請求項7に記載のBiLSTM−シャムネットワークベース分類器システム。 - 前記一つ若しくはそれ以上のハードウエアプロセッサは、
更に、
前記一つ若しくはそれ以上の重みを用いて、前記一つ若しくはそれ以上の問い合わせを前記シャムモデルを介して通過させることにより、複数の問い合わせ埋め込みを取得する命令と、
前記シャムモデルを最適化するために前記複数の問い合わせ埋め込みについて対照発散損失を適用する命令と、及び、
前記BiLSTM−シャムネットワークベース分類器システムの一つ若しくはそれ以上のパラメータを更新する命令と
を実行するように構成されている、請求項10に記載のBiLSTM−シャムネットワークベース分類器システム。 - 前記対照発散損失は、
前記複数の問い合わせ埋め込みの間のユークリッド距離を算出し、前記算出されたユークリッド距離に基づいて前記対照発散損失を計算することにより、
計算される、請求項11に記載のBiLSTM−シャムネットワークベース分類器システム。 - 一つ若しくはそれ以上のハードウエアプロセッサにより実行されるとき、該一つ若しくはそれ以上のハードウエアプロセッサに対して、
双方向長短期メモリ(BiLSTM)−シャムネットワークベース分類器により、一つ若しくはそれ以上のハードウエアプロセッサを介して、一つ若しくはそれ以上のユーザの問い合わせを取得するステップであって、前記一つ若しくはそれ以上のユーザの問い合わせはワードのシーケンスで構成され、BiLSTM−シャムネットワークベース分類器はシャムモデル及び分類モデルを含み、シャムモデル及び分類モデルは、埋め込みレイヤ、単独のBiLSTMレイヤ、及び時間分散高密度(TDD)レイヤ含む、共通のベースネットワークを含む、取得するステップと、
繰り返して複数の所定のステップを実行するステップと
を行わせる、一つ若しくはそれ以上の命令を格納する、一つ若しくはそれ以上の持続性機械読み取り可能情報記憶媒体において、
前記複数の所定のステップは、
前記共通のベースネットワークの前記埋め込みレイヤで、ワードツーベクトルモデルを用いて学習される、個々のワードのベクトル表示のシーケンスとして前記一つ若しくはそれ以上のユーザの問い合わせを表すステップと、
あらゆる時間ステップにおける「t」隠れ状態を生成するために、前記共通のベースネットワークの前記単独のBiLSTMレイヤへ、個々のワードのベクトル表示の前記シーケンスをインプットするステップであって、個々のワードの前記ベクトル表示は正順と逆順のうちの少なくとも一つにてインプットされる、インプットするステップと、
ベクトルのシーケンスを取得するために、前記共通のベースネットワークの前記時間分散高密度(TDD)レイヤを介して、前記単独のBiLSTMレイヤから取得されるアウトプットを処理するステップと、
ファイナルベクトルを形成するために、前記分類モデルのマックスプールレイヤを用いて、ベクトルの前記シーケンスの、ディメンジョンに関する最大値を取得するステップと、及び、
前記分類モデルのソフトレイヤにより、前記ファイナルベクトルに基づいて前記一つ若しくはそれ以上の問い合わせの少なくとも一つのターゲットクラスを決定して、前記決定されるターゲットクラスに基づいて前記一つ若しくはそれ以上の問い合わせへの応答を出力するステップと
である、一つ若しくはそれ以上の持続性機械読み取り可能情報記憶媒体。 - 平方根カルバックライブラ発散(KLD)損失関数がベクトルの前記シーケンスに適用されて前記分類モデルを最適化する、請求項13に記載の一つ若しくはそれ以上の持続性機械読み取り可能情報記憶媒体。
- ワードの前記シーケンスが対応するベクトルにより置換され、前記対応するベクトルがワードツーベクトルモデルを用いて初期化され、前記対応するベクトルが前記BiLSTM−シャムネットワークベース分類器システムのトレーニングの間、持続的に更新される、請求項13に記載の一つ若しくはそれ以上の持続性機械読み取り可能情報記憶媒体。
- 一つ若しくはそれ以上のハードウエアプロセッサにより実行されるとき、前記一つ若しくはそれ以上の命令は、該一つ若しくはそれ以上のハードウエアプロセッサに対して、
更に、
前記BiLSTM−シャムネットワークベース分類器のトレーニングの間、問い合わせのセットに関連する一つ若しくはそれ以上のエラーを判別するステップであって、前記一つ若しくはそれ以上のエラーは、問い合わせの前記セットに対して決定される一つ若しくはそれ以上のターゲットクラスを含む、判別するステップと、
前記一つ若しくはそれ以上のエラーに基づいて、誤分類された問い合わせと問い合わせの対のセットを生成するステップと、及び、
ターゲットクラスを決定して一つ若しくはそれ以上の後続の問い合わせに対する応答を出力するために、一つ若しくはそれ以上の正しい対と共に、誤分類された問い合わせと問い合わせの対の前記セットを用いて、シャムモデルを繰り返しトレーニングするステップであって、前記共通のベースネットワークの一つ若しくはそれ以上の重みが、前記BiLSTM−シャムネットワークベース分類器のトレーニングの間、前記シャムモデル及び前記分類モデルにより共有される、トレーニングするステップと
を行わせる、請求項13に記載の一つ若しくはそれ以上の持続性機械読み取り可能情報記憶媒体。 - 一つ若しくはそれ以上のハードウエアプロセッサにより実行されるとき、前記一つ若しくはそれ以上の命令は、該一つ若しくはそれ以上のハードウエアプロセッサに対して、
更に、
前記一つ若しくはそれ以上の重みを用いて、前記一つ若しくはそれ以上の問い合わせを前記シャムモデルを介して通過させることにより、複数の問い合わせ埋め込みを取得するステップと、
前記シャムモデルを最適化するために前記複数の問い合わせ埋め込みについて対照発散損失を適用するステップと、及び、
前記BiLSTM−シャムネットワークベース分類器システムの一つ若しくはそれ以上のパラメータを更新するステップと
を行わせる、請求項16に記載の一つ若しくはそれ以上の持続性機械読み取り可能情報記憶媒体。 - 対照発散損失を適用する前記ステップは、
前記複数の問い合わせ埋め込みの間のユークリッド距離を算出するステップと、
前記算出されたユークリッド距離に基づいて前記対照発散損失を計算するステップと
を含む、請求項16に記載の一つ若しくはそれ以上の持続性機械読み取り可能情報記憶媒体。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
IN201721032101 | 2017-09-11 | ||
IN201721032101 | 2017-09-11 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019049957A true JP2019049957A (ja) | 2019-03-28 |
JP6689902B2 JP6689902B2 (ja) | 2020-04-28 |
Family
ID=61683556
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018041710A Active JP6689902B2 (ja) | 2017-09-11 | 2018-03-08 | 問い合わせのターゲットクラスを特定しそれらの応答を提供するBiLSTM−シャムネットワークベース分類器 |
Country Status (7)
Country | Link |
---|---|
US (1) | US11836638B2 (ja) |
EP (1) | EP3454260A1 (ja) |
JP (1) | JP6689902B2 (ja) |
AU (1) | AU2018201670B2 (ja) |
BR (1) | BR102018004799A2 (ja) |
CA (1) | CA2997797C (ja) |
MX (1) | MX2018002974A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7431977B2 (ja) | 2020-05-25 | 2024-02-15 | ▲騰▼▲訊▼科技(深▲セン▼)有限公司 | 対話モデルの訓練方法、装置、コンピュータ機器及びプログラム |
Families Citing this family (65)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10386800B2 (en) * | 2015-02-24 | 2019-08-20 | Siemens Industry, Inc. | Variable air volume modeling for an HVAC system |
CN108052577B (zh) * | 2017-12-08 | 2022-06-14 | 北京百度网讯科技有限公司 | 一种通用文本内容挖掘方法、装置、服务器及存储介质 |
US11423143B1 (en) | 2017-12-21 | 2022-08-23 | Exabeam, Inc. | Anomaly detection based on processes executed within a network |
JP6969443B2 (ja) * | 2018-02-27 | 2021-11-24 | 日本電信電話株式会社 | 学習品質推定装置、方法、及びプログラム |
US11422996B1 (en) * | 2018-04-26 | 2022-08-23 | Snap Inc. | Joint embedding content neural networks |
US11431741B1 (en) * | 2018-05-16 | 2022-08-30 | Exabeam, Inc. | Detecting unmanaged and unauthorized assets in an information technology network with a recurrent neural network that identifies anomalously-named assets |
US11315164B2 (en) * | 2018-05-18 | 2022-04-26 | Target Brands, Inc. | Complementary product recommendation systems |
US11086911B2 (en) * | 2018-07-31 | 2021-08-10 | Wipro Limited | Method and system for generating question variations to user input |
US11625573B2 (en) * | 2018-10-29 | 2023-04-11 | International Business Machines Corporation | Relation extraction from text using machine learning |
US10983971B2 (en) * | 2018-11-28 | 2021-04-20 | Intuit Inc. | Detecting duplicated questions using reverse gradient adversarial domain adaptation |
US10867338B2 (en) * | 2019-01-22 | 2020-12-15 | Capital One Services, Llc | Offering automobile recommendations from generic features learned from natural language inputs |
AU2020272235A1 (en) * | 2019-04-12 | 2021-11-04 | Incyzr Pty. Ltd. | Methods, systems and computer program products for implementing neural network based optimization of database search functionality |
CN110046240B (zh) * | 2019-04-16 | 2020-12-08 | 浙江爱闻格环保科技有限公司 | 结合关键词检索与孪生神经网络的目标领域问答推送方法 |
CN110046244B (zh) * | 2019-04-24 | 2021-06-08 | 中国人民解放军国防科技大学 | 一种用于问答系统的答案选择方法 |
US10489474B1 (en) | 2019-04-30 | 2019-11-26 | Capital One Services, Llc | Techniques to leverage machine learning for search engine optimization |
US10565639B1 (en) | 2019-05-02 | 2020-02-18 | Capital One Services, Llc | Techniques to facilitate online commerce by leveraging user activity |
US11580392B2 (en) * | 2019-05-30 | 2023-02-14 | Samsung Electronics Co., Ltd. | Apparatus for deep representation learning and method thereof |
US11625366B1 (en) | 2019-06-04 | 2023-04-11 | Exabeam, Inc. | System, method, and computer program for automatic parser creation |
CN110457471A (zh) * | 2019-07-15 | 2019-11-15 | 平安科技(深圳)有限公司 | 基于A-BiLSTM神经网络的文本分类方法和装置 |
CN111008529B (zh) * | 2019-07-24 | 2023-07-21 | 贵州大学 | 一种基于神经网络的中文关系抽取方法 |
CN110457478B (zh) * | 2019-08-09 | 2022-07-26 | 泰康保险集团股份有限公司 | 文本合规性检查方法及装置、电子设备和计算机可读介质 |
US11232110B2 (en) | 2019-08-23 | 2022-01-25 | Capital One Services, Llc | Natural language keyword tag extraction |
CN110543558B (zh) * | 2019-09-06 | 2023-01-17 | 北京百度网讯科技有限公司 | 问题匹配方法、装置、设备和介质 |
US20210089892A1 (en) * | 2019-09-24 | 2021-03-25 | Schlumberger Technology Corporation | Machine learning based approach to detect well analogue |
CN110781680B (zh) * | 2019-10-17 | 2023-04-18 | 江南大学 | 基于孪生网络和多头注意力机制的语义相似度匹配方法 |
CN110825860B (zh) * | 2019-10-24 | 2022-08-23 | 厦门快商通科技股份有限公司 | 知识库问答抽取方法、系统、移动终端及存储介质 |
CN110826338B (zh) * | 2019-10-28 | 2022-06-17 | 桂林电子科技大学 | 一种单选择门与类间度量的细粒度语义相似识别的方法 |
US11379220B2 (en) * | 2019-11-25 | 2022-07-05 | International Business Machines Corporation | Vector embedding of relational code sets |
CN111090985B (zh) * | 2019-11-28 | 2023-04-28 | 华中师范大学 | 一种基于siamese网络和多核心LEAM架构的中文文本难度评估方法 |
CN111026853B (zh) * | 2019-12-02 | 2023-10-27 | 支付宝(杭州)信息技术有限公司 | 目标问题的确定方法、装置、服务器和客服机器人 |
CN111026848B (zh) * | 2019-12-17 | 2022-08-02 | 电子科技大学 | 一种基于相似上下文和强化学习的中文词向量生成方法 |
US10796355B1 (en) | 2019-12-27 | 2020-10-06 | Capital One Services, Llc | Personalized car recommendations based on customer web traffic |
CN111144370B (zh) * | 2019-12-31 | 2023-08-04 | 科大讯飞华南人工智能研究院(广州)有限公司 | 单据要素抽取方法、装置、设备及存储介质 |
CN111241244A (zh) * | 2020-01-14 | 2020-06-05 | 平安科技(深圳)有限公司 | 基于大数据的答案位置获取方法、装置、设备及介质 |
WO2021142532A1 (en) * | 2020-01-14 | 2021-07-22 | Halterix Corporation | Activity recognition with deep embeddings |
CN111274820B (zh) * | 2020-02-20 | 2023-04-07 | 齐鲁工业大学 | 一种基于神经网络的智能医疗命名实体识别方法和装置 |
CN111325278B (zh) * | 2020-02-26 | 2023-08-29 | 重庆金山医疗技术研究院有限公司 | 一种图像处理方法、装置及存储介质 |
CN111651992A (zh) * | 2020-04-24 | 2020-09-11 | 平安科技(深圳)有限公司 | 命名实体标注方法、装置、计算机设备和存储介质 |
EP3910493A1 (en) | 2020-05-12 | 2021-11-17 | PayPal, Inc. | Systems and methods for determining a response to a user query |
CN111652000B (zh) * | 2020-05-22 | 2023-04-07 | 重庆大学 | 一种语句相似度判断方法及判断系统 |
CN111507089B (zh) * | 2020-06-09 | 2022-09-09 | 平安科技(深圳)有限公司 | 基于深度学习模型的文献分类方法、装置和计算机设备 |
US11956253B1 (en) | 2020-06-15 | 2024-04-09 | Exabeam, Inc. | Ranking cybersecurity alerts from multiple sources using machine learning |
US11302327B2 (en) * | 2020-06-22 | 2022-04-12 | Bank Of America Corporation | Priori knowledge, canonical data forms, and preliminary entrentropy reduction for IVR |
EP4183113A1 (en) * | 2020-08-06 | 2023-05-24 | Huawei Technologies Co., Ltd. | Network management device and method for mapping network devices from various telecom vendors |
CN111949530B (zh) * | 2020-08-07 | 2024-02-20 | 北京灵汐科技有限公司 | 测试结果的预测方法、装置、计算机设备及存储介质 |
CN111985231B (zh) * | 2020-08-07 | 2023-12-26 | 中移(杭州)信息技术有限公司 | 无监督角色识别方法、装置、电子设备及存储介质 |
CN112100344B (zh) * | 2020-08-18 | 2024-02-27 | 淮阴工学院 | 一种基于知识图谱的金融领域知识问答方法 |
CN112015439B (zh) * | 2020-09-21 | 2024-01-12 | 北京百度网讯科技有限公司 | 用户app兴趣的嵌入方法、装置、设备以及存储介质 |
CN112308148A (zh) * | 2020-11-02 | 2021-02-02 | 创新奇智(青岛)科技有限公司 | 缺陷类别识别、孪生神经网络训练方法、装置及存储介质 |
CN112231537A (zh) * | 2020-11-09 | 2021-01-15 | 张印祺 | 基于深度学习和网络爬虫的智能阅读系统 |
CN112445689B (zh) * | 2020-11-27 | 2023-01-24 | 广州三七互娱科技有限公司 | 用户分类方法、装置及电子设备 |
CN112818119B (zh) * | 2021-01-26 | 2022-12-02 | 支付宝(杭州)信息技术有限公司 | 一种信息的处理方法、装置及设备 |
CN112948580B (zh) * | 2021-02-04 | 2023-05-12 | 支付宝(杭州)信息技术有限公司 | 一种文本分类的方法和系统 |
CN112801221B (zh) * | 2021-03-24 | 2023-12-22 | 平安科技(深圳)有限公司 | 一种数据分类方法、装置、设备及存储介质 |
CN113242547B (zh) * | 2021-04-02 | 2022-10-04 | 浙江大学 | 一种基于深度学习的无线信号中用户行为隐私的滤除方法、系统及无线信号收发装置 |
WO2022268335A1 (en) * | 2021-06-25 | 2022-12-29 | Huawei Technologies Co., Ltd. | Method and apparatus for interpreting phrases from users |
CN113851190B (zh) * | 2021-11-01 | 2023-07-21 | 四川大学华西医院 | 一种异种mRNA序列优化方法 |
CN114282646B (zh) * | 2021-11-29 | 2023-08-25 | 淮阴工学院 | 基于两阶段特征提取和改进BiLSTM的光功率预测方法及系统 |
US20230186351A1 (en) * | 2021-12-09 | 2023-06-15 | Convosight Analytics Inc | Transformer Based Search Engine with Controlled Recall for Romanized Multilingual Corpus |
CN114595687B (zh) * | 2021-12-20 | 2024-04-19 | 昆明理工大学 | 基于BiLSTM的老挝语文本正则化方法 |
CN114021574B (zh) * | 2022-01-05 | 2022-05-17 | 杭州实在智能科技有限公司 | 政策文件智能解析与结构化方法及系统 |
CN114166858B (zh) * | 2022-02-11 | 2022-04-12 | 海门市芳华纺织有限公司 | 基于人工智能的纺织毛刷辊划伤皮革区域检测方法 |
US11928854B2 (en) * | 2022-05-06 | 2024-03-12 | Google Llc | Open-vocabulary object detection in images |
US11860917B1 (en) * | 2022-08-30 | 2024-01-02 | Accenture Global Solutions Limited | Catalog adoption in procurement |
CN117291314B (zh) * | 2023-11-24 | 2024-03-05 | 山东理工昊明新能源有限公司 | 能源风险识别模型的构建方法、能源风险识别方法及装置 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4504441B2 (ja) * | 2008-06-27 | 2010-07-14 | 株式会社トヨタIt開発センター | 経路探索装置および経路探索方法 |
US20110131205A1 (en) * | 2009-11-28 | 2011-06-02 | Yahoo! Inc. | System and method to identify context-dependent term importance of queries for predicting relevant search advertisements |
WO2017212459A1 (en) * | 2016-06-09 | 2017-12-14 | Sentient Technologies (Barbados) Limited | Content embedding using deep metric learning algorithms |
US10268646B2 (en) * | 2017-06-06 | 2019-04-23 | Facebook, Inc. | Tensor-based deep relevance model for search on online social networks |
US10609286B2 (en) * | 2017-06-13 | 2020-03-31 | Adobe Inc. | Extrapolating lighting conditions from a single digital image |
US20190043486A1 (en) * | 2017-08-04 | 2019-02-07 | EMR.AI Inc. | Method to aid transcribing a dictated to written structured report |
-
2018
- 2018-02-27 EP EP18158730.4A patent/EP3454260A1/en active Pending
- 2018-03-05 US US15/912,382 patent/US11836638B2/en active Active
- 2018-03-07 CA CA2997797A patent/CA2997797C/en active Active
- 2018-03-07 AU AU2018201670A patent/AU2018201670B2/en active Active
- 2018-03-08 JP JP2018041710A patent/JP6689902B2/ja active Active
- 2018-03-09 BR BR102018004799-0A patent/BR102018004799A2/pt unknown
- 2018-03-09 MX MX2018002974A patent/MX2018002974A/es unknown
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7431977B2 (ja) | 2020-05-25 | 2024-02-15 | ▲騰▼▲訊▼科技(深▲セン▼)有限公司 | 対話モデルの訓練方法、装置、コンピュータ機器及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
CA2997797A1 (en) | 2019-03-11 |
US11836638B2 (en) | 2023-12-05 |
AU2018201670B2 (en) | 2020-03-26 |
US20190080225A1 (en) | 2019-03-14 |
JP6689902B2 (ja) | 2020-04-28 |
BR102018004799A2 (pt) | 2019-03-26 |
EP3454260A1 (en) | 2019-03-13 |
AU2018201670A1 (en) | 2019-03-28 |
CA2997797C (en) | 2019-12-03 |
MX2018002974A (es) | 2019-03-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6689902B2 (ja) | 問い合わせのターゲットクラスを特定しそれらの応答を提供するBiLSTM−シャムネットワークベース分類器 | |
US11922308B2 (en) | Generating neighborhood convolutions within a large network | |
Lakshmanan et al. | Machine learning design patterns | |
US10534863B2 (en) | Systems and methods for automatic semantic token tagging | |
US11816439B2 (en) | Multi-turn dialogue response generation with template generation | |
EP3711031A1 (en) | Analyzing spatially-sparse data based on submanifold sparse convolutional neural networks | |
US11551026B2 (en) | Dynamic reconfiguration training computer architecture | |
US11775770B2 (en) | Adversarial bootstrapping for multi-turn dialogue model training | |
CA3049051C (en) | Resolving abstract anaphoric references in conversational systems using hierarchically stacked neural networks | |
US20220391433A1 (en) | Scene graph embeddings using relative similarity supervision | |
US20190228297A1 (en) | Artificial Intelligence Modelling Engine | |
Dey et al. | Deep-n-Cheap: An automated efficient and extensible search framework for cost-effective deep learning | |
US11829735B2 (en) | Artificial intelligence (AI) framework to identify object-relational mapping issues in real-time | |
KR102359662B1 (ko) | 트렌드에 기초하여 대화의도를 추출하는 방법 | |
US20230018525A1 (en) | Artificial Intelligence (AI) Framework to Identify Object-Relational Mapping Issues in Real-Time | |
US20240013066A1 (en) | Multi-stage knowledge graph construction using models | |
Vanarase | CLAN: Communities in Lexical Associative Networks | |
Li et al. | Incremental hybrid Bayesian network in content-based image retrieval | |
Deb | Emergence Phenomenon Could Be Applied in Meaningful Image Segmentation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180308 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190521 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20190819 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191017 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200310 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200408 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6689902 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |