JP2019079034A - 自己学習自然言語理解を伴うダイアログ・システム - Google Patents
自己学習自然言語理解を伴うダイアログ・システム Download PDFInfo
- Publication number
- JP2019079034A JP2019079034A JP2018162200A JP2018162200A JP2019079034A JP 2019079034 A JP2019079034 A JP 2019079034A JP 2018162200 A JP2018162200 A JP 2018162200A JP 2018162200 A JP2018162200 A JP 2018162200A JP 2019079034 A JP2019079034 A JP 2019079034A
- Authority
- JP
- Japan
- Prior art keywords
- dialog
- nlu
- user
- model
- feedback
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 claims description 173
- 230000009471 action Effects 0.000 claims description 169
- 230000008569 process Effects 0.000 claims description 75
- 238000012549 training Methods 0.000 claims description 74
- 238000004422 calculation algorithm Methods 0.000 claims description 53
- 230000004044 response Effects 0.000 claims description 44
- 238000012790 confirmation Methods 0.000 claims description 41
- 238000012360 testing method Methods 0.000 claims description 22
- 230000015556 catabolic process Effects 0.000 claims description 14
- 238000006731 degradation reaction Methods 0.000 claims description 14
- 238000013528 artificial neural network Methods 0.000 claims description 12
- 230000000306 recurrent effect Effects 0.000 claims description 8
- 238000002372 labelling Methods 0.000 claims description 7
- 238000010801 machine learning Methods 0.000 claims description 6
- 230000005236 sound signal Effects 0.000 abstract description 2
- 235000013305 food Nutrition 0.000 description 39
- 230000000694 effects Effects 0.000 description 29
- 239000013598 vector Substances 0.000 description 17
- 230000006399 behavior Effects 0.000 description 16
- 230000006870 function Effects 0.000 description 13
- 241001672694 Citrus reticulata Species 0.000 description 12
- 238000006243 chemical reaction Methods 0.000 description 11
- 238000004364 calculation method Methods 0.000 description 9
- 230000015654 memory Effects 0.000 description 9
- 230000015572 biosynthetic process Effects 0.000 description 8
- 238000003786 synthesis reaction Methods 0.000 description 8
- 238000004891 communication Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 7
- 230000006866 deterioration Effects 0.000 description 5
- 230000007704 transition Effects 0.000 description 5
- 238000001514 detection method Methods 0.000 description 4
- 230000033001 locomotion Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 239000007787 solid Substances 0.000 description 4
- 230000009466 transformation Effects 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 238000007635 classification algorithm Methods 0.000 description 3
- 238000004590 computer program Methods 0.000 description 3
- 230000014509 gene expression Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 2
- 230000001186 cumulative effect Effects 0.000 description 2
- 230000006378 damage Effects 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 235000013580 sausages Nutrition 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 241000282412 Homo Species 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 239000000969 carrier Substances 0.000 description 1
- 230000010485 coping Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000002996 emotional effect Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 238000012048 forced swim test Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 238000007477 logistic regression Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000007670 refining Methods 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000026676 system process Effects 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
- 210000003462 vein Anatomy 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3344—Query execution using natural language analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3346—Query execution using probabilistic model
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/08—Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
- G10L15/30—Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/10—Machine learning using kernel methods, e.g. support vector machines [SVM]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
- G06N7/01—Probabilistic graphical models, e.g. probabilistic networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/065—Adaptation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
- G10L2015/0635—Training updating or merging of old and new templates; Mean values; Weighting
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L2015/081—Search algorithms, e.g. Baum-Welch or Viterbi
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/225—Feedback of the input speech
Abstract
Description
− ユーザ履歴から特定されたダイアログの頻度(それがより頻繁である場合には、このユーザの確信性はより高くなるであろう)
− その他のユーザとの間でのユーザ・フィードバックの整合性(ユーザ・フィードバックのうちのほとんどが、その他のユーザとは異なる場合には、このユーザの確信性は低くなる)
− 個々のユーザに関するユーザ・フィードバックの整合性(ユーザ・フィードバックが前の確認ダイアログに対して整合していない場合には、このユーザの確信性は低くなる)
− ユーザ発話上のパラ言語情報(ユーザ・スピーチ上のパラ言語情報、たとえば、調子、声量、無音区間が異常として分類される場合には、このユーザの確信性は低くなる)
− その他のフィードバックとの間でのフィードバックの整合性(着目されているフィードバックが、その他のフィードバックのうちのほとんどとの間で不整合である場合には、このタプルの確信性はより低くなるであろう)
Claims (20)
- ユーザ入力を受け取るためのテキスト入力方法およびサーバと通信するように構成されている第1の自然言語理解(NLU)モデルと共に構成され、前記ユーザ入力は、前記ユーザによってタイプされたテキスト入力またはユーザ・スピーチから入手された自動スピーチ認識(ASR)出力のうちの少なくとも1つを含む、クライアント・デバイスと、第2のNLUモデルを含むサーバとを含むダイアログ・システムのための方法であって、前記第1のNLUモデルと前記第2のNLUモデルとが異なり、前記方法が、
前記第1のNLUモデルを適用することから前記クライアント・デバイスにおける入力ダイアログのNLU結果を特定するステップと、
前記第1のNLUモデルを適用することから入手された前記NLU結果の確信性スコアがしきい値を満たしていない場合、前記入力ダイアログ上で前記第2のNLUモデルを使用することによってNLUプロセスを実行するために前記サーバにアクセスすることを前記クライアント・デバイスに行わせるステップと、
前記第1のNLUモデルを適用することから入手された前記NLU結果の前記確信性スコアが前記しきい値を満たしている場合、前記第1のNLUモデルを適用することから入手された前記NLU結果に基づくアクションを前記クライアント・デバイスに実行させるステップとを含む方法。 - 前記NLUプロセスを実行するために前記サーバにアクセスすることを前記クライアント・デバイスに行わせる前記ステップは、前記第1のNLUモデルを適用することによって入手された前記NLU結果が、前記入力ダイアログ内のワードの数が別のしきい値を下回っていることから導き出されており、かつ前記NLU結果が、前記入力ダイアログのダイアログ状態において予想されるNLU出力の数よりも少ない場合に関してのみ実施され、予想される前記NLU出力が、前記入力ダイアログに関連付けられているダイアログ・シナリオから特定される、請求項1に記載の方法。
- 矛盾を探して、前記クライアント・デバイスの前記NLU結果におけるダイアログ行為を、前記サーバのNLU結果において入手されたダイアログ行為と比較するステップと、
比較する前記ステップが矛盾を示している場合、より低い確信性スコアを有する矛盾しているダイアログ行為を破棄するステップと
をさらに含む、請求項1に記載の方法。 - 第1のしきい値よりも高い確信性スコアを有している前記クライアント・デバイスの前記NLU結果を採用するステップと、
前記NLU結果が、前記第1のしきい値よりも低い確信性スコア、および第2のしきい値よりも高い確信性スコアを有している場合、前記NLU結果を確認するための確認ダイアログを実施するステップと、
前記NLU結果が、前記第2のしきい値よりも低い確信性スコアを有している場合、前記NLU結果を破棄するステップと
をさらに含む、請求項1に記載の方法。 - 前記確認、前記採用、および前記破棄が、
前記NLU結果のダイアログ行為がセマンティック空間から得られたかどうか、
前記ダイアログ行為が前記サーバから入手されたかどうか、
前記ダイアログ行為とフレーズとのペアが、ダイアログ行為/チャンク情報から参照される真の固定フラグに関連付けられているかどうか、のうちの少なくとも1つに基づいて行われる、請求項4に記載の方法。 - 前記確認ダイアログを実施する前記ステップが、
抽出されたダイアログ行為が正しいかどうかをクエリするステップと、
それに応答してフィードバック・タプルを作成するステップであって、
前記抽出されたダイアログ行為が正しいという前記クエリに応答して、前記ダイアログ行為と、対応するフレーズとを含むペアを肯定的なフィードバックに関連付けるステップと、
前記抽出されたダイアログ行為が正しくないという前記クエリに応答して、前記ダイアログ行為と前記対応するフレーズとの前記ペアを否定的なフィードバックに関連付けるステップとを含む、ステップと、
前記フィードバック・タプルを利用して、ダイアログ行為/チャンク情報を更新するステップであって、
前記肯定的なフィードバックに関連付けられている前記フィードバック・タプルに関して、前記ダイアログ行為/チャンク情報内の肯定的なフィードバック値をインクリメントするステップと、
否定的なフィードバックに関連付けられている前記フィードバック・タプルに関して、前記ダイアログ行為/チャンク情報内の否定的なフィードバック値をインクリメントするステップとを含む、ステップと、
ダイアログ行為/チャンク・ペアに関して偽であることを示す固定フラグに関して、前記ダイアログ行為/チャンク・ペアの関連性値を、前記否定的なフィードバック値に対する前記肯定的なフィードバック値の比率として計算するステップとを含む、請求項4に記載の方法。 - 前記NLU結果を確認するための前記確認ダイアログを実施する前記ステップが、
別のしきい値を下回る確信性スコアを有する確認応答に関して、前記サーバ内の前記第2のNLUモデルを適用することによって前記確認応答に関して前記NLUプロセスを実行するよう前記クライアント・デバイスから前記サーバへ要求するステップを含む、請求項6に記載の方法。 - 前記NLU結果を確認するための前記確認ダイアログを実施する前記ステップが、
前記クライアントおよび前記サーバのうちの少なくとも1つから、前記確認ダイアログへの応答に基づいて確信性スコアを評価するステップを含み、
前記肯定的なフィードバックおよび前記否定的なフィードバックの前記インクリメントの値が、前記確信性スコアに基づいて特定される、請求項6に記載の方法。 - 前記サーバにおいて、前記クライアント・デバイスからのフィードバックを収集するステップと、
前記サーバにおいて、NLU更新情報を生成するステップと、
前記NLU更新情報を前記クライアント・デバイスに提供するステップと、
前記NLU情報から前記第1のNLUモデルを更新するステップとをさらに含み、更新する前記ステップが、
更新する前記ステップを前記クライアント・デバイスにおいて実行し、それによって、前記第1のNLUモデルに対する矛盾しているNLU更新をチェックすること、および前記NLU更新情報を適用することからのテスト・データ上でのNLU精度をチェックすることのうちの少なくとも1つを通じて前記精度の劣化が防止されるステップを含む、
請求項4に記載の方法。 - 前記入力ダイアログ上で前記第2のNLUモデルを使用することによる前記NLUプロセスの前記実行に関して、前記NLUプロセスから入手された前記NLU結果を前記サーバから前記クライアント・デバイスに提供するステップと、
前記提供されたNLU結果を前記第1のNLUモデルに登録し、それによって前記第1のNLUモデルが、前記入力ダイアログに応答して前記サーバにアクセスすることなく前記提供されたNLU結果を出力するように構成されるステップと
をさらに含む、請求項1に記載の方法。 - 前記第1のNLUモデルおよび前記第2のNLUモデルが、有限状態トランスデューサ(FST)ベースのアルゴリズムから生成され、前記アルゴリズムでは、前記入力ダイアログ内のフレーズがFST上にマップされ、前記FST内のアークが、対応するダイアログ行為、およびダイアログ行為/チャンク・ペア情報に基づく重みに結び付けられ、
前記第1のNLUモデルまたは前記第2のNLUモデルを適用することから前記入力ダイアログのNLU結果を特定する前記ステップが、
前記FST上で最短経路探索を実施するステップと、
前記重みの合計が別のしきい値を下回っている場合前記最短経路探索の1つまたは複数の経路に沿ってダイアログ行為を出力するステップとを含む、請求項1に記載の方法。 - 前記FST内の前記アークが、前記入力ダイアログ内のフレーズと、前記ダイアログ行為/チャンク・ペア情報内の既に知られているフレーズとの間におけるセマンティック距離に基づくダイアログ行為を含む、請求項11に記載の方法。
- 前記ダイアログ行為/チャンク・ペア情報が、関連性スコア、肯定的なフィードバック、否定的なフィードバック、得票数、および固定フラグを含み、
前記関連性スコアが、前記FSTアーク内の前記重みを特定するために利用され、
前記肯定的なフィードバックが、確認ダイアログへの肯定的なフィードバック応答に応答してインクリメントされ、
前記否定的なフィードバックが、前記確認ダイアログへの否定的なフィードバック応答に応答してインクリメントされ、
前記得票数が、フィードバック頻度を格納し、
前記固定フラグは、事前に定義されており、対応するダイアログ行為/チャンク・ペアがさらなるプロセスにおいて修正されることを許可されていないかどうかを示し、前記得票数が得票数しきい値よりも大きく、前記関連性値が関連性しきい値よりも高いかまたは関連性しきい値よりも低い場合に偽から真へ変更されるように構成されている、
請求項11に記載の方法。 - 前記第1のNLUモデルおよび前記第2のNLUモデルが、マシン学習を利用するシーケンス・ラベリング方法を実施するように構成されているトレーニング・アルゴリズムから生成され、
前記第1のNLUモデルおよび前記第2のNLUモデルが、センテンスと、前記センテンス内のそれぞれのワードおよびそれぞれのセンテンスのうちの少なくとも1つに関する関連付けられているダイアログ行為とを含むトレーニング・データを使用することによってトレーニングされる、請求項1に記載の方法。 - 抽出されたダイアログ行為が正しいかどうかを促すように構成されている確認ダイアログを提供するステップと、
NLUアルゴリズム・トレーニングのために前記トレーニング・データに加えられる、前記確認ダイアログへの応答に基づくフィードバック・トレーニング・データを作成するステップとをさらに含み、前記フィードバック・トレーニング・データを作成する前記ステップが、
前記確認ダイアログへの前記応答が肯定的である場合、対応するフレーズを、前記抽出されたダイアログ行為でラベル付けするステップと、
前記確認ダイアログへの前記応答が否定的である場合、前記対応するフレーズを、前記抽出されたダイアログ行為を生成しないようにラベル付けするステップとを含む、
請求項14に記載の方法。 - 前記テキスト入力が、コンフュージョン・ネットワークへ変換されるセンテンス入力の1つまたは複数の候補を含み、前記方法が、
前記コンフュージョン・ネットワークを、アークの重みがワードの確信性に基づいて特定される第1のFSTへ変換するステップと、
ダイアログ行為/チャンク情報を、ワード入力を受け取ってダイアログ行為を出力する第2のFSTへ変換するステップとをさらに含み、
前記NLUプロセスが、前記テキスト入力から得られた前記第1のFSTと、前記ダイアログ行為/チャンク情報から得られた前記第2のFSTとを合成するステップを含む、請求項1に記載の方法。 - 前記マシン学習アルゴリズムが、ワードの1つまたは複数の候補を含む入力を受け取って前記入力に対応するダイアログ行為を出力するように構成されているリカレント・ニューラル・ネットワーク(RNN)である、請求項14に記載の方法。
- 前記第1のNLUモデルおよび前記第2のNLUモデルが、有限状態トランスデューサ(FST)ベースのアルゴリズムと、シーケンス・ラベル付けアルゴリズムとの組合せであるNLUアルゴリズムに関連付けられている、請求項1に記載の方法。
- 前記第1のNLUモデルおよび前記第2のNLUモデルのそれぞれが、アウトオブトピックNLUを含み、前記アウトオブトピックNLUが、ダイアログ・コーパスによってトレーニングされ、
ダイアログ履歴情報および前記入力ダイアログのうちの少なくとも1つを受け取り、
システム発話を出力するように構成されており、前記出力が、前記第1のNLUモデルおよび前記第2のNLUモデルにおいて構成されているその他のNLUよりも大きな確信性を有している場合、前記アウトオブトピックNLUによって出力された前記システム発話が採用される、請求項1に記載の方法。 - 前記アウトオブトピックNLUが、前記アウトオブトピックNLUモデルからのそれぞれのシステム・センテンスの出力確率に基づいて前記システム発話の事前に定義されたリスト内で1つの確信を持てるシステム発話を選ぶように構成されている、請求項19に記載の方法。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/794,825 | 2017-10-26 | ||
US15/794,825 US10453454B2 (en) | 2017-10-26 | 2017-10-26 | Dialog system with self-learning natural language understanding |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019079034A true JP2019079034A (ja) | 2019-05-23 |
JP6678710B2 JP6678710B2 (ja) | 2020-04-08 |
Family
ID=63642512
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018162200A Expired - Fee Related JP6678710B2 (ja) | 2017-10-26 | 2018-08-30 | 自己学習自然言語理解を伴うダイアログ・システム |
Country Status (5)
Country | Link |
---|---|
US (1) | US10453454B2 (ja) |
EP (1) | EP3477638A3 (ja) |
JP (1) | JP6678710B2 (ja) |
KR (1) | KR102117574B1 (ja) |
CN (1) | CN110019745A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022534390A (ja) * | 2019-05-28 | 2022-07-29 | グーグル エルエルシー | ストリーミングエンドツーエンドモデルを用いる大規模多言語音声認識 |
WO2022176124A1 (ja) * | 2021-02-18 | 2022-08-25 | 日本電信電話株式会社 | 学習装置、推定装置、それらの方法、およびプログラム |
Families Citing this family (87)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050131837A1 (en) | 2003-12-15 | 2005-06-16 | Sanctis Jeanne D. | Method, system and program product for communicating e-commerce content over-the-air to mobile devices |
US10810654B1 (en) | 2013-05-06 | 2020-10-20 | Overstock.Com, Inc. | System and method of mapping product attributes between different schemas |
JP2018060268A (ja) * | 2016-10-03 | 2018-04-12 | 株式会社日立製作所 | 認識装置および学習システム |
US11107462B1 (en) * | 2017-10-30 | 2021-08-31 | Facebook, Inc. | Methods and systems for performing end-to-end spoken language analysis |
JP2019106054A (ja) * | 2017-12-13 | 2019-06-27 | 株式会社東芝 | 対話システム |
US11003860B2 (en) * | 2017-12-29 | 2021-05-11 | DMAI, Inc. | System and method for learning preferences in dialogue personalization |
US11504856B2 (en) | 2017-12-29 | 2022-11-22 | DMAI, Inc. | System and method for selective animatronic peripheral response for human machine dialogue |
WO2019133710A1 (en) * | 2017-12-29 | 2019-07-04 | DMAI, Inc. | System and method for dialogue management |
US10770094B2 (en) * | 2018-01-09 | 2020-09-08 | Intel IP Corporation | Routing audio streams based on semantically generated result sets |
WO2019160613A1 (en) | 2018-02-15 | 2019-08-22 | DMAI, Inc. | System and method for dynamic program configuration |
WO2019160611A1 (en) | 2018-02-15 | 2019-08-22 | DMAI, Inc. | System and method for dynamic robot configuration for enhanced digital experiences |
US10994421B2 (en) | 2018-02-15 | 2021-05-04 | DMAI, Inc. | System and method for dynamic robot profile configurations based on user interactions |
US11036605B2 (en) | 2018-02-21 | 2021-06-15 | International Business Machines Corporation | Feedback tuples for detecting data flow anomalies in stream computing environment |
KR102476621B1 (ko) | 2018-05-07 | 2022-12-12 | 구글 엘엘씨 | 사용자, 자동화된 어시스턴트 및 컴퓨팅 서비스 간의 다중 모드 상호 작용 |
US11200893B2 (en) * | 2018-05-07 | 2021-12-14 | Google Llc | Multi-modal interaction between users, automated assistants, and other computing services |
US11127395B1 (en) * | 2018-05-23 | 2021-09-21 | Amazon Technologies, Inc. | Device-specific skill processing |
US11763821B1 (en) * | 2018-06-27 | 2023-09-19 | Cerner Innovation, Inc. | Tool for assisting people with speech disorder |
WO2020036190A1 (ja) * | 2018-08-15 | 2020-02-20 | 日本電信電話株式会社 | 要点抽出装置、要点抽出方法、及びプログラム |
US11082369B1 (en) * | 2018-08-24 | 2021-08-03 | Figure Eight Technologies, Inc. | Domain-specific chatbot utterance collection |
US10891950B2 (en) * | 2018-09-27 | 2021-01-12 | International Business Machines Corporation | Graph based prediction for next action in conversation flow |
US11409961B2 (en) * | 2018-10-10 | 2022-08-09 | Verint Americas Inc. | System for minimizing repetition in intelligent virtual assistant conversations |
KR20200042137A (ko) * | 2018-10-15 | 2020-04-23 | 삼성전자주식회사 | 변형 발화 텍스트를 제공하는 전자 장치 및 그것의 동작 방법 |
KR102228866B1 (ko) * | 2018-10-18 | 2021-03-17 | 엘지전자 주식회사 | 로봇 및 그의 제어 방법 |
US11403596B2 (en) * | 2018-10-22 | 2022-08-02 | Rammer Technologies, Inc. | Integrated framework for managing human interactions |
GB201818234D0 (en) | 2018-11-08 | 2018-12-26 | Polyal | A dialogue system and a dialogue method |
GB201818237D0 (en) * | 2018-11-08 | 2018-12-26 | Polyal | A dialogue system, a dialogue method, a method of generating data for training a dialogue system, a system for generating data for training a dialogue system |
US11194973B1 (en) * | 2018-11-12 | 2021-12-07 | Amazon Technologies, Inc. | Dialog response generation |
JP7115265B2 (ja) * | 2018-11-30 | 2022-08-09 | 富士通株式会社 | 対話制御方法、対話制御プログラム、対話制御装置、情報提示方法および情報提示装置 |
US10740371B1 (en) * | 2018-12-14 | 2020-08-11 | Clinc, Inc. | Systems and methods for intelligently configuring and deploying a machine learning-based dialogue system |
US11017339B2 (en) * | 2019-02-05 | 2021-05-25 | International Business Machines Corporation | Cognitive labor forecasting |
CN109949797B (zh) * | 2019-03-11 | 2021-11-12 | 北京百度网讯科技有限公司 | 一种训练语料的生成方法、装置、设备及存储介质 |
US11514493B1 (en) * | 2019-03-25 | 2022-11-29 | Overstock.Com, Inc. | System and method for conversational commerce online |
US11145296B1 (en) * | 2019-03-25 | 2021-10-12 | Amazon Technologies, Inc. | Language and grammar model adaptation |
US11580970B2 (en) * | 2019-04-05 | 2023-02-14 | Samsung Electronics Co., Ltd. | System and method for context-enriched attentive memory network with global and local encoding for dialogue breakdown detection |
US11205179B1 (en) | 2019-04-26 | 2021-12-21 | Overstock.Com, Inc. | System, method, and program product for recognizing and rejecting fraudulent purchase attempts in e-commerce |
KR102122081B1 (ko) * | 2019-05-02 | 2020-06-26 | 주식회사 다이얼로그디자인에이전시 | 인공지능 음성인식 기반 검수기 및 분석기의 상호학습을 통한 자연어 말뭉치 구축 방법 |
US11195522B1 (en) * | 2019-06-17 | 2021-12-07 | Amazon Technologies, Inc. | False invocation rejection for speech processing systems |
CN110349573A (zh) * | 2019-07-04 | 2019-10-18 | 广州云从信息科技有限公司 | 一种语音识别方法、装置、机器可读介质及设备 |
US11651044B2 (en) * | 2019-08-30 | 2023-05-16 | Accenture Global Solutions Limited | Intelligent insight system and method for facilitating participant involvement |
US11462208B2 (en) * | 2019-09-11 | 2022-10-04 | Oracle International Corporation | Implementing a correction model to reduce propagation of automatic speech recognition errors |
KR20210033837A (ko) * | 2019-09-19 | 2021-03-29 | 삼성전자주식회사 | 전자 장치 및 이의 제어 방법 |
CN110675857A (zh) * | 2019-09-23 | 2020-01-10 | 湖北亿咖通科技有限公司 | 一种语音识别自动化测试系统及方法 |
CN110675871B (zh) * | 2019-09-25 | 2021-03-05 | 北京蓦然认知科技有限公司 | 一种语音识别方法及装置 |
CN110473543B (zh) * | 2019-09-25 | 2020-11-27 | 北京蓦然认知科技有限公司 | 一种语音识别方法、装置 |
CN110704595B (zh) * | 2019-09-27 | 2022-08-23 | 百度在线网络技术(北京)有限公司 | 对话的处理方法、装置、电子设备及可读存储介质 |
KR20210042523A (ko) * | 2019-10-10 | 2021-04-20 | 삼성전자주식회사 | 전자 장치 및 이의 제어 방법 |
US10970493B1 (en) * | 2019-10-18 | 2021-04-06 | Clinc, Inc. | Systems and methods for slot relation extraction for machine learning task-oriented dialogue systems |
US10839033B1 (en) * | 2019-11-26 | 2020-11-17 | Vui, Inc. | Referring expression generation |
CN110990547B (zh) * | 2019-11-29 | 2023-03-14 | 支付宝(杭州)信息技术有限公司 | 一种话术生成方法和系统 |
CN111081220B (zh) * | 2019-12-10 | 2022-08-16 | 广州小鹏汽车科技有限公司 | 车载语音交互方法、全双工对话系统、服务器和存储介质 |
US11444893B1 (en) * | 2019-12-13 | 2022-09-13 | Wells Fargo Bank, N.A. | Enhanced chatbot responses during conversations with unknown users based on maturity metrics determined from history of chatbot interactions |
US11416556B2 (en) * | 2019-12-19 | 2022-08-16 | Accenture Global Solutions Limited | Natural language dialogue system perturbation testing |
US20210192133A1 (en) * | 2019-12-20 | 2021-06-24 | International Business Machines Corporation | Auto-suggestion of expanded terms for concepts |
WO2021137637A1 (en) | 2020-01-02 | 2021-07-08 | Samsung Electronics Co., Ltd. | Server, client device, and operation methods thereof for training natural language understanding model |
CN111243571B (zh) * | 2020-01-14 | 2022-11-15 | 北京字节跳动网络技术有限公司 | 文本的处理方法、装置、设备及计算机可读存储介质 |
CN111259663B (zh) | 2020-01-14 | 2023-05-26 | 北京百度网讯科技有限公司 | 信息处理方法和装置 |
US11386890B1 (en) * | 2020-02-11 | 2022-07-12 | Amazon Technologies, Inc. | Natural language understanding |
US11544721B2 (en) * | 2020-02-18 | 2023-01-03 | At&T Intellectual Property I, L.P. | Supporting automation of customer service |
RU2730693C1 (ru) * | 2020-03-11 | 2020-08-25 | Общество с ограниченной ответственностью "Уралинновация" | Голосовая роботизированная вопросно-ответная система и способ ее автоматического взаимодействия с электронным устройством пользователя |
CN111460832B (zh) * | 2020-03-27 | 2023-11-24 | 北京百度网讯科技有限公司 | 对象编码的方法、装置、系统、设备及计算机存储介质 |
CN113590769A (zh) * | 2020-04-30 | 2021-11-02 | 阿里巴巴集团控股有限公司 | 任务驱动型多轮对话系统中的状态追踪方法及装置 |
CN111858874A (zh) * | 2020-05-06 | 2020-10-30 | 北京嘀嘀无限科技发展有限公司 | 对话服务处理方法、装置、设备及计算机可读存储介质 |
CN113806473A (zh) * | 2020-06-17 | 2021-12-17 | 华为技术有限公司 | 意图识别方法和电子设备 |
AU2020356799B2 (en) * | 2020-06-18 | 2022-09-08 | Citrix Systems, Inc. | Autonomous learning of entity values in artificial intelligence conversational systems |
CN112199470B (zh) * | 2020-10-09 | 2023-12-05 | 康佳集团股份有限公司 | 一种基于会话的客诉服务方法、智能终端及存储介质 |
CN112182189B (zh) * | 2020-10-10 | 2023-06-30 | 网易(杭州)网络有限公司 | 一种对话处理方法、装置、电子设备及存储介质 |
US11900921B1 (en) * | 2020-10-26 | 2024-02-13 | Amazon Technologies, Inc. | Multi-device speech processing |
KR102654480B1 (ko) * | 2020-11-05 | 2024-04-04 | 한국전자통신연구원 | 언어학습을 위한 지식 기반 대화 시스템 및 방법 |
KR102280489B1 (ko) * | 2020-11-19 | 2021-07-22 | 주식회사 두유비 | 대규모 사전학습 모델을 학습하여 지성을 기반으로 대화하는 대화 지능 획득 방법 |
CN112417864B (zh) * | 2020-11-29 | 2023-10-31 | 中国科学院电子学研究所苏州研究院 | 基于门控拷贝和掩码的多轮对话省略恢复方法 |
US11735165B2 (en) * | 2020-12-11 | 2023-08-22 | Beijing Didi Infinity Technology And Development Co., Ltd. | Task-oriented dialog system and method through feedback |
US11907232B2 (en) * | 2021-01-12 | 2024-02-20 | Adobe Inc. | Facilitating efficient identification of relevant data |
EP4027233A1 (en) * | 2021-01-12 | 2022-07-13 | Atos France | Method, computer program, device for virtually assisting a user with a digital assistant |
US20220229991A1 (en) * | 2021-01-20 | 2022-07-21 | Oracle International Corporation | Multi-feature balancing for natural language processors |
JP2022125637A (ja) * | 2021-02-17 | 2022-08-29 | 富士通株式会社 | 判定処理プログラム、判定処理方法および情報処理装置 |
US20240046064A1 (en) * | 2021-03-19 | 2024-02-08 | RN Chidakashi Technologies Private Limited | System and method of self-learning from an automatic query response generator using machine learning model |
WO2022201100A1 (en) * | 2021-03-26 | 2022-09-29 | AGvisorPRO, Inc. | Connecting devices for communication sessions |
US11776542B1 (en) | 2021-03-30 | 2023-10-03 | Amazon Technologies, Inc. | Selecting dialog acts using controlled randomness and offline optimization |
US11861315B2 (en) * | 2021-04-21 | 2024-01-02 | Meta Platforms, Inc. | Continuous learning for natural-language understanding models for assistant systems |
GB202106969D0 (en) * | 2021-05-14 | 2021-06-30 | Samsung Electronics Co Ltd | Method and apparatus for improving model efficiency |
CN113204488A (zh) * | 2021-05-26 | 2021-08-03 | 南京大学 | 一种针对递归神经网络驱动的对话系统的自动化测试方法 |
US11430446B1 (en) | 2021-08-12 | 2022-08-30 | PolyAI Limited | Dialogue system and a dialogue method |
US20230252995A1 (en) * | 2022-02-08 | 2023-08-10 | Google Llc | Altering a candidate text representation, of spoken input, based on further spoken input |
WO2023208383A1 (en) * | 2022-04-29 | 2023-11-02 | Abb Schweiz Ag | Collective feedback-based decision on model prediction quality |
KR102504445B1 (ko) * | 2022-07-14 | 2023-03-02 | (주)인티그리트 | 인공지능형 음성 인식 및 대화 서비스를 지원하는 시스템 및 방법 |
US11763097B1 (en) * | 2022-08-02 | 2023-09-19 | Fmr Llc | Intelligent dialogue recovery for virtual assistant communication sessions |
CN116842156A (zh) * | 2023-06-30 | 2023-10-03 | 北京百度网讯科技有限公司 | 数据生成方法及装置、设备和介质 |
Family Cites Families (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7418382B1 (en) * | 1998-10-02 | 2008-08-26 | International Business Machines Corporation | Structure skeletons for efficient voice navigation through generic hierarchical objects |
US7050977B1 (en) * | 1999-11-12 | 2006-05-23 | Phoenix Solutions, Inc. | Speech-enabled server for internet website and method |
US6738743B2 (en) * | 2001-03-28 | 2004-05-18 | Intel Corporation | Unified client-server distributed architectures for spoken dialogue systems |
US7191119B2 (en) * | 2002-05-07 | 2007-03-13 | International Business Machines Corporation | Integrated development tool for building a natural language understanding application |
US20040111253A1 (en) * | 2002-12-10 | 2004-06-10 | International Business Machines Corporation | System and method for rapid development of natural language understanding using active learning |
JP2004347732A (ja) * | 2003-05-20 | 2004-12-09 | Nippon Telegr & Teleph Corp <Ntt> | 言語自動識別方法及び装置 |
JP2005257917A (ja) * | 2004-03-10 | 2005-09-22 | Nippon Telegr & Teleph Corp <Ntt> | 音声解釈方法、音声解釈装置、音声解釈プログラム |
US8185399B2 (en) | 2005-01-05 | 2012-05-22 | At&T Intellectual Property Ii, L.P. | System and method of providing an automated data-collection in spoken dialog systems |
US8332226B1 (en) * | 2005-01-07 | 2012-12-11 | At&T Intellectual Property Ii, L.P. | System and method of dynamically modifying a spoken dialog system to reduce hardware requirements |
JP4585391B2 (ja) * | 2005-06-30 | 2010-11-24 | 株式会社東芝 | サーバ装置 |
US9009046B1 (en) * | 2005-09-27 | 2015-04-14 | At&T Intellectual Property Ii, L.P. | System and method for disambiguating multiple intents in a natural language dialog system |
JP2008009153A (ja) * | 2006-06-29 | 2008-01-17 | Xanavi Informatics Corp | 音声対話システム |
US8892439B2 (en) * | 2009-07-15 | 2014-11-18 | Microsoft Corporation | Combination and federation of local and remote speech recognition |
US20110101665A1 (en) * | 2009-10-30 | 2011-05-05 | Dasc, Llc | Hockey skate |
US9171541B2 (en) * | 2009-11-10 | 2015-10-27 | Voicebox Technologies Corporation | System and method for hybrid processing in a natural language voice services environment |
US9245525B2 (en) * | 2011-01-05 | 2016-01-26 | Interactions Llc | Automated speech recognition proxy system for natural language understanding |
US8484031B1 (en) * | 2011-01-05 | 2013-07-09 | Interactions Corporation | Automated speech recognition proxy system for natural language understanding |
US20120253789A1 (en) * | 2011-03-31 | 2012-10-04 | Microsoft Corporation | Conversational Dialog Learning and Correction |
US8601030B2 (en) * | 2011-09-09 | 2013-12-03 | International Business Machines Corporation | Method for a natural language question-answering system to complement decision-support in a real-time command center |
US20130085753A1 (en) * | 2011-09-30 | 2013-04-04 | Google Inc. | Hybrid Client/Server Speech Recognition In A Mobile Device |
US9620122B2 (en) * | 2011-12-08 | 2017-04-11 | Lenovo (Singapore) Pte. Ltd | Hybrid speech recognition |
US9171066B2 (en) * | 2012-11-12 | 2015-10-27 | Nuance Communications, Inc. | Distributed natural language understanding and processing using local data sources |
US9928515B2 (en) * | 2012-11-15 | 2018-03-27 | Home Depot Product Authority, Llc | System and method for competitive product assortment |
US9772994B2 (en) * | 2013-07-25 | 2017-09-26 | Intel Corporation | Self-learning statistical natural language processing for automatic production of virtual personal assistants |
US10186262B2 (en) * | 2013-07-31 | 2019-01-22 | Microsoft Technology Licensing, Llc | System with multiple simultaneous speech recognizers |
US20150120296A1 (en) * | 2013-10-29 | 2015-04-30 | At&T Intellectual Property I, L.P. | System and method for selecting network-based versus embedded speech processing |
EP3757928A1 (en) * | 2014-07-31 | 2020-12-30 | Samsung Electronics Co., Ltd. | Message service providing device and method of providing content via the same |
US10817672B2 (en) * | 2014-10-01 | 2020-10-27 | Nuance Communications, Inc. | Natural language understanding (NLU) processing based on user-specified interests |
US9666192B2 (en) * | 2015-05-26 | 2017-05-30 | Nuance Communications, Inc. | Methods and apparatus for reducing latency in speech recognition applications |
US20160379638A1 (en) * | 2015-06-26 | 2016-12-29 | Amazon Technologies, Inc. | Input speech quality matching |
US9607616B2 (en) * | 2015-08-17 | 2017-03-28 | Mitsubishi Electric Research Laboratories, Inc. | Method for using a multi-scale recurrent neural network with pretraining for spoken language understanding tasks |
US11250218B2 (en) * | 2015-12-11 | 2022-02-15 | Microsoft Technology Licensing, Llc | Personalizing natural language understanding systems |
KR102447513B1 (ko) | 2016-01-22 | 2022-09-27 | 한국전자통신연구원 | 점증적 대화지식 자가학습 기반 대화장치 및 그 방법 |
-
2017
- 2017-10-26 US US15/794,825 patent/US10453454B2/en not_active Expired - Fee Related
-
2018
- 2018-08-24 CN CN201810972114.0A patent/CN110019745A/zh not_active Withdrawn
- 2018-08-30 JP JP2018162200A patent/JP6678710B2/ja not_active Expired - Fee Related
- 2018-09-03 KR KR1020180104533A patent/KR102117574B1/ko active IP Right Grant
- 2018-09-07 EP EP18193107.2A patent/EP3477638A3/en not_active Withdrawn
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022534390A (ja) * | 2019-05-28 | 2022-07-29 | グーグル エルエルシー | ストリーミングエンドツーエンドモデルを用いる大規模多言語音声認識 |
WO2022176124A1 (ja) * | 2021-02-18 | 2022-08-25 | 日本電信電話株式会社 | 学習装置、推定装置、それらの方法、およびプログラム |
Also Published As
Publication number | Publication date |
---|---|
KR20190046623A (ko) | 2019-05-07 |
US10453454B2 (en) | 2019-10-22 |
EP3477638A3 (en) | 2019-06-26 |
KR102117574B1 (ko) | 2020-06-01 |
CN110019745A (zh) | 2019-07-16 |
JP6678710B2 (ja) | 2020-04-08 |
US20190130904A1 (en) | 2019-05-02 |
EP3477638A2 (en) | 2019-05-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6678710B2 (ja) | 自己学習自然言語理解を伴うダイアログ・システム | |
US10762892B2 (en) | Rapid deployment of dialogue system | |
US11270074B2 (en) | Information processing apparatus, information processing system, and information processing method, and program | |
US11450311B2 (en) | System and methods for accent and dialect modification | |
EP4046053A1 (en) | On-device convolutional neural network models for assistant systems | |
US10614809B1 (en) | Quality estimation of hybrid transcription of audio | |
US8374865B1 (en) | Sampling training data for an automatic speech recognition system based on a benchmark classification distribution | |
US10839788B2 (en) | Systems and methods for selecting accent and dialect based on context | |
KR20210158344A (ko) | 디지털 어시스턴트를 위한 머신 러닝 시스템 | |
JP6726354B2 (ja) | 訂正済みタームを使用する音響モデルトレーニング | |
US10586528B2 (en) | Domain-specific speech recognizers in a digital medium environment | |
JP7230806B2 (ja) | 情報処理装置、及び情報処理方法 | |
US11574637B1 (en) | Spoken language understanding models | |
US11151996B2 (en) | Vocal recognition using generally available speech-to-text systems and user-defined vocal training | |
JP7266683B2 (ja) | 音声対話に基づく情報検証方法、装置、デバイス、コンピュータ記憶媒体、およびコンピュータプログラム | |
US11043215B2 (en) | Method and system for generating textual representation of user spoken utterance | |
JP2008216341A (ja) | 誤り傾向学習音声認識装置及びコンピュータプログラム | |
CN107170447B (zh) | 声音处理系统以及声音处理方法 | |
CN110809796B (zh) | 具有解耦唤醒短语的语音识别系统和方法 | |
US11574246B2 (en) | Updating training examples for artificial intelligence | |
CN110021295B (zh) | 用于识别由语音识别系统生成的错误转录的方法和系统 | |
US11935539B1 (en) | Integrating voice controls into applications | |
JP2022542415A (ja) | 発音情報を使用して音声クエリを管理するためのシステムおよび方法 | |
WO2023086075A1 (en) | Selectively generating and/or selectively rendering continuing content for spoken utterance completion |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180830 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190821 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190903 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191030 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200310 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200317 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6678710 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |