JP2022020051A - 意味認識方法、装置、機器及び記憶媒体 - Google Patents
意味認識方法、装置、機器及び記憶媒体 Download PDFInfo
- Publication number
- JP2022020051A JP2022020051A JP2021168564A JP2021168564A JP2022020051A JP 2022020051 A JP2022020051 A JP 2022020051A JP 2021168564 A JP2021168564 A JP 2021168564A JP 2021168564 A JP2021168564 A JP 2021168564A JP 2022020051 A JP2022020051 A JP 2022020051A
- Authority
- JP
- Japan
- Prior art keywords
- meaning
- vector
- semantic
- recognition
- recognition result
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 91
- 239000013598 vector Substances 0.000 claims abstract description 467
- 230000004927 fusion Effects 0.000 claims abstract description 163
- 238000012549 training Methods 0.000 claims description 150
- 230000015654 memory Effects 0.000 claims description 20
- 238000012545 processing Methods 0.000 claims description 17
- 238000004590 computer program Methods 0.000 claims description 7
- 230000007246 mechanism Effects 0.000 claims description 7
- 230000006403 short-term memory Effects 0.000 claims description 4
- 230000003993 interaction Effects 0.000 abstract description 52
- 230000004044 response Effects 0.000 abstract description 24
- 230000008569 process Effects 0.000 description 25
- 238000005516 engineering process Methods 0.000 description 24
- 238000010586 diagram Methods 0.000 description 16
- 230000006870 function Effects 0.000 description 11
- 238000004364 calculation method Methods 0.000 description 9
- 238000013473 artificial intelligence Methods 0.000 description 7
- 238000003058 natural language processing Methods 0.000 description 7
- 238000004458 analytical method Methods 0.000 description 5
- 230000014509 gene expression Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 4
- 238000009825 accumulation Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 3
- 238000013500 data storage Methods 0.000 description 3
- 238000002372 labelling Methods 0.000 description 3
- 241000393496 Electra Species 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000001755 vocal effect Effects 0.000 description 2
- 235000008853 Zanthoxylum piperitum Nutrition 0.000 description 1
- 244000131415 Zanthoxylum piperitum Species 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 230000001149 cognitive effect Effects 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000005012 migration Effects 0.000 description 1
- 238000013508 migration Methods 0.000 description 1
- 238000005065 mining Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 238000004904 shortening Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/1822—Parsing for meaning understanding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/1815—Semantic context, e.g. disambiguation of the recognition hypotheses based on word meaning
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
- G06N7/01—Probabilistic graphical models, e.g. probabilistic networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
- G10L2015/027—Syllables being the recognition units
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Multimedia (AREA)
- Acoustics & Sound (AREA)
- Human Computer Interaction (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Artificial Intelligence (AREA)
- Theoretical Computer Science (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Machine Translation (AREA)
Abstract
Description
本開示の別の態様によれば、コンピュータプログラムを提供し、前記コンピュータプログラムは、コンピュータに上記意味認識方法を実行させる。
本出願の実施例によれば、本出願は、コンピュータプログラムを提供し、コンピュータプログラムは、コンピュータに本出願によって提供される意味認識方法を実行させる。
Claims (21)
- 処理対象の音声の音声認識結果を取得するステップであって、前記音声認識結果には、新規認識結果セグメント及び履歴認識結果セグメントが含まれ、前記新規認識結果セグメントが、前記処理対象の音声内の新規音声セグメントに対応する認識結果セグメントであるステップと、
前記履歴認識結果セグメント内の各履歴オブジェクトの意味ベクトルを取得し、前記各履歴オブジェクトの意味ベクトル及び前記新規認識結果セグメント内の各新規オブジェクトをストリーミング意味符号化層に入力して、前記各新規オブジェクトの意味ベクトルを取得するステップと、
前記各履歴オブジェクトの意味ベクトル及び前記各新規オブジェクトの意味ベクトルを、順番に配列されたストリーミング意味ベクトル融合層及び意味理解マルチタスク層に入力して、前記処理対象の音声の意味認識結果を取得するステップと、
を含む意味認識方法。 - 前記各履歴オブジェクトの意味ベクトル及び前記新規認識結果セグメント内の各新規オブジェクトをストリーミング意味符号化層に入力して、前記各新規オブジェクトの意味ベクトルを取得するステップが、
前記各新規オブジェクトのスプライシングベクトルを取得するステップであって、前記スプライシングベクトルが、新規オブジェクトのオブジェクトベクトル及び位置ベクトルに基づいてスプライシングすることによって取得されるステップと、
前記各履歴オブジェクトの意味ベクトルに基づいて、前記ストリーミング意味符号化層における前記各履歴オブジェクトの中間結果に対して初期化設定を行って、設定されたストリーミング意味符号化層を取得するステップと、
前記各新規オブジェクトのスプライシングベクトルを前記設定されたストリーミング意味符号化層に入力して、前記各新規オブジェクトの意味ベクトルを取得するステップと、
を含む請求項1に記載の意味認識方法。 - 前記各履歴オブジェクトの意味ベクトル及び前記各新規オブジェクトの意味ベクトルを、順番に配列されたストリーミング意味ベクトル融合層及び意味理解マルチタスク層に入力して、前記処理対象の音声の意味認識結果を取得するステップが、
前記各履歴オブジェクトの意味ベクトル及び前記各新規オブジェクトの意味ベクトルを前記ストリーミング意味ベクトル融合層に入力して、前記各履歴オブジェクトの融合意味ベクトル、及び前記各新規オブジェクトの融合意味ベクトルを取得するステップであって、新規オブジェクトの融合意味ベクトルが、前記新規オブジェクト及び以前のオブジェクトに対して意味ベクトル融合を行うことによって取得されるステップと、
前記各履歴オブジェクトの融合意味ベクトル及び前記各新規オブジェクトの融合意味ベクトルを前記意味理解マルチタスク層に入力して、前記処理対象の音声の意味認識結果を取得するステップと、
を含む請求項1に記載の意味認識方法。 - 前記意味理解マルチタスク層が、意図認識ブランチ及びスロット認識ブランチを含み、
前記各履歴オブジェクトの融合意味ベクトル及び前記各新規オブジェクトの融合意味ベクトルを前記意味理解マルチタスク層に入力して、前記処理対象の音声の意味認識結果を取得するステップが、
前記各新規オブジェクトのうち最後にソートされた第1の新規オブジェクトの融合意味ベクトルを前記意図認識ブランチに入力して、前記処理対象の音声の意図認識結果を取得するステップと、
前記各履歴オブジェクトの融合意味ベクトル及び前記各新規オブジェクトの融合意味ベクトルを前記スロット認識ブランチに入力して、前記処理対象の音声のスロット認識結果を取得するステップと、
前記意図認識結果及び前記スロット認識結果に基づいて、前記処理対象の音声の意味認識結果を生成するステップと、
を含む請求項3に記載の意味認識方法。 - 前記各履歴オブジェクトの意味ベクトル及び前記新規認識結果セグメント内の各新規オブジェクトをストリーミング意味符号化層に入力して、各新規オブジェクトの意味ベクトルを取得するステップの前に、
順番に接続された事前にトレーニングされたストリーミング意味符号化層、ストリーミング意味ベクトル融合層及び意味理解マルチタスク層を含む初期の意味認識モデルを取得するステップと、
前記意味認識モデルのトレーニングデータを取得するステップと、
前記トレーニングデータを使用して前記初期の意味認識モデルをトレーニングして、トレーニングされた意味認識モデルを取得するステップと、
前記トレーニングされた意味認識モデル内のストリーミング意味符号化層、ストリーミング意味ベクトル融合層及び意味理解マルチタスク層を取得するステップと、
を含む請求項1に記載の意味認識方法。 - 前記トレーニングデータが、意図トレーニングデータ、スロットトレーニングデータ及び意図スロットトレーニングデータのうちの少なくとも1つを含み、
前記トレーニングデータを使用して前記初期の意味認識モデルをトレーニングして、トレーニングされた意味認識モデルを取得するステップが、
前記トレーニングデータが意図トレーニングデータ、スロットトレーニングデータ及び意図スロットトレーニングデータを含む場合、前記意図スロットトレーニングデータを使用して、前記事前にトレーニングされたストリーミング意味符号化層、前記ストリーミング意味ベクトル融合層及び前記意味理解マルチタスク層をトレーニングするステップと、
前記意図トレーニングデータを使用して、前記事前にトレーニングされたストリーミング意味符号化層、前記ストリーミング意味ベクトル融合層及び前記意味理解マルチタスク層内の意図認識ブランチをトレーニングするステップと、
前記スロットトレーニングデータを使用して、前記事前にトレーニングされたストリーミング意味符号化層、前記ストリーミング意味ベクトル融合層及び前記意味理解マルチタスク層内のスロット認識ブランチをトレーニングするステップと、
を含む請求項5に記載の意味認識方法。 - 前記事前にトレーニングされたストリーミング意味符号化層が、
初期のストリーミング意味符号化層を取得するステップと、
予め設定された数より大きいオブジェクトシーケンスを含む事前トレーニングデータを取得するステップと、
前記初期のストリーミング意味符号化層に基づいて事前トレーニングモデルを構築するステップと、
前記事前トレーニングデータを使用して、前記事前トレーニングモデルをトレーニングして、トレーニングされた事前トレーニングモデル内のストリーミング意味符号化層を取得するステップと、
を含む方法によって取得される請求項5に記載の意味認識方法。 - 前記処理対象の音声の音声認識結果を取得するステップが、
前記処理対象の音声を音節認識モデルに入力して、前記処理対象の音声の音節認識結果を取得するステップと、
前記音節認識結果を前記処理対象の音声の音声認識結果とするステップと、
を含む請求項1に記載の意味認識方法。 - 前記ストリーミング意味符号化層が、翻訳(transformer)モデルの多層符号化層を含み、前記符号化層が、マスク付きのマルチヘッドアテンションメカニズムを含み、
前記ストリーミング意味ベクトル融合層が、一方向長短期記憶ネットワーク(LSTM)層である請求項1に記載の意味認識方法。 - 処理対象の音声の音声認識結果を取得するための第1の取得モジュールであって、前記音声認識結果には、新規認識結果セグメント及び履歴認識結果セグメントが含まれ、前記新規認識結果セグメントが、前記処理対象の音声内の新規音声セグメントに対応する認識結果セグメントである第1の取得モジュールと、
前記履歴認識結果セグメント内の各履歴オブジェクトの意味ベクトルを取得し、前記各履歴オブジェクトの意味ベクトル及び前記新規認識結果セグメント内の各新規オブジェクトをストリーミング意味符号化層に入力して、前記各新規オブジェクトの意味ベクトルを取得するための第2の取得モジュールと、
前記各履歴オブジェクトの意味ベクトル及び前記各新規オブジェクトの意味ベクトルを、順番に配列されたストリーミング意味ベクトル融合層及び意味理解マルチタスク層に入力して、前記処理対象の音声の意味認識結果を取得するための第3の取得モジュールと、
を備える意味認識装置。 - 前記第2の取得モジュールが、
前記各新規オブジェクトのスプライシングベクトルを取得するための第1の取得ユニットであって、前記スプライシングベクトルが、新規オブジェクトのオブジェクトベクトル及び位置ベクトルに基づいてスプライシングすることによって取得される第1の取得ユニットと、
前記各履歴オブジェクトの意味ベクトルに基づいて、前記ストリーミング意味符号化層における前記各履歴オブジェクトの中間結果に対して初期化設定を行って、設定されたストリーミング意味符号化層を取得するための処理ユニットと、
前記各新規オブジェクトのスプライシングベクトルを前記設定されたストリーミング意味符号化層に入力して、前記各新規オブジェクトの意味ベクトルを取得するための第2の取得ユニットと、
を備える請求項10に記載の意味認識装置。 - 前記第3の取得モジュールが、
前記各履歴オブジェクトの意味ベクトル及び前記各新規オブジェクトの意味ベクトルを前記ストリーミング意味ベクトル融合層に入力して、前記各履歴オブジェクトの融合意味ベクトル、及び前記各新規オブジェクトの融合意味ベクトルを取得するための第3の取得ユニットであって、新規オブジェクトの融合意味ベクトルが、前記新規オブジェクト及び以前のオブジェクトに対して意味ベクトル融合を行うことによって取得される第3の取得ユニットと、
前記各履歴オブジェクトの融合意味ベクトル及び前記各新規オブジェクトの融合意味ベクトルを前記意味理解マルチタスク層に入力して、前記処理対象の音声の意味認識結果を取得するための第4の取得ユニットと、
を備える請求項10に記載の意味認識装置。 - 前記意味理解マルチタスク層が、意図認識ブランチ及びスロット認識ブランチを含み、
前記第4の取得ユニットが、
前記各新規オブジェクトのうち最後にソートされた第1の新規オブジェクトの融合意味ベクトルを前記意図認識ブランチに入力して、前記処理対象の音声の意図認識結果を取得するための第1の取得サブユニットと、
前記各履歴オブジェクトの融合意味ベクトル及び前記各新規オブジェクトの融合意味ベクトルを前記スロット認識ブランチに入力して、前記処理対象の音声のスロット認識結果を取得するための第2の取得サブユニットと、
前記意図認識結果及び前記スロット認識結果に基づいて、前記処理対象の音声の意味認識結果を生成するための生成サブユニットと、
を備える請求項12に記載の意味認識装置。 - 順番に接続された事前にトレーニングされたストリーミング意味符号化層、ストリーミング意味ベクトル融合層及び意味理解マルチタスク層を含む初期の意味認識モデルを取得するための第4の取得モジュールと、
前記初期の意味認識モデルのトレーニングデータを取得するための第5の取得モジュールと、
前記トレーニングデータを使用して前記初期の意味認識モデルをトレーニングして、トレーニングされた意味認識モデルを取得するためのトレーニングモジュールと、
前記トレーニングされた意味認識モデル内のストリーミング意味符号化層、ストリーミング意味ベクトル融合層及び意味理解マルチタスク層を取得するための第6の取得モジュールと、
を備える請求項10に記載の意味認識装置。 - 前記トレーニングデータが、意図トレーニングデータ、スロットトレーニングデータ及び意図スロットトレーニングデータのうちの少なくとも1つを含み、
前記トレーニングモジュールが、
前記トレーニングデータが意図トレーニングデータ、スロットトレーニングデータ及び意図スロットトレーニングデータを含む場合、前記意図スロットトレーニングデータを使用して、前記事前にトレーニングされたストリーミング意味符号化層、前記ストリーミング意味ベクトル融合層及び前記意味理解マルチタスク層をトレーニングするための第1のトレーニングユニットと、
前記意図トレーニングデータを使用して、前記事前にトレーニングされたストリーミング意味符号化層、前記ストリーミング意味ベクトル融合層及び前記意味理解マルチタスク層内の意図認識ブランチをトレーニングするための第2のトレーニングユニットと、
前記スロットトレーニングデータを使用して、前記事前にトレーニングされたストリーミング意味符号化層、前記ストリーミング意味ベクトル融合層及び前記意味理解マルチタスク層内のスロット認識ブランチをトレーニングするための第3のトレーニングユニットと、
を備える請求項14に記載の意味認識装置。 - 前記第4の取得モジュールが、
初期のストリーミング意味符号化層を取得するための第5の取得ユニットと、
予め設定された数よりも大きいオブジェクトシーケンスを含む事前トレーニングデータを取得するための第6の取得ユニットと、
前記初期のストリーミング意味符号化層に基づいて事前トレーニングモデルを構築するための構築ユニットと、
前記事前トレーニングデータを使用して前記事前トレーニングモデルをトレーニングして、トレーニングされた事前トレーニングモデル内のストリーミング意味符号化層を取得するための第4のトレーニングユニットと、
を備える請求項14に記載の意味認識装置。 - 前記第1の取得モジュールが、
前記処理対象の音声を音節認識モデルに入力して、前記処理対象の音声の音節認識結果を取得し、前記音節認識結果を前記処理対象の音声の音声認識結果とするための第7の取得ユニットを備える請求項10に記載の意味認識装置。 - 前記ストリーミング意味符号化層が、翻訳(transformer)モデルの多層符号化層を含み、前記符号化層が、マスク付きのマルチヘッドアテンションメカニズムを含み、
前記ストリーミング意味ベクトル融合層が、一方向長短期記憶ネットワーク(LSTM)層である請求項10に記載の意味認識装置。 - 少なくとも1つのプロセッサと、
該少なくとも1つのプロセッサに通信可能に接続されるメモリと、
を備え、
前記メモリには、前記少なくとも1つのプロセッサによって実行可能な命令が記憶され、前記命令が、前記少なくとも1つのプロセッサが請求項1から9のいずれか一項に記載の方法を実行できるように、前記少なくとも1つのプロセッサによって実行される電子機器。 - コンピュータ命令が記憶されている非一時的なコンピュータ読み取り可能な記憶媒体であって、
前記コンピュータ命令は、コンピュータに請求項1から9のいずれか一項に記載の方法を実行させる非一時的なコンピュータ読み取り可能な記憶媒体。 - コンピュータに請求項1から9のいずれか一項に記載の方法を実行させるコンピュータプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011294260.6A CN112530437B (zh) | 2020-11-18 | 2020-11-18 | 语义识别方法、装置、设备以及存储介质 |
CN202011294260.6 | 2020-11-18 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022020051A true JP2022020051A (ja) | 2022-01-31 |
JP7280930B2 JP7280930B2 (ja) | 2023-05-24 |
Family
ID=74981178
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021168564A Active JP7280930B2 (ja) | 2020-11-18 | 2021-10-14 | 意味認識方法、装置、機器及び記憶媒体 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20220028376A1 (ja) |
JP (1) | JP7280930B2 (ja) |
CN (1) | CN112530437B (ja) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113177415B (zh) * | 2021-04-30 | 2024-06-07 | 科大讯飞股份有限公司 | 语义理解方法、装置、电子设备和存储介质 |
CN113257248B (zh) * | 2021-06-18 | 2021-10-15 | 中国科学院自动化研究所 | 一种流式和非流式混合语音识别系统及流式语音识别方法 |
CN113284508B (zh) * | 2021-07-21 | 2021-11-09 | 中国科学院自动化研究所 | 基于层级区分的生成音频检测系统 |
CN113571044A (zh) * | 2021-07-28 | 2021-10-29 | 北京有竹居网络技术有限公司 | 语音信息处理方法、装置和电子设备 |
CN113889076B (zh) * | 2021-09-13 | 2022-11-01 | 北京百度网讯科技有限公司 | 语音识别及编解码方法、装置、电子设备及存储介质 |
CN114238644B (zh) * | 2022-02-22 | 2022-06-07 | 北京澜舟科技有限公司 | 一种降低语义识别计算量的方法、系统及存储介质 |
CN114677517B (zh) * | 2022-05-30 | 2022-08-26 | 山东巍然智能科技有限公司 | 一种无人机用语义分割网络模型及图像分割识别方法 |
CN115527525B (zh) * | 2022-11-23 | 2023-04-18 | 广州小鹏汽车科技有限公司 | 语音识别模型生成方法、语音交互方法、车辆和存储介质 |
CN115810351B (zh) * | 2023-02-09 | 2023-04-25 | 四川大学 | 一种基于视听融合的管制员语音识别方法及装置 |
CN116386145B (zh) * | 2023-04-17 | 2023-11-03 | 浙江金融职业学院 | 一种基于双摄像头的银行内人员异常行为识别方法 |
CN116843345A (zh) * | 2023-08-30 | 2023-10-03 | 深圳市艾德网络科技发展有限公司 | 基于人工智能技术对客户交易的智能风控系统及方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018528458A (ja) * | 2015-12-04 | 2018-09-27 | 三菱電機株式会社 | 発話を処理する方法 |
JP2019086679A (ja) * | 2017-11-08 | 2019-06-06 | 株式会社東芝 | 対話システム、対話方法および対話プログラム |
JP2020067954A (ja) * | 2018-10-26 | 2020-04-30 | 日鉄ソリューションズ株式会社 | 情報処理装置、情報処理方法及びプログラム |
JP2020112787A (ja) * | 2019-01-08 | 2020-07-27 | バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド | 切断アテンションに基づくリアルタイム音声認識方法、装置、機器及びコンピュータ読み取り可能な記憶媒体 |
JP2020154076A (ja) * | 2019-03-19 | 2020-09-24 | 国立研究開発法人情報通信研究機構 | 推論器、学習方法および学習プログラム |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3265864B2 (ja) * | 1994-10-28 | 2002-03-18 | 三菱電機株式会社 | 音声認識装置 |
CN103325370B (zh) * | 2013-07-01 | 2015-11-25 | 百度在线网络技术(北京)有限公司 | 语音识别方法和语音识别系统 |
US10860628B2 (en) * | 2017-02-16 | 2020-12-08 | Google Llc | Streaming real-time dialog management |
US10600406B1 (en) * | 2017-03-20 | 2020-03-24 | Amazon Technologies, Inc. | Intent re-ranker |
CN109309751B (zh) * | 2017-07-28 | 2021-08-06 | 腾讯科技(深圳)有限公司 | 语音记录方法、电子设备及存储介质 |
CN109918678B (zh) * | 2019-03-22 | 2023-02-24 | 创新先进技术有限公司 | 一种字段含义识别方法和装置 |
US11244673B2 (en) * | 2019-07-19 | 2022-02-08 | Microsoft Technologly Licensing, LLC | Streaming contextual unidirectional models |
CN110717017B (zh) * | 2019-10-17 | 2022-04-19 | 腾讯科技(深圳)有限公司 | 一种处理语料的方法 |
US11853362B2 (en) * | 2020-04-16 | 2023-12-26 | Microsoft Technology Licensing, Llc | Using a multi-task-trained neural network to guide interaction with a query-processing system via useful suggestions |
CN111696535B (zh) * | 2020-05-22 | 2021-10-26 | 百度在线网络技术(北京)有限公司 | 基于语音交互的信息核实方法、装置、设备和计算机存储介质 |
US11335062B2 (en) * | 2020-08-14 | 2022-05-17 | Accenture Global Solutions Limited | Automated apparel design using machine learning |
-
2020
- 2020-11-18 CN CN202011294260.6A patent/CN112530437B/zh active Active
-
2021
- 2021-10-13 US US17/450,714 patent/US20220028376A1/en active Pending
- 2021-10-14 JP JP2021168564A patent/JP7280930B2/ja active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018528458A (ja) * | 2015-12-04 | 2018-09-27 | 三菱電機株式会社 | 発話を処理する方法 |
JP2019086679A (ja) * | 2017-11-08 | 2019-06-06 | 株式会社東芝 | 対話システム、対話方法および対話プログラム |
JP2020067954A (ja) * | 2018-10-26 | 2020-04-30 | 日鉄ソリューションズ株式会社 | 情報処理装置、情報処理方法及びプログラム |
JP2020112787A (ja) * | 2019-01-08 | 2020-07-27 | バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド | 切断アテンションに基づくリアルタイム音声認識方法、装置、機器及びコンピュータ読み取り可能な記憶媒体 |
JP2020154076A (ja) * | 2019-03-19 | 2020-09-24 | 国立研究開発法人情報通信研究機構 | 推論器、学習方法および学習プログラム |
Non-Patent Citations (2)
Title |
---|
ZHAO, XINLU ET AL.: ""A Joint Model based on CNN-LSTMs in Dialogue Understanding"", PROC. OF THE 2018 ICISCAE, JPN6022045905, 5 July 2018 (2018-07-05), pages 471 - 475, XP033530340, ISSN: 0004910776, DOI: 10.1109/ICISCAE.2018.8666842 * |
岡谷貴之 他: ""ディープラーニング"", 情報処理学会研究報告, vol. Vol.2013-CVIM-185, No.19, JPN6022045903, 23 January 2013 (2013-01-23), pages 1 - 17, ISSN: 0004910775 * |
Also Published As
Publication number | Publication date |
---|---|
JP7280930B2 (ja) | 2023-05-24 |
CN112530437B (zh) | 2023-10-20 |
CN112530437A (zh) | 2021-03-19 |
US20220028376A1 (en) | 2022-01-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2022020051A (ja) | 意味認識方法、装置、機器及び記憶媒体 | |
KR102350543B1 (ko) | 시맨틱 표현 모델의 처리 방법, 장치, 전자 기기 및 저장 매체 | |
JP7066349B2 (ja) | 翻訳方法、翻訳装置及びコンピュータプログラム | |
CN110727806B (zh) | 基于自然语言和知识图谱的文本处理方法及装置 | |
US11417314B2 (en) | Speech synthesis method, speech synthesis device, and electronic apparatus | |
JP7335293B2 (ja) | ネットワークの訓練方法、装置、電子機器、記憶媒体およびコンピュータプログラム | |
KR102645185B1 (ko) | 라벨링 모델을 구축하는 방법, 장치, 전자 기기, 프로그램 및 판독 가능 저장 매체 | |
JP2021197138A (ja) | エンティティ・リンキング方法、装置、機器、及び記憶媒体 | |
JP2022058554A (ja) | エンドツーエンドのテキスト音声変換 | |
US11488577B2 (en) | Training method and apparatus for a speech synthesis model, and storage medium | |
US20170140753A1 (en) | Generating target sequences from input sequences using partial conditioning | |
JP2021190087A (ja) | テキスト認識処理方法、装置、電子機器及び記憶媒体 | |
JP2021157193A (ja) | 音声合成方法及び対応するモデルのトレーニング方法、装置、電子機器、記憶媒体、並びにコンピュータプログラム | |
JP7204802B2 (ja) | 対話生成方法、装置、電子機器及び媒体 | |
JP2021119381A (ja) | 音声スペクトル生成モデルの学習方法、装置、電子機器及びコンピュータプログラム製品 | |
CN111241245B (zh) | 人机交互处理方法、装置及电子设备 | |
JP2022522379A (ja) | トリガードアテンションを用いたエンドツーエンド音声認識のためのシステムおよび方法 | |
JP6986592B2 (ja) | リズム一時停止予測方法、装置および電子機器 | |
JP2021111379A (ja) | インタラクション情報推薦方法及び装置 | |
JP2022008207A (ja) | トリプルサンプルの生成方法、装置、電子デバイス及び記憶媒体 | |
JP7230304B2 (ja) | 対話生成方法、装置、電子機器、プログラム及び記憶媒体 | |
US20220068265A1 (en) | Method for displaying streaming speech recognition result, electronic device, and storage medium | |
JP2021192119A (ja) | 音声合成モデルの属性登録方法、装置、電子機器、記憶媒体及びコンピュータプログラム | |
JP2022028889A (ja) | 対話生成方法、装置、電子機器及び記憶媒体 | |
US20230410794A1 (en) | Audio recognition method, method of training audio recognition model, and electronic device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211014 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221020 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221101 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230124 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230509 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230512 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7280930 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |