JP7024691B2 - 非言語発話検出装置、非言語発話検出方法、およびプログラム - Google Patents
非言語発話検出装置、非言語発話検出方法、およびプログラム Download PDFInfo
- Publication number
- JP7024691B2 JP7024691B2 JP2018212666A JP2018212666A JP7024691B2 JP 7024691 B2 JP7024691 B2 JP 7024691B2 JP 2018212666 A JP2018212666 A JP 2018212666A JP 2018212666 A JP2018212666 A JP 2018212666A JP 7024691 B2 JP7024691 B2 JP 7024691B2
- Authority
- JP
- Japan
- Prior art keywords
- feature amount
- verbal
- voice
- bottleneck
- utterance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000001755 vocal effect Effects 0.000 title claims description 76
- 238000001514 detection method Methods 0.000 title claims description 39
- 238000000605 extraction Methods 0.000 claims description 10
- 238000013528 artificial neural network Methods 0.000 claims description 9
- 239000000284 extract Substances 0.000 claims description 4
- 230000000306 recurrent effect Effects 0.000 claims description 3
- 238000012545 processing Methods 0.000 description 20
- 238000000034 method Methods 0.000 description 16
- 230000008569 process Effects 0.000 description 7
- 230000006870 function Effects 0.000 description 5
- 206010011224 Cough Diseases 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000006403 short-term memory Effects 0.000 description 2
- 206010041232 sneezing Diseases 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000009194 climbing Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000037433 frameshift Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 210000000214 mouth Anatomy 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/93—Discriminating between voiced and unvoiced parts of speech signals
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/24—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being the cepstrum
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/78—Detection of presence or absence of voice signals
- G10L25/84—Detection of presence or absence of voice signals for discriminating voice from noise
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
- G06N7/01—Probabilistic graphical models, e.g. probabilistic networks
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Multimedia (AREA)
- Acoustics & Sound (AREA)
- Human Computer Interaction (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Signal Processing (AREA)
- Theoretical Computer Science (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- General Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Machine Translation (AREA)
- Measurement Of Mechanical Vibrations Or Ultrasonic Waves (AREA)
- Circuit For Audible Band Transducer (AREA)
Description
この発明は、音声信号から非言語発話を検出する技術(non-verbal sound detection)に関する。
非言語発話とは、例えば、咳やくしゃみ、笑い声などの非言語的な音声である。非特許文献1には、非言語発話のうち笑い声を検出する様々な技術が開示されている。非特許文献2には、日本語による通話中の呼吸音を検出する技術が開示されている。非特許文献3には、人間とロボットとの対話において笑い声を検出する技術が開示されている。非特許文献4には、雑音環境下で人間の叫び声を検出する技術が開示されている。
Sarah Cosentino, Salvatore Sessa, Atsuo Takanishi, "Quantitative Laughter Detection, Measurement, and Classification - A Critical Survey," IEEE Reviews in Biomedical Engineering, Vol. 9, pp. 148-162, February 2016.
Takashi Fukuda, Osamu Ichikawa, Masafumi Nishimura, "Detecting breathing sounds in realistic Japanese telephone conversations and its application to automatic speech recognition," Speech Communication, Vol. 98, pp. 95-103, April 2018.
Marie Tahon, Laurence Devillers, "Laughter Detection for On-line Human-robot Interaction," Proceedings of the 4th Interdisciplinary Workshop on Laughter and Other Non-verbal Vocalisations in Speech, pp. 35-37, April 2015.
Mahesh Kumar Nandwana, Ali Ziaei, John H. L. Hansen, "Robust unsupervised detection of human screams in noisy acoustic environments," 2015 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), pp. 161-165, April 2015.
非言語発話であっても文字に書き起こせる音(すなわち、音素の特定が概ね可能な音)が含まれることがある。音声認識等での利用を考える際、このような音は重要な手がかりになる。しかしながら、従来の非言語発話検出では、このような音は活用されていない。
この発明の目的は、非言語発話の検出に発話内容の情報を利用することで非言語発話の検出精度を向上させることである。
上記の課題を解決するために、この発明の一態様の非言語発話検出装置は、ボトルネック構造をもつ深層ニューラルネットワークにより構成され、入力された音声特徴量から音素状態を推定して出力する音響モデルを記憶する音響モデル記憶部と、入力された音声特徴量とボトルネック特徴量とから非言語発話らしさの事後確率を推定して出力する非言語発話モデルを記憶する非言語発話モデル記憶部と、入力された音声信号からフレーム毎に音声特徴量を抽出する音声特徴量抽出部と、音声信号から抽出した各フレームの音声特徴量を音響モデルへ入力し、音響モデルのボトルネック層の出力を各フレームのボトルネック特徴量として得るボトルネック特徴量推定部と、音声信号から抽出した各フレームの音声特徴量とその音声特徴量から得た各フレームのボトルネック特徴量とを非言語発話モデルへ入力し、非言語発話モデルが出力する各フレームの非言語発話らしさの事後確率を得る非言語発話検出部と、を含む。
この発明によれば、非言語発話の検出に発話内容の情報を利用することができ、非言語発話の検出精度が向上する。
以下、この発明の実施の形態について詳細に説明する。なお、図面中において同じ機能を有する構成部には同じ番号を付し、重複説明を省略する。
以下で説明する実施形態は、事前に学習された非言語発話を推定するモデル(以下、「非言語発話モデル」と呼ぶ)を用いて、入力された音声信号から非言語発話らしさの事後確率を求める非言語発話検出装置および方法である。実施形態の非言語発話検出装置1は、図1に例示するように、音響モデル記憶部10A、非言語発話モデル記憶部10B、音声特徴量抽出部11、ボトルネック特徴量推定部12、および非言語発話検出部13を備える。この非言語発話検出装置1が、図2に例示する各ステップの処理を行うことにより実施形態の非言語発話検出方法が実現される。
非言語発話検出装置1は、例えば、中央演算処理装置(CPU: Central Processing Unit)、主記憶装置(RAM: Random Access Memory)などを有する公知又は専用のコンピュータに特別なプログラムが読み込まれて構成された特別な装置である。非言語発話検出装置1は、例えば、中央演算処理装置の制御のもとで各処理を実行する。非言語発話検出装置1に入力されたデータや各処理で得られたデータは、例えば、主記憶装置に格納され、主記憶装置に格納されたデータは必要に応じて中央演算処理装置へ読み出されて他の処理に利用される。非言語発話検出装置1の各処理部は、少なくとも一部が集積回路等のハードウェアによって構成されていてもよい。
音響モデル記憶部10Aには、予め学習した音響モデルが記憶されている。この音響モデルは、音声特徴量を入力とし、音素状態番号(senone)を出力する深層ニューラルネットワーク(DNN: Deep Neural Network)により構成される。この深層ニューラルネットワークは、中間層のうちの1層についてユニット数を少なく抑えたボトルネック構造をもつものとする。ここで、ユニット数を抑えた中間層を「ボトルネック層」と呼び、ボトルネック層の出力値を「ボトルネック特徴量」と呼ぶ。
ボトルネック特徴量は、入力特徴量を次元圧縮された音響歪み耐性がある特徴量である。なお、「音響歪み耐性がある特徴量」とは、同じ入力音声に対して、例えば、異なる2つの音響歪みが付加されていると仮定した場合に、これら2つの異なる音響歪みが付加された入力音声に対して生成した2つの特徴量が似通っていることをいう。言い換えれば、「音響歪み耐性がある特徴量」は、音響歪みの影響が軽減された特徴量である。
音響モデルの学習は、大量の音響モデル学習用音声データと、各音声データと対になる書き起こしデータとに基づいて、予め行う。このとき、音響モデル学習用音声データは、非言語発話が大量に含まれているものとする。
非言語発話モデル記憶部10Bには、予め学習済みの非言語発話モデルが記憶されている。この非言語発話モデルは、フレーム毎の音声特徴量とそのフレームの音声特徴量に対応するボトルネック特徴量とを入力とし、非言語発話らしさの事後確率を出力とする。なお、「音声特徴量に対応するボトルネック特徴量」とは、ある音声特徴量を上述の音響モデルに入力したときにボトルネック層が出力するボトルネック特徴量を意味する。
この実施形態では、非言語発話らしさは、値域を0.0以上1.0以下とする。非言語発話らしさは、言語的意味を伴わないものの人間の口腔を通じて発声される音声(例えば、咳やくしゃみ、笑い声など、人工のものを含む)は1.0に近い値を与えるものとする。逆に、言語的意味を伴う音声および非音声(例えば、車の騒音や階段をのぼる足音などの雑音)は0.0に近い値を与えるものとする。
非言語発話モデルは、例えば、深層ニューラルネットワーク(DNN: Deep Neural Network)や畳み込みニューラルネットワーク(CNN: Convolutional Neural Network)、混合正規分布(GMM: Gaussian Mixture Model)などを用いることができる。ただし、前後の発話内容に依存して非言語発話らしいか否かが決まる場合に対応することを想定して、長短期記憶(LSTM: Long Short Term Memory)やゲート付き再帰ユニット(GRU: Gated Recurrent Unit)などの長距離文脈を捉えられる(扱える)モデルを用いると好適である。
非言語発話モデルは、以下のように学習する。非言語発話モデル学習用音声データから抽出した各フレームの音声特徴量と、そのフレームの音声特徴量に対応するボトルネック特徴量と、非言語発話らしさの正解値とが対応付けられた学習用データを予め用意する。非言語発話らしさの正解値は、非言語発話らしい場合は1.0、そうでない場合は0.0の二値を人手で与えるものとする。初期値を適当に設定したニューラルネットワークに学習用データを入力したときの出力(非言語発話らしさの事後確率)の推定値と学習用データ中の非言語発話らしさの正解値との比較結果に基づき、推定値が正解値に近付くようにニューラルネットワークの各パラメータを繰り返し更新する。更新方法は、例えば誤差伝搬学習等の公知の技術を用いればよい。
ステップS1において、音声特徴量抽出部11は、非言語発話検出装置1に入力された音声信号を受け取る。音声特徴量抽出部11は、受け取った音声信号からフレーム毎に音声特徴量を抽出する。抽出する音声特徴量は、例えば、下記参考文献1に記載されたメルフィルタバンクスロープ(MFS: Mel Filterbank Slope)やメル周波数ケプストラム係数(MFCC: Mel Frequency Cepstral Coefficients)などである。音声特徴量抽出部11は、抽出したフレーム毎の音声特徴量をボトルネック特徴量推定部12および非言語発話検出部13へ入力する。
〔参考文献1〕S. R. Madikeri, H. A. Murthy, "Mel Filter Bank energy-based Slope feature and its application to speaker recognition," 2011 National Conference on Communications (NCC), pp. 1-4, 2011.
〔参考文献1〕S. R. Madikeri, H. A. Murthy, "Mel Filter Bank energy-based Slope feature and its application to speaker recognition," 2011 National Conference on Communications (NCC), pp. 1-4, 2011.
フレーム毎に処理を行うのは以下の理由による。入力音声を音響分析する際、分析対象の波形は一定の性質を持つ(分析対象の始めと終わりで特性が変わらない)ものであるという前提を置く場合が多い。そのため、分析対象の音声波形を非常に短い時間幅(20~30ミリ秒といった値が採用されることが多い)で切り出すことにより、そのごく短い時間では音声は同じ特性を持つと言えるようにする。このように音声を短い時間幅で切り出す際、音響分析結果の急激な変化を避ける(連続的に変化するようにする)ことを目的に、切り出し位置を時間幅より短い幅でずらすことにより、切り出された音声波形が一部オーバーラップし、その分共通の音声になっている部分ができる。フレームの切り出し位置をずらしていく時間幅をフレームシフトと呼ぶことが多い(10~15ミリ秒といった値が採用されることが多い)。詳細は、上記非特許文献3(特にFig. 1)を参照されたい。
ステップS2において、ボトルネック特徴量推定部12は、音声特徴量抽出部11からフレーム毎の音声特徴量を受け取る。ボトルネック特徴量推定部12は、受け取った各フレームの音声特徴量を音響モデル記憶部10Aに記憶された音響モデルへ入力し、音響モデルのボトルネック層の出力ベクトルを各フレームのボトルネック特徴量として得る。ボトルネック特徴量推定部12は、得たフレーム毎のボトルネック特徴量を非言語発話検出部13へ入力する。
ステップS3において、非言語発話検出部13は、音声特徴量抽出部11からフレーム毎の音声特徴量を、ボトルネック特徴量推定部12からフレーム毎のボトルネック特徴量を受け取る。非言語発話検出部13は、受け取った各フレームの音声特徴量と各フレームのボトルネック特徴量とを非言語発話モデル記憶部10Bに記憶された非言語発話モデルへ入力し、非言語発話モデルが出力する各フレームの非言語発話らしさの事後確率を得る。非言語発話検出部13は、得た非言語発話らしさの事後確率を非言語発話検出装置1の出力とする。
上述の実施形態で示したように、非言語発話の検出に音響モデルが出力する音素状態のボトルネック特徴量を用いることで、以下のような効果が期待できる。第一に、非言語発話の音素情報を推定に用いることで、検出精度の向上が期待できる。第二に、前後の特徴量の関係を捉えるモデルを用いることで、文字にすると同じような結果になる音による非言語発話の推定を行いやすくすることができる。すなわち、実施形態の非言語発話検出技術によれば、非言語発話の検出に発話内容の情報を利用することができ、非言語発話の検出精度が向上する。
以上、この発明の実施の形態について説明したが、具体的な構成は、これらの実施の形態に限られるものではなく、この発明の趣旨を逸脱しない範囲で適宜設計の変更等があっても、この発明に含まれることはいうまでもない。実施の形態において説明した各種の処理は、記載の順に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。
[プログラム、記録媒体]
上記実施形態で説明した各装置における各種の処理機能をコンピュータによって実現する場合、各装置が有すべき機能の処理内容はプログラムによって記述される。そして、このプログラムをコンピュータで実行することにより、上記各装置における各種の処理機能がコンピュータ上で実現される。
上記実施形態で説明した各装置における各種の処理機能をコンピュータによって実現する場合、各装置が有すべき機能の処理内容はプログラムによって記述される。そして、このプログラムをコンピュータで実行することにより、上記各装置における各種の処理機能がコンピュータ上で実現される。
この処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体としては、例えば、磁気記録装置、光ディスク、光磁気記録媒体、半導体メモリ等どのようなものでもよい。
また、このプログラムの流通は、例えば、そのプログラムを記録したDVD、CD-ROM等の可搬型記録媒体を販売、譲渡、貸与等することによって行う。さらに、このプログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することにより、このプログラムを流通させる構成としてもよい。
このようなプログラムを実行するコンピュータは、例えば、まず、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、一旦、自己の記憶装置に格納する。そして、処理の実行時、このコンピュータは、自己の記憶装置に格納されたプログラムを読み取り、読み取ったプログラムに従った処理を実行する。また、このプログラムの別の実行形態として、コンピュータが可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することとしてもよく、さらに、このコンピュータにサーバコンピュータからプログラムが転送されるたびに、逐次、受け取ったプログラムに従った処理を実行することとしてもよい。また、サーバコンピュータから、このコンピュータへのプログラムの転送は行わず、その実行指示と結果取得のみによって処理機能を実現する、いわゆるASP(Application Service Provider)型のサービスによって、上述の処理を実行する構成としてもよい。なお、本形態におけるプログラムには、電子計算機による処理の用に供する情報であってプログラムに準ずるもの(コンピュータに対する直接の指令ではないがコンピュータの処理を規定する性質を有するデータ等)を含むものとする。
また、この形態では、コンピュータ上で所定のプログラムを実行させることにより、本装置を構成することとしたが、これらの処理内容の少なくとも一部をハードウェア的に実現することとしてもよい。
1 非言語発話検出装置
10A 音響モデル記憶部
10B 非言語発話モデル記憶部
11 音声特徴量抽出部
12 ボトルネック特徴量推定部
13 非言語発話検出部
10A 音響モデル記憶部
10B 非言語発話モデル記憶部
11 音声特徴量抽出部
12 ボトルネック特徴量推定部
13 非言語発話検出部
Claims (4)
- ボトルネック構造をもつ深層ニューラルネットワークにより構成され、入力された音声特徴量から音素状態を推定して出力する音響モデルを記憶する音響モデル記憶部と、
入力された音声特徴量とボトルネック特徴量とから非言語発話らしさの事後確率を推定して出力する非言語発話モデルを記憶する非言語発話モデル記憶部と、
入力された音声信号からフレーム毎に音声特徴量を抽出する音声特徴量抽出部と、
上記音声信号から抽出した各フレームの音声特徴量を上記音響モデルへ入力し、上記音響モデルのボトルネック層の出力を各フレームのボトルネック特徴量として得るボトルネック特徴量推定部と、
上記音声信号から抽出した各フレームの音声特徴量とその音声特徴量から得た各フレームのボトルネック特徴量とを上記非言語発話モデルへ入力し、上記非言語発話モデルが出力する各フレームの非言語発話らしさの事後確率を得る非言語発話検出部と、
を含む非言語発話検出装置。 - 請求項1に記載の非言語発話検出装置であって、
上記非言語発話モデルは、長距離文脈を扱う再帰型ニューラルネットワークにより構成されるものである、
非言語発話検出装置。 - 音響モデル記憶部に、ボトルネック構造をもつ深層ニューラルネットワークにより構成され、入力された音声特徴量から音素状態を推定して出力する音響モデルが記憶されており、
非言語発話モデル記憶部に、入力された音声特徴量とボトルネック特徴量とから非言語発話らしさの事後確率を推定して出力する非言語発話モデルが記憶されており、
音声特徴量抽出部が、入力された音声信号からフレーム毎に音声特徴量を抽出し、
ボトルネック特徴量推定部が、上記音声信号から抽出した各フレームの音声特徴量を上記音響モデルへ入力し、上記音響モデルのボトルネック層の出力を各フレームのボトルネック特徴量として得、
非言語発話検出部が、上記音声信号から抽出した各フレームの音声特徴量とその音声特徴量から得た各フレームのボトルネック特徴量とを上記非言語発話モデルへ入力し、上記非言語発話モデルが出力する各フレームの非言語発話らしさの事後確率を得る、
非言語発話検出方法。 - 請求項1または2に記載の非言語発話検出装置としてコンピュータを機能させるためのプログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018212666A JP7024691B2 (ja) | 2018-11-13 | 2018-11-13 | 非言語発話検出装置、非言語発話検出方法、およびプログラム |
US17/293,021 US11741989B2 (en) | 2018-11-13 | 2019-10-31 | Non-verbal utterance detection apparatus, non-verbal utterance detection method, and program |
PCT/JP2019/042739 WO2020100606A1 (ja) | 2018-11-13 | 2019-10-31 | 非言語発話検出装置、非言語発話検出方法、およびプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018212666A JP7024691B2 (ja) | 2018-11-13 | 2018-11-13 | 非言語発話検出装置、非言語発話検出方法、およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020079852A JP2020079852A (ja) | 2020-05-28 |
JP7024691B2 true JP7024691B2 (ja) | 2022-02-24 |
Family
ID=70731472
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018212666A Active JP7024691B2 (ja) | 2018-11-13 | 2018-11-13 | 非言語発話検出装置、非言語発話検出方法、およびプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US11741989B2 (ja) |
JP (1) | JP7024691B2 (ja) |
WO (1) | WO2020100606A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113643689B (zh) * | 2021-07-02 | 2023-08-18 | 北京华捷艾米科技有限公司 | 一种数据滤波方法和相关设备 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015212732A (ja) | 2014-05-01 | 2015-11-26 | 日本放送協会 | 音喩認識装置、及びプログラム |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10884503B2 (en) * | 2015-12-07 | 2021-01-05 | Sri International | VPA with integrated object recognition and facial expression recognition |
WO2017112813A1 (en) * | 2015-12-22 | 2017-06-29 | Sri International | Multi-lingual virtual personal assistant |
EP3267438B1 (en) * | 2016-07-05 | 2020-11-25 | Nxp B.V. | Speaker authentication with artificial neural networks |
CN108447490B (zh) * | 2018-02-12 | 2020-08-18 | 阿里巴巴集团控股有限公司 | 基于记忆性瓶颈特征的声纹识别的方法及装置 |
US11749298B2 (en) * | 2018-05-08 | 2023-09-05 | Cirrus Logic Inc. | Health-related information generation and storage |
US20200074997A1 (en) * | 2018-08-31 | 2020-03-05 | CloudMinds Technology, Inc. | Method and system for detecting voice activity in noisy conditions |
-
2018
- 2018-11-13 JP JP2018212666A patent/JP7024691B2/ja active Active
-
2019
- 2019-10-31 US US17/293,021 patent/US11741989B2/en active Active
- 2019-10-31 WO PCT/JP2019/042739 patent/WO2020100606A1/ja active Application Filing
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015212732A (ja) | 2014-05-01 | 2015-11-26 | 日本放送協会 | 音喩認識装置、及びプログラム |
Non-Patent Citations (3)
Title |
---|
Chin-Hung CHOU et al.,A real-Time Training-Free Lughter Detection System Based on Novel Syllable Segmentation and Correlat,4th International Conference on Awareness Science and Technology,pp.1-4,IEEE,2013年02月25日 |
向原康平 他,"ボトルネック特徴量を用いた感情音声の認識",online,pp.1-6,2015年06月22日,http://www.phontron.com/paper/mukaihara15slp07.pdf |
河内 祐太 他,"英語レベル連結DNN音響モデルを用いた日本人英語認識の検討",日本音響学会 2016年 春季研究発表会講演論文集CD-ROM [CD-ROM],2016年03月17日,pp.77-78 |
Also Published As
Publication number | Publication date |
---|---|
US20210272587A1 (en) | 2021-09-02 |
JP2020079852A (ja) | 2020-05-28 |
WO2020100606A1 (ja) | 2020-05-22 |
US11741989B2 (en) | 2023-08-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Giri et al. | Improving speech recognition in reverberation using a room-aware deep neural network and multi-task learning | |
US10403268B2 (en) | Method and system of automatic speech recognition using posterior confidence scores | |
US20170358306A1 (en) | Neural network-based voiceprint information extraction method and apparatus | |
Chan | Using a test-to-speech synthesizer to generate a reverse Turing test | |
US7720683B1 (en) | Method and apparatus of specifying and performing speech recognition operations | |
JP2000501847A (ja) | 教育及び試験における適応対話の音声信号から複合情報を得る方法及び装置 | |
JP6464005B2 (ja) | 雑音抑圧音声認識装置およびそのプログラム | |
JPH075892A (ja) | 音声認識方法 | |
EP1443495A1 (en) | Method of speech recognition using hidden trajectory hidden markov models | |
JP2004279466A (ja) | 音声モデルの雑音適応化システム、雑音適応化方法、及び、音声認識雑音適応化プログラム | |
JP4705414B2 (ja) | 音声認識装置、音声認識方法、音声認識プログラムおよび記録媒体 | |
Jitsuhiro et al. | Rejection of out-of-vocabulary words using phoneme confidence likelihood | |
US20130054242A1 (en) | Reducing false positives in speech recognition systems | |
JP7024691B2 (ja) | 非言語発話検出装置、非言語発話検出方法、およびプログラム | |
CN112908308B (zh) | 一种音频处理方法、装置、设备及介质 | |
WO2021171956A1 (ja) | 話者識別装置、話者識別方法、及び、プログラム | |
JP2011107314A (ja) | 音声認識装置、音声認識方法及び音声認識プログラム | |
CN109065026A (zh) | 一种录音控制方法及装置 | |
Nakadai et al. | A robot referee for rock-paper-scissors sound games | |
Zhang et al. | Improved context-dependent acoustic modeling for continuous Chinese speech recognition | |
Yamamoto et al. | Robust i-vector extraction tightly coupled with voice activity detection using deep neural networks | |
Barnard et al. | Real-world speech recognition with neural networks | |
Vanderreydt et al. | A Novel Channel estimate for noise robust speech recognition | |
JP2871420B2 (ja) | 音声対話システム | |
JP5427140B2 (ja) | 音声認識方法、音声認識装置及び音声認識プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210216 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220111 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220124 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7024691 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |