JP7024691B2 - 非言語発話検出装置、非言語発話検出方法、およびプログラム - Google Patents

非言語発話検出装置、非言語発話検出方法、およびプログラム Download PDF

Info

Publication number
JP7024691B2
JP7024691B2 JP2018212666A JP2018212666A JP7024691B2 JP 7024691 B2 JP7024691 B2 JP 7024691B2 JP 2018212666 A JP2018212666 A JP 2018212666A JP 2018212666 A JP2018212666 A JP 2018212666A JP 7024691 B2 JP7024691 B2 JP 7024691B2
Authority
JP
Japan
Prior art keywords
feature amount
verbal
voice
bottleneck
utterance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018212666A
Other languages
English (en)
Other versions
JP2020079852A (ja
Inventor
孝 中村
隆朗 福冨
清彰 松井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2018212666A priority Critical patent/JP7024691B2/ja
Priority to US17/293,021 priority patent/US11741989B2/en
Priority to PCT/JP2019/042739 priority patent/WO2020100606A1/ja
Publication of JP2020079852A publication Critical patent/JP2020079852A/ja
Application granted granted Critical
Publication of JP7024691B2 publication Critical patent/JP7024691B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/93Discriminating between voiced and unvoiced parts of speech signals
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
    • G10L25/30Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/16Speech classification or search using artificial neural networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/24Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being the cepstrum
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals
    • G10L25/84Detection of presence or absence of voice signals for discriminating voice from noise
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Machine Translation (AREA)
  • Measurement Of Mechanical Vibrations Or Ultrasonic Waves (AREA)
  • Circuit For Audible Band Transducer (AREA)

Description

この発明は、音声信号から非言語発話を検出する技術(non-verbal sound detection)に関する。
非言語発話とは、例えば、咳やくしゃみ、笑い声などの非言語的な音声である。非特許文献1には、非言語発話のうち笑い声を検出する様々な技術が開示されている。非特許文献2には、日本語による通話中の呼吸音を検出する技術が開示されている。非特許文献3には、人間とロボットとの対話において笑い声を検出する技術が開示されている。非特許文献4には、雑音環境下で人間の叫び声を検出する技術が開示されている。
Sarah Cosentino, Salvatore Sessa, Atsuo Takanishi, "Quantitative Laughter Detection, Measurement, and Classification - A Critical Survey," IEEE Reviews in Biomedical Engineering, Vol. 9, pp. 148-162, February 2016. Takashi Fukuda, Osamu Ichikawa, Masafumi Nishimura, "Detecting breathing sounds in realistic Japanese telephone conversations and its application to automatic speech recognition," Speech Communication, Vol. 98, pp. 95-103, April 2018. Marie Tahon, Laurence Devillers, "Laughter Detection for On-line Human-robot Interaction," Proceedings of the 4th Interdisciplinary Workshop on Laughter and Other Non-verbal Vocalisations in Speech, pp. 35-37, April 2015. Mahesh Kumar Nandwana, Ali Ziaei, John H. L. Hansen, "Robust unsupervised detection of human screams in noisy acoustic environments," 2015 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), pp. 161-165, April 2015.
非言語発話であっても文字に書き起こせる音(すなわち、音素の特定が概ね可能な音)が含まれることがある。音声認識等での利用を考える際、このような音は重要な手がかりになる。しかしながら、従来の非言語発話検出では、このような音は活用されていない。
この発明の目的は、非言語発話の検出に発話内容の情報を利用することで非言語発話の検出精度を向上させることである。
上記の課題を解決するために、この発明の一態様の非言語発話検出装置は、ボトルネック構造をもつ深層ニューラルネットワークにより構成され、入力された音声特徴量から音素状態を推定して出力する音響モデルを記憶する音響モデル記憶部と、入力された音声特徴量とボトルネック特徴量とから非言語発話らしさの事後確率を推定して出力する非言語発話モデルを記憶する非言語発話モデル記憶部と、入力された音声信号からフレーム毎に音声特徴量を抽出する音声特徴量抽出部と、音声信号から抽出した各フレームの音声特徴量を音響モデルへ入力し、音響モデルのボトルネック層の出力を各フレームのボトルネック特徴量として得るボトルネック特徴量推定部と、音声信号から抽出した各フレームの音声特徴量とその音声特徴量から得た各フレームのボトルネック特徴量とを非言語発話モデルへ入力し、非言語発話モデルが出力する各フレームの非言語発話らしさの事後確率を得る非言語発話検出部と、を含む。
この発明によれば、非言語発話の検出に発話内容の情報を利用することができ、非言語発話の検出精度が向上する。
図1は非言語発話検出装置の機能構成を例示する図である。 図2は非言語発話検出方法の処理手順を例示する図である。
以下、この発明の実施の形態について詳細に説明する。なお、図面中において同じ機能を有する構成部には同じ番号を付し、重複説明を省略する。
以下で説明する実施形態は、事前に学習された非言語発話を推定するモデル(以下、「非言語発話モデル」と呼ぶ)を用いて、入力された音声信号から非言語発話らしさの事後確率を求める非言語発話検出装置および方法である。実施形態の非言語発話検出装置1は、図1に例示するように、音響モデル記憶部10A、非言語発話モデル記憶部10B、音声特徴量抽出部11、ボトルネック特徴量推定部12、および非言語発話検出部13を備える。この非言語発話検出装置1が、図2に例示する各ステップの処理を行うことにより実施形態の非言語発話検出方法が実現される。
非言語発話検出装置1は、例えば、中央演算処理装置(CPU: Central Processing Unit)、主記憶装置(RAM: Random Access Memory)などを有する公知又は専用のコンピュータに特別なプログラムが読み込まれて構成された特別な装置である。非言語発話検出装置1は、例えば、中央演算処理装置の制御のもとで各処理を実行する。非言語発話検出装置1に入力されたデータや各処理で得られたデータは、例えば、主記憶装置に格納され、主記憶装置に格納されたデータは必要に応じて中央演算処理装置へ読み出されて他の処理に利用される。非言語発話検出装置1の各処理部は、少なくとも一部が集積回路等のハードウェアによって構成されていてもよい。
音響モデル記憶部10Aには、予め学習した音響モデルが記憶されている。この音響モデルは、音声特徴量を入力とし、音素状態番号(senone)を出力する深層ニューラルネットワーク(DNN: Deep Neural Network)により構成される。この深層ニューラルネットワークは、中間層のうちの1層についてユニット数を少なく抑えたボトルネック構造をもつものとする。ここで、ユニット数を抑えた中間層を「ボトルネック層」と呼び、ボトルネック層の出力値を「ボトルネック特徴量」と呼ぶ。
ボトルネック特徴量は、入力特徴量を次元圧縮された音響歪み耐性がある特徴量である。なお、「音響歪み耐性がある特徴量」とは、同じ入力音声に対して、例えば、異なる2つの音響歪みが付加されていると仮定した場合に、これら2つの異なる音響歪みが付加された入力音声に対して生成した2つの特徴量が似通っていることをいう。言い換えれば、「音響歪み耐性がある特徴量」は、音響歪みの影響が軽減された特徴量である。
音響モデルの学習は、大量の音響モデル学習用音声データと、各音声データと対になる書き起こしデータとに基づいて、予め行う。このとき、音響モデル学習用音声データは、非言語発話が大量に含まれているものとする。
非言語発話モデル記憶部10Bには、予め学習済みの非言語発話モデルが記憶されている。この非言語発話モデルは、フレーム毎の音声特徴量とそのフレームの音声特徴量に対応するボトルネック特徴量とを入力とし、非言語発話らしさの事後確率を出力とする。なお、「音声特徴量に対応するボトルネック特徴量」とは、ある音声特徴量を上述の音響モデルに入力したときにボトルネック層が出力するボトルネック特徴量を意味する。
この実施形態では、非言語発話らしさは、値域を0.0以上1.0以下とする。非言語発話らしさは、言語的意味を伴わないものの人間の口腔を通じて発声される音声(例えば、咳やくしゃみ、笑い声など、人工のものを含む)は1.0に近い値を与えるものとする。逆に、言語的意味を伴う音声および非音声(例えば、車の騒音や階段をのぼる足音などの雑音)は0.0に近い値を与えるものとする。
非言語発話モデルは、例えば、深層ニューラルネットワーク(DNN: Deep Neural Network)や畳み込みニューラルネットワーク(CNN: Convolutional Neural Network)、混合正規分布(GMM: Gaussian Mixture Model)などを用いることができる。ただし、前後の発話内容に依存して非言語発話らしいか否かが決まる場合に対応することを想定して、長短期記憶(LSTM: Long Short Term Memory)やゲート付き再帰ユニット(GRU: Gated Recurrent Unit)などの長距離文脈を捉えられる(扱える)モデルを用いると好適である。
非言語発話モデルは、以下のように学習する。非言語発話モデル学習用音声データから抽出した各フレームの音声特徴量と、そのフレームの音声特徴量に対応するボトルネック特徴量と、非言語発話らしさの正解値とが対応付けられた学習用データを予め用意する。非言語発話らしさの正解値は、非言語発話らしい場合は1.0、そうでない場合は0.0の二値を人手で与えるものとする。初期値を適当に設定したニューラルネットワークに学習用データを入力したときの出力(非言語発話らしさの事後確率)の推定値と学習用データ中の非言語発話らしさの正解値との比較結果に基づき、推定値が正解値に近付くようにニューラルネットワークの各パラメータを繰り返し更新する。更新方法は、例えば誤差伝搬学習等の公知の技術を用いればよい。
ステップS1において、音声特徴量抽出部11は、非言語発話検出装置1に入力された音声信号を受け取る。音声特徴量抽出部11は、受け取った音声信号からフレーム毎に音声特徴量を抽出する。抽出する音声特徴量は、例えば、下記参考文献1に記載されたメルフィルタバンクスロープ(MFS: Mel Filterbank Slope)やメル周波数ケプストラム係数(MFCC: Mel Frequency Cepstral Coefficients)などである。音声特徴量抽出部11は、抽出したフレーム毎の音声特徴量をボトルネック特徴量推定部12および非言語発話検出部13へ入力する。
〔参考文献1〕S. R. Madikeri, H. A. Murthy, "Mel Filter Bank energy-based Slope feature and its application to speaker recognition," 2011 National Conference on Communications (NCC), pp. 1-4, 2011.
フレーム毎に処理を行うのは以下の理由による。入力音声を音響分析する際、分析対象の波形は一定の性質を持つ(分析対象の始めと終わりで特性が変わらない)ものであるという前提を置く場合が多い。そのため、分析対象の音声波形を非常に短い時間幅(20~30ミリ秒といった値が採用されることが多い)で切り出すことにより、そのごく短い時間では音声は同じ特性を持つと言えるようにする。このように音声を短い時間幅で切り出す際、音響分析結果の急激な変化を避ける(連続的に変化するようにする)ことを目的に、切り出し位置を時間幅より短い幅でずらすことにより、切り出された音声波形が一部オーバーラップし、その分共通の音声になっている部分ができる。フレームの切り出し位置をずらしていく時間幅をフレームシフトと呼ぶことが多い(10~15ミリ秒といった値が採用されることが多い)。詳細は、上記非特許文献3(特にFig. 1)を参照されたい。
ステップS2において、ボトルネック特徴量推定部12は、音声特徴量抽出部11からフレーム毎の音声特徴量を受け取る。ボトルネック特徴量推定部12は、受け取った各フレームの音声特徴量を音響モデル記憶部10Aに記憶された音響モデルへ入力し、音響モデルのボトルネック層の出力ベクトルを各フレームのボトルネック特徴量として得る。ボトルネック特徴量推定部12は、得たフレーム毎のボトルネック特徴量を非言語発話検出部13へ入力する。
ステップS3において、非言語発話検出部13は、音声特徴量抽出部11からフレーム毎の音声特徴量を、ボトルネック特徴量推定部12からフレーム毎のボトルネック特徴量を受け取る。非言語発話検出部13は、受け取った各フレームの音声特徴量と各フレームのボトルネック特徴量とを非言語発話モデル記憶部10Bに記憶された非言語発話モデルへ入力し、非言語発話モデルが出力する各フレームの非言語発話らしさの事後確率を得る。非言語発話検出部13は、得た非言語発話らしさの事後確率を非言語発話検出装置1の出力とする。
上述の実施形態で示したように、非言語発話の検出に音響モデルが出力する音素状態のボトルネック特徴量を用いることで、以下のような効果が期待できる。第一に、非言語発話の音素情報を推定に用いることで、検出精度の向上が期待できる。第二に、前後の特徴量の関係を捉えるモデルを用いることで、文字にすると同じような結果になる音による非言語発話の推定を行いやすくすることができる。すなわち、実施形態の非言語発話検出技術によれば、非言語発話の検出に発話内容の情報を利用することができ、非言語発話の検出精度が向上する。
以上、この発明の実施の形態について説明したが、具体的な構成は、これらの実施の形態に限られるものではなく、この発明の趣旨を逸脱しない範囲で適宜設計の変更等があっても、この発明に含まれることはいうまでもない。実施の形態において説明した各種の処理は、記載の順に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。
[プログラム、記録媒体]
上記実施形態で説明した各装置における各種の処理機能をコンピュータによって実現する場合、各装置が有すべき機能の処理内容はプログラムによって記述される。そして、このプログラムをコンピュータで実行することにより、上記各装置における各種の処理機能がコンピュータ上で実現される。
この処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体としては、例えば、磁気記録装置、光ディスク、光磁気記録媒体、半導体メモリ等どのようなものでもよい。
また、このプログラムの流通は、例えば、そのプログラムを記録したDVD、CD-ROM等の可搬型記録媒体を販売、譲渡、貸与等することによって行う。さらに、このプログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することにより、このプログラムを流通させる構成としてもよい。
このようなプログラムを実行するコンピュータは、例えば、まず、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、一旦、自己の記憶装置に格納する。そして、処理の実行時、このコンピュータは、自己の記憶装置に格納されたプログラムを読み取り、読み取ったプログラムに従った処理を実行する。また、このプログラムの別の実行形態として、コンピュータが可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することとしてもよく、さらに、このコンピュータにサーバコンピュータからプログラムが転送されるたびに、逐次、受け取ったプログラムに従った処理を実行することとしてもよい。また、サーバコンピュータから、このコンピュータへのプログラムの転送は行わず、その実行指示と結果取得のみによって処理機能を実現する、いわゆるASP(Application Service Provider)型のサービスによって、上述の処理を実行する構成としてもよい。なお、本形態におけるプログラムには、電子計算機による処理の用に供する情報であってプログラムに準ずるもの(コンピュータに対する直接の指令ではないがコンピュータの処理を規定する性質を有するデータ等)を含むものとする。
また、この形態では、コンピュータ上で所定のプログラムを実行させることにより、本装置を構成することとしたが、これらの処理内容の少なくとも一部をハードウェア的に実現することとしてもよい。
1 非言語発話検出装置
10A 音響モデル記憶部
10B 非言語発話モデル記憶部
11 音声特徴量抽出部
12 ボトルネック特徴量推定部
13 非言語発話検出部

Claims (4)

  1. ボトルネック構造をもつ深層ニューラルネットワークにより構成され、入力された音声特徴量から音素状態を推定して出力する音響モデルを記憶する音響モデル記憶部と、
    入力された音声特徴量とボトルネック特徴量とから非言語発話らしさの事後確率を推定して出力する非言語発話モデルを記憶する非言語発話モデル記憶部と、
    入力された音声信号からフレーム毎に音声特徴量を抽出する音声特徴量抽出部と、
    上記音声信号から抽出した各フレームの音声特徴量を上記音響モデルへ入力し、上記音響モデルのボトルネック層の出力を各フレームのボトルネック特徴量として得るボトルネック特徴量推定部と、
    上記音声信号から抽出した各フレームの音声特徴量とその音声特徴量から得た各フレームのボトルネック特徴量とを上記非言語発話モデルへ入力し、上記非言語発話モデルが出力する各フレームの非言語発話らしさの事後確率を得る非言語発話検出部と、
    を含む非言語発話検出装置。
  2. 請求項1に記載の非言語発話検出装置であって、
    上記非言語発話モデルは、長距離文脈を扱う再帰型ニューラルネットワークにより構成されるものである、
    非言語発話検出装置。
  3. 音響モデル記憶部に、ボトルネック構造をもつ深層ニューラルネットワークにより構成され、入力された音声特徴量から音素状態を推定して出力する音響モデルが記憶されており、
    非言語発話モデル記憶部に、入力された音声特徴量とボトルネック特徴量とから非言語発話らしさの事後確率を推定して出力する非言語発話モデルが記憶されており、
    音声特徴量抽出部が、入力された音声信号からフレーム毎に音声特徴量を抽出し、
    ボトルネック特徴量推定部が、上記音声信号から抽出した各フレームの音声特徴量を上記音響モデルへ入力し、上記音響モデルのボトルネック層の出力を各フレームのボトルネック特徴量として得、
    非言語発話検出部が、上記音声信号から抽出した各フレームの音声特徴量とその音声特徴量から得た各フレームのボトルネック特徴量とを上記非言語発話モデルへ入力し、上記非言語発話モデルが出力する各フレームの非言語発話らしさの事後確率を得る、
    非言語発話検出方法。
  4. 請求項1または2に記載の非言語発話検出装置としてコンピュータを機能させるためのプログラム。
JP2018212666A 2018-11-13 2018-11-13 非言語発話検出装置、非言語発話検出方法、およびプログラム Active JP7024691B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018212666A JP7024691B2 (ja) 2018-11-13 2018-11-13 非言語発話検出装置、非言語発話検出方法、およびプログラム
US17/293,021 US11741989B2 (en) 2018-11-13 2019-10-31 Non-verbal utterance detection apparatus, non-verbal utterance detection method, and program
PCT/JP2019/042739 WO2020100606A1 (ja) 2018-11-13 2019-10-31 非言語発話検出装置、非言語発話検出方法、およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018212666A JP7024691B2 (ja) 2018-11-13 2018-11-13 非言語発話検出装置、非言語発話検出方法、およびプログラム

Publications (2)

Publication Number Publication Date
JP2020079852A JP2020079852A (ja) 2020-05-28
JP7024691B2 true JP7024691B2 (ja) 2022-02-24

Family

ID=70731472

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018212666A Active JP7024691B2 (ja) 2018-11-13 2018-11-13 非言語発話検出装置、非言語発話検出方法、およびプログラム

Country Status (3)

Country Link
US (1) US11741989B2 (ja)
JP (1) JP7024691B2 (ja)
WO (1) WO2020100606A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113643689B (zh) * 2021-07-02 2023-08-18 北京华捷艾米科技有限公司 一种数据滤波方法和相关设备

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015212732A (ja) 2014-05-01 2015-11-26 日本放送協会 音喩認識装置、及びプログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10884503B2 (en) * 2015-12-07 2021-01-05 Sri International VPA with integrated object recognition and facial expression recognition
WO2017112813A1 (en) * 2015-12-22 2017-06-29 Sri International Multi-lingual virtual personal assistant
EP3267438B1 (en) * 2016-07-05 2020-11-25 Nxp B.V. Speaker authentication with artificial neural networks
CN108447490B (zh) * 2018-02-12 2020-08-18 阿里巴巴集团控股有限公司 基于记忆性瓶颈特征的声纹识别的方法及装置
US11749298B2 (en) * 2018-05-08 2023-09-05 Cirrus Logic Inc. Health-related information generation and storage
US20200074997A1 (en) * 2018-08-31 2020-03-05 CloudMinds Technology, Inc. Method and system for detecting voice activity in noisy conditions

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015212732A (ja) 2014-05-01 2015-11-26 日本放送協会 音喩認識装置、及びプログラム

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Chin-Hung CHOU et al.,A real-Time Training-Free Lughter Detection System Based on Novel Syllable Segmentation and Correlat,4th International Conference on Awareness Science and Technology,pp.1-4,IEEE,2013年02月25日
向原康平 他,"ボトルネック特徴量を用いた感情音声の認識",online,pp.1-6,2015年06月22日,http://www.phontron.com/paper/mukaihara15slp07.pdf
河内 祐太 他,"英語レベル連結DNN音響モデルを用いた日本人英語認識の検討",日本音響学会 2016年 春季研究発表会講演論文集CD-ROM [CD-ROM],2016年03月17日,pp.77-78

Also Published As

Publication number Publication date
US20210272587A1 (en) 2021-09-02
JP2020079852A (ja) 2020-05-28
WO2020100606A1 (ja) 2020-05-22
US11741989B2 (en) 2023-08-29

Similar Documents

Publication Publication Date Title
Giri et al. Improving speech recognition in reverberation using a room-aware deep neural network and multi-task learning
US10403268B2 (en) Method and system of automatic speech recognition using posterior confidence scores
US20170358306A1 (en) Neural network-based voiceprint information extraction method and apparatus
Chan Using a test-to-speech synthesizer to generate a reverse Turing test
US7720683B1 (en) Method and apparatus of specifying and performing speech recognition operations
JP2000501847A (ja) 教育及び試験における適応対話の音声信号から複合情報を得る方法及び装置
JP6464005B2 (ja) 雑音抑圧音声認識装置およびそのプログラム
JPH075892A (ja) 音声認識方法
EP1443495A1 (en) Method of speech recognition using hidden trajectory hidden markov models
JP2004279466A (ja) 音声モデルの雑音適応化システム、雑音適応化方法、及び、音声認識雑音適応化プログラム
JP4705414B2 (ja) 音声認識装置、音声認識方法、音声認識プログラムおよび記録媒体
Jitsuhiro et al. Rejection of out-of-vocabulary words using phoneme confidence likelihood
US20130054242A1 (en) Reducing false positives in speech recognition systems
JP7024691B2 (ja) 非言語発話検出装置、非言語発話検出方法、およびプログラム
CN112908308B (zh) 一种音频处理方法、装置、设备及介质
WO2021171956A1 (ja) 話者識別装置、話者識別方法、及び、プログラム
JP2011107314A (ja) 音声認識装置、音声認識方法及び音声認識プログラム
CN109065026A (zh) 一种录音控制方法及装置
Nakadai et al. A robot referee for rock-paper-scissors sound games
Zhang et al. Improved context-dependent acoustic modeling for continuous Chinese speech recognition
Yamamoto et al. Robust i-vector extraction tightly coupled with voice activity detection using deep neural networks
Barnard et al. Real-world speech recognition with neural networks
Vanderreydt et al. A Novel Channel estimate for noise robust speech recognition
JP2871420B2 (ja) 音声対話システム
JP5427140B2 (ja) 音声認識方法、音声認識装置及び音声認識プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210216

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220111

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220124

R150 Certificate of patent or registration of utility model

Ref document number: 7024691

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150