JP2023041843A - 音声区間検出装置、音声区間検出方法及びプログラム - Google Patents

音声区間検出装置、音声区間検出方法及びプログラム Download PDF

Info

Publication number
JP2023041843A
JP2023041843A JP2023014052A JP2023014052A JP2023041843A JP 2023041843 A JP2023041843 A JP 2023041843A JP 2023014052 A JP2023014052 A JP 2023014052A JP 2023014052 A JP2023014052 A JP 2023014052A JP 2023041843 A JP2023041843 A JP 2023041843A
Authority
JP
Japan
Prior art keywords
speech
segment
specific
frame
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023014052A
Other languages
English (en)
Inventor
寛基 富田
Hiroki Tomita
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2019025686A external-priority patent/JP7222265B2/ja
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Publication of JP2023041843A publication Critical patent/JP2023041843A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/04Segmentation; Word boundary detection
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/183Speech classification or search using natural language modelling using context dependencies, e.g. language models
    • G10L15/187Phonemic context, e.g. pronunciation rules, phonotactical constraints or phoneme n-grams
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/06Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being correlation coefficients
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/24Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being the cepstrum
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals
    • G10L25/84Detection of presence or absence of voice signals for discriminating voice from noise
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/14Speech classification or search using statistical models, e.g. Hidden Markov Models [HMMs]
    • G10L15/142Hidden Markov Models [HMMs]
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • G10L2015/025Phonemes, fenemes or fenones being the recognition units
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals
    • G10L2025/783Detection of presence or absence of voice signals based on threshold decision

Landscapes

  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Machine Translation (AREA)
  • Telephonic Communication Services (AREA)
  • Auxiliary Devices For Music (AREA)

Abstract

【課題】音声信号から、話者によって発音された発話音声を表す発話音声信号を含む発話音声区間を検出するときの検出精度を向上させる音声区間検出装置、音声区間検出方法及びプログラムを提供する。【解決手段】音声区間検出装置は、特定音声区間検出部と、発話音声区間検出部と、を備えている。特定音声区間検出部は、特定時間より長い時間にわたって継続して発音された同一の子音の音素の状態を表す特定音声信号を含む特定音声区間を、ターゲット音声信号から検出する。発話音声区間検出部は、特定音声区間検出部による検出の結果に従って、話者によって発音された発話音声を表す発話音声信号を含む発話音声区間を、ターゲット音声信号から検出する。【選択図】図5

Description

本発明は、音声区間検出装置、音声区間検出方法及びプログラムに関する。
音声信号から、話者によって発音された発話音声を表す発話音声信号を含む発話音声区間を検出する技術が知られている。
例えば、非特許文献1は、音声信号から、DBN(Deep Belief Network)を用いて発話音声区間を検出する手法を開示している。
Zhang, X.-L., Wu, J., "Deep Belief Networks Based Voice Activity Detection", IEEE Transactions on Audio, Speech, and Language Processing, Vol.21, No.4, pp 697-710, (2013) 藤田悠哉,磯健一,"音素エントロピーを利用した背景発話に頑健なDNNに基づく音声区間検出",研究報告音声言語情報処理(SLP),Vol.2016-SLP-112,No.9,pp.1-6,(2016.7) 大淵康成,武田龍,神田直之,"統計的雑音抑圧法の強調的適用による雑音環境下音声区間検出",電子情報通信学会技術研究報告:信学技報,Vol.2012-SLP-94,No.18,pp.101-106,(2012.12)
非特許文献1に開示された手法を用いて音声信号から発話音声区間を検出したときに、当該音声信号中の区間であり、話者以外の音源によって発音された雑音音声を表す雑音音声信号を含む一方で発話音声信号を含まない区間が、発話音声区間として誤って検出されてしまう場合がある。
発話音声区間が誤って検出されてしまうことで、次のような問題が生じていた。例えば、長時間録音した音声データの中から、人が話している部分だけを検出し、検出された音声データだけを再生したい場合に、発話音声区間が誤って検出されてしまうと、不必要な音声データまで再生する必要が生じてしまう。また、例えば、音声を録音(入力)しながら、リアルタイムで発話音声の音声認識を実行したい場合、発話音声区間が誤って検出されてしまうことで、発話音声ではないときも音声認識を実行してしまうこととなり、必要以上にリソース(計算量)を多く消費することとなる。
また、発話音声区間の検出精度が低い場合には、次のような問題が生じていた。例えば、検出した対象が音声ではなく雑音や環境音だけになることがあるので、検出された音声データの聞き直し時に、無駄な時間を使うことになる。また、例えば、音声を喋っている部分が検出されずに検出結果より抜け落ちてしまい、聞き直しが必要な音声データを聞き逃してしまうことになる。さらに、発話音声区間の検出精度が低いために、発話区間の先頭や一部が検出されずに検出結果より抜け落ちてしまうことがあり、その場合、その検出結果の音声データを入力データとして音声認識を行ったときに、認識精度が低下してしまう理由の一つとなっていた。
そのため、発話音声区間の検出精度を向上させることが求められていた。
本発明は、上記事情に鑑み、音声信号から、話者によって発音された発話音声を表す発話音声信号を含む発話音声区間を検出するときの検出精度を向上させる音声区間検出装置、音声区間検出方法及びプログラムを提供することを目的とする。
上記目的を達成するため、本発明に係る音声区間検出装置は、
特定時間より長い時間にわたって継続して発音された同一の子音の音素の状態を表す特定音声信号を含む特定音声区間を、ターゲット音声信号から検出する特定音声区間検出手段と、
前記特定音声区間検出手段による検出の結果に従って、話者によって発音された発話音声を表す発話音声信号を含む発話音声区間を、前記ターゲット音声信号から検出する発話音声区間検出手段と、
を備えることを特徴とする。
本発明によれば、音声信号から、話者によって発音された発話音声を表す発話音声信号を含む発話音声区間を検出するときの検出精度を向上させる音声区間検出装置、音声区間検出方法及びプログラムを提供することができる。
本発明の実施形態に係る音声区間検出装置の物理的構成を示す図である。 本発明の実施形態に係る音声区間検出装置の機能的構成を示す図である。 本発明の実施形態に係る音声区間検出装置が実行するフレームの設定及び候補区間の設定を説明するための図である。 本発明の実施形態に係るNN(Neural Network)の構成例を示す図である。 本発明の実施形態に係る音声区間検出装置が実行する特定音声区間の検出及び発話音声区間の検出を説明するための図である。 本発明の実施形態に係る音声区間検出装置が実行する検出情報の出力を説明するための図である。 本発明の実施形態に係る音声区間検出装置が実行する音声区間検出処理を説明するためのフローチャートである。 本発明の実施形態に係る音声区間検出装置が実行する候補区間取得処理を説明するためのフローチャートである。 本発明の実施形態に係る音声区間検出装置が実行する発話音声区間取得処理を説明するためのフローチャートである。
以下、本発明の実施形態に係る音声区間検出装置について、図面を参照しながら説明する。図中、互いに同一又は同等の構成には、互いに同一の符号を付す。
図1に示す音声区間検出装置1は、ターゲット音声信号から、話者によって発音された発話音声を表す発話音声信号を含む発話音声区間を検出する。ターゲット音声信号の具体例としては、会議の音声を表す音声信号、講演の音声を表す音声信号、テレビ放送の音声を表す音声信号、ラジオ放送の音声を表す音声信号等が挙げられる。
音声区間検出装置1は、制御部10と、記憶部11と、入力部12と、出力部13と、通信部14と、電源部15と、を備えている。
制御部10は、CPU(Central Processing Unit)を備え、記憶部11に記憶されたプログラム及びデータに従って、後述する音声区間検出処理を含む各種処理を実行する。制御部10は、コマンド及びデータの伝送経路である図示しないシステムバスを介して音声区間検出装置1の各部に接続されており、音声区間検出装置1全体を統括制御する。
記憶部11は、ROM(Read Only Memory)と、RAM(Random Access Memory)と、HDD(Hard Disk Drive)、フラッシュメモリ等の不揮発性の外部記憶装置と、を備え、制御部10が各種処理を実行するために用いるプログラム及びデータを記憶すると共に、制御部10が各種処理を実行することによって生成又は取得したデータを記憶する。具体的に、記憶部11は、制御部10が実行する制御プログラムを記憶している。また、記憶部11は、ターゲット音声信号を表すターゲット音声データを記憶している。音声区間検出装置1は、PC(Personal Computer)、スマートフォン等の外部の情報処理装置が、マイクロフォンを用いてターゲット音声信号を録音することにより生成したターゲット音声データを当該情報処理装置から取得し、記憶部11が備える外部記憶装置に格納する。
記憶部11が備えるRAMは、制御部10のワークエリアとして機能する。すなわち、制御部10は、記憶部11に記憶されたプログラム及びデータをRAMへ読み出し、読み出されたプログラム及びデータを参照することによって各種処理を実行する。
入力部12は、キーボード、タッチパネル、操作ボタン等の入力装置を備え、ユーザによる操作に従って各種指示を受け付け、受け付けた指示を制御部10へ供給する。具体的に、入力部12は、ターゲット音声データを指定するための指示や、発話音声区間の検出を開始させるための指示を、ユーザによる操作に従って受け付ける。
出力部13は、ディスプレイ13aと、スピーカ13bと、を備え、制御部10による制御に従い、発話音声区間の検出結果に対応する検出情報を含む各種情報を、ユーザが認識可能な形態で出力する。具体的に、出力部13は、制御部10による制御に従い、ディスプレイ13aに、検出情報として、発話音声区間の検出結果を表す検出画像を表示し、スピーカ13bから、検出情報として、検出された発話音声区間が含む音声信号を出力する。
通信部14は、制御部10による制御に従い、PC、スマートフォン等の外部の情報処理装置との間で、LAN(Local Area Network)、インターネット等の通信網を介して無線通信を行い、当該外部の情報処理装置との間でデータを送受信する。具体的に、通信部14は、PC、スマートフォン等の外部の情報処理装置によって生成されたターゲット音声データを、当該情報処理装置から受信し、受信したターゲット音声データを記憶部11へ供給する。
電源部15は、蓄電池等の電源と、当該電源を制御する電源制御回路と、を備え、制御部10による制御に従い、音声区間検出装置1の各部へ電力を供給する。
上述した物理的構成を備える音声区間検出装置1は、機能的に、図2に示すように、ターゲット音声データ取得部100と、フレーム設定部101と、候補区間取得部102と、NN記憶部103と、確率情報記憶部104と、発話音声区間取得部105と、検出情報出力部106と、を備えている。
ターゲット音声データ取得部100、フレーム設定部101、候補区間取得部102、発話音声区間取得部105及び検出情報出力部106は、制御部10によって実現される。具体的に、制御部10は、記憶部11に記憶された制御プログラムを実行して音声区間検出装置1を制御することにより、これらの各部として機能する。NN記憶部103及び確率情報記憶部104は、記憶部11によって実現される。具体的に、NN記憶部103及び確率情報記憶部104は、記憶部11が備える外部記憶装置の記憶領域に構築される。
ターゲット音声データ取得部100は、記憶部11が備える外部記憶装置から、当該外部記憶装置によって記憶されたターゲット音声データを取得する。
フレーム設定部101は、ターゲット音声データ取得部100によって取得されたターゲット音声データが表すターゲット音声信号中に、時間的に連続する複数のフレームを設定する。フレームは、時間長がフレーム長の時間窓である。フレーム長は、予め設定された時間長である。以下、フレーム設定部101が実行するフレームの設定について図3を参照して説明する。
図3には、ターゲット音声信号の音声波形を表す波形図が示されている。図3に示す波形図において、縦軸は音声波形の振幅の大きさを表し、横軸は時間tを表している。以下、図3に示すように、ターゲット音声信号の先頭から末尾までの時間長がTである場合を例に用いて説明する。
フレーム設定部101は、開始時刻がターゲット音声信号の先頭と一致し、時間長がフレーム長Fである時間窓を、ターゲット音声信号中の最初のフレームである第0フレームとして設定する。ターゲット音声信号中の最初のフレームは、当該ターゲット音声信号中のフレームのうち開始時刻が最も古いフレームである。第0フレームを設定した後、フレーム設定部101は、開始時刻が一のフレームの開始時刻よりシフト長Gだけ後の時刻であり、時間長がフレーム長Fである時間窓の終了時刻がターゲット音声信号の末尾よりも後の時刻であるか否かを判定し、当該終了時刻がターゲット音声信号の末尾よりも後の時刻ではないと判定したときに、当該時間窓を当該一のフレームの直後のフレームとして設定する処理を、当該終了時刻がターゲット音声信号の末尾よりも後の時刻であると判定されるまで繰り返し実行することにより、ターゲット音声信号中に、時間的に連続する複数のフレームを設定する。フレーム設定部101は、開始時刻が一のフレームの開始時刻よりシフト長Gだけ後の時刻であり、時間長がフレーム長Fである時間窓の終了時刻がターゲット音声信号の末尾よりも後の時刻であると判定したときに、ターゲット音声信号中にフレームを設定する処理を終了する。シフト長Gは、予め設定された時間長である。ターゲット音声信号中の一のフレームの直後のフレームは、当該ターゲット音声信号中のフレームのうち当該一のフレームに次いで開始時刻が新しいフレームである。
以下、図3に示すように、フレーム設定部101によって、ターゲット音声信号中に、第0フレーム~第(M-1)フレームのM個のフレームが設定された場合を例に用いて説明する。第0フレーム~第(M-1)フレームは、何れも、時間長がフレーム長Fである。図3に示すように、第1フレーム~第(M-1)フレームの各フレームは、開始時刻が、直前のフレームの開始時刻よりもシフト長Gだけ後の時刻である。ターゲット音声信号中の一のフレームの直前のフレームは、当該ターゲット音声信号中のフレームのうち当該一のフレームに次いで開始時刻が古いフレームである。例えば、第1フレームの開始時刻は、第1フレームの直前のフレームである第0フレームの開始時刻よりもシフト長Gだけ後の時刻である。
フレーム長F及びシフト長Gは、実験等の任意の手法を用いて、フレーム長Fがシフト長Gよりも長くなるように予め設定されている。本実施形態では、フレーム長Fは、25msに設定されており、シフト長Gは、10msに設定されている。フレーム長Fがシフト長Gよりも長いため、各フレームは、直後のフレームと時間長(F-G)だけ重複している。
図2に戻り、候補区間取得部102は、ターゲット音声信号中に、候補区間を設定する。後述するように、音声区間検出装置1は、候補区間取得部102によって設定された候補区間から発話音声区間を検出する。候補区間取得部102は、図2に示すように、事後確率取得部102aと、第1フレーム判定部102bと、候補区間設定部102cと、を備えている。
事後確率取得部102aは、フレーム設定部101によって設定されたフレーム毎に、フレームに含まれる音声信号が各音素の各状態を表している事後確率を取得する。
音素の状態は、音素を時間方向に細分化した単位である。音素毎に、音素の状態の数が予め設定されている。以下、各音素の状態の数が3に設定されている場合を例に用いて設定する。例えば、音素「a」は、当該音素の発音開始時を含む第1状態「a1」と、当該音素の発音終了時を含む第3状態「a3」と、当該第1状態「a1」と当該第3状態「a3」との中間状態である第2状態「a2」と、の3つの状態に分けられる。
以下、音響モデルとしてモノフォンモデルを用いる場合を例に説明する。音響モデルは、音素の周波数特性をモデル化したものである。モノフォンモデルは、1音素毎に生成された音響モデルであり、隣接する音素に依存しない、すなわち前後の音素の状態との状態遷移を固定化した音響モデルである。事後確率取得部102aは、フレーム毎に、フレームに含まれる音声信号が、モノフォンモデルにおける各音素の3状態それぞれを表している事後確率を取得する。モノフォンモデルで利用される全音素の数をQ個とした場合、(3×Q)個の状態が存在する。事後確率取得部102aは、(3×Q)個の状態それぞれに対応する事後確率を取得する。
本実施形態では、各音素の各状態に、識別子であるインデックスが一意的に対応付けられている。
事後確率取得部102aは、NN記憶部103によって記憶された、図4に示すNN103aを用いて事後確率を取得する。NN103aは、音声信号がモノフォンモデルにおける各音素の各状態を表している事後確率を出力する。具体的に、NN103aの入力層の各ユニットIN1~INvは、それぞれ、MFCC(Mel-Frequency Cepstrum Coefficient)の各次元に予め対応付けられており、NN103aの出力層の各ユニットIO1~IOwは、それぞれ、モノフォンモデルにおける各音素の各状態に対応付けられている。NN103aは、音声信号の音響特徴量としてMFCCが入力層に入力されたことに応答して、出力層から、当該音声信号が各音素の各状態を表している事後確率を出力する。
事後確率取得部102aは、一のフレームに含まれる音声信号をMFCCへ変換し、当該MFCCを当該音声信号の音響特徴量として取得し、取得したMFCCの各次元の値を、各次元に対応付けられたNN103aの入力層のユニットIN1~INvにそれぞれ入力し、当該入力に応答してNN103aの出力層の各ユニットIO1~IOwによって出力された出力値をソフトマックス関数に入力することにより、当該音声信号がモノフォンモデルにおける各音素の各状態を表している事後確率を取得する。
事後確率取得部102aは、各フレームに含まれる音声信号が各音素の各状態を表している事後確率を示す確率情報を、確率情報記憶部104へ供給し、記憶させる。また、事後確率取得部102aは、確率情報を、第1フレーム判定部102bへ供給する。
図2に戻り、第1フレーム判定部102bは、ターゲット音声信号中のフレーム毎に、予め設定された第1判定条件がフレームにおいて成立しているか否かを判定する。第1判定条件は、フレームに含まれる音声信号が音声に対応する各音素の各状態を表している事後確率の総和が、当該音声信号が無音に対応する各音素の各状態を表している事後確率の総和より大きい場合に成立する。すなわち、第1判定条件は、下記の式(1)が成立している場合に成立する。第1フレーム判定部102bは、式(1)が成立しているか否かを判定することにより、第1判定条件が成立しているか否かを判定する。非特許文献2に記載されているように、一のフレームにおいて第1判定条件が成立している場合、当該一のフレームに発話音声信号が含まれている可能性が高い。一方、一のフレームにおいて第1判定条件が成立していない場合、当該一のフレームに発話音声信号が含まれている可能性は低い。
Figure 2023041843000002
式(1)中、Sは、各音素の各状態に識別子として対応付けられたインデックスのうち、音声に対応する音素の状態に対応付けられたインデックスを要素として有する集合を表す。Nは、各音素の各状態に識別子として対応付けられたインデックスのうち、無音に対応する音素の状態に対応付けられたインデックスを要素として有する集合を表す。p(i|x(tj))は、音響特徴量x(tj)を有する音声信号が、インデックスiに対応付けられた音素の状態を表している事後確率を表す。音響特徴量x(tj)は、開始時刻が時刻tjであるフレームに含まれる音声信号の音響特徴量を表す。
第1フレーム判定部102bは、事後確率取得部102aから供給された確率情報に基づいて事後確率p(i|x(tj))を取得し、取得した事後確率p(i|x(tj))に基づいて式(1)が成立しているか否かを判定する。式(1)中の音響特徴量x(tj)は、事後確率取得部102aが、開始時刻が時刻tjであるフレームに含まれる音声信号を変換することによって取得したMFCCであり、事後確率p(i|x(tj))は、事後確率取得部102aが、当該MFCCをNN103aに入力することによって取得した、当該音声信号がインデックスiに対応付けられた音素の状態を表している事後確率である。第1フレーム判定部102bは、判定結果を示す情報を、候補区間設定部102cへ供給する。
候補区間設定部102cは、ターゲット音声信号中に、候補区間を設定する。具体的に、候補区間設定部102cは、ターゲット音声信号中の区間であり、当該区間に含まれている全てのフレームにおいて第1判定条件が成立していると第1フレーム判定部102bによって判定された区間を、候補区間として設定する。なお、非特許文献3に記載された手法を用いて候補区間の先頭及び末尾を設定してもよい。
上述したように、一のフレームにおいて第1判定条件が成立している場合、当該一のフレームに発話音声信号が含まれている可能性が高く、当該一のフレームにおいて第1判定条件が成立していない場合、当該一のフレームに発話音声信号が含まれている可能性は低い。候補区間に含まれているフレームは、何れも、第1判定条件が成立していると第1フレーム判定部102bによって判定されているため、候補区間には発話音声信号が含まれている可能性が高い。一方、ターゲット音声信号中の候補区間以外の区間に発話音声信号が含まれている可能性は低い。
以下、図3に示すように、候補区間設定部102cが、ターゲット音声信号中に、第1候補区間~第P候補区間のP個の候補区間を設定した場合を例に用いて説明する。第1候補区間~第P候補区間に含まれているフレームは、何れも、当該フレームにおいて第1フレーム判定部102bによって第1判定条件が成立していると判定されたフレームである。例えば、第1候補区間は、図3に示すように、第1フレーム~第KフレームのK個のフレームを含んでおり、第1フレーム~第Kフレームは、何れも、第1判定条件が成立していると第1フレーム判定部102bによって判定されたフレームである。
図2に戻り、NN記憶部103は、NN103aを表すデータを記憶する。NN103aは、PC、スマートフォン等の外部の情報処理装置において、音声コーパスを教師データとして用いて、誤差逆伝搬法等の任意の手法による機械学習を行うことによって生成される。音声コーパスは、複数の話者によって発音された音声を表す大量の音声データの集合体である。音声区間検出装置1は、外部の情報処理装置によって生成されたNN103aを表すデータを、通信部14を介して当該外部の情報処理装置から受信し、受信したデータをNN記憶部103に格納する。
確率情報記憶部104は、事後確率取得部102aから供給された確率情報を記憶する。確率情報記憶部104は、記憶している確率情報を、発話音声区間取得部105へ供給する。
発話音声区間取得部105は、候補区間取得部102によって取得された候補区間から、発話音声区間を検出する。
上述したように、候補区間には発話音声信号が含まれている可能性が高い一方、ターゲット音声信号中の候補区間以外の区間に発話音声信号が含まれている可能性は低い。発話音声区間取得部105は、候補区間から発話音声区間を検出することにより、ターゲット音声信号全体から発話音声区間を検出する場合に比べて、検出精度の低下を抑制しつつ、処理負荷を軽減することができる。
候補区間には、発話音声信号が含まれている可能性が高い一方、話者以外の音源によって発音された雑音音声を表す雑音音声信号が含まれている可能性がある。雑音音声の具体例としては、換気扇の動作音、空調装置の動作音、冷蔵庫の動作音等が挙げられる。
発話音声区間取得部105は、候補区間中の、雑音音声信号を含む一方で発話音声信号を含んでいない可能性が高い区間以外の区間を発話音声区間として検出する。
具体的に、発話音声区間取得部105は、候補区間から、予め設定された特定時間より長い時間にわたって継続して発音された同一の子音の音素の状態を表す特定音声信号を含む特定音声区間を検出し、候補区間中の検出された特定音声区間以外の区間を発話音声区間として検出する。
特定時間は、任意の手法により、各子音の音素の各状態の継続長の平均値に応じて予め設定されている。各子音の音素の各状態の継続長は、各子音の音素の各状態が話者によって発音される時間長である。具体的に、特定時間は、下記の式(2)に従って設定されている。
L=AA+2×SD ・・・(2)
式(2)中、Lは、特定時間を表す。AAは、各子音の音素の各状態の継続長の平均値を表す。SDは、各子音の音素の各状態の継続長の標準偏差を表す。各子音の音素の各状態の継続長の平均値AA及び各子音の音素の各状態の継続長の標準偏差SDは、音声コーパスにおける各子音の音素の各状態の継続長の分布に従って取得される。
候補区間に雑音音声信号が含まれている場合、当該雑音音声信号は、子音の音素である可能性が高く、母音の音素である可能性は低い。また、話者が子音の音素を発音する場合、話者が、当該子音の音素を、特定時間より長い時間にわたって継続して発音する可能性は低い。従って、特定時間より長い時間にわたって継続して発音された同一の子音の音素の状態を表す特定音声信号は、雑音音声信号である可能性が高く、特定音声区間は、雑音音声信号を含む一方で発話音声信号を含んでいない可能性が高い。発話音声区間取得部105は、候補区間中の特定音声区間以外の区間を発話音声区間として検出することにより、雑音音声信号を含む一方で発話音声信号を含まない区間を発話音声区間として誤って検出してしまう可能性を低減し、発話音声区間の検出精度を向上させることができる。
発話音声区間取得部105は、候補区間中の特定音声区間以外の区間のうち、時間長が予め設定された判定時間以上である区間を、発話音声区間として検出する。
判定時間は、実験等の任意の手法によって予め設定されている。具体的に、本実施形態では、各音素の継続長の平均値に0.1を乗じることによって得られた時間長が、判定時間として設定されている。各音素の継続長の平均値は、音声コーパスにおける各音素の継続長の分布に従って取得される。
話者が発話音声を発音する場合、話者が、当該発音音声を、判定時間よりも短い時間にわたって発音する可能性は低い。従って、候補区間中の特定音声区間以外の区間のうち、時間長が判定時間よりも短い区間は、発音音声区間である可能性は低く、雑音音声信号を含む一方で発話音声信号を含んでいない可能性が高い。発話音声区間取得部105は、候補区間中の特定音声以外の区間のうち、時間長が判定時間以上である区間を発話音声区間として検出することにより、雑音音声信号を含む一方で発話音声信号を含まない区間を発話音声区間として誤って検出してしまう可能性を低減し、発話音声区間の検出精度を向上させることができる。
図2に示すように、発話音声区間取得部105は、相関係数算出部105aと、第2フレーム判定部105bと、特定音声区間検出部105cと、発話音声区間検出部105dと、を備えている。
相関係数算出部105aは、各候補区間中のフレーム毎に、フレームに含まれる音声信号が各子音の音素の各状態を表している事後確率の確率分布と、当該フレームの直前のフレームに含まれる音声信号が各子音の音素の各状態を表している事後確率の確率分布と、の相関の程度を表す相関係数を算出する。具体的に、相関係数算出部105aは、下記の式(3)に従って相関係数を算出する。なお、各候補区間中の最初のフレームについては、当該最初のフレームの直前のフレームが存在しないため、相関係数算出部105aによる相関係数の算出対象から除外される。
Figure 2023041843000003
式(3)中、ρ(tj)は、開始時刻が時刻tjであるフレームに含まれる音声信号が各子音の音素の各状態を表している事後確率の確率分布と、当該フレームの直前のフレームに含まれる音声信号が各子音の音素の各状態を表している事後確率の確率分布と、の相関の程度を表す相関係数である。Cは、各音素の各状態に識別子として対応付けられたインデックスのうち、子音の音素の状態に対応付けられたインデックスを要素として有する集合を表す。p(i|x(tj))は、音響特徴量x(tj)を有する音声信号が、インデックスiに対応付けられた音素の状態を表している事後確率を表す。音響特徴量x(tj)は、開始時刻が時刻tjであるフレームに含まれる音声信号の音響特徴量を表す。AV(p(tj))は、開始時刻が時刻tjであるフレームに含まれる音声信号が各子音の音素の各状態を表している事後確率の相加平均を表す。p(i|x(tj-1))は、音響特徴量x(tj-1)を有する音声信号が、インデックスiに対応付けられた音素の状態を表している事後確率を表す。音響特徴量x(tj-1)は、開始時刻が時刻tj-1であるフレームに含まれる音声信号の音響特徴量を表す。時刻tj-1は、開始時刻がtjであるフレームの直前のフレームの開始時刻である。すなわち、開始時刻が時刻tj-1であるフレームは、開始時刻がtjであるフレームの直前のフレームである。AV(p(tj-1))は、開始時刻が時刻tj-1であるフレームに含まれる音声信号が各子音の音素の各状態を表している事後確率の相加平均を表す。
相関係数算出部105aは、確率情報記憶部104によって記憶された確率情報を確率情報記憶部104から取得し、取得した確率情報に基づいて事後確率p(i|x(tj))、事後確率p(i|x(tj-1))、相加平均AV(p(tj-1))及び相加平均AV(p(tj))を取得し、相関係数を算出する。
具体的に、音響特徴量x(tj)は、事後確率取得部102aが、開始時刻が時刻tjであるフレームに含まれる音声信号を変換することによって取得したMFCCであり、事後確率p(i|x(tj))は、事後確率取得部102aが、当該MFCCをNN103aに入力することによって取得した、当該音声信号がインデックスiに対応付けられた音素の状態を表している事後確率である。また、音響特徴量x(tj-1)は、事後確率取得部102aが、開始時刻が時刻tj-1であるフレームに含まれる音声信号を変換することによって取得したMFCCであり、事後確率p(i|x(tj-1))は、事後確率取得部102aが、当該MFCCをNN103aに入力することによって取得した、当該音声信号がインデックスiに対応付けられた音素の状態を表している事後確率である。
相加平均AV(p(tj))は、事後確率取得部102aが、開始時刻が時刻tjであるフレームに含まれる音声信号を変換することによって取得したMFCCをNN103aに入力することで取得した、当該音声信号が各子音の音素の各状態を表している事後確率の相加平均を算出することによって取得される。相加平均AV(p(tj-1))は、事後確率取得部102aが、開始時刻が時刻tj-1であるフレームに含まれる音声信号を変換することによって取得したMFCCをNN103aに入力することで取得した、当該音声信号が各子音の音素の各状態を表している事後確率の相加平均を算出することによって取得される。
相関係数算出部105aは、算出した相関係数を示す情報を、第2フレーム判定部105bへ供給する。
第2フレーム判定部105bは、各候補区間中のフレーム毎に、フレームが、当該フレームの直前のフレームに含まれる子音の音素の状態を表す音声信号と同一の音声信号を含むか否かを、予め設定された第2判定条件が成立しているか否かに基づいて判定する。第2判定条件は、相関係数算出部105aによって算出された相関係数が、予め設定された判定閾値以上である場合に成立する。判定閾値は、実験等の任意の手法によって予め設定されている。一のフレームにおいて第2判定条件が成立している場合、当該一のフレームは、当該一のフレームの直前のフレームに含まれる子音の音素の状態を表す音声信号と同一の音声信号を含んでいる。一方、一のフレームにおいて第2判定条件が成立していない場合、当該一のフレームは、当該一のフレームの直前のフレームに含まれる子音の音素の状態を表す音声信号と同一の音声信号を含んでいない。
なお、相関係数算出部105aによる相関係数の算出対象から除外された各候補区間中の最初のフレームは、第2フレーム判定部105bによる判定の対象から除外される。第2フレーム判定部105bは、判定結果を示す情報を、特定音声区間検出部105cへ供給する。
特定音声区間検出部105cは、候補区間中の区間であり、当該区間に含まれる全てのフレームにおいて第2判定条件が成立していると第2フレーム判定部105bによって判定された区間のうち、予め設定された特定個数よりも多い個数のフレームを含む区間を、特定音声区間として検出する。特定個数は、下記の式(4)に従い、特定時間に応じて予め設定されている。
L=F+(Y-1)×G ・・・(4)
式(4)中、Yは、特定個数を表す。Lは、特定時間を表す。Fは、フレーム長を表す。Gは、シフト長を表す。特定個数は、特定時間の時間長を有する区間に含まれる時間的に連続するフレームの数に相当する。従って、候補区間中の区間であり、当該区間に含まれる全てのフレームにおいて第2判定条件が成立していると第2フレーム判定部105bによって判定された区間が、特定個数よりも多い個数のフレームを含んでいる場合、当該区間は、特定時間よりも長い時間にわたって継続して発音された同一の子音の状態を表す特定音声信号を含んでいる。
以下、図5に示すように、候補区間取得部102によって設定された第1候補区間~第P候補区間に、第2判定条件が成立していると判定された特定個数よりも多い個数のフレームを含む区間と、第2判定条件が成立していると判定された特定個数以下の個数のフレームを含む区間と、が含まれている場合を例に用いて説明する。特定音声区間検出部105cは、図5に示すように、これらの区間のうち、第2判定条件が成立していると判定された特定個数よりも多い個数のフレームを含む区間を、特定音声区間として検出する。
図2に戻り、発話音声区間検出部105dは、候補区間中の特定音声区間検出部105cによって検出された特定音声区間以外の区間のうち、時間長が判定時間以上である区間を発話音声区間として検出する。
以下、図5に示すように、第1候補区間~第P候補区間中の特定音声以外の区間が、時間長が判定時間以上である区間と、時間長が判定時間よりも短い区間と、を含んでいる場合を例に用いて説明する。発話音声区間検出部105dは、図5に示すように、これらの区間のうち、時間長が判定時間以上である区間を特定音声区間として検出する。
図2に戻り、検出情報出力部106は、出力部13に、発話音声区間検出部105dによる発話音声区間の検出結果に対応する検出情報を出力させる。具体的に、検出情報出力部106は、図6に示すように、出力部13が備えるディスプレイ13aに、検出情報として、発話音声区間検出部105dによる発話音声区間の検出結果を表す検出画像WWを表示させ、出力部13が備えるスピーカ13bに、検出情報として、発話音声区間検出部105dによって検出された発話音声区間が含む音声信号を出力させる。
図6に示すように、検出画像WWは、ターゲット音声信号の音声波形を表す画像と、検出された発話音声区間を表す画像と、を含んでいる。発話音声区間検出部105dによって複数の発話音声区間が検出された場合、検出情報出力部106は、スピーカ13bに、検出された各発話音声区間が含む音声信号を、開始時刻が新しい発話音声区間が含む音声信号から順に、連続して出力させる。
なお、発話音声区間検出部105dによって発話音声区間が検出されなかった場合、検出情報出力部106は、出力部13に、発話音声区間が検出されなかった旨を報知する非検出情報を出力させる。具体的に、検出情報出力部106は、ディスプレイ13aに、非検出情報として、「発話音声区間が検出されませんでした。」というメッセージを表す画像を表示させ、スピーカ13bに、非検出情報として、「発話音声区間が検出されませんでした。」というメッセージを表す音声信号を出力させる。
以下、上述した物理的・機能的構成を備える音声区間検出装置1が実行する音声区間検出処理について、図7~図9のフローチャートを参照して説明する。
音声区間検出装置1は、PC、スマートフォン等の外部の情報処理装置によって生成されたターゲット音声データを、当該外部の情報処理装置から通信部14を介して受信し、記憶部11に予め記憶している。
この状態において、ユーザが、入力部12を操作することによって発話音声区間の検出開始を指示すると、制御部10は、図7のフローチャートに示す音声区間検出処理を開始する。
音声区間検出処理が開始されると、まず、ターゲット音声データ取得部100が、記憶部11に記憶されたターゲット音声データを取得する(ステップS101)。フレーム設定部101は、ステップS101で取得されたターゲット音声データが表すターゲット音声信号中に、時間的に連続する複数のフレームを設定する(ステップS102)。具体的に、ステップS102において、フレーム設定部101は、開始時刻がターゲット音声信号の先頭と一致し、時間長がフレーム長Fである時間窓を、ターゲット音声信号中の最初のフレームである第0フレームとして設定した後、開始時刻が一のフレームの開始時刻よりシフト長Gだけ後の時刻であり、時間長がフレーム長Fである時間窓の終了時刻がターゲット音声信号の末尾よりも後の時刻であるか否かを判定し、当該終了時刻がターゲット音声信号の末尾よりも後の時刻ではないと判定したときに、当該時間窓を当該一のフレームの直後のフレームとして設定する処理を、当該終了時刻がターゲット音声信号の末尾よりも後の時刻であると判定されるまで繰り返し実行することにより、ターゲット音声信号中に、時間的に連続する複数のフレームを設定する。
ステップS102の処理が実行された後、候補区間取得部102が、候補区間取得処理を実行する(ステップS103)。以下、ステップS103の候補区間取得処理について、図8のフローチャートを参照して説明する。
候補区間取得処理が開始されると、まず、候補区間取得部102が、ステップS101において取得されたターゲット音声データが表すターゲット音声信号中の最初のフレームを処理対象のフレームとして指定する(ステップS201)。
ステップS201の処理が実行された後、事後確率取得部102aが、指定された処理対象のフレームに含まれる音声信号が各音素の各状態を表している事後確率を取得する(ステップS202)。具体的に、事後確率取得部102aは、処理対象のフレームに含まれる音声信号をMFCCへ変換し、当該MFCCをNN記憶部103によって記憶されたNN103aの入力層に入力し、当該入力に応答してNN103aの出力層の各ユニットIO1~IOwによって出力された出力値をソフトマックス関数に入力することによって当該処理対象のフレームに含まれる音声信号が各音素の各状態を表している事後確率を取得する。事後確率取得部102aは、取得した事後確率を表す確率情報を確率情報記憶部104に記憶させる。
第1フレーム判定部102bは、指定された処理対象のフレームにおいて第1判定条件が成立しているか否かを、上述した式(1)が成立しているか否かをステップS202で取得された事後確率に基づいて判定することによって判定する(ステップS203)。
ステップS203の処理が実行された後、候補区間取得部102が、ステップS101において取得されたターゲット音声データが表すターゲット音声信号中の全てのフレームを処理対象のフレームとして指定済みであるか否かを判定する(ステップS204)。ターゲット音声信号中のフレームのうち処理対象のフレームとして未だ指定されていないフレームがあると判定すると(ステップS204;No)、候補区間取得部102は、ターゲット音声信号中のフレームのうち処理対象のフレームとして現在指定されているフレームの直後のフレームを処理対象のフレームとして指定し(ステップS206)、処理はステップS202へ戻る。
候補区間取得部102は、処理対象のフレームとして指定されるフレームを変更しつつ、ステップS204においてYesと判定されるまでステップS202~S204の処理を繰り返すことにより、ターゲット音声信号中のフレーム毎に、フレームに含まれる音声信号が各音素の各状態を表している事後確率を取得し、フレームにおいて第1判定条件が成立しているか否かを判定する。
ステップS204において、ターゲット音声信号中の全てのフレームを処理対象のフレームとして指定済みであると判定されると(ステップS204;Yes)、候補区間設定部102cが、ターゲット音声信号中の区間であり、当該区間に含まれている全てのフレームにおいて第1判定条件が成立しているとステップS203において判定された区間を、候補区間として設定し(ステップS205)、候補区間取得処理を終了する。なお、ターゲット音声信号中の区間であり、当該区間に含まれている全てのフレームにおいて第1判定条件が成立していると判定された区間が存在しない場合、候補区間設定部102cは、発話音声区間が検出されなかったと判定して、音声区間検出処理を終了する。
図7に戻り、ステップS103において候補区間取得処理が実行された後、発話音声区間取得部105が、発話音声区間取得処理を実行する(ステップS104)。以下、ステップS104の発話音声区間取得処理について、図9のフローチャートを参照して説明する。
発話音声区間取得処理が開始されると、まず、発話音声区間取得部105が、ステップS205においてターゲット音声信号中に設定された候補区間のうち最初の候補区間を処理対象の候補区間として指定する(ステップS301)。ターゲット音声信号中の候補区間のうち最初の候補区間は、当該ターゲット音声信号中の候補区間のうち開始時刻が最も古い候補区間である。ステップS301の処理が実行された後、発話音声区間取得部105が、指定された処理対象の候補区間中のフレームのうち最初のフレームの直後のフレームを処理対象のフレームとして指定する(ステップS302)。
ステップS302の処理が実行された後、相関係数算出部105aが、指定された処理対象のフレームに含まれる音声信号が各子音の音素の各状態を表している事後確率の確率分布と、当該処理対象のフレームの直前のフレームに含まれる音声信号が各子音の音素の各状態を表している事後確率の確率分布と、の相関の程度を表す相関係数を、上述した式(3)に従って算出する(ステップS303)。
ステップS303の処理が実行された後、第2フレーム判定部105bが、指定された処理対象のフレームにおいて第2判定条件が成立しているか否かを、ステップS303において算出された相関係数が判定閾値以上であるか否かを判定することによって判定する(ステップS304)。
ステップS304の処理が実行された後、発話音声区間取得部105は、指定された処理対象の候補区間中のフレームのうち、当該処理対象の候補区間中の最初のフレーム以外の全てのフレームを処理対象のフレームとして指定済みであるか否かを判定する(ステップS305)。処理対象の候補区間中のフレームのうち、当該処理対象の候補区間中の最初のフレーム以外に処理対象のフレームとして未だ指定されていないフレームがあると判定すると(ステップS305;No)、発話音声区間取得部105は、当該処理対象の候補区間中のフレームのうち処理対象のフレームとして現在指定されているフレームの直後のフレームを処理対象のフレームとして指定し(ステップS309)、処理はステップS303へ戻る。
発話音声区間取得部105は、処理対象のフレームとして指定されるフレームを変更しつつ、ステップS305においてYesと判定されるまでステップS303~S305の処理を繰り返すことにより、指定された処理対象の候補区間中の最初のフレーム以外のフレーム毎に、フレームに係る相関係数を算出し、フレームにおいて第2判定条件が成立しているか否かを判定する。
ステップS305において、指定された処理対象の候補区間中のフレームのうち、当該処理対象の候補区間中の最初のフレーム以外の全てのフレームを処理対象のフレームとして指定済みであると判定されると(ステップS305;Yes)、特定音声区間検出部105cが、当該処理対象の候補区間中の区間であり、当該区間に含まれる全てのフレームにおいて第2判定条件が成立しているとステップS304において判定され、特定個数よりも多い個数のフレームを含む区間を、特定音声区間として検出する(ステップS306)。
ステップS306の処理が実行された後、発話音声区間検出部105dは、指定された処理対象の候補区間中のステップS306において検出された特定音声区間以外の区間のうち、時間長が判定時間より長い区間を発話音声区間として検出する(ステップS307)。
ステップS307の処理が実行された後、発話音声区間取得部105は、ステップS205において設定された候補区間のうち全ての候補区間を処理対象の候補区間として指定済みであるか否かを判定する(ステップS308)。ステップS205において設定された候補区間のうち処理対象の候補区間として未だ指定されていない候補区間があると判定すると(ステップS308;No)、発話音声区間取得部105は、ステップS205において設定された候補区間のうち、処理対象の候補区間として現在指定されている候補区間の直後の候補区間を処理対象の候補区間として指定し(ステップS310)、処理はステップS302へ戻る。一の候補区間の直後の候補区間は、当該一の候補区間に次いで開始時刻が新しい候補区間である。
発話音声区間取得部105は、処理対象の候補区間として指定される候補区間を変更しつつ、ステップS308においてYesと判定されるまでステップS302~S308の処理を繰り返すことにより、ステップS205において設定された候補区間毎に、候補区間に含まれる発話音声区間を検出する。
ステップS308において、ステップS205において設定された全ての候補区間を処理対象の候補区間として指定済みであると判定すると(ステップS308;Yes)、発話音声区間取得部105は、発話音声区間取得処理を終了する。
図7に戻り、ステップS104において発話音声区間取得処理が実行された後、検出情報出力部106が、出力部13に、ステップS104における発話音声区間の検出結果に対応する検出情報を出力させ(ステップS105)、音声区間検出処理を終了する。具体的に、ステップS105において、検出情報出力部106は、出力部13が備えるディスプレイ13aに、検出情報として、ステップS104における発話音声区間の検出結果を表す検出画像WWを表示させ、出力部13が備えるスピーカ13bに、検出情報として、ステップS104において検出された発話音声区間が含む音声信号を出力させる。なお、ステップS104において発話音声区間が検出されなかった場合、検出情報出力部106は、出力部13に、非検出情報を出力させる。
以上説明したとおり、音声区間検出装置1は、ターゲット音声信号中の候補区間から、特定時間より長い時間にわたって継続して発音された同一の子音の音素の状態を表す特定音声信号を含む特定音声区間を検出し、候補区間中の検出された特定音声区間以外の区間を発話音声区間として検出する。このような構成によれば、雑音音声信号を含む一方で発話音声信号を含まない区間を発話音声区間として誤って検出してしまう可能性を低減し、発話音声区間の検出精度を向上させることができる。
また、音声区間検出装置1は、候補区間中の特定音声区間以外の区間のうち、時間長が判定時間以上である区間を発話音声区間として検出する。このような構成によれば、雑音音声信号を含む一方で発話音声信号を含まない区間を発話音声区間として誤って検出してしまう可能性を低減し、発話音声区間の検出精度を向上させることができる。
以上に本発明の実施形態について説明したが、上記実施形態は一例であり、本発明の適用範囲はこれに限られない。すなわち、本発明の実施形態は種々の応用が可能であり、あらゆる実施の形態が本発明の範囲に含まれる。
例えば、上記実施形態では、ターゲット音声データ取得部100が、記憶部11に予め記憶されたターゲット音声データを、記憶部11から取得するものとして説明した。しかし、これは一例に過ぎず、ターゲット音声データ取得部100は、任意の方法によってターゲット音声データを取得できる。例えば、音声区間検出装置1が、マイクロフォンを備えるように構成し、ターゲット音声データ取得部100が、当該マイクロフォンに、ターゲット音声信号を録音することによってターゲット音声データを生成させ、生成されたターゲット音声データを当該マイクロフォンから取得するようにしてもよい。
また、上記実施形態では、事後確率取得部102aが、NN記憶部103によって記憶されたNN103aを用いて事後確率を取得するものとして説明した。しかし、これは一例に過ぎず、事後確率取得部102aは、任意の方法によって事後確率を取得できる。例えば、事後確率取得部102aは、HMM(Hidden Markov Model)を用いて事後確率を取得してもよい。HMMは、音声信号に基づいて、当該音声信号が出力される元になった音素の状態を確率的に推定するためのモデルである。HMMは、時間的な状態の揺らぎを示す遷移確率と、各状態から入力された音響特徴量を出力する事後確率と、をパラメータとした標準パターンを用いる。HMMは、フレームに含まれる音声信号の音響特徴量が入力されると、当該音響特徴量が各音素の各状態から出力される事後確率の確率分布を、複数のガウス分布を重み付きで加算した混合ガウス分布の形式で出力する。
また、上記実施形態では、音響モデルとしてモノフォンモデルを用いるものとして説明した。しかし、これは一例に過ぎず、任意の音響モデルを用いることができる。例えば、音響モデルとして、バイフォンモデルを用いてもよい。バイフォンモデルは、2音素毎に生成された音響モデルであり、隣接する音素に依存する音響モデルである。バイフォンモデルは、前後片方の音素の状態との状態遷移を考慮した音響モデルである。或いは、音響モデルとして、トライフォンモデルを用いてもよい。トライフォンモデルは、3音素毎に生成された音響モデルであり、隣接する音素に依存する音響モデルである。トライフォンモデルは、前後両方の音素の状態との状態遷移を考慮した音響モデルである。
また、上記実施形態では、事後確率取得部102aは、フレーム毎に、フレームに含まれる音声信号が、モノフォンモデルにおける各音素の3状態それぞれを表している事後確率を取得するものとして説明した。しかし、これは一例に過ぎず、事後確率取得部102aは、各フレームに含まれる音声信号が、バイフォンモデルにおける各音素の3状態それぞれを表している事後確率を取得してもよい。なお、この場合、NN103aの出力層の各ユニットIO1~IOwを、それぞれ、バイフォンモデルにおける各音素の各状態に対応付けておけばよい。或いは、事後確率取得部102aは、各フレームに含まれる音声信号が、トライフォンモデルにおける各音素の3状態それぞれを表している事後確率を取得してもよい。なお、この場合、NN103aの出力層の各ユニットIO1~IOwを、それぞれ、トライフォンモデルにおける各音素の各状態に対応付けておけばよい。或いは、事後確率取得部102aは、各フレームに含まれる音声信号が、各音素を表している事後確率を取得してもよい。なお、この場合、NN103aの出力層の各ユニットIO1~IOwを、それぞれ、各音素に対応付けておけばよい。
また、上記実施形態では、特定時間が、上述した式(2)に従って設定されるものとして説明した。しかし、これは一例に過ぎず、特定時間は、各子音の音素の各状態の継続長の平均値に応じて、任意の方法で設定できる。例えば、各子音の音素の各状態の継続長の平均値の2倍の時間長を特定時間として設定してもよい。
また、上記実施形態では、相関係数算出部105aが、候補区間中のフレーム毎に、フレームに含まれる音声信号が各子音の音素の各状態を表している事後確率の確率分布と、当該フレームの直前のフレームに含まれる音声信号が各子音の音素の各状態を表している事後確率の確率分布と、の相関の程度を表す相関係数を、上述した式(3)に従って算出するものとして説明した。しかし、これは一例に過ぎず、相関係数算出部105aは、任意の方法で相関係数を算出することができる。
また、上記実施形態では、検出情報出力部106が、ディスプレイ13aに、検出情報として検出画像WWを表示させ、スピーカ13bに、検出情報として、検出された発話音声区間が含む音声信号を出力させるものとして説明した。しかし、これは一例に過ぎず、検出情報出力部106は、任意の方法によって検出情報を出力することができる。例えば、音声区間検出装置1が、紙、プラスチック等の印刷媒体に印刷画像を印刷する印刷装置を備えるように構成し、検出情報出力部106が、当該印刷装置に、検出情報として、発話音声区間検出部105dによる発話音声区間の検出結果を表す印刷画像を印刷媒体に印刷させることにより、検出情報を出力するようにしてもよい。発話音声区間検出部105dによる発話音声区間の検出結果を表す印刷画像の具体例としては、ターゲット音声信号の音声波形を表す画像と、検出された発話音声区間を表す画像と、を含む印刷画像が挙げられる。
また、上記実施形態では、音声区間検出装置1は、発話音声区間の検出を行った後、当該検出の結果に対応する検出情報を出力するものとして説明した。しかし、これは一例に過ぎず、音声区間検出装置1は、発話音声区間の検出を行った後、当該検出の結果に応じた任意の処理を実行できる。例えば、音声区間検出装置1は、発話音声区間の検出を行った後、検出された発話音声区間に含まれた音声信号を対象として音声認識を実行してもよい。或いは、音声区間検出装置1は、発話音声区間の検出を行った後、検出された発話音声区間に含まれた音声信号を対象として、音声信号に基づく話者の感情認識を実行してもよい。
なお、本発明に係る機能を実現するための構成を予め備えた音声区間検出装置として提供できることはもとより、プログラムの適用により、PC、スマートフォン等の既存の情報処理装置を、本発明に係る音声区間検出装置として機能させることもできる。すなわち、本発明に係る音声区間検出装置の各機能構成を実現させるためのプログラムを、既存の情報処理装置を制御するCPU等が実行できるように適用することで、当該既存の情報処理装置を本発明に係る音声区間検出装置として機能させることができる。
なお、このようなプログラムの適用方法は任意である。プログラムを、例えば、フレキシブルディスク、CD(Compact Disc)-ROM、DVD(Digital Versatile Disc)-ROM、メモリーカード等のコンピュータ読み取り可能な記憶媒体に格納して適用できる。さらに、プログラムを搬送波に重畳し、インターネットなどの通信媒体を介して適用することもできる。例えば、通信ネットワーク上の掲示板(BBS:Bulletin Board System)にプログラムを掲示して配信してもよい。そして、このプログラムを起動し、OS(Operating System)の制御下で、他のアプリケーションプログラムと同様に実行することにより、上記の処理を実行できるように構成してもよい。
以上、本発明の好ましい実施形態について説明したが、本発明は係る特定の実施形態に限定されるものではなく、本発明には、特許請求の範囲に記載された発明とその均等の範囲とが含まれる。以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。
(付記1)
特定時間より長い時間にわたって継続して発音された同一の子音の音素の状態を表す特定音声信号を含む特定音声区間を、ターゲット音声信号から検出する特定音声区間検出手段と、
前記特定音声区間検出手段による検出の結果に従って、話者によって発音された発話音声を表す発話音声信号を含む発話音声区間を、前記ターゲット音声信号から検出する発話音声区間検出手段と、
を備えることを特徴とする音声区間検出装置。
(付記2)
前記特定音声区間検出手段は、前記特定音声区間を、前記ターゲット音声信号中の候補区間から検出し、
前記発話音声区間検出手段は、前記候補区間中の前記特定音声区間検出手段によって検出された前記特定音声区間以外の区間を、前記発話音声区間として検出することを特徴とする付記1に記載の音声区間検出装置。
(付記3)
前記発話音声区間検出手段は、前記候補区間中の前記特定音声区間検出手段によって検出された前記特定音声区間以外の区間のうち時間長が判定時間以上である区間を、前記発話音声区間として検出することを特徴とする付記2に記載の音声区間検出装置。
(付記4)
前記ターゲット音声信号中の時間的に連続する複数のフレームの各々について、各フレームが、当該フレームの直前のフレームに含まれる子音の音素の状態を表す音声信号と同一の音声信号を含んでいるか否かを、当該フレームに含まれる音声信号が各子音の音素の各状態を表している事後確率の確率分布と、当該直前のフレームに含まれる音声信号が各子音の音素の各状態を表している事後確率の確率分布と、の相関の程度を表す相関係数が閾値以上であるか否かに基づいて判定するフレーム判定手段をさらに備え、
前記特定音声区間検出手段は、前記ターゲット音声信号中の区間であり、特定個数より多い個数のフレームを含み、かつ、当該区間に含まれる全てのフレームの各々が、各フレームの直前のフレームに含まれる子音の音素の状態を表す音声信号と同一の音声信号を含んでいると前記フレーム判定手段によって判定された区間を、前記特定音声区間として検出することを特徴とする付記1乃至3の何れか一つに記載の音声区間検出装置。
(付記5)
前記特定時間は、各子音の音素の各状態が話者によって発音される時間長の平均値に応じた時間であることを特徴とする付記1乃至4の何れか一つに記載の音声区間検出装置。
(付記6)
前記発話音声区間検出手段による前記発話音声区間の検出の結果に対応する検出情報を出力装置より出力することを特徴とする付記1乃至5の何れか一つに記載の音声区間検出装置。
(付記7)
特定時間より長い時間にわたって継続して発音された同一の子音の音素の状態を表す特定音声信号を含む特定音声区間を、ターゲット音声信号から検出する特定音声区間検出ステップと、
前記特定音声区間検出ステップにおける検出の結果に従って、話者によって発音された発話音声を表す発話音声信号を含む発話音声区間を、前記ターゲット音声信号から検出する発話音声区間検出ステップと、
を備えることを特徴とする音声区間検出方法。
(付記8)
コンピュータを、
特定時間より長い時間にわたって継続して発音された同一の子音の音素の状態を表す特定音声信号を含む特定音声区間を、ターゲット音声信号から検出する特定音声区間検出手段、
前記特定音声区間検出手段による検出の結果に従って、話者によって発音された発話音声を表す発話音声信号を含む発話音声区間を、前記ターゲット音声信号から検出する発話音声区間検出手段、
として機能させることを特徴とするプログラム。
1…音声区間検出装置、10…制御部、11…記憶部、12…入力部、13…出力部、13a…ディスプレイ、13b…スピーカ、14…通信部、15…電源部、100…ターゲット音声データ取得部、101…フレーム設定部、102…候補区間取得部、102a…事後確率取得部、102b…第1フレーム判定部、102c…候補区間設定部、103…NN記憶部、103a…NN、104…確率情報記憶部、105…発話音声区間取得部、105a…相関係数算出部、105b…第2フレーム判定部、105c…特定音声区間検出部、105d…発話音声区間検出部、106…検出情報出力部、F…フレーム長、G…シフト長、T…ターゲット音声信号の時間長、WW…検出画像、IN1~INv…NNの入力層のユニット、IO1~IOw…NNの出力層のユニット
上記目的を達成するため、本発明に係る音声区間検出装置は、
ターゲット音声信号の候補区間における、特定時間より長い時間にわたって継続して発音された同一の子音の音素の状態を表す特定音声信号が含まれる区間以外であって、時間長が判定時間以上である区間を、発話音声区間として検出する、制御部を備えることを特徴とする。

Claims (8)

  1. 特定時間より長い時間にわたって継続して発音された同一の子音の音素の状態を表す特定音声信号を含む特定音声区間を、ターゲット音声信号から検出する特定音声区間検出手段と、
    前記特定音声区間検出手段による検出の結果に従って、話者によって発音された発話音声を表す発話音声信号を含む発話音声区間を、前記ターゲット音声信号から検出する発話音声区間検出手段と、
    を備えることを特徴とする音声区間検出装置。
  2. 前記特定音声区間検出手段は、前記特定音声区間を、前記ターゲット音声信号中の候補区間から検出し、
    前記発話音声区間検出手段は、前記候補区間中の前記特定音声区間検出手段によって検出された前記特定音声区間以外の区間を、前記発話音声区間として検出することを特徴とする請求項1に記載の音声区間検出装置。
  3. 前記発話音声区間検出手段は、前記候補区間中の前記特定音声区間検出手段によって検出された前記特定音声区間以外の区間のうち時間長が判定時間以上である区間を、前記発話音声区間として検出することを特徴とする請求項2に記載の音声区間検出装置。
  4. 前記ターゲット音声信号中の時間的に連続する複数のフレームの各々について、各フレームが、当該フレームの直前のフレームに含まれる子音の音素の状態を表す音声信号と同一の音声信号を含んでいるか否かを、当該フレームに含まれる音声信号が各子音の音素の各状態を表している事後確率の確率分布と、当該直前のフレームに含まれる音声信号が各子音の音素の各状態を表している事後確率の確率分布と、の相関の程度を表す相関係数が閾値以上であるか否かに基づいて判定するフレーム判定手段をさらに備え、
    前記特定音声区間検出手段は、前記ターゲット音声信号中の区間であり、特定個数より多い個数のフレームを含み、かつ、当該区間に含まれる全てのフレームの各々が、各フレームの直前のフレームに含まれる子音の音素の状態を表す音声信号と同一の音声信号を含んでいると前記フレーム判定手段によって判定された区間を、前記特定音声区間として検出することを特徴とする請求項1乃至3の何れか一項に記載の音声区間検出装置。
  5. 前記特定時間は、各子音の音素の各状態が話者によって発音される時間長の平均値に応じた時間であることを特徴とする請求項1乃至4の何れか一項に記載の音声区間検出装置。
  6. 前記発話音声区間検出手段による前記発話音声区間の検出の結果に対応する検出情報を出力装置より出力することを特徴とする請求項1乃至5の何れか一項に記載の音声区間検出装置。
  7. 特定時間より長い時間にわたって継続して発音された同一の子音の音素の状態を表す特定音声信号を含む特定音声区間を、ターゲット音声信号から検出する特定音声区間検出ステップと、
    前記特定音声区間検出ステップにおける検出の結果に従って、話者によって発音された発話音声を表す発話音声信号を含む発話音声区間を、前記ターゲット音声信号から検出する発話音声区間検出ステップと、
    を備えることを特徴とする音声区間検出方法。
  8. コンピュータを、
    特定時間より長い時間にわたって継続して発音された同一の子音の音素の状態を表す特定音声信号を含む特定音声区間を、ターゲット音声信号から検出する特定音声区間検出手段、
    前記特定音声区間検出手段による検出の結果に従って、話者によって発音された発話音声を表す発話音声信号を含む発話音声区間を、前記ターゲット音声信号から検出する発話音声区間検出手段、
    として機能させることを特徴とするプログラム。
JP2023014052A 2018-03-22 2023-02-01 音声区間検出装置、音声区間検出方法及びプログラム Pending JP2023041843A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018053927 2018-03-22
JP2018053927 2018-03-22
JP2019025686A JP7222265B2 (ja) 2018-03-22 2019-02-15 音声区間検出装置、音声区間検出方法及びプログラム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019025686A Division JP7222265B2 (ja) 2018-03-22 2019-02-15 音声区間検出装置、音声区間検出方法及びプログラム

Publications (1)

Publication Number Publication Date
JP2023041843A true JP2023041843A (ja) 2023-03-24

Family

ID=67985371

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023014052A Pending JP2023041843A (ja) 2018-03-22 2023-02-01 音声区間検出装置、音声区間検出方法及びプログラム

Country Status (3)

Country Link
US (1) US11276390B2 (ja)
JP (1) JP2023041843A (ja)
CN (1) CN110299153B (ja)

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8977255B2 (en) 2007-04-03 2015-03-10 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
US8676904B2 (en) 2008-10-02 2014-03-18 Apple Inc. Electronic devices with voice command and contextual data processing capabilities
KR102516577B1 (ko) 2013-02-07 2023-04-03 애플 인크. 디지털 어시스턴트를 위한 음성 트리거
US10170123B2 (en) 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
US10460227B2 (en) 2015-05-15 2019-10-29 Apple Inc. Virtual assistant in a communication session
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
DK180048B1 (en) 2017-05-11 2020-02-04 Apple Inc. MAINTAINING THE DATA PROTECTION OF PERSONAL INFORMATION
DK179496B1 (en) 2017-05-12 2019-01-15 Apple Inc. USER-SPECIFIC Acoustic Models
DK201770427A1 (en) 2017-05-12 2018-12-20 Apple Inc. LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT
DK201770411A1 (en) 2017-05-15 2018-12-20 Apple Inc. MULTI-MODAL INTERFACES
US10928918B2 (en) 2018-05-07 2021-02-23 Apple Inc. Raise to speak
DK180639B1 (en) 2018-06-01 2021-11-04 Apple Inc DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT
US11462215B2 (en) 2018-09-28 2022-10-04 Apple Inc. Multi-modal inputs for voice commands
US11348573B2 (en) 2019-03-18 2022-05-31 Apple Inc. Multimodality in digital assistant systems
DK201970509A1 (en) 2019-05-06 2021-01-15 Apple Inc Spoken notifications
US11307752B2 (en) 2019-05-06 2022-04-19 Apple Inc. User configurable task triggers
US11289073B2 (en) * 2019-05-31 2022-03-29 Apple Inc. Device text to speech
US11227599B2 (en) 2019-06-01 2022-01-18 Apple Inc. Methods and user interfaces for voice-based control of electronic devices
CN111179975B (zh) * 2020-04-14 2020-08-04 深圳壹账通智能科技有限公司 用于情绪识别的语音端点检测方法、电子设备及存储介质
US11061543B1 (en) 2020-05-11 2021-07-13 Apple Inc. Providing relevant data items based on context
US11490204B2 (en) 2020-07-20 2022-11-01 Apple Inc. Multi-device audio adjustment coordination
US11438683B2 (en) 2020-07-21 2022-09-06 Apple Inc. User identification using headphones

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4991216A (en) * 1983-09-22 1991-02-05 Matsushita Electric Industrial Co., Ltd. Method for speech recognition
US5377302A (en) * 1992-09-01 1994-12-27 Monowave Corporation L.P. System for recognizing speech
JPH1097269A (ja) * 1996-09-20 1998-04-14 Nippon Telegr & Teleph Corp <Ntt> 音声検出装置及び方法
JP3410387B2 (ja) * 1999-04-27 2003-05-26 株式会社エヌ・ティ・ティ・データ 音声素片作成装置、音声合成装置、音声素片作成方法、音声合成方法及び記録媒体
JP2002189487A (ja) * 2000-12-20 2002-07-05 Mitsubishi Electric Corp 音声認識装置および音声認識方法
CN1223985C (zh) * 2002-10-17 2005-10-19 中国科学院声学研究所 语音识别置信度评价方法和系统及应用该方法的听写装置
JP4701684B2 (ja) * 2004-11-19 2011-06-15 ヤマハ株式会社 音声処理装置およびプログラム
JP4524634B2 (ja) * 2005-03-02 2010-08-18 株式会社国際電気通信基礎技術研究所 歌声評定装置およびプログラム
JP5235210B2 (ja) * 2007-04-13 2013-07-10 マサチューセッツ インスティテュート オブ テクノロジー 音声データ検索装置、音声データ検索方法、音声データ検索プログラム、及びコンピュータが読取可能な音声データ検索プログラムを内蔵したコンピュータが使用可能な媒体
GB2471811B (en) * 2008-05-09 2012-05-16 Fujitsu Ltd Speech recognition dictionary creating support device,computer readable medium storing processing program, and processing method
JP5411936B2 (ja) * 2009-07-21 2014-02-12 日本電信電話株式会社 音声信号区間推定装置と音声信号区間推定方法及びそのプログラムと記録媒体
JP6003971B2 (ja) * 2014-12-22 2016-10-05 カシオ計算機株式会社 音声検索装置、音声検索方法及びプログラム
JP6003972B2 (ja) * 2014-12-22 2016-10-05 カシオ計算機株式会社 音声検索装置、音声検索方法及びプログラム
JP6444490B2 (ja) 2015-03-12 2018-12-26 三菱電機株式会社 音声区間検出装置および音声区間検出方法
JP6565416B2 (ja) * 2015-07-22 2019-08-28 カシオ計算機株式会社 音声検索装置、音声検索方法及びプログラム
CN105869628A (zh) * 2016-03-30 2016-08-17 乐视控股(北京)有限公司 语音端点检测方法及装置
US10141005B2 (en) * 2016-06-10 2018-11-27 Apple Inc. Noise detection and removal systems, and related methods
JP6731802B2 (ja) 2016-07-07 2020-07-29 ヤフー株式会社 検出装置、検出方法及び検出プログラム

Also Published As

Publication number Publication date
US11276390B2 (en) 2022-03-15
US20190295529A1 (en) 2019-09-26
CN110299153B (zh) 2023-07-25
CN110299153A (zh) 2019-10-01

Similar Documents

Publication Publication Date Title
JP2023041843A (ja) 音声区間検出装置、音声区間検出方法及びプログラム
US10297247B2 (en) Phonotactic-based speech recognition and re-synthesis
US8874440B2 (en) Apparatus and method for detecting speech
US9196247B2 (en) Voice recognition method and voice recognition apparatus
JP6654611B2 (ja) 成長型対話装置
JP6011565B2 (ja) 音声検索装置、音声検索方法及びプログラム
JP5411807B2 (ja) チャネル統合方法、チャネル統合装置、プログラム
JP2006251147A (ja) 音声認識方法
WO2010128560A1 (ja) 音声認識装置、音声認識方法、及び音声認識プログラム
US11823669B2 (en) Information processing apparatus and information processing method
JP6027754B2 (ja) 適応化装置、音声認識装置、およびそのプログラム
JP7222265B2 (ja) 音声区間検出装置、音声区間検出方法及びプログラム
CN115691478A (zh) 语音唤醒方法、装置、人机交互设备和存储介质
JP4610451B2 (ja) 音声認識装置及びプログラム
KR20230118165A (ko) 핫워드 속성에 기초한 자동화된 스피치 인식 파라미터적응시키기
JP2007248529A (ja) 音声認識装置、音声認識プログラム、及び音声動作可能な装置
JP4877112B2 (ja) 音声処理装置およびプログラム
JP5166195B2 (ja) 音響分析パラメータ生成方法とその装置と、プログラムと記録媒体
JP6565416B2 (ja) 音声検索装置、音声検索方法及びプログラム
JP2005283646A (ja) 音声認識率推定装置
JP2021001949A (ja) 音声認識性能の予測システム、学習モデルの構築方法、及び、音声認識性能の予測方法
US11195545B2 (en) Method and apparatus for detecting an end of an utterance
JP6790851B2 (ja) 音声処理プログラム、音声処理方法、及び音声処理装置
JP2009210942A (ja) 音声再生システム、音声再生方法およびプログラム
CN117456988A (zh) 阈值生成方法、阈值生成装置以及程序

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230302

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230302

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240116

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240312

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240611