JP2016177214A - 音声認識装置、音声認識方法及びプログラム - Google Patents
音声認識装置、音声認識方法及びプログラム Download PDFInfo
- Publication number
- JP2016177214A JP2016177214A JP2015058929A JP2015058929A JP2016177214A JP 2016177214 A JP2016177214 A JP 2016177214A JP 2015058929 A JP2015058929 A JP 2015058929A JP 2015058929 A JP2015058929 A JP 2015058929A JP 2016177214 A JP2016177214 A JP 2016177214A
- Authority
- JP
- Japan
- Prior art keywords
- phoneme
- output
- probability
- likelihood
- output probability
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
【解決手段】音声信号受付部121は、音声信号の入力を受け付ける。第1の出力確率取得部123は、音声信号の特徴量が、第1の音響モデルの各音素から出力される出力確率を、フレーム毎に取得する。キュー格納部125は、取得された出力確率を順次キューに格納する。第2の出力確率取得部129は、キューに格納された第1の音響モデルの各音素の出力確率のうち、第1の音素列に対応する音素の出力確率を累積した累積確率が、第1の条件を満たした場合、音声信号の特徴量が、第2の音素列に含まれる各音素から出力される第2の出力確率を、フレーム毎に取得する。判定部132は、第2の出力確率に基づいて取得された尤度が第2の条件を満たした場合、音声信号においてクエリに対応する音声が発せられていると判定する。
【選択図】図2
Description
予め登録されたクエリを、隣接する音素に依存しない第1の音響モデルの音素を並べて、第1の音素列に変換する第1の変換手段と、
前記クエリを、隣接する音素に依存する第2の音響モデルの音素を並べて、第2の音素列に変換する第2の変換手段と、
音声信号の入力を受け付ける音声信号受付手段と、
前記音声信号受付手段によって入力が受け付けられた前記音声信号の特徴量が、前記第1の音響モデルの各音素から出力される出力確率を、フレーム毎に取得する第1の出力確率取得手段と、
前記第1の出力確率取得手段によってフレーム毎に取得された、前記第1の音響モデルの各音素の出力確率を、順次キューに格納するキュー格納手段と、
前記キューに格納された前記第1の音響モデルの各音素の出力確率のうち、前記第1の音素列に対応する音素の出力確率を累積することにより、累積確率を取得する累積確率取得手段と、
前記累積確率取得手段によって取得された累積確率が第1の条件を満たした場合、前記音声信号の特徴量が、前記第2の音素列に含まれる各音素から出力される第2の出力確率を、フレーム毎に取得する第2の出力確率取得手段と、
前記第2の出力確率取得手段によって取得された第2の出力確率に基づいて、前記音声信号において前記クエリに対応する音声が発せられていることの尤もらしさを示す尤度を取得する尤度取得手段と、
前記尤度取得手段によって取得された尤度が第2の条件を満たした場合、前記音声信号において前記クエリに対応する音声が発せられていると判定する判定手段と、
を備えることを特徴とする。
以上に本発明の実施形態について説明したが、上記実施形態は一例であり、本発明の適用範囲はこれに限られない。すなわち、本発明の実施形態は種々の応用が可能であり、あらゆる実施の形態が本発明の範囲に含まれる。
予め登録されたクエリを、隣接する音素に依存しない第1の音響モデルの音素を並べて、第1の音素列に変換する第1の変換手段と、
前記クエリを、隣接する音素に依存する第2の音響モデルの音素を並べて、第2の音素列に変換する第2の変換手段と、
音声信号の入力を受け付ける音声信号受付手段と、
前記音声信号受付手段によって入力が受け付けられた前記音声信号の特徴量が、前記第1の音響モデルの各音素から出力される出力確率を、フレーム毎に取得する第1の出力確率取得手段と、
前記第1の出力確率取得手段によってフレーム毎に取得された、前記第1の音響モデルの各音素の出力確率を、順次キューに格納するキュー格納手段と、
前記キューに格納された前記第1の音響モデルの各音素の出力確率のうち、前記第1の音素列に対応する音素の出力確率を累積することにより、累積確率を取得する累積確率取得手段と、
前記累積確率取得手段によって取得された累積確率が第1の条件を満たした場合、前記音声信号の特徴量が、前記第2の音素列に含まれる各音素から出力される第2の出力確率を、フレーム毎に取得する第2の出力確率取得手段と、
前記第2の出力確率取得手段によって取得された第2の出力確率に基づいて、前記音声信号において前記クエリに対応する音声が発せられていることの尤もらしさを示す尤度を取得する尤度取得手段と、
前記尤度取得手段によって取得された尤度が第2の条件を満たした場合、前記音声信号において前記クエリに対応する音声が発せられていると判定する判定手段と、
を備えることを特徴とする音声認識装置。
前記第1の出力確率取得手段によって取得された、前記第1の音響モデルの各音素の出力確率のうちから、フレーム毎に最大の出力確率を特定し、前記第1の音響モデルの各音素の出力確率を、フレーム毎に、特定した最大の出力確率で正規化する正規化手段をさらに備え、
前記キュー格納手段は、前記正規化手段によって正規化された出力確率を、前記キューに格納する、
ことを特徴とする付記1に記載の音声認識装置。
前記累積確率取得手段によって前記累積確率が取得された前記音声信号の区間において、前記キューに格納された前記第1の音響モデルの各音素の出力確率のうちから、フレーム毎に最大の出力確率を特定し、特定した最大の出力確率を累積することにより、第2の累積確率を取得する第2の累積確率取得手段をさらに備え、
前記第1の条件は、前記累積確率取得手段によって取得された累積確率を、前記第2の累積確率取得手段によって取得された第2の累積確率で除算した値が、第1の閾値以上である場合に、満たされる、
ことを特徴とする付記1又は2に記載の音声認識装置。
前記尤度取得手段は、前記第2の出力確率取得手段によって取得された第2の出力確率に基づいて、前記尤度を、動的計画法により取得し、
前記第2の出力確率取得手段によって取得された出力確率のうち、音素認識によって認識された音素の出力確率に基づいて、前記尤度取得手段によって前記尤度が取得された前記音声信号の区間において前記クエリが発せられていることの尤もらしさを示す第2の尤度を取得する第2の尤度取得手段をさらに備え、
前記第2の条件は、前記尤度取得手段によって取得された尤度を、前記第2の尤度取得手段によって取得された第2の尤度で除算した値が、第2の閾値以上である場合に、満たされる、
ことを特徴とする付記1から3のいずれか1つに記載の音声認識装置。
前記第1の変換手段は、予め登録された複数のクエリを、それぞれ前記第1の音響モデルの音素を並べて、複数の第1の音素列に変換し、
前記累積確率取得手段は、前記複数の第1の音素列のそれぞれについて、前記キューに格納された前記第1の音響モデルの各音素の出力確率のうち、対応する音素の出力確率を累積することにより、前記累積確率を取得し、
前記累積確率取得手段によって、前記複数のクエリのそれぞれについて取得された累積確率に基づいて、前記複数のクエリのうちから候補クエリを決定する候補決定手段をさらに備え、
前記第2の変換手段は、前記候補クエリを前記第2の音素列に変換し、
前記第2の出力確率取得手段は、前記候補クエリについて取得された累積確率が前記第1の条件を満たした場合、前記音声信号の特徴量が、前記第2の音素列に含まれる各音素から出力される第2の出力確率を、フレーム毎に取得し、
前記尤度取得手段は、前記第2の出力確率取得手段によって取得された第2の出力確率に基づいて、前記音声信号において前記候補クエリに対応する音声が発せられていることの尤もらしさを示す尤度を取得し、
前記判定手段は、前記尤度取得手段によって取得された尤度が前記第2の条件を満たした場合、前記音声信号において前記候補クエリに対応する音声が発せられていると判定する、
ことを特徴とする付記1から4のいずれか1つに記載の音声認識装置。
前記判定手段によって、前記音声信号において前記クエリに対応する音声が発せられていると判定された場合、前記キューに格納された出力確率のうち、前記クエリに対応する音声が発せられていると判定された区間の出力確率を削除して、前記第1の出力確率取得手段、前記キュー格納手段、前記累積確率取得手段、前記第2の出力確率取得手段、前記尤度取得手段、及び前記判定手段の処理を繰り返す繰り返し手段をさらに備える、
ことを特徴とする付記1から5のいずれか1つに記載の音声認識装置。
予め登録されたクエリを、隣接する音素に依存しない第1の音響モデルの音素を並べて、第1の音素列に変換する第1の変換ステップと、
前記クエリを、隣接する音素に依存する第2の音響モデルの音素を並べて、第2の音素列に変換する第2の変換ステップと、
音声信号の入力を受け付ける音声信号受付ステップと、
前記音声信号受付ステップで入力が受け付けられた前記音声信号の特徴量が、前記第1の音響モデルの各音素から出力される出力確率を、フレーム毎に取得する第1の出力確率取得ステップと、
前記第1の出力確率取得ステップでフレーム毎に取得された、前記第1の音響モデルの各音素の出力確率を、順次キューに格納するキュー格納ステップと、
前記キューに格納された前記第1の音響モデルの各音素の出力確率のうち、前記第1の音素列に対応する音素の出力確率を累積することにより、累積確率を取得する累積確率取得ステップと、
前記累積確率取得ステップで取得された累積確率が第1の条件を満たした場合、前記音声信号の特徴量が、前記第2の音素列に含まれる各音素から出力される第2の出力確率を、フレーム毎に取得する第2の出力確率取得ステップと、
前記第2の出力確率取得ステップで取得された第2の出力確率に基づいて、前記音声信号において前記クエリに対応する音声が発せられていることの尤もらしさを示す尤度を取得する尤度取得ステップと、
前記尤度取得ステップで取得された尤度が第2の条件を満たした場合、前記音声信号において前記クエリに対応する音声が発せられていると判定する判定ステップと、
を含む音声認識方法。
コンピュータを、
予め登録されたクエリを、隣接する音素に依存しない第1の音響モデルの音素を並べて、第1の音素列に変換する第1の変換手段、
前記クエリを、隣接する音素に依存する第2の音響モデルの音素を並べて、第2の音素列に変換する第2の変換手段、
音声信号の入力を受け付ける音声信号受付手段、
前記音声信号受付手段によって入力が受け付けられた前記音声信号の特徴量が、前記第1の音響モデルの各音素から出力される出力確率を、フレーム毎に取得する第1の出力確率取得手段、
前記第1の出力確率取得手段によってフレーム毎に取得された、前記第1の音響モデルの各音素の出力確率を、順次キューに格納するキュー格納手段、
前記キューに格納された前記第1の音響モデルの各音素の出力確率のうち、前記第1の音素列に対応する音素の出力確率を累積することにより、累積確率を取得する累積確率取得手段、
前記累積確率取得手段によって取得された累積確率が第1の条件を満たした場合、前記音声信号の特徴量が、前記第2の音素列に含まれる各音素から出力される第2の出力確率を、フレーム毎に取得する第2の出力確率取得手段、
前記第2の出力確率取得手段によって取得された第2の出力確率に基づいて、前記音声信号において前記クエリに対応する音声が発せられていることの尤もらしさを示す尤度を取得する尤度取得手段、
前記尤度取得手段によって取得された尤度が第2の条件を満たした場合、前記音声信号において前記クエリに対応する音声が発せられていると判定する判定手段、
として機能させるためのプログラム。
Claims (8)
- 予め登録されたクエリを、隣接する音素に依存しない第1の音響モデルの音素を並べて、第1の音素列に変換する第1の変換手段と、
前記クエリを、隣接する音素に依存する第2の音響モデルの音素を並べて、第2の音素列に変換する第2の変換手段と、
音声信号の入力を受け付ける音声信号受付手段と、
前記音声信号受付手段によって入力が受け付けられた前記音声信号の特徴量が、前記第1の音響モデルの各音素から出力される出力確率を、フレーム毎に取得する第1の出力確率取得手段と、
前記第1の出力確率取得手段によってフレーム毎に取得された、前記第1の音響モデルの各音素の出力確率を、順次キューに格納するキュー格納手段と、
前記キューに格納された前記第1の音響モデルの各音素の出力確率のうち、前記第1の音素列に対応する音素の出力確率を累積することにより、累積確率を取得する累積確率取得手段と、
前記累積確率取得手段によって取得された累積確率が第1の条件を満たした場合、前記音声信号の特徴量が、前記第2の音素列に含まれる各音素から出力される第2の出力確率を、フレーム毎に取得する第2の出力確率取得手段と、
前記第2の出力確率取得手段によって取得された第2の出力確率に基づいて、前記音声信号において前記クエリに対応する音声が発せられていることの尤もらしさを示す尤度を取得する尤度取得手段と、
前記尤度取得手段によって取得された尤度が第2の条件を満たした場合、前記音声信号において前記クエリに対応する音声が発せられていると判定する判定手段と、
を備えることを特徴とする音声認識装置。 - 前記第1の出力確率取得手段によって取得された、前記第1の音響モデルの各音素の出力確率のうちから、フレーム毎に最大の出力確率を特定し、前記第1の音響モデルの各音素の出力確率を、フレーム毎に、特定した最大の出力確率で正規化する正規化手段をさらに備え、
前記キュー格納手段は、前記正規化手段によって正規化された出力確率を、前記キューに格納する、
ことを特徴とする請求項1に記載の音声認識装置。 - 前記累積確率取得手段によって前記累積確率が取得された前記音声信号の区間において、前記キューに格納された前記第1の音響モデルの各音素の出力確率のうちから、フレーム毎に最大の出力確率を特定し、特定した最大の出力確率を累積することにより、第2の累積確率を取得する第2の累積確率取得手段をさらに備え、
前記第1の条件は、前記累積確率取得手段によって取得された累積確率を、前記第2の累積確率取得手段によって取得された第2の累積確率で除算した値が、第1の閾値以上である場合に、満たされる、
ことを特徴とする請求項1又は2に記載の音声認識装置。 - 前記尤度取得手段は、前記第2の出力確率取得手段によって取得された第2の出力確率に基づいて、前記尤度を、動的計画法により取得し、
前記第2の出力確率取得手段によって取得された出力確率のうち、音素認識によって認識された音素の出力確率に基づいて、前記尤度取得手段によって前記尤度が取得された前記音声信号の区間において前記クエリが発せられていることの尤もらしさを示す第2の尤度を取得する第2の尤度取得手段をさらに備え、
前記第2の条件は、前記尤度取得手段によって取得された尤度を、前記第2の尤度取得手段によって取得された第2の尤度で除算した値が、第2の閾値以上である場合に、満たされる、
ことを特徴とする請求項1から3のいずれか1項に記載の音声認識装置。 - 前記第1の変換手段は、予め登録された複数のクエリを、それぞれ前記第1の音響モデルの音素を並べて、複数の第1の音素列に変換し、
前記累積確率取得手段は、前記複数の第1の音素列のそれぞれについて、前記キューに格納された前記第1の音響モデルの各音素の出力確率のうち、対応する音素の出力確率を累積することにより、前記累積確率を取得し、
前記累積確率取得手段によって、前記複数のクエリのそれぞれについて取得された累積確率に基づいて、前記複数のクエリのうちから候補クエリを決定する候補決定手段をさらに備え、
前記第2の変換手段は、前記候補クエリを前記第2の音素列に変換し、
前記第2の出力確率取得手段は、前記候補クエリについて取得された累積確率が前記第1の条件を満たした場合、前記音声信号の特徴量が、前記第2の音素列に含まれる各音素から出力される第2の出力確率を、フレーム毎に取得し、
前記尤度取得手段は、前記第2の出力確率取得手段によって取得された第2の出力確率に基づいて、前記音声信号において前記候補クエリに対応する音声が発せられていることの尤もらしさを示す尤度を取得し、
前記判定手段は、前記尤度取得手段によって取得された尤度が前記第2の条件を満たした場合、前記音声信号において前記候補クエリに対応する音声が発せられていると判定する、
ことを特徴とする請求項1から4のいずれか1項に記載の音声認識装置。 - 前記判定手段によって、前記音声信号において前記クエリに対応する音声が発せられていると判定された場合、前記キューに格納された出力確率のうち、前記クエリに対応する音声が発せられていると判定された区間の出力確率を削除して、前記第1の出力確率取得手段、前記キュー格納手段、前記累積確率取得手段、前記第2の出力確率取得手段、前記尤度取得手段、及び前記判定手段の処理を繰り返す繰り返し手段をさらに備える、
ことを特徴とする請求項1から5のいずれか1項に記載の音声認識装置。 - 予め登録されたクエリを、隣接する音素に依存しない第1の音響モデルの音素を並べて、第1の音素列に変換する第1の変換ステップと、
前記クエリを、隣接する音素に依存する第2の音響モデルの音素を並べて、第2の音素列に変換する第2の変換ステップと、
音声信号の入力を受け付ける音声信号受付ステップと、
前記音声信号受付ステップで入力が受け付けられた前記音声信号の特徴量が、前記第1の音響モデルの各音素から出力される出力確率を、フレーム毎に取得する第1の出力確率取得ステップと、
前記第1の出力確率取得ステップでフレーム毎に取得された、前記第1の音響モデルの各音素の出力確率を、順次キューに格納するキュー格納ステップと、
前記キューに格納された前記第1の音響モデルの各音素の出力確率のうち、前記第1の音素列に対応する音素の出力確率を累積することにより、累積確率を取得する累積確率取得ステップと、
前記累積確率取得ステップで取得された累積確率が第1の条件を満たした場合、前記音声信号の特徴量が、前記第2の音素列に含まれる各音素から出力される第2の出力確率を、フレーム毎に取得する第2の出力確率取得ステップと、
前記第2の出力確率取得ステップで取得された第2の出力確率に基づいて、前記音声信号において前記クエリに対応する音声が発せられていることの尤もらしさを示す尤度を取得する尤度取得ステップと、
前記尤度取得ステップで取得された尤度が第2の条件を満たした場合、前記音声信号において前記クエリに対応する音声が発せられていると判定する判定ステップと、
を含む音声認識方法。 - コンピュータを、
予め登録されたクエリを、隣接する音素に依存しない第1の音響モデルの音素を並べて、第1の音素列に変換する第1の変換手段、
前記クエリを、隣接する音素に依存する第2の音響モデルの音素を並べて、第2の音素列に変換する第2の変換手段、
音声信号の入力を受け付ける音声信号受付手段、
前記音声信号受付手段によって入力が受け付けられた前記音声信号の特徴量が、前記第1の音響モデルの各音素から出力される出力確率を、フレーム毎に取得する第1の出力確率取得手段、
前記第1の出力確率取得手段によってフレーム毎に取得された、前記第1の音響モデルの各音素の出力確率を、順次キューに格納するキュー格納手段、
前記キューに格納された前記第1の音響モデルの各音素の出力確率のうち、前記第1の音素列に対応する音素の出力確率を累積することにより、累積確率を取得する累積確率取得手段、
前記累積確率取得手段によって取得された累積確率が第1の条件を満たした場合、前記音声信号の特徴量が、前記第2の音素列に含まれる各音素から出力される第2の出力確率を、フレーム毎に取得する第2の出力確率取得手段、
前記第2の出力確率取得手段によって取得された第2の出力確率に基づいて、前記音声信号において前記クエリに対応する音声が発せられていることの尤もらしさを示す尤度を取得する尤度取得手段、
前記尤度取得手段によって取得された尤度が第2の条件を満たした場合、前記音声信号において前記クエリに対応する音声が発せられていると判定する判定手段、
として機能させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015058929A JP6604013B2 (ja) | 2015-03-23 | 2015-03-23 | 音声認識装置、音声認識方法及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015058929A JP6604013B2 (ja) | 2015-03-23 | 2015-03-23 | 音声認識装置、音声認識方法及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016177214A true JP2016177214A (ja) | 2016-10-06 |
JP6604013B2 JP6604013B2 (ja) | 2019-11-13 |
Family
ID=57069095
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015058929A Active JP6604013B2 (ja) | 2015-03-23 | 2015-03-23 | 音声認識装置、音声認識方法及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6604013B2 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10930268B2 (en) | 2018-05-31 | 2021-02-23 | Samsung Electronics Co., Ltd. | Speech recognition method and apparatus |
JP2021512362A (ja) * | 2018-01-31 | 2021-05-13 | ▲騰▼▲訊▼科技(深▲セン▼)有限公司 | 音声キーワードの認識方法、装置、コンピュータ読み取り可能な記憶媒体、及びコンピュータデバイス |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH01227198A (ja) * | 1988-03-07 | 1989-09-11 | Fujitsu Ltd | 音声認識装置の単語予備選択方式 |
JP2007078943A (ja) * | 2005-09-13 | 2007-03-29 | Hitachi Ltd | 音響スコア計算プログラム |
JP2015169699A (ja) * | 2014-03-05 | 2015-09-28 | カシオ計算機株式会社 | 音声検索装置、音声検索方法及びプログラム |
-
2015
- 2015-03-23 JP JP2015058929A patent/JP6604013B2/ja active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH01227198A (ja) * | 1988-03-07 | 1989-09-11 | Fujitsu Ltd | 音声認識装置の単語予備選択方式 |
JP2007078943A (ja) * | 2005-09-13 | 2007-03-29 | Hitachi Ltd | 音響スコア計算プログラム |
JP2015169699A (ja) * | 2014-03-05 | 2015-09-28 | カシオ計算機株式会社 | 音声検索装置、音声検索方法及びプログラム |
Non-Patent Citations (2)
Title |
---|
三木敬 他: "二段階照合による混合連続分布HMM単語認識の高速化", 日本音響学会平成4年度春季研究発表会講演論文集, JPN6019010611, 17 March 1992 (1992-03-17), pages 33 - 34 * |
李晃伸 他: "モノフォンモデルを用いたコードブック選択による音響尤度計算の高速化", 日本音響学会2000年秋季研究発表会講演論文集, JPN6019010612, 20 September 2000 (2000-09-20), pages 25 - 26 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021512362A (ja) * | 2018-01-31 | 2021-05-13 | ▲騰▼▲訊▼科技(深▲セン▼)有限公司 | 音声キーワードの認識方法、装置、コンピュータ読み取り可能な記憶媒体、及びコンピュータデバイス |
US11222623B2 (en) | 2018-01-31 | 2022-01-11 | Tencent Technology (Shenzhen) Company Limited | Speech keyword recognition method and apparatus, computer-readable storage medium, and computer device |
JP7005099B2 (ja) | 2018-01-31 | 2022-01-21 | ▲騰▼▲訊▼科技(深▲セン▼)有限公司 | 音声キーワードの認識方法、装置、コンピュータ読み取り可能な記憶媒体、及びコンピュータデバイス |
US10930268B2 (en) | 2018-05-31 | 2021-02-23 | Samsung Electronics Co., Ltd. | Speech recognition method and apparatus |
Also Published As
Publication number | Publication date |
---|---|
JP6604013B2 (ja) | 2019-11-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6011565B2 (ja) | 音声検索装置、音声検索方法及びプログラム | |
JP4195428B2 (ja) | 多数の音声特徴を利用する音声認識 | |
US9466289B2 (en) | Keyword detection with international phonetic alphabet by foreground model and background model | |
JP6003972B2 (ja) | 音声検索装置、音声検索方法及びプログラム | |
KR100845428B1 (ko) | 휴대용 단말기의 음성 인식 시스템 | |
JP5888356B2 (ja) | 音声検索装置、音声検索方法及びプログラム | |
JP6812843B2 (ja) | 音声認識用コンピュータプログラム、音声認識装置及び音声認識方法 | |
KR20030018073A (ko) | 음성 인식 장치 및 음성 인식 방법 | |
US10553206B2 (en) | Voice keyword detection apparatus and voice keyword detection method | |
JP6003971B2 (ja) | 音声検索装置、音声検索方法及びプログラム | |
JPH07219578A (ja) | 音声認識方法 | |
US20100010813A1 (en) | Voice recognition apparatus, voice recognition method and recording medium | |
JP4515054B2 (ja) | 音声認識の方法および音声信号を復号化する方法 | |
WO2018192186A1 (zh) | 语音识别方法及装置 | |
KR20040068023A (ko) | 은닉 궤적 은닉 마르코프 모델을 이용한 음성 인식 방법 | |
JP6604013B2 (ja) | 音声認識装置、音声認識方法及びプログラム | |
JP6565416B2 (ja) | 音声検索装置、音声検索方法及びプログラム | |
JP6852029B2 (ja) | ワード検出システム、ワード検出方法及びワード検出プログラム | |
JP5166195B2 (ja) | 音響分析パラメータ生成方法とその装置と、プログラムと記録媒体 | |
JP6680008B2 (ja) | 検索インデクス生成装置、検索インデックス生成方法、音声検索装置、音声検索方法及びプログラム | |
JP6680009B2 (ja) | 検索インデクス生成装置、検索インデックス生成方法、音声検索装置、音声検索方法及びプログラム | |
JP2017015847A (ja) | 音声検索装置、音声検索方法及びプログラム | |
JP5136621B2 (ja) | 情報検索装置及び方法 | |
JP2019219598A (ja) | 音声認識装置、音声認識方法及びプログラム | |
JP4400169B2 (ja) | 音声認識装置、音声認識方法及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180320 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190308 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190402 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190530 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190917 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190930 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6604013 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |