JP6724511B2 - 音声認識装置、音声認識方法および音声認識プログラム - Google Patents

音声認識装置、音声認識方法および音声認識プログラム Download PDF

Info

Publication number
JP6724511B2
JP6724511B2 JP2016079481A JP2016079481A JP6724511B2 JP 6724511 B2 JP6724511 B2 JP 6724511B2 JP 2016079481 A JP2016079481 A JP 2016079481A JP 2016079481 A JP2016079481 A JP 2016079481A JP 6724511 B2 JP6724511 B2 JP 6724511B2
Authority
JP
Japan
Prior art keywords
phoneme
unit
matching
voice
voice recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016079481A
Other languages
English (en)
Other versions
JP2017191166A (ja
Inventor
昭二 早川
昭二 早川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2016079481A priority Critical patent/JP6724511B2/ja
Priority to US15/466,995 priority patent/US10733986B2/en
Publication of JP2017191166A publication Critical patent/JP2017191166A/ja
Application granted granted Critical
Publication of JP6724511B2 publication Critical patent/JP6724511B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/01Assessment or evaluation of speech recognition systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/183Speech classification or search using natural language modelling using context dependencies, e.g. language models
    • G10L15/187Phonemic context, e.g. pronunciation rules, phonotactical constraints or phoneme n-grams
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/30Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/12Speech classification or search using dynamic programming techniques, e.g. dynamic time warping [DTW]
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • G10L2015/025Phonemes, fenemes or fenones being the recognition units
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/226Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
    • G10L2015/228Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of application context

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Navigation (AREA)

Description

本発明は、音声認識装置等に関する。
運転中の利用者の利便性を向上させるために、音声でカーナビ等の車載機器を操作することができる音声インターフェースが開発されている。例えば、利用者が音声インターフェースを用いて、車載機器の操作を開始する場合には、決められたコマンド単語を発声して、音声操作を行うことが一般的である。
なお、利用者がコマンド単語を覚えていない場合または発声する環境・条件等が原因で音声認識に失敗している場合には、利用者がコマンド単語以外の単語を繰り返し発声するという事態が起こりうる。このため、利用者が同じ単語を繰り返し発声していることを検出して、利用者に通知することが望ましい。同じ発声の繰り返しを検出する従来技術の一例について説明する。
従来技術1は、語彙数1700語以上の大規模な単語辞書を用いて、利用者が発声した音声情報に類似する単語を判定する処理を順次実行し、判定した各単語を比較することで、同じ発声の繰り返しを検出する技術である。
しかし、従来技術1では、大規模な単語辞書を用いることが前提となっており、車載機器のような小規模なコマンド単語を用いる装置に設置することは適切でない。また、小規模な単語辞書を用いて、従来技術1の処理を行うと、利用者が発声した音声情報に類似する単語を判定することが難しくなる。これに対して、大規模な単語辞書を用いないで、同じ発声の繰り返しを検出する従来技術2がある。
従来技術2は、利用者が発声した音声情報から、単語辞書にヒットしない音声情報の特徴量を検出・登録する処理を繰り返し実行する。従来技術2は、単語辞書にヒットしない音声情報の特徴量と、既に登録した特徴量とのDP(Dynamic Programming)マッチングを行うことで、同じ発声の繰り返しを検出する。従来技術2では、例えば、音声情報の特徴量として、MFCC(Mel Frequency Cepstrum Coefficients)を用いる。
特開昭62−173498号公報 特開2002−6883号公報
しかしながら、上述した従来技術では、処理負荷を上げずに、同じ発声の繰り返しを検出することができないという問題がある。
例えば、従来技術2では、大規模な単語辞書を用いなくて良いものの、音声情報の特徴量に含まれる情報量が多く、この特徴量をそのまま用いてDPマッチングを実行すると、処理量が大きくなってしまう。
1つの側面では、本発明は、例えば認識語彙が少ない場合であったとしても、処理負荷を上げずに仮の文字列にて繰り返し発声を検出することができる音声認識装置、音声認識方法および音声認識プログラムを提供することを目的とする。
第1の案では、音声認識装置は、変換部と、照合部と、マッチング部と、判定部とを有する。変換部は、音声情報を、該音声情報の特徴量に対応する各音素の文字で表現した音素系列に変換する。照合部は、音声情報の特徴量および音素系列に基づく尤度と、音声情報の特徴量および所定のキーワードの音素系列に基づく尤度とを基にして、照合に成功したか否かを判定する。マッチング部は、照合結果を基にして、照合に失敗した際の前記音声情報の音素系列の各音素と、過去の音声情報の音素系列の各音素とを対応付ける。判定部は、対応付けた結果を基にして、繰り返し発声か否かを判定する。
認識語彙が少なくても、処理負荷を上げずに仮の文字列にて繰り返し発声を検出することができる。
図1は、本実施例1に係る音声認識装置の構成を示す機能ブロック図である。 図2は、音素グループデータのデータ構造の一例を示す図である。 図3は、本実施例1に係る音声認識装置の処理手順を示すフローチャートである。 図4は、音素系列を補正する処理手順を示すフローチャートである。 図5は、本実施例2に係る音声認識装置の構成を示す機能ブロック図である。 図6は、ガイダンステーブルのデータ構造の一例を示す図である。 図7は、本実施例2に係る出力部の処理手順を示すフローチャートである。 図8は、本実施例3に係る音声認識システムの構成を示す図である。 図9は、本実施例3に係る音声認識装置の構成を示す機能ブロック図である。 図10は、本実施例3に係る音声認識装置の処理手順を示すフローチャートである。 図11は、認識依頼処理の処理手順を示すフローチャートである。 図12は、本実施例4に係る音声認識システムの構成を示す図である。 図13は、本実施例4に係る音声認識装置の構成を示す機能ブロック図である。 図14は、本実施例4に係る音声認識装置の処理手順を示すフローチャートである。 図15は、オペレータ呼び出し処理の処理手順を示すフローチャートである。 図16は、本実施例5に係る音声認識システムの構成を示す図である。 図17は、本実施例5に係る音声認識装置の構成を示す機能ブロック図である。 図18は、本実施例5に係る音声認識装置の処理手順を示すフローチャートである。 図19は、選択処理の処理手順を示すフローチャートである。 図20は、音声認識装置のハードウェア構成の一例を示す図である。
以下に、本願の開示する音声認識装置、音声認識方法および音声認識プログラムの実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。
図1は、本実施例1に係る音声認識装置の構成を示す機能ブロック図である。図1に示すように、この音声認識装置100は、マイク50に接続される。図示を省略するが、音声認識装置100は、利用者が運転する車両等に設置され、カーナビゲーションシステムに接続される。
マイク50は、車内等に設置される。マイク50は、車内の音を集音し、集音した音の情報を、音声認識装置100に出力する。以下の説明では、音の情報を音声情報と表記する。
音声認識装置100は、音声区間検出部101、特徴量抽出部102、最尤音素系列探索部103、単語照合部104、キーワード検出部105、記憶部106、補正部107、登録部108、マッチング部109、判定部110を有する。最尤音素系列探索部103は、変換部の一例である。単語照合部104およびキーワード検出部105は、照合部の一例である。
音声区間検出部101は、マイク50から音声情報を取得し、音声情報に含まれる音声区間を検出する処理部である。音声区間検出部101は、音声区間の情報と音声情報とを、特徴量抽出部102に出力する。
例えば、音声区間検出部101は、音声情報の振幅と零交差に基づいて、音声区間を検出する。音声区間検出部101は、一定のレベルを越える振幅について零交差数が一定数を越えたタイミングを、音声区間の開始点とする。そして、音声区間検出部101は、一定のレベルを越える振幅について零交差数が一定数未満となる区間が予め決められた時間継続した場合に音声区間の終了とみなし、零交差数が一定数未満となった時点を終了点とする。音声区間検出部101は、上記処理を繰り返し実行することで、音声区間を検出する。なお、音声区間検出部101は、ガウス混合分布モデル等を用いて、音声区間を検出しても良い。
特徴量抽出部102は、音声区間の音声情報から特徴量を抽出する処理部である。特徴量抽出部102は、特徴量の情報を、最尤音素系列探索部103に出力する。例えば、特徴量抽出部102が抽出する特徴量は、MFCC(Mel Frequency Cepstrum Coefficients)およびMFCCの動的特徴であるΔMFCC、ΔΔMFCCである。
例えば、特徴量抽出部102は、下記の処理を実行して、特徴量を抽出する。特徴量抽出部102は、音声区間の音声情報を所定の長さのフレームで切り出し、窓がけを行い、フーリエ変換を実行して対数振幅スペクトルを求める。特徴量抽出部102は、対数振幅スペクトルにメル周波数軸上において中心周波数を等間隔に配置したフィルタバンク(メルフィルタバンクと呼ばれる)を掛けて、その各フィルタバンク出力に対し離散コサイン変換(DCT)を行い、0次を除く低次のDCTの値を特徴量(MFCC)として求める。なお、特徴量抽出部102は、その他の処理を行って、音声区間の音声情報から特徴量を抽出してもよい。
最尤音素系列探索部103は、音響モデルと音声情報の特徴量とを基にして、特徴量に対応する音素を探索する。例えば、音響モデルは、先行音素と後続音素の違い関係なく中心音素が一致する特徴量を用いて学習したモノフォンモデルである。また、音響モデルは、先行音素と後続音素別に対応する特徴量を用いて学習したトライフォンモデルである。最尤音素系列探索部103は、モノフォンモデルを用いた探索結果を基にして、音声情報の特徴量に含まれる最も確からしい音素系列(最尤音素系列)を推定する。音素系列は、母音の音素、子音の音素、半母音、長母音の音素、単語直前の無音を示す音素、単語直後の無音を示す音素、ショートポーズ等を示す音素が含まれる。最尤音素系列探索部103は、最尤音素系列の情報を、単語照合部104、補正部107に出力する。また、最尤音素系列探索部103は、音声情報の特徴量を、単語照合部104に出力する。
例えば、音声情報「295(にい、きゅう、ご)」は、最尤音素系列探索部103により、音素系列「sp i i: i: silE ky u u: o o: N k o o : sp」が含まれると推定される。
単語照合部104は、下記に示す照合処理を実行することで、所定のキーワードが音声情報に含まれているか否かを判定する処理部である。単語照合部104は、照合結果を、キーワード検出部105に出力する。
単語照合部104が実行する照合処理の一例について説明する。単語照合部104は、単語辞書において定義されている各単語の音素の組み合わせに対応する前述の各トライフォンモデルと、音声情報の特徴量とを基にして、各単語の音素の組み合わせに対する尤度をそれぞれ算出する。
また、単語照合部104は、音声情報の特徴量と、最尤音素系列の各音素とを基にして、各音素が音声情報に含まれる確率をそれぞれ乗算することで、最尤音素系列に対する尤度を算出する。以下の説明では、適宜、単語辞書に定義される単語の音素の組み合わせに対する尤度を、第1尤度と表記し、最尤音素系列に対する尤度を第2尤度と表記する。なお計算速度を考慮して、第1尤度、第2尤度とも尤度に対して対数を掛けた対数尤度であるとする。
例えば、単語照合部104は、各第1尤度について、第1尤度と第2尤度との差分を算出し、差分が閾値未満となる第1尤度が存在するか否かを判定する。単語照合部104は、差分が閾値未満となる第1尤度が存在しない場合には、照合に失敗したと判定する。一方、単語照合部104は、差分が閾値未満となる第1尤度が存在する場合には、差分が閾値未満となる第1尤度のうち、最も第2尤度に近い第1尤度を選択し、選択した第1尤度に対応する単語を、照合結果として、キーワード検出部105に出力する。
なお、単語照合部104は、単語の音素の組み合わせのトライフォンと、音声情報の特徴量とを基にして、最尤パスを算出する途中の探索段階において、最終的な尤度が閾値よりも低くなることが確定した場合には、尤度の算出を打ち切り、照合に失敗したと判定する。
キーワード検出部105は、単語照合部104による照合が成功し、照合結果を取得した場合には、照合結果となる単語の情報を、カーナビゲーションシステム等に通知する。一方、キーワード検出部105は、単語照合部104による照合が失敗した旨の情報を取得した場合には、照合に失敗した最尤音素系列を、補正部107を介してマッチング部109に出力する制御命令を、最尤音素系列探索部103に出力する。最尤音素系列探索部103は、キーワード検出部105から上記の制御命令を取得した場合に、照合に失敗した際の最尤音素系列の情報を、補正部107を介して、マッチング109に出力する。
記憶部106は、リファレンスデータ106aと、音素グループデータ106bとを有する。記憶部106は、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ(Flash Memory)などの半導体メモリ素子や、HDD(Hard Disk Drive)などの記憶装置に対応する。
リファレンスデータ106aは、最尤音素系列探索部103により、過去に探索された音素系列の情報を保持するデータである。音素系列は、後述する補正部107によって補正された後、登録部108によって、リファレンスデータ106aに登録される。
音素グループデータ106bは、類似する音素のグループと、この音素グループを代表する音素とを対応付ける情報である。図2は、音素グループデータのデータ構造の一例を示す図である。図2に示すように、この音素グループデータ106bは、置換ルールと、音素グループと、代表音素とを対応付ける。置換ルールは、音素グループと代表音素との組を一意に識別する情報である。音素グループは、同一のグループに含まれる複数の音素を示すものである。同一の音素グループには、類似する音素が含まれる。代表音素は、同一の音素グループに含まれる音素のうち、代表する音素を示すものである。
例えば、音素グループデータ106bの1行目のレコードについて説明する。置換ルール「1」の音素グループは「s、z」であり、代表音素は「s」となる。
補正部107は、音素グループデータ106bを基にして、最尤音素系列探索部103から取得する音素系列を補正する処理部である。また、補正部107は、音素系列に含まれる所定の音素を削除する補正も実行する。以下の説明では、適宜、音素グループデータ106bを基にして補正する処理を、第1補正処理と表記し、所定の音素を削除する補正を、第2補正処理と表記する。
第1補正処理について説明する。補正部107は、最尤音素系列探索部103から取得した音素系列のうち、音素グループデータ106bの音素グループに含まれる音素を検出し、検出した音素を代表音素に変換する処理を繰り返し実行する。
例えば、最尤音素系列探索部103から取得した音素系列を「sp i i: k silE silE ky u u: o o: N o sp g o sp」とする。補正部107は、この音素系列と音素グループデータ106bの音素グループとを比較すると、各音素のうち「k,g」が、置換ルール「5」に該当する。音素グループ「k,g」の代表音素が「k」であるため、補正部107は、音素「g」を「k」に変換する補正を行う。例えば、補正部107は、音素系列「sp i i: k silE silE ky u u: o o: N o sp g o sp」を音素系列「sp i i: k silE silE ky u u: o o: N o sp k o sp」に補正する。
続いて、第2補正処理について説明する。削除対象となる所定の音素には、単語の直前の無音を示す音素「silB」、単語の直後の無音を示す音素「silE」、ショートポーズを示す音素「sp」が含まれる。
例えば、音素系列を「sp i i: k silE silE ky u u: o o: N o sp k o sp」とする。補正部107は、この音素系列に含まれる「silE」、「sp」を削除する補正を行う。補正後の音素系列は、音素系列「i i: k ky u u: o o: N o k o」となる。
補正部107は、最尤音素系列探索部103から取得した音素系列に対して、第1補正処理および第2補正処理を実行し、補正した音素系列の情報を、登録部108に出力する。なお、補正部107は、最尤音素系列探索部103から、マッチング部109に出力する指示を受けた音素系列については、補正した音素系列の情報を、マッチング部109に出力する。
登録部108は、補正部107から補正された音素系列を取得し、取得した音素系列を、リファレンスデータ106aに登録する処理部である。登録部108は、リファレンスデータ106aに最新の音素系列を登録し、リファレンスデータ106aに登録された音素系列の組数が閾値以上であるか否かを判定する。登録部108は、リファレンスデータ106aに登録された音素系列の組数が閾値以上である場合には、最古の音素系列を、リファレンスデータ106aから削除する。
マッチング部109は、補正部107から取得する照合に失敗した音素系列と、リファレンスデータ106aに登録された各音素系列の組との一致率を算出する処理部である。マッチング部109は、一致率の情報を、判定部110に出力する。なお、照合に失敗した音素系列は、尤度を算出する途中の段階において、最終的な尤度が閾値よりも低くなることが確定した場合の、音素系列を含む。
ここで、マッチング部109の処理の一例について説明する。以下の説明では、説明の便宜上、補正部107から取得した音素系列を、第1音素系列と表記する。また、リファレンスデータ106aの音素系列の組を、第2音素系列と表記する。
マッチング部109は、リファレンスデータ106aから未選択の第2音素系列を取得し、第1音素系列と第2音素系列とのDP(Dynamic Programming)マッチングを実行する。例えば、マッチング部109は、第1音素系列の各音素と、第2音素系列の各音素とを比較し、一致する音素を対応付ける。対応付けの方法としては、例えば、第1音素系列と第2音素系列に先頭から序数をそれぞれ割り当て、対応づけた音素間の序数の差の絶対値を距離として算出し、最も距離が小さくなる対応付けをDPマッチングにより算出する。第1音素系列の音素の数が、第2音素系列の音素の数よりも多い場合には、第1音素系列の音素のうち、第2音素系列の音素に対応付けられない音素が発生する。
マッチング部109は、上記のマッチング処理を実行することで、第1音素系列の各音素を、第1音素、第2音素、第3音素に分類する。第1音素は、第2音素系列の音素と一致する音素である。第2音素は、第2音素系列の音素と対応付けられ、対応付けられた音素と異なる音素である。第3音素は、第2音素系列の音素と対応付けられていない音素である。
マッチング部109は、式(1)に基づいて、第1音素系列の一致率Pを算出する。式(1)において、Cは、第1音素の数を示す。Sは、第2音素の数を示す。Dは、第3音素の数を示す。
一致率P=C/(C+D+S)×100(%)・・・(1)
マッチング部109は、第1音素系列を取得した場合に、未選択の第2音素系列を、リファレンスデータ106aから取得して、一致率を算出する処理を繰り返し実行し、各一致率の情報を、判定部110に出力する。なお、マッチング部109は、同一の第1音素系列について、各第2音素系列に対する一致率を算出し、算出した各一致率のうち、最大の一致率の情報を、判定部110に出力しても良い。
例えば、第1音素系列を「i i: k ky u u: o o: N o k o」とし、第2音素系列を「i i: i: ky u u: o o: N k o o:」とする。この場合には、C=11、D=1、S=0となり、マッチング部109が式(1)に基づき一致率を算出すると、一致率P=80%となる。
判定部110は、マッチング部109のマッチング結果を基にして、繰り返し発声か否かを判定する処理部である。判定部110は、繰り返し発声と判定した場合には、カーナビゲーションシステム等に、繰り返し発声を検出した旨の情報を通知する。
具体的に、判定部110は、マッチング部109から、一致率の情報を取得し、一致率が閾値以上となった場合に、繰り返し発声であると判定する。
次に、本実施例1に係る音声認識装置100の処理手順について説明する。図3は、本実施例1に係る音声認識装置の処理手順を示すフローチャートである。図3に示すように、この音声認識装置100の音声区間検出部101は、音声情報の音声区間を検出する(ステップS101)。音声認識装置100の特徴量抽出部102は、特徴量を抽出する(ステップS102)。
音声認識装置100の最尤音素系列探索部103は、最尤音素系列を探索する(ステップS103)。音声認識装置100の単語照合部104は、音声情報の特徴量を基にして単語照合を実行する(ステップS104)。音声認識装置100のキーワード検出部105は、単語照合結果を基にして、キーワード検出を実行する(ステップS105)。
キーワード検出部105は、登録されている所定のキーワードを検出した場合には(ステップS106,Yes)、リファレンスデータ106aの音素系列の全ての組をクリアし(ステップS107)、処理を終了する。一方、キーワード検出部105は、登録されている所定のキーワードを検出しない場合には(ステップS106,No)、ステップS108に移行する。
音声認識装置100の補正部107は、音素系列の結果を取得し(ステップS108)、音素系列を補正する(ステップS109)。音声認識装置100のマッチング部109は、リファレンスデータ106aに登録されているN組の音素系列を取得する(ステップS110)。
マッチング部109は、音素系列のDPマッチングを実行し(ステップS111)、一致率を算出する(ステップS112)。音声認識装置100の判定部110は、一致率が閾値以上であるか否かを判定する(ステップS113)。
判定部110は、一致率が閾値以上である場合には(ステップS113,Yes)、繰り返し発声を検出し(ステップS114)、処理を終了する。一方、判定部110は、一致率が閾値未満である場合には(ステップS113,No)、リファレンスデータ106aの全ての音素系列の組について、一致率を算出したか否かを判定する(ステップS115)。
判定部110は、リファレンスデータ106aの全ての音素系列の組について、一致率を算出した場合には(ステップS115,Yes)、処理を終了する。一方、判定部110は、リファレンスデータ106aの全ての音素系列の組について、一致率を算出していない場合には(ステップS115,No)、ステップS111に移行する。
次に、図3のステップS109に示した音素系列を補正する処理の処理手順について説明する。図4は、音素系列を補正する処理手順を示すフローチャートである。図4に示すように、音声認識装置100の補正部107は、音素グループデータ106bを読み込む(ステップS201)。補正部107は、未チェックの音素が存在するか否かを判定する(ステップS202)。補正部107は、未チェックの音素が存在しない場合には(ステップS202,No)、処理を終了する。
補正部107は、未チェックの音素が存在する場合には(ステップS202,Yes)、音素系列から未チェックの音素を1個取り出す(ステップS203)。補正部107は、音素グループに含まれる音素であるか否かを判定する(ステップS204)。補正部107は、音素グループに含まれる音素である場合には(ステップS205,Yes)、音素系列における、取り出した音素に該当する音素を、代表音素に置き換え(ステップS205)、ステップS202に移行する。
一方、補正部107は、音素グループに含まれる音素でない場合には(ステップS204,No)、音素が無音を表す音素であるか否かを判定する(ステップS206)。補正部107は、無音を表す音素でない場合には(ステップS206,No)、取り出した音素に対して何も補正を加えずにステップS202に移行する。一方、補正部107は、無音を表す音素である場合には(ステップS206,Yes)、音素系列における、取り出した音素に該当する音素を削除し(ステップS207)、ステップS202に移行する。
次に、本実施例1に係る音声認識装置100の効果について説明する。音声認識装置100は、ワードスポッティングの処理過程で生成される音素系列をリファレンスデータ106aに登録しておく。そして、音声認識装置100は、単語辞書にヒットしないもしくはキーワード検出に失敗した音素系列を順次検出し、検出した音素系列の音素と、リファレンスデータ106aの音素系列の組を構成する音素系列とDPマッチングし、各音素系列の組に対する音素の一致度を基にして、繰り返し発音を検出する。本実施例1では、特徴量から探索される音素系列ベースで、DPマッチングを実行するため、特徴量ベースでDPマッチングを行う場合と比較して、処理量を軽減することができる。また、単語辞書に大規模な単語数を登録していなくても、繰り返し発声を検出することができる。
音声認識装置100は、音素系列と、音素グループデータ106bとを基にして、音素グループに対応する音素を、代表音素に補正する処理を実行する。このように、類似する音素を同一の音素に補正することで、一致率を精度良く算出することができる。
音声認識装置100は、音素系列のうち、無音を示す音素を削除する補正を行う。無音を表す音素は、発声の速さや間の取り方等により検出数が発話ごとに大きく異なり安定せず、さらに繰り返し発声検出のための有用な情報があまり無音を表す音素にはないため、無音を表す音素を考慮すると音素一致度の算出時には悪影響となる。このため無音を表す音素を削除する補正を行うことで、一致率を精度良く算出することができる。
図5は、本実施例2に係る音声認識装置の構成を示す機能ブロック図である。図5に示すように、この音声認識装置200は、マイク50に接続される。音声認識装置200は、音声認識装置100と同様に、利用者が運転する車両等に設置され、カーナビゲーションシステムに接続される。マイク50に関する説明は、図1に示したマイク50に関する説明と同様である。
音声認識装置200は、音声区間検出部101、特徴量抽出部102、最尤音素系列探索部103、単語照合部104、キーワード検出部105、補正部107、登録部108、マッチング部109、判定部110、記憶部210、出力部220を有する。音声認識装置200の各処理部101〜105、107〜110に関する説明は、図1に示した各処理部101〜105、107〜110に関する説明と同様である。
記憶部210は、リファレンスデータ106aと、音素グループデータ106bと、ガイダンステーブル210aとを有する。記憶部210は、RAM、ROM、フラッシュメモリなどの半導体メモリ素子や、HDDなどの記憶装置に対応する。
リファレンスデータ106aおよび音素グループデータ106bに関する説明は、図1に示したリファレンスデータ106aおよび音素グループデータ106bに関する説明と同様である。
ガイダンステーブル210aは、繰り返し発声を検出した場合に、利用者に通知するガイダンスの情報を保持するテーブルである。図6は、ガイダンステーブルのデータ構造の一例を示す図である。図6に示すように、このガイダンステーブル210aは、環境情報と、ガイダンス内容と、優先順位とを対応付ける。
環境情報は、利用者が運転する自動車の環境を特定する情報である。ガイダンス内容は、利用者に通知するガイダンスの内容であり、音声入力時の環境や条件の改善を促すものである。優先順位は、ガイダンス内容の優先順位を示すものであり、優先順位の値が小さい(上位)ほど、優先順位が高いことを示す。
出力部220は、判定部110が繰り返し発声であると判定した場合に、環境情報を取得し、環境情報と、ガイダンステーブル210aとを基にして、ガイダンス内容を判定する。出力部220は、判定したガイダンス内容を、図示しないスピーカに出力させる。
例えば、出力部220は、環境情報を、CAN(Controller Area Network)通信を介して取得する。このCAN通信を介して得られる環境情報は、エアコンがONであるか否かの情報、自動車の走行速度、自動車の窓が開いているか否かの情報が含まれる。また、出力部220は、音声区間検出部101から、音声区間の平均パワーと、音声区間を検出するために推定した背景雑音の平均パワーの情報を取得し、SNR(Signal Noise Ratio)を算出する。
出力部220は、取得した環境情報と、ガイダンステーブル210aとを比較して、ヒットするガイダンス内容を特定し、特定したガイダンス内容のうち、優先順位の値が最も大きいガイダンス内容を選択する。出力部220は、選択したガイダンス内容をスピーカから出力させる。
なお、出力部220は、判定部110によって、再度、繰り返し発声であると判定された場合には、未選択のガイダンス内容を対象として、上記処理を再度実行する。
次に、本実施例2に係る音声認識装置200の処理手順について説明する。音声認識装置200が、繰り返し発声を検出する処理手順は、図3に示した処理手順と同様であるため、説明を省略する。ここでは、音声認識装置200の判定部110が、繰り返し発声を検出した場合の、出力部220の処理について説明する。
図7は、本実施例2に係る出力部の処理手順を示すフローチャートである。図7に示すように、この出力部220は、環境情報を取得し(ステップS301)、ガイダンステーブル210aに、合致する環境情報が存在するか否かを判定する(ステップS302)。
出力部220は、ガイダンステーブル210aに、合致する環境情報が存在しない場合には(ステップS302,No)、処理を終了する。
一方、出力部220は、ガイダンステーブル210aに、合致する環境情報が存在する場合には(ステップS302,Yes)、合致する環境情報が複数存在するか否かを判定する(ステップS303)。
出力部220は、合致する環境情報が複数存在する場合には(ステップS303,Yes)、優先順位の高いガイダンス内容を選択し(ステップS304)、ステップS306に移行する。
一方、出力部220は、合致する環境情報が複数存在しない場合には(ステップS304,No)、環境情報に対応するガイダンスを選択し(ステップS305)、ステップS306に移行する。出力部220は、ガイダンス内容を再生する(ステップS306)。
次に、本実施例2に係る音声認識装置200の効果について説明する。音声認識装置200は、繰り返し発声を検出した場合に、環境情報と、ガイダンステーブル210aとを比較して、音声入力時の環境や条件の改善を促すためのガイダンスを再生する。このガイダンスを聞いた利用者が、ガイダンスの内容に従って、音声入力時の環境や条件を改善することで、音声認識を成功させる音声入力を適切に実行することができる。
図8は、本実施例3に係る音声認識システムの構成を示す図である。図8に示すように、この音声認識システムは、音声認識装置300と、サーバ70とを有する。音声認識装置300は、ネットワーク60を介して、サーバ70に接続される。例えば、サーバ70は、クラウド上のサーバであってもよい。
音声認識装置300は、繰り返し発声を検出し、連続して検出した回数を計数する。以下の説明では、適宜、繰り返し発声を連続して検出した回数を、繰り返し発声検出回数と表記する。音声認識装置300は、繰り返し発声検出回数が閾値を超えた場合に、サーバ70とコネクションを確立し、音声情報を、サーバ70に送信する。音声情報の代わりに音声情報の特徴量を送信してもよい。
サーバ70は、例えば、音声認識装置300が有する単語辞書よりも語彙数の多い単語辞書を用いて、音声認識装置300から送信される音声情報の音声認識を実行する装置である。あるいはサーバ70における潤沢な計算資源を用いたより高精度な音声認識を実行する装置である。サーバ70は、音声情報の音声認識結果を、音声認識装置300に通知する。
次に、図8に示した音声認識装置300の構成について説明する。図9は、本実施例3に係る音声認識装置の構成を示す機能ブロック図である。図9に示すように、この音声認識装置300は、マイク50に接続される。音声認識装置300は、音声認識装置100と同様に、利用者が運転する車両等に設置され、カーナビゲーションシステムに接続される。マイク50に関する説明は、図1に示したマイク50に関する説明と同様である。
音声認識装置300は、音声区間検出部101、特徴量抽出部102、最尤音素系列探索部103、単語照合部104、キーワード検出部105、記憶部106、補正部107、登録部108、マッチング部109、判定部110、送信部310、受信部320を有する。音声認識装置300の各処理部101〜105、107〜110に関する説明は、図1に示した各処理部101〜105、107〜110に関する説明と同様である。また、記憶部106に関する説明は、図1に示した記憶部106の説明と同様である。
送信部310は、判定部110が繰り返し発声であると連続して判定した繰り返し発声検出回数を計数する。送信部310は、繰り返し発声検出回数が閾値を超えた場合に、サーバ70とコネクションを確立し、音声情報をサーバ70に送信する。送信部310が送信した音声情報に対して、サーバ70は、音声認識を実行する。
受信部320は、サーバ70から音声情報の音声認識結果を受信する処理部である。受信部320は、音声情報の音声認識結果を、カーナビゲーションシステム等に通知する。
次に、本実施例3に係る音声認識装置300の処理手順について説明する。図10は、本実施例3に係る音声認識装置の処理手順を示すフローチャートである。図10に示すように、この音声認識装置300の音声区間検出部101は、音声情報の音声区間を検出する(ステップS401)。音声認識装置300の特徴量抽出部102は、特徴量を抽出する(ステップS402)。
音声認識装置300の最尤音素系列探索部103は、最尤音素系列を探索する(ステップS403)。音声認識装置300の単語照合部104は、音声情報の特徴量を基にして単語照合を実行する(ステップS404)。音声認識装置300のキーワード検出部105は、単語照合結果を基にして、キーワード検出を実行する(ステップS405)。
キーワード検出部105は、登録されている所定のキーワードを検出した場合には(ステップS406,Yes)、リファレンスデータ106aの音素系列の全ての組をクリアする(ステップS407)。キーワード検出部105は、繰り返し発声検出回数をクリアし(ステップS408)、処理を終了する。一方、キーワード検出部105は、登録されている所定のキーワードを検出しない場合には(ステップS406,No)、ステップS409に移行する。
音声認識装置300の補正部107は、音素系列の結果を取得し(ステップS409)、音素系列を補正する(ステップS410)。音声認識装置300のマッチング部109は、リファレンスデータ106aに登録されているN組の音素系列を取得する(ステップS411)。
マッチング部109は、音素系列のDPマッチングを実行し(ステップS412)、一致率を算出する(ステップS413)。音声認識装置300の判定部110は、一致率が閾値以上であるか否かを判定する(ステップS414)。
判定部110は、一致率が閾値以上である場合には(ステップS414,Yes)、繰り返し発声を検出し(ステップS415)、音声認識装置300の送信部310は、認識依頼処理を実行する(ステップS416)。
一方、判定部110は、一致率が閾値未満である場合には(ステップS414,No)、リファレンスデータ106aの全ての音素系列の組について、一致率を算出したか否かを判定する(ステップS417)。
判定部110は、リファレンスデータ106aの全ての音素系列の組について、一致率を算出した場合には(ステップS417,Yes)、処理を終了する。一方、判定部110は、リファレンスデータ106aの全ての音素系列の組について、一致率を算出していない場合には(ステップS417,No)、ステップS412に移行する。
次に、図10のステップS416に示した認識依頼処理の処理手順について説明する。図11は、認識依頼処理の処理手順を示すフローチャートである。図11に示すように、音声認識装置300の送信部310は、繰り返し発声検出回数を1個増やし(ステップS501)、繰り返し発声検出回数が閾値Lを超えたか否かを判定する(ステップS502)。
送信部310は、繰り返し発声検出回数が閾値Lを超えていない場合には(ステップS502,No)、処理を終了する。送信部310は、繰り返し発声検出回数が閾値Lを超えた場合には(ステップS502,Yes)、サーバ70と通信可能な電波状態であるか否かを判定する(ステップS503)。
送信部310は、サーバ70と通信可能な電波状態でない場合には(ステップS503,No)、処理を終了する。送信部310は、サーバ70と通信可能な電波状態である場合には(ステップS503,Yes)、サーバ70とコネクションを確立する(ステップS504)。
送信部310は、音声情報をサーバ70に送信し(ステップS505)、音声認識装置300の受信部320は、サーバ70から認識結果を受信する(ステップS506)。
次に、本実施例3に係る音声認識装置300の効果について説明する。音声認識装置300は、繰り返し発声検出回数が閾値を超えた場合に、サーバ70とコネクションを確立し、音声情報をサーバ70に送信することで、音声情報の認識処理を依頼する。これにより、音声認識装置300は、自装置で認識することが難しい音声情報を、サーバ70を利用して、認識することが可能になる。
図12は、本実施例4に係る音声認識システムの構成を示す図である。図12に示すように、この音声認識システムは、音声認識装置400と、オペレータ端末80とを有する。音声認識装置400は、ネットワーク60を介して、オペレータ端末80に接続される。
音声認識装置400は、繰り返し発声を検出し、連続して検出した回数を計数する。以下の説明では、適宜、繰り返し発声を連続して検出した回数を、繰り返し発声検出回数と表記する。音声認識装置400は、繰り返し発声検出回数が閾値を超えた場合に、オペレータ端末80を操作するオペレータを呼び出し、車内の利用者と、オペレータとの通話経路を確立する。
オペレータ端末80は、オペレータが操作する端末装置であり、通話機能を有するPC(Personal Computer)等に対応する。オペレータ端末80と音声認識装置400との通信経路が確立されると、オペレータは利用者と通話を行う。
次に、図12に示した音声認識装置400の構成について説明する。図13は、本実施例4に係る音声認識装置の構成を示す機能ブロック図である。図13に示すように、この音声認識装置400は、マイク50に接続される。音声認識装置400は、音声認識装置100と同様に、利用者が運転する車両等に設置され、カーナビゲーションシステムに接続される。マイク50に関する説明は、図1に示したマイク50に関する説明と同様である。
音声認識装置400は、音声区間検出部101、特徴量抽出部102、最尤音素系列探索部103、単語照合部104、キーワード検出部105、記憶部106、補正部107、登録部108、マッチング部109、判定部110、接続部410を有する。音声認識装置400の各処理部101〜105、107〜110に関する説明は、図1に示した各処理部101〜105、107〜110に関する説明と同様である。また、記憶部106に関する説明は、図1に示した記憶部106の説明と同様である。
接続部410は、判定部110が繰り返し発声であると連続して判定した繰り返し発声検出回数を計数する。接続部410は、繰り返し発声検出回数が閾値を超えた場合に、オペレータ端末80と通信経路を確立する。例えば、接続部410は、マイク50の音声情報を、オペレータ端末80に送信し、オペレータ端末80から送信される音声情報を、スピーカ等を用いて再生する。
次に、本実施例4に係る音声認識装置400の処理手順について説明する。図14は、本実施例4に係る音声認識装置の処理手順を示すフローチャートである。図14に示すように、この音声認識装置400の音声区間検出部101は、音声情報の音声区間を検出する(ステップS601)。音声認識装置400の特徴量抽出部102は、特徴量を抽出する(ステップS602)。
音声認識装置400の最尤音素系列探索部103は、最尤音素系列を探索する(ステップS603)。音声認識装置400の単語照合部104は、音声情報の特徴量を基にして単語照合を実行する(ステップS604)。音声認識装置400のキーワード検出部105は、単語照合結果を基にして、キーワード検出を実行する(ステップS605)。
キーワード検出部105は、登録されている所定のキーワードを検出した場合には(ステップS606,Yes)、リファレンスデータ106aの音素系列の全ての組をクリアする(ステップS607)。キーワード検出部105は、繰り返し発声検出回数をクリアし(ステップS608)、処理を終了する。一方、キーワード検出部105は、登録されている所定のキーワードを検出しない場合には(ステップS606,No)、ステップS609に移行する。
音声認識装置400の補正部107は、音素系列の結果を取得し(ステップS609)、音素系列を補正する(ステップS610)。音声認識装置400のマッチング部109は、リファレンスデータ106aに登録されているN組の音素系列を取得する(ステップS611)。
マッチング部109は、音素系列のDPマッチングを実行し(ステップS612)、一致率を算出する(ステップS613)。音声認識装置400の判定部110は、一致率が閾値以上であるか否かを判定する(ステップS614)。
判定部110は、一致率が閾値以上である場合には(ステップS614,Yes)、繰り返し発声を検出し(ステップS615)、音声認識装置400の接続部410は、オペレータ呼び出し処理を実行する(ステップS616)。
一方、判定部110は、一致率が閾値未満である場合には(ステップS614,No)、リファレンスデータ106aの全ての音素系列の組について、一致率を算出したか否かを判定する(ステップS617)。
判定部110は、リファレンスデータ106aの全ての音素系列の組について、一致率を算出した場合には(ステップS617,Yes)、処理を終了する。一方、判定部110は、リファレンスデータ106aの全ての音素系列の組について、一致率を算出していない場合には(ステップS617,No)、ステップS612に移行する。
次に、図14のステップS616に示したオペレータ呼び出し処理の処理手順について説明する。図15は、オペレータ呼び出し処理の処理手順を示すフローチャートである。図15に示すように、音声認識装置400の接続部410は、繰り返し発声検出回数を1個増やす(ステップS701)。
接続部410は、繰り返し発声検出回数が閾値Mを超えたか否かを判定する(ステップS702)。接続部410は、繰り返し発声検出回数が閾値Mを超えていない場合には(ステップS702,No)、処理を終了する。
一方、接続部410は、繰り返し発声検出回数が閾値Mを超えた場合には(ステップS702,Yes)、オペレータ端末80と通信可能な電波状況であるか否かを判定する(ステップS703)。接続部410は、オペレータ端末80と通信可能な電波状況でない場合には(ステップS703,No)、処理を終了する。
一方、接続部410は、オペレータ端末80と通信可能な電波状況である場合には(ステップS703,Yes)、オペレータを呼び出し(ステップS704)、利用者とオペレータ間の通信経路を確立する(ステップS705)。
次に、本実施例4に係る音声認識装置400の効果について説明する。音声認識装置400は、繰り返し発声検出回数が閾値を超えた場合に、オペレータ端末80と通信経路を確立し、オペレータに利用者の対応を依頼する。これにより、音声認識装置400は、自装置で認識することが難しい音声情報が存在する場合に、オペレータに依頼することで、利用者の要求に効率的に対応することができる。
図16は、本実施例5に係る音声認識システムの構成を示す図である。図16に示すように、この音声認識システムは、音声認識装置500と、サーバ70と、オペレータ端末80とを有する。音声認識装置500は、ネットワーク60を介して、サーバ70と、オペレータ端末80と接続される。サーバ70は、クラウド上のサーバであっても良い。
音声認識装置500は、繰り返し発声を検出し、連続して検出した回数を計数する。以下の説明では、適宜、繰り返し発声を連続して検出した回数を、繰り返し発声検出回数と表記する。音声認識装置500は、繰り返し発声検出回数に応じて、下記の処理を実行する。
音声認識装置500は、繰り返し発声検出回数が第1閾値を超えた場合には、実施例2で説明した出力部220の処理を実行する。例えば、音声認識装置500は、環境情報に応じたガイダンスを、利用者に通知する。
音声認識装置500は、繰り返し発声検出回数が第2閾値を超えた場合には、実施例3で説明した送信部310の処理を実行する。例えば、音声認識装置500は、サーバ70とコネクションを確立し、音声情報をサーバ70に送信する。
音声認識装置500は、繰り返し発声検出回数が第3閾値を超えた場合には、実施例4で説明した接続部410の処理を実行する。例えば、音声認識装置500は、オペレータ端末80を操作するオペレータを呼び出し、車内の利用者と、オペレータとの通話経路を確立する。
図16に示すサーバ70に関する説明は、図8に示したサーバ70に関する説明と同様である。図16に示すオペレータ端末80に関する説明は、図12に示したオペレータ端末80に関する説明と同様である。
次に、図16に示した音声認識装置500の構成について説明する。図17は、本実施例5に係る音声認識装置の構成を示す機能ブロック図である。図17に示すように、この音声認識装置500は、マイク50に接続される。音声認識装置500は、音声認識装置100と同様に、利用者が運転する車両等に設置され、カーナビゲーションシステムに接続される。マイク50に関する説明は、図1に示したマイク50に関する説明と同様である。
音声認識装置500は、音声区間検出部101、特徴量抽出部102、最尤音素系列探索部103、単語照合部104、キーワード検出部105、補正部107、登録部108、マッチング部109、判定部110、記憶部210を有する。音声認識装置500は、選択部510、送信部520、受信部530、接続部540、出力部550を有する。音声認識装置500の各処理部101〜105、107〜110に関する説明は、図1に示した各処理部101〜105、107〜110に関する説明と同様である。また、記憶部210に関する説明は、図5に示した記憶部210の説明と同様である。
選択部510は、判定部110が繰り返し発声であると連続して判定した繰り返し発声検出回数を計数する。選択部510は、繰り返し発声検出回数に応じて、送信部520、接続部540、出力部550のいずれかの処理部を選択し、選択した処理部に処理を実行させる。
例えば、選択部510は、繰り返し発声検出回数が第1閾値を超えた場合には、出力部550を選択し、出力部550に処理を実行させる。選択部510は、繰り返し発声検出回数が第2閾値を超えた場合には、送信部520を選択し、送信部520に処理を実行させる。選択部510は、繰り返し発声検出回数が第3閾値を超えた場合には、接続部540を選択し、接続部540に処理を実行させる。例えば、第1閾値を「3回」、第2閾値を「4回」、第3閾値を「5回」とする。
送信部520の処理は、図9に示した送信部310の処理に対応する。受信部530の処理は、図9に示した受信部320の処理に対応する。
接続部540の処理は、図13に示した接続部410の処理に対応する。
出力部550の処理は、図5に示した出力部220の処理に対応する。
次に、本実施例5に係る音声認識装置500の処理手順について説明する。図18は、本実施例5に係る音声認識装置の処理手順を示すフローチャートである。図18に示すように、この音声認識装置500の音声区間検出部101は、音声情報の音声区間を検出する(ステップS801)。音声認識装置500の特徴量抽出部102は、特徴量を抽出する(ステップS802)。
音声認識装置500の最尤音素系列探索部103は、最尤音素系列を探索する(ステップS803)。音声認識装置500の単語照合部104は、音声情報の特徴量を基にして単語照合を実行する(ステップS804)。音声認識装置500のキーワード検出部105は、単語照合結果を基にして、キーワード検出を実行する(ステップS805)。
キーワード検出部105は、登録されている所定のキーワードを検出した場合には(ステップS806,Yes)、リファレンスデータ106aの音素系列の全ての組をクリアする(ステップS807)。キーワード検出部105は、繰り返し発声検出回数をクリアし(ステップS808)、処理を終了する。一方、キーワード検出部105は、登録されている所定のキーワードを検出しない場合には(ステップS806,No)、ステップS809に移行する。
音声認識装置500の補正部107は、音素系列の結果を取得し(ステップS809)、音素系列を補正する(ステップS810)。音声認識装置500のマッチング部109は、リファレンスデータ106aに登録されているN組の音素系列を取得する(ステップS811)。
マッチング部109は、音素系列のDPマッチングを実行し(ステップS812)、一致率を算出する(ステップS813)。音声認識装置500の判定部110は、一致率が閾値以上であるか否かを判定する(ステップS814)。
判定部110は、一致率が閾値以上である場合には(ステップS814,Yes)、繰り返し発声を検出し(ステップS815)、音声認識装置500の選択部510は、選択処理を実行する(ステップS816)。
一方、判定部110は、一致率が閾値未満である場合には(ステップS814,No)、リファレンスデータ106aの全ての音素系列の組について、一致率を算出したか否かを判定する(ステップS817)。
判定部110は、リファレンスデータ106aの全ての音素系列の組について、一致率を算出した場合には(ステップS817,Yes)、処理を終了する。一方、判定部110は、リファレンスデータ106aの全ての音素系列の組について、一致率を算出していない場合には(ステップS817,No)、ステップS812に移行する。
次に、図18のステップS816に示した選択処理の処理手順について説明する。図19は、選択処理の処理手順を示すフローチャートである。図19に示すように、音声認識装置500の選択部510は、繰り返し発声検出回数を1個増やす(ステップS901)。選択部510は、繰り返し発声検出回数が3回以上であるか否かを判定する(ステップS902)。選択部510は、繰り返し発声検出回数が3回以上でない場合には(ステップS902,No)、処理を終了する。
一方、選択部510は、繰り返し発声検出回数が3回以上である場合には(ステップS902,Yes)、ステップS903に移行する。選択部510は、繰り返し発声検出回数が3回である場合には(ステップS903、3回)、出力部550によるガイダンス出力処理を実行させる(ステップS904)。ガイダンス出力処理は、図7に示した処理手順と同様である。
選択部510は、繰り返し発声検出回数が4回である場合には(ステップS903、4回)、送信部520による認識依頼処理を実行させる(ステップS905)。
選択部510は、繰り返し発声検出回数が5回である場合には(ステップS903、5回)、接続部540によるオペレータ呼び出し処理を実行させる(ステップS906)。
次に、本実施例5に係る音声認識装置500の効果について説明する。音声認識装置500は、繰り返し発声検出回数を計数し、繰り返し発声検出回数に応じて、ガイダンス出力処理、認識依頼処理、オペレータ呼び出し処理を実行する。このため、繰り返し発声検出回数に応じて段階的に、最適な処理を実行することができる。
次に、上記実施例に示した音声認識装置100,200,300,400,500と同様の機能を実現するコンピュータのハードウェア構成について説明する。図20は、音声認識装置のハードウェア構成の一例を示す図である。
図20に示すように、コンピュータ600は、各種演算処理を実行するCPU601と、利用者からのデータの入力を受け付ける入力装置602と、ディスプレイ603を有する。また、コンピュータ600は、記憶媒体からプログラム等を読取る読み取り装置604と、ネットワークを介して他のコンピュータとの間でデータの授受を行うインターフェース装置605とを有する。また、コンピュータ600は、各種情報を一時記憶するRAM606と、ハードディスク装置607を有する。そして、各装置601〜607は、バス608に接続される。
ハードディスク装置607は、変換プログラム607a、照合プログラム607b、マッチングプログラム607c、判定プログラム607dを有する。CPU601は、各プログラム607a〜607dを読み出してRAM606に展開する。変換プログラム607aは、変換プロセス606aとして機能する。照合プログラム607bは、照合プロセス606bとして機能する。マッチングプログラム607cは、マッチングプロセス606cとして機能する。判定プログラム607dは、判定プロセス606dとして機能する。
例えば、変換プロセス606aの処理は、最尤音素系列探索部103の処理に対応する。照合プロセス606bの処理は、単語照合部104、キーワード検出部105の処理に対応する。マッチングプロセス606cの処理は、マッチング部109の処理に対応する。判定プロセス606dの処理は、判定部110の処理に対応する。
なお、各プログラム607a〜607dについては、必ずしも最初からハードディスク装置607に記憶させておかなくても良い。例えば、コンピュータ600に挿入されるフレキシブルディスク(FD)、CD−ROM、DVDディスク、光磁気ディスク、ICカードなどの「可搬用の物理媒体」に各プログラムを記憶させておく。そして、コンピュータ600がこれらから各プログラム607a〜607dを読み出して実行するようにしてもよい。
以上の各実施例を含む実施形態に関し、さらに以下の付記を開示する。
(付記1)音声情報を、該音声情報の特徴量に対応する各音素の文字で表現した音素系列に変換する変換部と、
前記音声情報の特徴量および前記音素系列に基づく尤度と、前記音声情報の特徴量および所定のキーワードの音素系列に基づく尤度とを基にして、照合に成功したか否かを判定する照合部と、
照合結果を基にして、照合に失敗した際の前記音声情報の音素系列の各音素と、過去の音声情報の音素系列の各音素とを対応付けるマッチング部と、
対応付けた結果を基にして、繰り返し発声か否かを判定する判定部と
を有することを特徴とする音声認識装置。
(付記2)類似する複数の音素をまとめた音素グループと代表音素の文字とを対応付けたテーブルを基にして、前記音素系列に含まれる音素を代表音素の文字に補正する補正部を更に有することを特徴とする付記1に記載の音声認識装置。
(付記3)前記補正部は、前記音素系列に含まれる音素のうち、無音を示す音素の文字を削除する補正を更に実行することを特徴とする付記2に記載の音声認識装置。
(付記4)前記マッチング部は、DP(Dynamic Programming)マッチングを実行することで、前記音素系列の各音素と、過去の音声情報の音素系列の各音素とを対応付け、対応付けられた音素と一致する音素の数と、対応する音素が存在しない音素の数と、対応付けられた音素と異なる音素の数とを基にして、一致率を算出し、前記判定部(110)は、前記一致率が閾値を超えた場合に、繰り返し発声であると判定することを特徴とする付記1、2または3に記載の音声認識装置。
(付記5)前記判定部が、繰り返し発声であると判定した場合に、優先度と、音声入力の改善を促すメッセージとを対応付けた情報から、未選択のメッセージを優先度に基づき選択し、選択したメッセージを出力する出力部を更に有することを特徴とする付記1〜4のいずれか一つに記載の音声認識装置。
(付記6)前記判定部が、繰り返し発声であると連続で判定した回数が所定回数以上となった場合に、前記音声情報をサーバに送信する送信部を更に有することを特徴とする付記1〜5のいずれか一つに記載の音声認識装置。
(付記7)前記判定部が、繰り返し発声であると連続で判定した回数が所定回数以上となった場合に、ネットワークを介して、前記音声認識装置と、オペレータが操作する端末装置とを接続する接続部を更に有することを特徴とする付記1〜6のいずれか一つに記載の音声認識装置。
(付記8)前記判定部が、繰り返し発声であると連続して判定した回数を基にして、優先度と、音声入力の改善を促すメッセージとを対応付けた情報から、未選択のメッセージを優先度に基づき選択し、選択したメッセージを出力する処理、前記音声情報をサーバに送信する処理、ネットワークを介して、前記音声認識装置と、オペレータが操作する端末装置とを接続する処理のいずれかを選択する選択部を有することを特徴とする付記1〜7のいずれか一つに記載の音声認識装置。
(付記9)コンピュータが実行する音声認識方法であって、
音声情報を、該音声情報の特徴量に対応する各音素の文字で表現した音素系列に変換し、
前記音声情報の特徴量および前記音素系列に基づく尤度と、前記音声情報の特徴量および所定のキーワードの音素系列に基づく尤度とを基にして、照合に成功したか否かを判定し、
照合結果を基にして、照合に失敗した際の前記音声情報の音素系列の各音素と、過去の音声情報の音素系列の各音素とを対応付け、
対応付けた結果を基にして、繰り返し発声か否かを判定する
処理を実行することを特徴とする音声認識方法。
(付記10)類似する複数の音素をまとめた音素グループと代表音素の文字とを対応付けたテーブルを基にして、前記音素系列に含まれる音素を代表音素の文字に補正する処理を更に実行することを特徴とする付記9に記載の音声認識方法。
(付記11)前記補正する処理は、前記音素系列に含まれる音素のうち、無音を示す音素の文字を削除する補正を更に実行することを特徴とする付記10に記載の音声認識方法。
(付記12)前記対応付ける処理は、DP(Dynamic Programming)マッチングを実行することで、前記音素系列の各音素と、過去の音声情報の音素系列の各音素とを対応付け、対応付けられた音素と一致する音素の数と、対応する音素が存在しない音素の数と、対応付けられた音素と異なる音素の数とを基にして、一致率を算出し、前記判定する処理は、前記一致率が閾値を超えた場合に、繰り返し発声であると判定することを特徴とする付記9、10または11に記載の音声認識方法。
(付記13)前記判定する処理によって、繰り返し発声であると判定した場合に、優先度と、音声入力の改善を促すメッセージとを対応付けた情報から、未選択のメッセージを優先度に基づき選択し、選択したメッセージを出力する処理を更に実行することを特徴とする付記9〜12のいずれか一つに記載の音声認識方法。
(付記14)前記判定する処理によって、繰り返し発声であると連続で判定した回数が所定回数以上となった場合に、前記音声情報をサーバに送信する処理を更に実行することを特徴とする付記9〜13のいずれか一つに記載の音声認識方法。
(付記15)前記判定する処理によって、繰り返し発声であると連続で判定した回数が所定回数以上となった場合に、ネットワークを介して、オペレータが操作する端末装置とを接続する処理を更に有することを特徴とする付記9〜14のいずれか一つに記載の音声認識方法。
(付記16)前記判定する処理によって、繰り返し発声であると連続して判定した回数を基にして、優先度と、音声入力の改善を促すメッセージとを対応付けた情報から、未選択のメッセージを優先度に基づき選択し、選択したメッセージを出力する処理、前記音声情報をサーバに送信する処理、ネットワークを介して、前記音声認識装置と、オペレータが操作する端末装置とを接続する処理のいずれかを選択する処理を更に実行することを特徴とする付記9〜15のいずれか一つに記載の音声認識方法。
(付記17)コンピュータに、
音声情報を、該音声情報の特徴量に対応する各音素の文字で表現した音素系列に変換し、
前記音声情報の特徴量および前記音素系列に基づく尤度と、前記音声情報の特徴量および所定のキーワードの音素系列に基づく尤度とを基にして、照合に成功したか否かを判定し、
照合結果を基にして、照合に失敗した際の前記音声情報の音素系列の各音素と、過去の音声情報の音素系列の各音素とを対応付け、
対応付けた結果を基にして、繰り返し発声か否かを判定する
処理を実行させることを特徴とする音声認識プログラム。
(付記18)類似する複数の音素をまとめた音素グループと代表音素の文字とを対応付けたテーブルを基にして、前記音素系列に含まれる音素を代表音素の文字に補正する処理を更に実行することを特徴とする付記17に記載の音声認識プログラム。
(付記19)前記補正する処理は、前記音素系列に含まれる音素のうち、無音を示す音素の文字を削除する補正を更に実行することを特徴とする付記18に記載の音声認識プログラム。
(付記20)前記対応付ける処理は、DP(Dynamic Programming)マッチングを実行することで、前記音素系列の各音素と、過去の音声情報の音素系列の各音素とを対応付け、対応付けられた音素と一致する音素の数と、対応する音素が存在しない音素の数と、対応付けられた音素と異なる音素の数とを基にして、一致率を算出し、前記判定する処理は、前記一致率が閾値を超えた場合に、繰り返し発声であると判定することを特徴とする付記17、18または19に記載の音声認識プログラム。
(付記21)前記判定する処理によって、繰り返し発声であると判定した場合に、優先度と、音声入力の改善を促すメッセージとを対応付けた情報から、未選択のメッセージを優先度に基づき選択し、選択したメッセージを出力する処理を更に実行することを特徴とする付記17〜20のいずれか一つに記載の音声認識プログラム。
(付記22)前記判定する処理によって、繰り返し発声であると連続で判定した回数が所定回数以上となった場合に、前記音声情報をサーバに送信する処理を更に実行することを特徴とする付記17〜21のいずれか一つに記載の音声認識プログラム。
(付記23)前記判定する処理によって、繰り返し発声であると連続で判定した回数が所定回数以上となった場合に、ネットワークを介して、オペレータが操作する端末装置とを接続する処理を更に有することを特徴とする付記17〜22のいずれか一つに記載の音声認識プログラム。
(付記24)前記判定する処理によって、繰り返し発声であると連続して判定した回数を基にして、優先度と、音声入力の改善を促すメッセージとを対応付けた情報から、未選択のメッセージを優先度に基づき選択し、選択したメッセージを出力する処理、前記音声情報をサーバに送信する処理、ネットワークを介して、前記音声認識装置と、オペレータが操作する端末装置とを接続する処理のいずれかを選択する処理を更に実行することを特徴とする付記17〜23のいずれか一つに記載の音声認識プログラム。
50 マイク
60 ネットワーク
70 サーバ
80 オペレータ端末
100,200,300,400,500 音声認識装置
101 音声区間検出部
102 特徴量抽出部
103 最尤音素系列探索部
104 単語照合部
105 キーワード検出部
106 記憶部
106a リファレンスデータ
106b 音素グループデータ
107 補正部
108 登録部
109 マッチング部
110 判定部
210 記憶部
210a ガイダンステーブル
310,520 送信部
320,530 受信部
410,540 接続部
510 選択部

Claims (10)

  1. 音声情報を、該音声情報の特徴量に対応する各音素の文字で表現した音素系列に変換する変換部と、
    前記音声情報の特徴量および前記音素系列に基づく尤度に対数を掛けた対数尤度と、前記音声情報の特徴量および所定のキーワードの音素系列に基づく尤度に対数を掛けた対数尤度との差分をそれぞれ算出し、差分が閾値未満となる前記音素系列に基づく尤度が存在しない場合に、照合に失敗したと判定する照合部と、
    照合結果を基にして、照合に失敗した際の前記音声情報の音素系列の各音素と、過去の音声情報の音素系列の各音素とを対応付けるマッチング部と、
    対応付けた結果を基にして、繰り返し発声か否かを判定する判定部と
    を有することを特徴とする音声認識装置。
  2. 類似する複数の音素をまとめた音素グループと代表音素の文字とを対応付けたテーブルを基にして、前記音素系列に含まれる音素を代表音素の文字に補正する補正部を更に有することを特徴とする請求項1に記載の音声認識装置。
  3. 前記補正部は、前記音素系列に含まれる音素のうち、無音を示す音素の文字を削除する補正を更に実行することを特徴とする請求項2に記載の音声認識装置。
  4. 前記マッチング部は、DP(Dynamic Programming)マッチングを実行することで、前記音素系列の各音素と、過去の音声情報の音素系列の各音素とを対応付け、対応付けられた音素と一致する音素の数と、対応する音素が存在しない音素の数と、対応付けられた音素と異なる音素の数とを基にして、一致率を算出し、前記判定部は、前記一致率が閾値を超えた場合に、繰り返し発声であると判定することを特徴とする請求項1、2または3に記載の音声認識装置。
  5. 前記判定部が、繰り返し発声であると判定した場合に、優先度と、音声入力の改善を促すメッセージとを対応付けた情報から、未選択のメッセージを優先度に基づき選択し、選択したメッセージを出力する出力部を更に有することを特徴とする請求項1〜4のいずれか一つに記載の音声認識装置。
  6. 前記判定部が、繰り返し発声であると連続で判定した回数が所定回数以上となった場合に、前記音声情報をサーバに送信する送信部を更に有することを特徴とする請求項1〜5のいずれか一つに記載の音声認識装置。
  7. 前記判定部が、繰り返し発声であると連続で判定した回数が所定回数以上となった場合に、ネットワークを介して、前記音声認識装置と、オペレータが操作する端末装置とを接続する接続部を更に有することを特徴とする請求項1〜6のいずれか一つに記載の音声認識装置。
  8. 前記判定部が、繰り返し発声であると連続して判定した回数を基にして、優先度と、音声入力の改善を促すメッセージとを対応付けた情報から、未選択のメッセージを優先度に基づき選択し、選択したメッセージを出力する処理、前記音声情報をサーバに送信する処理、ネットワークを介して、前記音声認識装置と、オペレータが操作する端末装置とを接続する処理のいずれかを選択する選択部を有することを特徴とする請求項1〜7のいずれか一つに記載の音声認識装置。
  9. コンピュータが実行する音声認識方法であって、
    音声情報を、該音声情報の特徴量に対応する各音素の文字で表現した音素系列に変換し、
    前記音声情報の特徴量および前記音素系列に基づく尤度に対数を掛けた対数尤度と、前記音声情報の特徴量および所定のキーワードの音素系列に基づく尤度に対数を掛けた対数尤度との差分をそれぞれ算出し、差分が閾値未満となる前記音素系列に基づく尤度が存在しない場合に、照合に失敗したと判定し、
    照合結果を基にして、照合に失敗した際の前記音声情報の音素系列の各音素と、過去の音声情報の音素系列の各音素とを対応付け、
    対応付けた結果を基にして、繰り返し発声か否かを判定する
    処理を実行することを特徴とする音声認識方法。
  10. コンピュータに、
    音声情報を、該音声情報の特徴量に対応する各音素の文字で表現した音素系列に変換し、
    前記音声情報の特徴量および前記音素系列に基づく尤度に対数を掛けた対数尤度と、前記音声情報の特徴量および所定のキーワードの音素系列に基づく尤度に対数を掛けた対数尤度との差分をそれぞれ算出し、差分が閾値未満となる前記音素系列に基づく尤度が存在しない場合に、照合に失敗したと判定し、
    照合結果を基にして、照合に失敗した際の前記音声情報の音素系列の各音素と、過去の音声情報の音素系列の各音素とを対応付け、
    対応付けた結果を基にして、繰り返し発声か否かを判定する
    処理を実行させることを特徴とする音声認識プログラム。
JP2016079481A 2016-04-12 2016-04-12 音声認識装置、音声認識方法および音声認識プログラム Active JP6724511B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016079481A JP6724511B2 (ja) 2016-04-12 2016-04-12 音声認識装置、音声認識方法および音声認識プログラム
US15/466,995 US10733986B2 (en) 2016-04-12 2017-03-23 Apparatus, method for voice recognition, and non-transitory computer-readable storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016079481A JP6724511B2 (ja) 2016-04-12 2016-04-12 音声認識装置、音声認識方法および音声認識プログラム

Publications (2)

Publication Number Publication Date
JP2017191166A JP2017191166A (ja) 2017-10-19
JP6724511B2 true JP6724511B2 (ja) 2020-07-15

Family

ID=59998294

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016079481A Active JP6724511B2 (ja) 2016-04-12 2016-04-12 音声認識装置、音声認識方法および音声認識プログラム

Country Status (2)

Country Link
US (1) US10733986B2 (ja)
JP (1) JP6724511B2 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9792907B2 (en) 2015-11-24 2017-10-17 Intel IP Corporation Low resource key phrase detection for wake on voice
US10043521B2 (en) * 2016-07-01 2018-08-07 Intel IP Corporation User defined key phrase detection by user dependent sequence modeling
JP2019067896A (ja) 2017-09-29 2019-04-25 日本電産エレシス株式会社 回路基板、および制御装置
CN108711437A (zh) * 2018-03-06 2018-10-26 深圳市沃特沃德股份有限公司 语音处理方法和装置
US10714122B2 (en) 2018-06-06 2020-07-14 Intel Corporation Speech classification of audio for wake on voice
JP6615952B1 (ja) * 2018-07-13 2019-12-04 株式会社ソケッツ テキスト表示用同期情報生成装置および方法
US10650807B2 (en) 2018-09-18 2020-05-12 Intel Corporation Method and system of neural network keyphrase detection
US10332367B1 (en) * 2018-10-17 2019-06-25 Capital One Services, Llc Systems and methods for using haptic vibration for inter device communication
KR102613210B1 (ko) * 2018-11-08 2023-12-14 현대자동차주식회사 차량 및 그 제어방법
AU2020235966B2 (en) 2019-03-12 2023-03-30 Cordio Medical Ltd. Diagnostic techniques based on speech-sample alignment
US11127394B2 (en) 2019-03-29 2021-09-21 Intel Corporation Method and system of high accuracy keyphrase detection for low resource devices

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62173498A (ja) 1986-01-27 1987-07-30 松下電器産業株式会社 音声認識装置
JPH11175087A (ja) * 1997-12-10 1999-07-02 Nippon Telegr & Teleph Corp <Ntt> 単語音声認識の文字列マッチング法
JP3461789B2 (ja) 2000-06-22 2003-10-27 シャープ株式会社 音声認識装置および音声認識方法、並びに、プログラム記録媒体
JP4259100B2 (ja) * 2002-11-26 2009-04-30 パナソニック株式会社 音声認識用未知発話検出装置及び音声認識装置
US8589156B2 (en) * 2004-07-12 2013-11-19 Hewlett-Packard Development Company, L.P. Allocation of speech recognition tasks and combination of results thereof
JP4680714B2 (ja) * 2005-08-03 2011-05-11 パナソニック株式会社 音声認識装置および音声認識方法
US20070276691A1 (en) * 2006-05-12 2007-11-29 Ordercatcher, Llc System and method for processing orders from a menu
JP5621993B2 (ja) * 2009-10-28 2014-11-12 日本電気株式会社 音声認識システム、音声認識要求装置、音声認識方法、及び音声認識用プログラム
JP5633042B2 (ja) * 2010-01-28 2014-12-03 本田技研工業株式会社 音声認識装置、音声認識方法、及び音声認識ロボット
JP5158174B2 (ja) 2010-10-25 2013-03-06 株式会社デンソー 音声認識装置
DE102014017384B4 (de) * 2014-11-24 2018-10-25 Audi Ag Kraftfahrzeug-Bedienvorrichtung mit Korrekturstrategie für Spracherkennung

Also Published As

Publication number Publication date
JP2017191166A (ja) 2017-10-19
US20170294188A1 (en) 2017-10-12
US10733986B2 (en) 2020-08-04

Similar Documents

Publication Publication Date Title
JP6724511B2 (ja) 音声認識装置、音声認識方法および音声認識プログラム
CN110675855B (zh) 一种语音识别方法、电子设备及计算机可读存储介质
US10210862B1 (en) Lattice decoding and result confirmation using recurrent neural networks
EP3114679B1 (en) Predicting pronunciation in speech recognition
US9159319B1 (en) Keyword spotting with competitor models
US9406299B2 (en) Differential acoustic model representation and linear transform-based adaptation for efficient user profile update techniques in automatic speech recognition
EP2048655B1 (en) Context sensitive multi-stage speech recognition
US10650802B2 (en) Voice recognition method, recording medium, voice recognition device, and robot
RU2393549C2 (ru) Способ и устройство для распознавания речи
JP5200712B2 (ja) 音声認識装置、音声認識方法及びコンピュータプログラム
CN110706714B (zh) 说话者模型制作系统
CN106875936B (zh) 语音识别方法及装置
US20080201147A1 (en) Distributed speech recognition system and method and terminal and server for distributed speech recognition
US10199037B1 (en) Adaptive beam pruning for automatic speech recognition
JP6690484B2 (ja) 音声認識用コンピュータプログラム、音声認識装置及び音声認識方法
JP6985221B2 (ja) 音声認識装置及び音声認識方法
US20110218802A1 (en) Continuous Speech Recognition
JP4700522B2 (ja) 音声認識装置及び音声認識プログラム
JP6481939B2 (ja) 音声認識装置および音声認識プログラム
CN111640423B (zh) 一种词边界估计方法、装置及电子设备
JP6027754B2 (ja) 適応化装置、音声認識装置、およびそのプログラム
JP7098587B2 (ja) 情報処理装置、キーワード検出装置、情報処理方法およびプログラム
KR101840363B1 (ko) 오류 발음 검출을 위한 단말 및 음성 인식 장치, 그리고 그의 음향 모델 학습 방법
JP4962962B2 (ja) 音声認識装置、自動翻訳装置、音声認識方法、プログラム、及びデータ構造
US20210398521A1 (en) Method and device for providing voice recognition service

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190115

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191015

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191112

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200108

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200526

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200608

R150 Certificate of patent or registration of utility model

Ref document number: 6724511

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150