JPH11249690A - 音声認識装置及び音声認識方法 - Google Patents

音声認識装置及び音声認識方法

Info

Publication number
JPH11249690A
JPH11249690A JP10055599A JP5559998A JPH11249690A JP H11249690 A JPH11249690 A JP H11249690A JP 10055599 A JP10055599 A JP 10055599A JP 5559998 A JP5559998 A JP 5559998A JP H11249690 A JPH11249690 A JP H11249690A
Authority
JP
Japan
Prior art keywords
voice
recognition
utterance content
speech
utterance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP10055599A
Other languages
English (en)
Inventor
Shusuke Yamazaki
秀典 山崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP10055599A priority Critical patent/JPH11249690A/ja
Publication of JPH11249690A publication Critical patent/JPH11249690A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Navigation (AREA)

Abstract

(57)【要約】 【課題】 搭乗者の発話内容が正しく認識されず、発話
内容の再認識が要求された場合、最初の認識処理の場合
と同様に、音声認識部21の認識結果にテキストデータ
(定型メッセージ)が付加された冗長的な音声メッセー
ジが出力されるため、いち早く正しい認識を望む搭乗者
に煩わしさを与えるという課題があった。 【解決手段】 搭乗者から発話内容の再認識が要求され
た場合、パラメータ生成部57におけるテキストデータ
の合成処理を禁止するようにした。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】この発明は、例えば、移動体
の搭乗者の発話内容を認識し、その発話内容をナビゲー
ション装置等の操作条件とする音声認識装置及び音声認
識方法に関するものである。
【0002】
【従来の技術】図16は従来の音声認識装置を示す構成
図であり、図において、1は例えば自動車等の移動体に
搭載され、搭乗者の発話内容を認識する音声認識装置、
2は音声認識装置1により認識された発話内容(認識結
果情報)に基づいて地図情報等を選択するナビゲーショ
ン装置、3はナビゲーション装置2により選択された地
図情報等を表示する表示装置である。
【0003】また、4は搭乗者がナビゲーション装置2
から地図情報等の提示を受ける際、音声認識の開始を指
示するとともに、発話内容の再認識を指示する発話スイ
ッチであり、搭乗者が発話スイッチ4を操作すると操作
信号を出力する。5は搭乗者から発声された音声を音響
/電磁変換し、音声信号を出力するマイクロフォン、6
はマイクロフォン5から出力された音声信号の信号レベ
ルを所定の信号レベルまで増幅するマイクアンプ、7は
マイクアンプ6により増幅された音声信号における高周
波(サンプリング周波数帯域の上限周波数以上の高周
波)の信号レベルをエリアシングが発生しないレベルま
で減衰するローパスフィルタ、8は音声信号をアナログ
/ディジタル変換するA/Dコンバータである。
【0004】また、9は発話スイッチ4から操作信号が
出力されたのち、A/Dコンバータ8からディジタル信
号に変換された音声信号が出力されると、その音声信号
の特徴を解析して搭乗者の発話内容を認識するととも
に、その発話内容にテキストデータ(定型メッセージ)
を合成して、その合成結果(音声合成信号)を出力する
音声認識ユニット、10はマイクロコンピュータ又はデ
ィジタルシグナルプロセッサ等のプロセッサ、11は標
準音声パターン及びテキストデータを格納するメモリ、
12は音声認識ユニット9から出力された音声合成信号
をディジタル/アナログ変換するD/Aコンバータ、1
3はローパスフィルタ、14は音声合成信号を増幅する
スピーカアンプ、15は音声合成信号を電磁/音響変換
して、その変換結果を音声出力するスピーカである。
【0005】図17は音声認識ユニット9の詳細構成を
示す構成図であり、図において、20は発話スイッチ4
から操作信号が出力されると、音声認識信号を出力する
制御部、21はプロセッサ10の音声認識部、22はプ
ロセッサ10のテキスト音声合成部、23は音声信号の
信号レベルを監視して、その信号レベルが設定レベルを
上回った時点を音声の開始端とする一方、設定レベルを
下回った時点を音声の終端とし、音声信号期間を切り出
す音声レベル判別部、24は音声レベル判別部23から
出力された音声信号をディジタル信号処理(スペクトラ
ム分析演算,ケプストラム生成演算,ベクトル量子化演
算等)して、音声信号の特徴を解析し、音声特徴パラメ
ータを出力する音声分析部、25は音声分析部24から
出力された音声特徴パラメータと標準音声パターン間の
パターンマッチング演算(隠れマルコフモデルやニュー
ラルネットワーク等を用いたパターンマッチング演算)
を実行し、最も類似度の高い標準音声パターンを認識結
果情報として出力するパターンマッチング部である。
【0006】また、26はパターンマッチング部25か
ら出力された認識結果情報及びテキストデータをテキス
ト解析して、音韻パラメータ(図示せず)と対応付けを
実施し、音声合成パラメータを生成するパラメータ生成
部、27はパラメータ生成部26により生成された音声
合成パラメータを音声波形データ(図示せず)と関連付
けて音声合成波形を生成し、その音声合成波形を音声合
成信号として出力する音声合成部、28は標準音声パタ
ーンを格納するメモリ領域、29はテキストデータを格
納するメモリ領域である。なお、図18は従来の音声認
識装置の動作を示すフローチャートである。
【0007】次に動作について説明する。まず、搭乗者
がナビゲーション装置2から地図情報等の提示を受ける
に際し、搭乗者が発話スイッチ4を操作すると、発話ス
イッチ4から音声認識の開始を指示する操作信号がプロ
セッサ10の制御部20に出力される(ステップST
1)。
【0008】これにより、制御部20が音声認識信号を
音声レベル判別部23及び音声合成部27に出力し、プ
ロセッサ10の全体が停止状態から動作状態(音声認識
可能状態)に移行するが(ステップST2)、制御部2
0から音声認識信号が出力されると、最初に、プロセッ
サ10の音声合成部27が、メモリ11に格納されてい
るテキストデータのうち、“音声コマンドをお話下さ
い”を選択するとともに、そのテキストデータを音声合
成信号として出力する。これにより、スピーカ15から
“音声コマンドをお話下さい”を内容とするメッセージ
が音声出力される(図19のK1を参照)。
【0009】そして、スピーカ15から“音声コマンド
をお話下さい”というメッセージが出力されたのち、搭
乗者がマクロフォン5に向かって発声すると、マイクロ
フォン5が、搭乗者から発声された音声を音響/電磁変
換し、音声信号を出力する(ステップST3)。搭乗者
の発話内容が、例えば、“住所”である場合には、“住
所”を発話内容とする音声信号がローパスフィルタ7等
を通じてプロセッサ10の音声レベル判別部23に入力
され(図19のH1を参照)、以下に示す音声認識処理
が開始される(ステップST4)。
【0010】即ち、音声レベル判別部23は、制御部2
0から音声認識信号が出力されると、A/Dコンバータ
8から出力される音声信号の信号レベルを監視して、そ
の信号レベルが設定レベルを上回った時点を音声の開始
端とする一方、設定レベルを下回った時点を音声の終端
とし、音声信号期間を切り出す処理を実行する。
【0011】そして、音声レベル判別部23から音声信
号が出力されると、音声分析部24が、その音声信号を
ディジタル信号処理(スペクトラム分析演算,ケプスト
ラム生成演算,ベクトル量子化演算等)して、音声信号
の特徴を解析し、音声特徴パラメータを出力する。具体
的には、音声分析部24が“住所”を発話内容とする音
声信号の特徴を解析する。
【0012】そして、音声分析部24から音声特徴パラ
メータが出力されると、パターンマッチング部25が、
その音声特徴パラメータと標準音声パターン間のパター
ンマッチング演算(隠れマルコフモデルやニューラルネ
ットワーク等を用いたパターンマッチング演算)を実行
し、最も類似度の高い標準音声パターンを認識結果情報
として出力する。ここでは、説明の便宜上、搭乗者の発
話内容が正しく認識され、“住所”を内容とする標準音
声パターンが認識結果情報として出力されたものとす
る。
【0013】このようにして、パターンマッチング部2
5から認識結果情報が出力されると、パラメータ生成部
26が、その認識結果情報に関連するテキストデータを
メモリ11のメモリ領域29から取得する。具体的に
は、“住所”に関連するテキストデータとして、“名を
お話下さい”がメモリ11のメモリ領域29に格納され
ているので、“名をお話下さい”をメモリ11のメモリ
領域29から取得する。そして、パラメータ生成部26
は、その認識結果情報に関連するテキストデータを取得
すると、その認識結果情報及びテキストデータをテキス
ト解析して、音韻パラメータ(図示せず)と対応付けを
実施し、音声合成パラメータを生成する。なお、ここで
は、認識結果情報とメッセージを合成するものについて
示したが、音声コマンドの認識処理においては、認識結
果情報とメッセージを合成する処理は実施せず、認識結
果情報に関連するテキストデータ(例えば、“住所名を
お話下さい”)を取得すると、そのテキストデータの音
声合成パラメータを生成するようにしてもよい。
【0014】そして、パラメータ生成部26から音声合
成パラメータが出力されると、音声合成部27が、その
音声合成パラメータを音声波形データ(図示せず)と関
連付けて音声合成波形を生成し、その音声合成波形を音
声合成信号として出力する(ステップST5)。これに
より、スピーカ15から“住所名をお話下さい”を内容
とするメッセージが音声出力される(図19のK2を参
照)。ここで、“住所”が認識結果であり、“名をお話
下さい”が付加されたメッセージである。
【0015】そして、スピーカ15から“住所名をお話
下さい”というメッセージが出力されたのち、搭乗者が
マクロフォン5に向かって発声すると、上記と同様に、
マイクロフォン5が、搭乗者から発声された音声を音響
/電磁変換し、音声信号を出力する(ステップST
3)。搭乗者の発話内容が、例えば、“東京都千代田区
丸の内一丁目”である場合には、“東京都千代田区丸の
内一丁目”を発話内容とする音声信号がローパスフィル
タ7等を通じてプロセッサ10の音声レベル判別部23
に入力され(図19のH2を参照)、音声認識処理が開
始される(ステップST4)。
【0016】そして、プロセッサ10が上記と同様の音
声認識処理を実施した結果、図19のK3に示すよう
に、スピーカ15から“東京都千代田区丸の内一丁目付
近を表示します”を内容とするメッセージが音声出力さ
れた場合には(“東京都千代田区丸の内一丁目”が認識
結果であり、“付近を表示します”が付加されたメッセ
ージ)、搭乗者の発話内容が正しく認識されているの
で、発話スイッチ4が操作されることはなく(発話内容
の再認識が要求されない)、一定時間経過後に、プロセ
ッサ10の認識結果が確定する(ステップST6,ST
7,ST8)。これにより、“東京都千代田区丸の内一
丁目”が認識結果として、ナビゲーション装置2に出力
され、ナビゲーション装置2は、東京都千代田区丸の内
一丁目付近の地図情報を表示装置3に表示し、一連の処
理を終了する。
【0017】一方、図20のK4に示すように、スピー
カ15から“東京都千代田区神田一丁目付近を表示しま
す”を内容とするメッセージが音声出力された場合には
(“東京都千代田区神田一丁目”が認識結果であり、
“付近を表示します”が付加されたメッセージ)、搭乗
者の発話内容が正しく認識されていないので、一定時間
を経過する前に、発話スイッチ4が操作されて、発話内
容の再認識が要求されると、プロセッサ10が音声認識
処理を再開する(ステップST6,ST7)。
【0018】これにより、プロセッサ10が上記と同様
の音声認識処理を再開するが、再認識処理の場合、図2
0のK5に示すように、最初にスピーカ15から“もう
一度お話下さい”を内容とするメッセージが音声出力さ
れたのち、搭乗者が“東京都千代田区丸の内一丁目”を
発話すると、その発話内容が認識される。そして、その
発話内容が正しく認識された場合には、“東京都千代田
区丸の内一丁目付近を表示します”を内容とするメッセ
ージが音声出力されるが、正しく認識されない場合に
は、例えば、図20のK6のように、“東京都千代田区
神田一丁目付近を表示します”を内容とするメッセージ
が音声出力される。
【0019】
【発明が解決しようとする課題】従来の音声認識装置は
以上のように構成されているので、搭乗者の発話内容が
正しく認識される場合には、ナビゲーション装置等の操
作をする上で搭乗者の操作負担が軽減され、運転に専念
することができるが、搭乗者の発話内容が正しく認識さ
れず、発話内容の再認識が要求された場合、最初の認識
処理の場合と同様に、音声認識部21の認識結果にテキ
ストデータ(定型メッセージ)が付加された冗長的な音
声メッセージが出力されるため、いち早く正しい認識を
望む搭乗者に煩わしさを与えることになり、その結果、
搭乗者の心理的負担が増大し、引いては安全走行を損な
う場合があるという課題があった。
【0020】この発明は上記のような課題を解決するた
めになされたもので、発話内容の再認識が要求された場
合には、音声メッセージを簡略化することができる音声
認識装置及び音声認識方法を得ることを目的とする。
【0021】
【課題を解決するための手段】この発明に係る音声認識
装置は、要求手段から発話内容の再認識が要求された場
合、音声合成手段における定型メッセージの合成処理を
禁止するようにしたものである。
【0022】この発明に係る音声認識装置は、要求手段
から発話内容の再認識が要求された場合、音声出力手段
の発声速度を変更するようにしたものである。
【0023】この発明に係る音声認識装置は、要求手段
から発話内容の再認識が要求された場合、音声合成手段
における定型メッセージの合成処理を禁止するととも
に、その音声出力手段の発声速度を変更するようにした
ものである。
【0024】この発明に係る音声認識装置は、要求手段
から発話内容の再認識が要求された場合、音声合成手段
から出力される発声内容を変更するようにしたものであ
る。
【0025】この発明に係る音声認識装置は、音声合成
手段の発声速度を上げるようにしたものである。
【0026】この発明に係る音声認識装置は、音声合成
手段が定型メッセージを音声出力する際の発声速度を上
げるようにしたものである。
【0027】この発明に係る音声認識装置は、音声認識
手段により前回認識された発話内容と、その音声認識手
段により再認識された発話内容を比較し、発話内容に重
複部分がある場合には、音声合成手段が重複部分の一部
を音声出力する際の発声速度を上げるようにしたもので
ある。
【0028】この発明に係る音声認識装置は、音声認識
手段により前回認識された発話内容と、その音声認識手
段により再認識された発話内容を比較し、発話内容が一
致する場合には、音声合成手段から所定のメッセージを
音声出力させるようにしたものである。
【0029】この発明に係る音声認識装置は、発話内容
の再認識の要求回数が設定値に到達すると、発話内容の
再認識の要求を無効にするようにしたものである。
【0030】この発明に係る音声認識方法は、発話内容
の再認識が要求された場合、音声合成ステップにおける
定型メッセージの合成処理を禁止するようにしたもので
ある。
【0031】この発明に係る音声認識方法は、発話内容
の再認識が要求された場合、音声合成ステップの発声速
度を変更するようにしたものである。
【0032】この発明に係る音声認識方法は、発話内容
の再認識が要求された場合、音声合成ステップにおける
定型メッセージの合成処理を禁止するとともに、その音
声合成ステップの発声速度を変更するようにしたもので
ある。
【0033】この発明に係る音声認識方法は、発話内容
の再認識が要求された場合、音声合成ステップから出力
される発声内容を変更するようにしたものである。
【0034】
【発明の実施の形態】以下、この発明の実施の一形態を
説明する。 実施の形態1.図1はこの発明の実施の形態1による音
声認識装置を示す構成図であり、図において、31は例
えば自動車等の移動体に搭載され、搭乗者(使用者)の
発話内容を認識する音声認識装置、32は音声認識装置
31により認識された発話内容(認識結果情報)に基づ
いて地図情報等を選択するナビゲーション装置、33は
ナビゲーション装置32により選択された地図情報等を
表示する表示装置である。
【0035】また、34は搭乗者がナビゲーション装置
32から地図情報等の提示を受ける際、音声認識の開始
を指示するとともに、発話内容の再認識を指示する発話
スイッチ(要求手段)であり、搭乗者が発話スイッチ3
4を操作すると操作信号を出力する。35は搭乗者から
発声された音声を音響/電磁変換し、音声信号を出力す
るマイクロフォン、36はマイクロフォン35から出力
された音声信号の信号レベルを所定の信号レベルまで増
幅するマイクアンプ、37はマイクアンプ36により増
幅された音声信号における高周波(サンプリング周波数
帯域の上限周波数以上の高周波)の信号レベルをエリア
シングが発生しないレベルまで減衰するローパスフィル
タ、38は音声信号をアナログ/ディジタル変換するA
/Dコンバータである。
【0036】また、39は発話スイッチ34から操作信
号が出力されたのち、A/Dコンバータ38からディジ
タル信号に変換された音声信号が出力されると、その音
声信号の特徴を解析して搭乗者の発話内容を認識すると
ともに、その発話内容にテキストデータ(定型メッセー
ジ)を合成して、その合成結果(音声合成信号)を出力
する音声認識ユニット、40はマイクロコンピュータ又
はディジタルシグナルプロセッサ等のプロセッサ、41
は標準音声パターン及びテキストデータを格納するメモ
リ、42は音声認識ユニット39から出力された音声合
成信号をディジタル/アナログ変換するD/Aコンバー
タ、43はローパスフィルタ、44は音声合成信号を増
幅するスピーカアンプ、45は音声合成信号を電磁/音
響変換して、その変換結果を音声出力するスピーカであ
る。
【0037】図2は音声認識ユニット39の詳細構成を
示す構成図であり、図において、51は発話スイッチ3
4から操作信号が出力されると、音声認識信号及び再認
識信号を出力する制御部(要求手段)、52はプロセッ
サ40の音声認識部、53はプロセッサ40のテキスト
音声合成部、54は音声信号の信号レベルを監視して、
その信号レベルが設定レベルを上回った時点を音声の開
始端とする一方、設定レベルを下回った時点を音声の終
端とし、音声信号期間を切り出す音声レベル判別部(音
声認識手段)、55は音声レベル判別部54から出力さ
れた音声信号をディジタル信号処理(スペクトラム分析
演算,ケプストラム生成演算,ベクトル量子化演算等)
して、音声信号の特徴を解析し、音声特徴パラメータを
出力する音声分析部(音声認識手段)、56は音声分析
部55から出力された音声特徴パラメータと標準音声パ
ターン間のパターンマッチング演算(隠れマルコフモデ
ルやニューラルネットワーク等を用いたパターンマッチ
ング演算)を実行し、最も類似度の高い標準音声パター
ンを認識結果情報として出力するパターンマッチング部
(音声認識手段)である。
【0038】また、57はパターンマッチング部56か
ら出力された認識結果情報及びテキストデータをテキス
ト解析して、音韻パラメータ(図示せず)と対応付けを
実施し、音声合成パラメータを生成する一方、応答音声
制御部59から応答制御信号が出力されると、その認識
結果にテキストデータを合成せずに音声合成パラメータ
を生成するパラメータ生成部(音声合成手段)、58は
パラメータ生成部57により生成された音声合成パラメ
ータを音声波形データ(図示せず)と関連付けて音声合
成波形を生成し、その音声合成波形を音声合成信号とし
て出力する音声合成部(音声合成手段)、59は制御部
51から再認識信号が出力されると、応答制御信号をパ
ラメータ生成部57に出力して、再入力フラグに“1”
を格納する応答音声制御部(音声制御手段)、60は標
準音声パターンを格納するメモリ領域、61はテキスト
データを格納するメモリ領域である。なお、図3はこの
発明の実施の形態1による音声認識方法を示すフローチ
ャートである。
【0039】次に動作について説明する。まず、搭乗者
がナビゲーション装置32から地図情報等の提示を受け
るに際し、搭乗者が発話スイッチ34を操作すると、発
話スイッチ34から音声認識の開始を指示する操作信号
がプロセッサ40の制御部51に出力される(ステップ
ST12)。なお、発話内容の認識要求が再認識に係る
処理であるか否かを示す再入力フラグには予め“0”が
格納されている(ステップST11)。
【0040】これにより、制御部51が音声認識信号を
音声レベル判別部54及び音声合成部58に出力し、プ
ロセッサ40の全体が停止状態から動作状態(音声認識
可能状態)に移行するが(ステップST13)、制御部
51から音声認識信号が出力されると、最初に、プロセ
ッサ40の音声合成部58が、メモリ41に格納されて
いるテキストデータのうち、“音声コマンドをお話下さ
い”を選択するとともに、そのテキストデータを音声合
成信号として出力する。これにより、スピーカ45から
“音声コマンドをお話下さい”を内容とするメッセージ
が音声出力される(図4のK11を参照)。
【0041】そして、スピーカ45から“音声コマンド
をお話下さい”というメッセージが出力されたのち、搭
乗者がマクロフォン35に向かって発声すると、マイク
ロフォン35が、搭乗者から発声された音声を音響/電
磁変換し、音声信号を出力する(ステップST14)。
搭乗者の発話内容が、例えば、“住所”である場合に
は、“住所”を発話内容とする音声信号がローパスフィ
ルタ37等を通じてプロセッサ40の音声レベル判別部
54に入力され(図4のH11を参照)、以下に示す音
声認識処理が開始される(ステップST15)。
【0042】即ち、音声レベル判別部54は、制御部5
1から音声認識信号が出力されると、A/Dコンバータ
38から出力される音声信号の信号レベルを監視して、
その信号レベルが設定レベルを上回った時点を音声の開
始端とする一方、設定レベルを下回った時点を音声の終
端とし、音声信号期間を切り出す処理を実行する。
【0043】そして、音声レベル判別部54から音声信
号が出力されると、音声分析部55が、その音声信号を
ディジタル信号処理(スペクトラム分析演算,ケプスト
ラム生成演算,ベクトル量子化演算等)して、音声信号
の特徴を解析し、音声特徴パラメータを出力する。具体
的には、音声分析部55が“住所”を発話内容とする音
声信号の特徴を解析する。
【0044】そして、音声分析部55から音声特徴パラ
メータが出力されると、パターンマッチング部56が、
その音声特徴パラメータと標準音声パターン間のパター
ンマッチング演算(隠れマルコフモデルやニューラルネ
ットワーク等を用いたパターンマッチング演算)を実行
し、最も類似度の高い標準音声パターンを認識結果情報
として出力する。ここでは、説明の便宜上、搭乗者の発
話内容が正しく認識され、“住所”を内容とする標準音
声パターンが認識結果情報として出力されたものとす
る。
【0045】このようにして、パターンマッチング部5
6から認識結果情報が出力されると、パラメータ生成部
57が、その認識結果情報に関連するテキストデータを
メモリ41のメモリ領域61から取得する。具体的に
は、“住所”に関連するテキストデータとして、“名を
お話下さい”がメモリ41のメモリ領域61に格納され
ているので、“名をお話下さい”をメモリ41のメモリ
領域61から取得する。
【0046】そして、パラメータ生成部57は、その認
識結果情報に関連するテキストデータを取得すると、再
入力フラグの格納内容を確認し(ステップST16)、
再認識に係る処理であるか否かを判断する。ただし、上
述したように、再入力フラグには予め“0”が格納され
ているので、ここでは再認識ではないと判断する。そし
て、パラメータ生成部57は、再認識ではないと判断す
ると、従来のものと同様に、その認識結果情報及びテキ
ストデータをテキスト解析して、音韻パラメータ(図示
せず)と対応付けを実施し、音声合成パラメータを生成
する。なお、ここでは、認識結果情報とメッセージを合
成するものについて示したが、音声コマンドの認識処理
においては、認識結果情報とメッセージを合成する処理
は実施せず、認識結果情報に関連するテキストデータ
(例えば、“住所名をお話下さい”)を取得すると、そ
のテキストデータの音声合成パラメータを生成するよう
にしてもよい。
【0047】そして、パラメータ生成部57から音声合
成パラメータが出力されると、音声合成部58が、その
音声合成パラメータを音声波形データ(図示せず)と関
連付けて音声合成波形を生成し、その音声合成波形を音
声合成信号として出力する(ステップST17)。これ
により、スピーカ45から“住所名をお話下さい”を内
容とするメッセージが音声出力される(図4のK12を
参照)。ここで、“住所”が認識結果であり、“名をお
話下さい”が付加されたメッセージである。
【0048】そして、スピーカ45から“住所名をお話
下さい”というメッセージが出力されたのち、搭乗者が
マクロフォン35に向かって発声すると、上記と同様
に、マイクロフォン35が、搭乗者から発声された音声
を音響/電磁変換し、音声信号を出力する(ステップS
T14)。搭乗者の発話内容が、例えば、“東京都千代
田区丸の内一丁目”である場合には、“東京都千代田区
丸の内一丁目”を発話内容とする音声信号がローパスフ
ィルタ37等を通じてプロセッサ40の音声レベル判別
部54に入力され(図4のH12を参照)、音声認識処
理が開始される(ステップST15)。
【0049】そして、プロセッサ40が上記と同様の音
声認識処理を実施した結果、図4のK13に示すよう
に、スピーカ45から“東京都千代田区丸の内一丁目付
近を表示します”を内容とするメッセージが音声出力さ
れた場合には(“東京都千代田区丸の内一丁目”が認識
結果であり、“付近を表示します”が付加されたメッセ
ージ)、搭乗者の発話内容が正しく認識されているの
で、発話スイッチ34が操作されることはなく(発話内
容の再認識が要求されない)、一定時間経過後に、プロ
セッサ40の認識結果が確定する(ステップST17,
ST19,ST20,ST22)。これにより、“東京
都千代田区丸の内一丁目”が認識結果として、ナビゲー
ション装置32に出力され、ナビゲーション装置32
は、東京都千代田区丸の内一丁目付近の地図情報を表示
装置33に表示し、一連の処理を終了する。
【0050】一方、図5のK14に示すように、スピー
カ45から“東京都千代田区神田一丁目付近を表示しま
す”を内容とするメッセージが音声出力された場合には
(“東京都千代田区神田一丁目”が認識結果であり、
“付近を表示します”が付加されたメッセージ)、搭乗
者の発話内容が正しく認識されていないので、一定時間
を経過する前に、発話スイッチ34が操作されて、発話
内容の再認識が要求されると、プロセッサ40が音声認
識処理を再開する(ステップST17,ST19,ST
20)。ただし、スピーカ45からメッセージが出力さ
れたのち、一定時間を経過する前に、発話スイッチ34
から操作信号が出力されると、応答音声制御部59が、
応答制御信号をパラメータ生成部57に出力することに
より、再入力フラグに“1”を格納する(ステップST
21)。
【0051】これにより、プロセッサ40が上記と同様
の音声認識処理を再開するが、再認識処理の場合、図5
のK15に示すように、最初にスピーカ45から“もう
一度お話下さい”を内容とするメッセージが音声出力さ
れたのち、搭乗者が“東京都千代田区丸の内一丁目”を
発話すると、その発話内容が認識される。
【0052】しかし、再認識処理の場合、再入力フラグ
には“1”が格納されているので、パラメータ生成部5
7は、パターンマッチング部56から出力された認識結
果情報に関連するテキストデータを取得しても、再認識
に係る処理であると判断し、その認識結果情報に対する
テキストデータの合成処理を中止する(先に、再入力フ
ラグの格納内容を確認し、テキストデータの取得処理を
中止してもよい)。これにより、パラメータ生成部57
は、パターンマッチング部56から出力された認識結果
情報から音声合成パラメータを生成する。
【0053】この結果、搭乗者の発話内容が正しく認識
された場合には、“東京都千代田区丸の内一丁目”を内
容とするメッセージが音声出力され、正しく認識されな
い場合には、例えば、図5のK16のように、“東京都
千代田区神田一丁目”を内容とするメッセージが音声出
力される。ここで、前回の音声メッセージと今回の音声
メッセージを比較すると、今回の音声メッセージには
“付近を表示します”の部分(テキストデータ)が付加
されていない点で相違している。これにより、最初の認
識処理では、音声メッセージの出力時間が約8秒である
のに対し(図6(a)を参照)、再認識の処理では、音
声メッセージの出力時間が約5秒に短縮されている(図
6(b)を参照)。
【0054】なお、さらに搭乗者が再認識を要求する場
合には、図5のK17に示すように、音声入力を促すメ
ッセージが前回より簡略化され、“もう一度”を内容と
するメッセージが音声出力される。
【0055】因みに、図7は音声認識ユニット39から
出力された認識結果情報に基づいてナビゲーション装置
32が“東京都千代田区丸の内一丁目”付近の地図情報
を表示する表示例であり、また、図8は音声認識装置が
自動車に搭載された搭載例であり、図8の場合、車両走
行騒音レベルに対する音声レベルのS/Nが高く集音で
きるように、サンバイザの上に設置されている。
【0056】以上で明らかなように、この実施の形態1
によれば、搭乗者から発話内容の再認識が要求された場
合、パラメータ生成部57におけるテキストデータの合
成処理を禁止するように構成したので、発話内容の再認
識が要求された場合には、音声メッセージが簡略化され
るようになり、その結果、いち早く正しい認識を望む搭
乗者の煩わしさを軽減することができる効果を奏する。
【0057】実施の形態2.上記実施の形態1では、搭
乗者から再認識が要求された場合、応答音声制御部59
が認識結果情報に対するテキストデータの合成処理を禁
止するものについて示したが、搭乗者から再認識が要求
された場合(再入力フラグに“1”が格納された場
合)、音声合成部58の発声速度を音声の聞き取りに支
障のない範囲内において、最初の認識処理の場合よりも
上げるようにしてもよい。
【0058】図9は音声合成部58の発声速度を最初の
認識処理より上げた例を示すものであり、具体的には、
最初の認識処理では、音声メッセージの出力時間が約8
秒であるのに対し(図6(a)を参照)、再認識の処理
では、音声メッセージの出力時間が約5秒に短縮されて
いる(図9を参照)。これにより、上記実施の形態1と
同様に、いち早く正しい認識を望む搭乗者の煩わしさを
軽減することができる効果を奏する。
【0059】実施の形態3.上記実施の形態1及び実施
の形態2では、搭乗者から再認識の要求が1回出された
ものについて示したが、搭乗者から複数回再認識の要求
が出された場合、例えば、最初の再認識処理では、認識
結果情報に対するテキストデータの合成処理を禁止して
発声語数を減少し、2回目の再認識処理では、音声合成
部58の発声速度を1回目の再認識処理よりも上げるよ
うにしてもよい。
【0060】具体的には、最初の認識処理では、音声メ
ッセージの出力時間が約8秒であるが(図10(a)を
参照)、最初の再認識処理では、発声語数を減少して音
声メッセージの出力時間を約5秒に短縮し(図10
(b)を参照)、さらに、2回目の再認識処理では、音
声合成部58の発声速度を1回目の再認識処理よりも上
げて、音声メッセージの出力時間を約3秒に短縮する
(図10(c)を参照)。なお、再認識処理の回数把握
は、再認識処理が要求されるごとに、再入力フラグの格
納内容をインクリメントすることにより行う。
【0061】これにより、再認識処理の回数に比例して
音声メッセージの冗長度が緩和されるため、再認識処理
の回数に比例して増加する搭乗者の心理的負担を軽減す
ることができる効果を奏する。
【0062】実施の形態4.上記実施の形態3では、音
声合成部58の発声速度を上げるものについて示した
が、音声合成部58がテキストデータを音声出力する際
の発声速度を上げるようにしてもよい。即ち、図11に
示すように、認識結果情報に係る部分(“東京都千代田
区一丁目”)の発声速度は最初の認識処理の場合と同一
とし(音声メッセージの出力時間は約5秒)、テキスト
データに係る部分(“付近を表示します”)の発声速度
を最初の認識処理の場合より上げるようにする(最初の
認識処理では約3秒、再認識の処理では約2秒)。
【0063】これにより、テキストデータに係る部分の
音声出力時間が短縮されるため、音声メッセージの時間
的な冗長度が緩和される一方、認識結果情報に係る部分
の音声出力時間は変わらないので、搭乗者の聞き取り易
さを確保することができる効果を奏する。
【0064】実施の形態5.上記実施の形態4では、音
声合成部58がテキストデータを音声出力する際の発声
速度を上げるものについて示したが、パターンマッチン
グ部56から前回出力された認識結果情報(誤認された
発話内容)と、パターンマッチング部56から今回出力
された認識結果情報(再認識された発話内容)を比較
し、認識結果情報に重複部分がある場合には、音声合成
部58が重複部分の一部を音声出力する際の発声速度を
上げるようにしてもよい。
【0065】即ち、応答音声制御部59が、最初の認識
処理においてパターンマッチング部56から出力された
認識結果情報をメモリ62に記憶し(図13を参照)、
再認識の処理においてパターンマッチング部56から認
識結果情報が出力されると、その認識結果情報とメモリ
62に記憶された認識結果情報を比較する。例えば、最
初の認識処理においてパターンマッチング部56から出
力された認識結果情報が“東京都千代田区一丁目”であ
り、再認識の処理においてパターンマッチング部56か
ら出力された認識結果情報が“東京都千代田区一丁目”
である場合には、認識結果情報が一致して、重複する部
分があるので、図12に示すように、“東京都”に係る
の部分の発声速度を上げるようにする(住所の認識処理
においては、都道府県名よりも区町村名を重視するよう
にプログラムされている場合)。
【0066】これにより、搭乗者の聞き取り易さを確保
しつつ、上記実施の形態4の場合よりも、さらに音声出
力時間が1.5秒短縮される効果を奏する。
【0067】実施の形態6.上記実施の形態3では、複
数回再認識の要求が出される場合、2回目の再認識処理
では、音声合成部58の発声速度を1回目の再認識処理
よりも上げるものについて示したが、2回目の再認識処
理では、応答音声制御部59が、1回目の再認識に係る
認識結果情報と、2回目の再認識に係る認識結果情報を
比較し(実施の形態5を参照)、認識結果情報が一致す
る場合には、音声合成部58の音声合成結果に代えて、
所定のメッセージを音声出力させるようにしてもよい。
【0068】具体的には、最初の認識処理では、音声メ
ッセージの出力時間が約8秒であるが(図14(a)を
参照)、最初の再認識処理では、発声語数を減少して音
声メッセージの出力時間を約5秒に短縮し(図14
(b)を参照)、さらに、2回目の再認識処理では、音
声合成部58の音声合成結果に代えて、“同じ”を内容
とするメッセージを音声出力して音声メッセージの出力
時間を約1秒に短縮する(図14(c)を参照)。
【0069】これにより、2回目の再認識処理では、最
初の認識処理と比べて約7秒間短縮(約1/8の時間に
短縮)されるが、音声認識装置における誤認識の場合、
続けて同じ認識結果を繰り返す傾向があるので、“同
じ”を内容とするメッセージの音声出力は、搭乗者の聞
き取り易さを確保しつつ、音声出力時間を短縮する上で
極めて有効である。
【0070】実施の形態7.上記実施の形態1から実施
の形態6では、音声出力時間を短縮するものについて示
したが、発話内容の再認識の要求回数が設定値に到達す
ると、発話内容の再認識の要求を無効にするようにして
もよい。具体的には、図15のステップST23に示す
ように、再入力フラグの格納内容が“2”を越えたか否
かを監視し、再入力フラグの格納内容が“2”を越えた
場合、即ち、過去3回誤認識が発生し、今回が3回目の
再認識の要求である場合、発話スイッチ34の操作を無
効にするようにしてもよい。
【0071】音声認識装置の誤認識が頻発すると、搭乗
者の心理的負担から、搭乗者の発声する音声の音圧が上
がる傾向が現れ、また、語気が強くなり通常の話し方と
異なる傾向が現れるため、さらに誤認識を誘発する結果
を招くことになるが、この実施の形態7によれば、一旦
再認識の要求を無効にするので、搭乗者を冷静にする機
会を与えることになり、その結果、誤認識の頻発を抑制
することができる効果を奏する。
【0072】
【発明の効果】以上のように、この発明によれば、要求
手段から発話内容の再認識が要求された場合、音声合成
手段における定型メッセージの合成処理を禁止するよう
に構成したので、発話内容の再認識が要求された場合に
は、音声メッセージが簡略化されるようになり、その結
果、いち早く正しい認識を望む搭乗者の煩わしさを軽減
することができる効果がある。
【0073】この発明によれば、要求手段から発話内容
の再認識が要求された場合、音声出力手段の発声速度を
変更するように構成したので、発話内容の再認識が要求
された場合には、音声メッセージの音声出力時間が短縮
されるようになり、その結果、いち早く正しい認識を望
む搭乗者の煩わしさを軽減することができる効果があ
る。
【0074】この発明によれば、要求手段から発話内容
の再認識が要求された場合、音声合成手段における定型
メッセージの合成処理を禁止するとともに、その音声出
力手段の発声速度を変更するように構成したので、発話
内容の再認識が要求された場合には、音声メッセージの
音声出力時間が短縮されるようになり、その結果、いち
早く正しい認識を望む搭乗者の煩わしさを軽減すること
ができる効果がある。
【0075】この発明によれば、要求手段から発話内容
の再認識が要求された場合、音声合成手段から出力され
る発声内容を変更するように構成したので、発話内容の
再認識が要求された場合には、音声メッセージの音声出
力時間が短縮されるようになり、その結果、いち早く正
しい認識を望む搭乗者の煩わしさを軽減することができ
る効果がある。
【0076】この発明によれば、音声合成手段の発声速
度を上げるように構成したので、発話内容の再認識が要
求された場合には、音声メッセージの音声出力時間が短
縮される効果がある。
【0077】この発明によれば、音声合成手段が定型メ
ッセージを音声出力する際の発声速度を上げるように構
成したので、搭乗者の聞き取り易さを確保しつつ、音声
メッセージの時間的な冗長度を緩和することができる効
果がある。
【0078】この発明によれば、音声認識手段により前
回認識された発話内容と、その音声認識手段により再認
識された発話内容を比較し、発話内容に重複部分がある
場合には、音声合成手段が重複部分の一部を音声出力す
る際の発声速度を上げるように構成したので、搭乗者の
聞き取り易さを確保しつつ、音声メッセージの時間的な
冗長度を緩和することができる効果がある。
【0079】この発明によれば、音声認識手段により前
回認識された発話内容と、その音声認識手段により再認
識された発話内容を比較し、発話内容が一致する場合に
は、音声合成手段から所定のメッセージを音声出力させ
るように構成したので、搭乗者の聞き取り易さを確保し
つつ、音声メッセージの時間的な冗長度を緩和すること
ができる効果がある。
【0080】この発明によれば、発話内容の再認識の要
求回数が設定値に到達すると、発話内容の再認識の要求
を無効にするように構成したので、搭乗者を冷静にする
機会を与えることになり、その結果、誤認識の頻発を抑
制することができる効果がある。
【0081】この発明によれば、発話内容の再認識が要
求された場合、音声合成ステップにおける定型メッセー
ジの合成処理を禁止するように構成したので、発話内容
の再認識が要求された場合には、音声メッセージが簡略
化されるようになり、その結果、いち早く正しい認識を
望む搭乗者の煩わしさを軽減することができる効果があ
る。
【0082】この発明によれば、発話内容の再認識が要
求された場合、音声合成ステップの発声速度を変更する
ように構成したので、発話内容の再認識が要求された場
合には、音声メッセージの音声出力時間が短縮されるよ
うになり、その結果、いち早く正しい認識を望む搭乗者
の煩わしさを軽減することができる効果がある。
【0083】この発明によれば、発話内容の再認識が要
求された場合、音声合成ステップにおける定型メッセー
ジの合成処理を禁止するとともに、その音声合成ステッ
プの発声速度を変更するように構成したので、発話内容
の再認識が要求された場合には、音声メッセージの音声
出力時間が短縮されるようになり、その結果、いち早く
正しい認識を望む搭乗者の煩わしさを軽減することがで
きる効果がある。
【0084】この発明によれば、発話内容の再認識が要
求された場合、音声合成ステップから出力される発声内
容を変更するように構成したので、発話内容の再認識が
要求された場合には、音声メッセージの音声出力時間が
短縮されるようになり、その結果、いち早く正しい認識
を望む搭乗者の煩わしさを軽減することができる効果が
ある。
【図面の簡単な説明】
【図1】 この発明の実施の形態1による音声認識装置
を示す構成図である。
【図2】 音声認識ユニットの詳細構成を示す構成図で
ある。
【図3】 この発明の実施の形態1による音声認識方法
を示すフローチャートである。
【図4】 音声認識装置と搭乗者間の音声応答のやり取
りを説明する説明図である(正しく認識された場合)。
【図5】 音声認識装置と搭乗者間の音声応答のやり取
りを説明する説明図である(正しく認識されない場
合)。
【図6】 音声合成部の音声出力時間を示すタイムチャ
ートである。
【図7】 ナビゲーション装置の表示例を示す説明図で
ある。
【図8】 音声認識装置の取付例を示す説明図である。
【図9】 音声合成部の音声出力時間を示すタイムチャ
ートである。
【図10】 音声合成部の音声出力時間を示すタイムチ
ャートである。
【図11】 音声合成部の音声出力時間を示すタイムチ
ャートである。
【図12】 音声合成部の音声出力時間を示すタイムチ
ャートである。
【図13】 音声認識ユニットの詳細構成を示す構成図
である。
【図14】 音声合成部の音声出力時間を示すタイムチ
ャートである。
【図15】 この発明の実施の形態7による音声認識方
法を示すフローチャートである。
【図16】 従来の音声認識装置を示す構成図である。
【図17】 音声認識ユニットの詳細構成を示す構成図
である。
【図18】 従来の音声認識装置の動作を示すフローチ
ャートである。
【図19】 音声認識装置と搭乗者間の音声応答のやり
取りを説明する説明図である(正しく認識された場
合)。
【図20】 音声認識装置と搭乗者間の音声応答のやり
取りを説明する説明図である(正しく認識されない場
合)。
【符号の説明】
34 発話スイッチ(要求手段)、51 制御部(要求
手段)、54 音声レベル判別部(音声認識手段)、5
5 音声分析部(音声認識手段)、56 パターンマッ
チング部(音声認識手段)、57 パラメータ生成部
(音声合成手段)、58 音声合成部(音声合成手
段)、59 応答音声制御部(音声制御手段)。

Claims (13)

    【特許請求の範囲】
  1. 【請求項1】 使用者から発声された音声を入力する
    と、その音声の特徴を解析して、使用者の発話内容を認
    識する音声認識手段と、上記音声認識手段により認識さ
    れた発話内容に定型メッセージを合成し、その合成結果
    を音声出力する音声合成手段と、発話内容の再認識を要
    求する要求手段と、上記要求手段から発話内容の再認識
    が要求された場合、上記音声合成手段における定型メッ
    セージの合成処理を禁止する音声制御手段とを備えた音
    声認識装置。
  2. 【請求項2】 使用者から発声された音声を入力する
    と、その音声の特徴を解析して、使用者の発話内容を認
    識する音声認識手段と、上記音声認識手段により認識さ
    れた発話内容に定型メッセージを合成し、その合成結果
    を音声出力する音声合成手段と、発話内容の再認識を要
    求する要求手段と、上記要求手段から発話内容の再認識
    が要求された場合、上記音声合成手段の発声速度を変更
    する音声制御手段とを備えた音声認識装置。
  3. 【請求項3】 使用者から発声された音声を入力する
    と、その音声の特徴を解析して、使用者の発話内容を認
    識する音声認識手段と、上記音声認識手段により認識さ
    れた発話内容に定型メッセージを合成し、その合成結果
    を音声出力する音声合成手段と、発話内容の再認識を要
    求する要求手段と、上記要求手段から発話内容の再認識
    が要求された場合、上記音声合成手段における定型メッ
    セージの合成処理を禁止するとともに、その音声合成手
    段の発声速度を変更する音声制御手段とを備えた音声認
    識装置。
  4. 【請求項4】 使用者から発声された音声を入力する
    と、その音声の特徴を解析して、使用者の発話内容を認
    識する音声認識手段と、上記音声認識手段により認識さ
    れた発話内容に定型メッセージを合成し、その合成結果
    を音声出力する音声合成手段と、発話内容の再認識を要
    求する要求手段と、上記要求手段から発話内容の再認識
    が要求された場合、上記音声合成手段から出力される発
    声内容を変更する音声制御手段とを備えた音声認識装
    置。
  5. 【請求項5】 音声制御手段は、音声合成手段の発声速
    度を上げることを特徴とする請求項2または請求項3記
    載の音声認識装置。
  6. 【請求項6】 音声制御手段は、音声合成手段が定型メ
    ッセージを音声出力する際の発声速度を上げることを特
    徴とする請求項2記載の音声認識装置。
  7. 【請求項7】 音声制御手段は、音声認識手段により前
    回認識された発話内容と、その音声認識手段により再認
    識された発話内容を比較し、発話内容に重複部分がある
    場合には、音声合成手段が重複部分の一部を音声出力す
    る際の発声速度を上げることを特徴とする請求項2また
    は請求項3記載の音声認識装置。
  8. 【請求項8】 音声制御手段は、音声認識手段により前
    回認識された発話内容と、その音声認識手段により再認
    識された発話内容を比較し、発話内容が一致する場合に
    は、音声合成手段から所定のメッセージを音声出力させ
    ることを特徴とする請求項4記載の音声認識装置。
  9. 【請求項9】 音声制御手段は、発話内容の再認識の要
    求回数が設定値に到達すると、発話内容の再認識の要求
    を無効にすることを特徴とする請求項1から請求項8の
    うちのいずれか1項記載の音声認識装置。
  10. 【請求項10】 使用者から発声された音声を入力する
    と、その音声の特徴を解析して、使用者の発話内容を認
    識する音声認識ステップと、上記音声認識ステップによ
    り認識された発話内容に定型メッセージを合成し、その
    合成結果を音声出力する音声合成ステップとを設け、発
    話内容の再認識が要求された場合、その音声合成ステッ
    プにおける定型メッセージの合成処理を禁止する音声認
    識方法。
  11. 【請求項11】 使用者から発声された音声を入力する
    と、その音声の特徴を解析して、使用者の発話内容を認
    識する音声認識ステップと、上記音声認識ステップによ
    り認識された発話内容に定型メッセージを合成し、その
    合成結果を音声出力する音声合成ステップとを設け、発
    話内容の再認識が要求された場合、その音声合成ステッ
    プの発声速度を変更する音声認識方法。
  12. 【請求項12】 使用者から発声された音声を入力する
    と、その音声の特徴を解析して、使用者の発話内容を認
    識する音声認識ステップと、上記音声認識ステップによ
    り認識された発話内容に定型メッセージを合成し、その
    合成結果を音声出力する音声合成ステップとを設け、発
    話内容の再認識が要求された場合、その音声合成ステッ
    プにおける定型メッセージの合成処理を禁止するととも
    に、その音声合成ステップの発声速度を変更する音声認
    識方法。
  13. 【請求項13】 使用者から発声された音声を入力する
    と、その音声の特徴を解析して、使用者の発話内容を認
    識する音声認識ステップと、上記音声認識ステップによ
    り認識された発話内容に定型メッセージを合成し、その
    合成結果を音声出力する音声合成ステップとを設け、発
    話内容の再認識が要求された場合、その音声合成ステッ
    プから出力される発声内容を変更する音声認識方法。
JP10055599A 1998-03-06 1998-03-06 音声認識装置及び音声認識方法 Pending JPH11249690A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP10055599A JPH11249690A (ja) 1998-03-06 1998-03-06 音声認識装置及び音声認識方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10055599A JPH11249690A (ja) 1998-03-06 1998-03-06 音声認識装置及び音声認識方法

Publications (1)

Publication Number Publication Date
JPH11249690A true JPH11249690A (ja) 1999-09-17

Family

ID=13003250

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10055599A Pending JPH11249690A (ja) 1998-03-06 1998-03-06 音声認識装置及び音声認識方法

Country Status (1)

Country Link
JP (1) JPH11249690A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7027565B2 (en) 2002-06-25 2006-04-11 Denso Corporation Voice control system notifying execution result including uttered speech content
JP2006267465A (ja) * 2005-03-23 2006-10-05 Tokyo Electric Power Co Inc:The 発話状態評価装置、発話状態評価プログラム、プログラム格納媒体

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7027565B2 (en) 2002-06-25 2006-04-11 Denso Corporation Voice control system notifying execution result including uttered speech content
JP2006267465A (ja) * 2005-03-23 2006-10-05 Tokyo Electric Power Co Inc:The 発話状態評価装置、発話状態評価プログラム、プログラム格納媒体

Similar Documents

Publication Publication Date Title
KR100870889B1 (ko) 음신호 처리 방법, 음신호 처리 장치 및 기록 매체
US8639508B2 (en) User-specific confidence thresholds for speech recognition
US8738368B2 (en) Speech processing responsive to a determined active communication zone in a vehicle
US9570066B2 (en) Sender-responsive text-to-speech processing
US9564120B2 (en) Speech adaptation in speech synthesis
US8756062B2 (en) Male acoustic model adaptation based on language-independent female speech data
US9911408B2 (en) Dynamic speech system tuning
US8812312B2 (en) System, method and program for speech processing
US20130080172A1 (en) Objective evaluation of synthesized speech attributes
US8762151B2 (en) Speech recognition for premature enunciation
US8768701B2 (en) Prosodic mimic method and apparatus
US9997155B2 (en) Adapting a speech system to user pronunciation
US20130211828A1 (en) Speech processing responsive to active noise control microphones
US20090012785A1 (en) Sampling rate independent speech recognition
US8438030B2 (en) Automated distortion classification
US9473094B2 (en) Automatically controlling the loudness of voice prompts
US20120197643A1 (en) Mapping obstruent speech energy to lower frequencies
JP5301037B2 (ja) 音声認識装置
JPH11249690A (ja) 音声認識装置及び音声認識方法
EP1102240A1 (en) Interval normalization device for voice recognition input voice
JP2007206603A (ja) 音響モデルの作成方法
JP3106543B2 (ja) 音声信号処理装置
JP2001042889A (ja) 音声認識入力音声の音程正規化装置
JP2007171637A (ja) 音声処理装置
JPH1115495A (ja) 音声合成装置