JPH1055194A - 音声制御装置と音声制御方法 - Google Patents

音声制御装置と音声制御方法

Info

Publication number
JPH1055194A
JPH1055194A JP8210196A JP21019696A JPH1055194A JP H1055194 A JPH1055194 A JP H1055194A JP 8210196 A JP8210196 A JP 8210196A JP 21019696 A JP21019696 A JP 21019696A JP H1055194 A JPH1055194 A JP H1055194A
Authority
JP
Japan
Prior art keywords
voice
information
state
speaker
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP8210196A
Other languages
English (en)
Inventor
Shoji Takeda
昭二 武田
Hideto Yamamoto
英人 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP8210196A priority Critical patent/JPH1055194A/ja
Publication of JPH1055194A publication Critical patent/JPH1055194A/ja
Pending legal-status Critical Current

Links

Abstract

(57)【要約】 【課題】 音声制御を行う場合に、話者の意図にあった
細かな制御ができない。話者は、人と会話する感覚で機
械に命令できない。 【解決手段】 話者からの音声情報に付随する状態情報
を抽出する状態情報抽出手段3を具備する。そして、人
間の状態(感情,体調等)による音声指示の変化を適格
に判断する。単なる音声命令だけでなく、その状態を加
味して出力装置をを制御する。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、声により出力装置
を制御する音声制御装置に関する。本発明は、音声を入
力して、その音声の指示によって、出力装置を制御する
音声制御装置及びその音声制御方法に関する。つまり、
制御入力を声で行うマン・マシーンインターフェスとし
て使用される音声制御方法に関する。
【0002】
【従来の技術】音声制御装置は、音声を入力し、この声
を音声認識し、この声の内容に応じて出力装置を制御し
ている。
【0003】
【発明が解決しようとする課題】しかし、処理が画一的
であり、指令を出す人間側に感情や体調の変化がある場
合には、かならずしも人間にとって満足する結果が得ら
れないことがある。ところで、人間の感情や体調等を、
発汗量・脈拍数・体温・血圧・音声から検出し、この検
出した感情や体調に応じて、機器を制御することは、知
られている。本発明は、人間の状態(感情,体調等)も
加味した音声制御を提供するものである。
【0004】又、本発明は、人間の状態(感情,体調
等)も加味した音声制御を簡単に実現するものである。
又、本発明は、人間の状態(感情,体調等)も加味した
音声指示を的確に行うことが出来る音声制御を提供する
ものである。
【0005】
【課題を解決するための手段】本発明は、音声制御を行
う場合に、人間の状態(感情,体調等)も加味して音声
制御を行うことを特徴とする。本発明は、音声情報を入
力し、その音声情報に対応するコード情報を認識するコ
ード認識手段(2)と、前記音声情報に付随する話者の状
態情報を抽出する状態情報抽出手段(3,3’)と、前記コ
ード認識手段(2)の出力と前記状態情報抽出手段(3,3’)
の出力とに基づいて出力装置(5)を制御する出力制御手
段(4)とを備えたこ とを特徴とする。
【0006】また、本発明は、音声情報を入力し、その
音声情報に対応するコード情報を認識するコード認識手
段(2)と、前記音声情報に付随する話者の状態情報を抽
出する状態情報抽出手段(3,3’)と、前記コード認識手
段(2)の出力と前記状態情報抽出手段(3,3’)の出力とに
基づいて、出力装置(5)で出力されるメッセージ出力の
内容を変更する出力制御手段(4)とを備えたことを特徴
とする。
【0007】また、本発明は、入力した音声情報に対応
するコード情報を認識し、このコード情報に対応して出
力装置(5)を制御する音声制御装置の音声制御方法にお
いて、前記音声情報から話者の状態を検出し、この検出
した話者の状態と、前記コード情報とに基づいて前記出
力装置(5)を制御することを特徴とする。また、本発明
は、入力した音声情報に対応するコード情報を認識する
と共に、前記音声情報から話者の状態を検出し、この検
出した話者の状態と前記コード情報とに対応して出力装
置(5)を制御する音声制御装置の音声制御方法におい
て、話者の状態を検出出来なかった時は、直前に検出し
た状態として制御することを特徴とする。
【0008】また、本発明は、入力した音声情報に対応
するコード情報を認識すると共に、前記音声情報から話
者の状態を検出し、この検出した話者の状態と前記コー
ド情報とに対応して出力装置(5)を制御する音声制御装
置の音声制御方法において、話者の状態を検出出来なか
った時は、平常状態として制御することを特徴とする。
【0009】また、本発明は、入力した音声情報に対応
するコード情報を認識すると共に、前記音声情報から話
者の状態を検出し、この検出した話者の状態と前記コー
ド情報とに対応して出力装置(5)を制御する音声制御装
置の音声制御方法において、話者の状態を検出出来なか
った時は、非常状態として制御することを特徴とする。
【0010】また、本発明は、入力した音声情報に対応
するコード情報を認識すると共に、前記音声情報から話
者の状態を検出し、この検出した話者の状態と前記コー
ド情報とに対応して出力装置(5)を制御する音声制御装
置の音声制御方法において、前記出力装置(5)で前記コ
ード情報と話者の状態とに応じて、この話者を気遣うメ
ッセージを出力することを特徴とする。
【0011】また、本発明は、入力した音声情報に対応
するコード情報を認識すると共に、前記音声情報から話
者の状態を検出し、この検出した話者の状態と前記コー
ド情報とに対応して、出力装置(5)で話者に対してメッ
セージを出力する音声制御装置の音声制御方法におい
て、このメッセージに対する話者の反応を検出して、こ
の検出結果に応じて出力装置(5)を制御することを特徴
とする。
【0012】
【発明の実施の形態】以下、本発明の第1実施例につい
て説明する。図1は、本発明の第1実施例の音声制御装
置を示すブロック図である。図2は、この第1実施例の
音声制御装置の処理動作を説明するための説明図であ
る。
【0013】この図2は、通常の喋り方と怒った喋り方
での音声情報の特徴量の違いを示し、図2(a)は音声波
形、図2(b)は音量特性、図2(c)は音声ピッチ周波数
特性を示している。図1において、マイクロホン1は、
音声を電気信号に変換する。音声情報(声)をこのマイ
クロホン1から入力し、その音声情報に対応する音声コ
ード情報を、音声コード認識手段2が音声認識する。
【0014】この認識された音声コードは、状態情報抽
出手段3及び出力制御手段4に出力される。ところで、
状態情報抽出手段3は、例えば、音声認識分野で知られ
ているHMM(HiddenMarkovModel)法と称する音声の
状態遷移の統計処理を応用して感情の種類とその値(程
度)を導き出す。この手法については、書籍「HiddenMa
rkovModelsforSpeachforRecognition」(出版:Edinburg
n University Press,著者:X.D.HUNG他,1990年)で
開示されている。
【0015】例えば、通常の喋り方の「urusai」
と怒った喋り方の「urusai」の音声情報の特徴量
の違いを示すと、図2に示すようになる。図2の左側が
通常の喋り方での「うるさい」の音声で、その右側が怒
った喋り方での「うるさい」の音声である。ここで、右
側の波形の方が、音量が大きく、発生時間が短くなって
おり、発生速度が速く、かつ、音声ピッチ周波数が高い
ことがわかる。
【0016】この状態情報抽出手段3の発生速度検出部
31は、マイクロホン1から入力した音声情報の発生速
度を検出する。この状態情報抽出手段3の音声ピッチ
(音の高低)周波数検出部32は、マイクロホン1から
入力した音声情報の音声ピッチ周波数を検出する。この
状態情報抽出手段3の音量検出部33は、マイクロホン
1から入力した音声情報の音量を検出する。
【0017】基準音声特徴量格納部35は、音声分析す
る場合の基準となる音声特徴量(発生速度、音声ピッチ
周波数、音量)が記憶されている。この場合、基準音声
特徴量として、話者の音声特徴量を基準として格納する
ケ−スと、多くの人の音声特徴量の平均(標準値)を基準
として格納するケ−スとが、考えられる。この実施例の
基準音声特徴量格納部35では、2つのメモリエリアを
持ち、本実施例では、両方に対応できるものとした。
【0018】つまり、メモリエリアの一方に予め使用者
(話者)が普通に喋ったときの音声特徴量(発生速度、音
声ピッチ周波数、音量)を基準値として記憶できるもの
とする。そして、他方のメモリエリアには、予め多くの
人の音声特徴量の平均(標準値)を記憶しておく。そし
て、使用されるメモリエリアは、この音声制御装置と組
み合わされる出力装置又は話者(使用者)の好みに応じ
て、選択出来るようにした。
【0019】ここで、一般的な音声特徴量(発生速度、
音声ピッチ周波数)の一般的な値について述べる。ま
ず、発生速度については、単位時間あたりに発生された
モーラ数より検出する。このモーラとは、「拍」と訳さ
れ、基本的には、かな文字と同じである。
【0020】このモーラでは、拗音(「きゃ」「じょ」
等)、促音(「っ」)、撥音(「ん」)も1モーラと数え
る。また、このモーラでは、長音(「そうじ」の「そ
う」、「テープ」の「テー」)などは2モーラとなる。
なお、モーラ数の計測は、音声認識で一般的に使用され
ている。発生速度を「ゆっくり」、「普通」、「早口」
との3段階に大別すると、 ゆっくり : 7モーラ以下/秒 普通 : 8〜11モーラ/秒 早口 : 12モーラ以上/秒 が一般的に感じるものである。
【0021】また、音声ピッチは、音声信号を線形予測
分析した後の残差信号の相関から求める。この方法は、
書籍「図解、音声デバイス活用の実際」P2〜5、(中田和
男、三瓶徹共編、オーム社,1982年発行)等で公知であ
る。例えば、日本人の男性成人、女性成人、子供の平均
の音声ピッチ周波数は、 日本人の男性成人の平均 : 100〜125Hz 日本人の女性成人の平均 : 250〜300Hz 日本人の子供の平均 : 125〜250Hz である。
【0022】使用者が男性で、予め基準音声特徴量格納
部35に、この使用者の音声特徴量(発生速度、音声ピ
ッチ周波数、音量)を格納する場合、この男性が標準的
であれば、音声ピッチ周波数は「100〜125Hz」
の範囲内となり、発生速度は、「8〜11モ−ラ/秒」
の範囲内となる。音声特徴レベル判定基準格納部34に
は、音声特徴レベル判定基準が格納される。
【0023】この音声特徴レベル判定基準格納部34
は、各音声特徴レベル(発生速度レベル、音声ピッチ周
波数レベル、音量特徴レベル)を求めるためものであ
り、[発生速度レベル]と[音声ピッチ周波数レベ
ル]、[音量特徴レベル]を以下のように3段階とす
る。 発生速度レベル : 早口/普通/ゆっくり 音声ピッチ周波数レベル : 高い/普通/低い 音量特徴レベル : 大きい/普通/小さい つまり、音声特徴レベル判定基準格納部34には、この
レベルに分類するための[発生速度レベル基準]と[音
声ピッチ周波数レベル基準]、[音量特徴レベル基準]
が格納されている。
【0024】発生速度を「早口/普通/ゆっくり」の3
レベルに分類するための[発生速度レベル基準]につい
て説明する。この[発生速度レベル基準]は、入力され
た音声の発生速度と、基準音声特徴量格納部35に格納
された標準の発生速度とを比べ、この比較から「早口/
普通/ゆっくり」の3レベルを求めるための基準であ
る。例えば、ここでは、以下のものである。
【0025】 30%以上速ければ : 早口 30%以上遅ければ : ゆっくり それ以外であれば : 普通 また、音声ピッチを「高い声/普通の声/低い声」の3
レベルに分類するための[音声ピッチ周波数レベル基
準]が格納される。
【0026】この[音声ピッチ周波数レベル基準]は、
入力された音声の音声ピッチと、基準音声特徴量格納部
35に格納された標準の音声ピッチとを比べ、この比較
から「高い声/普通の声/低い声」の3レベルを求める
ための基準である。例えば、ここでは、以下のものであ
る。 50%以上高ければ : 高い声 50%以上低ければ : 低い声 それ以外であれば : 普通の高さの声 又、音量を「大きな声/普通の声/小さい声」の3レベ
ルに分類するための[音量特徴レベル基準]が格納され
る。
【0027】この[音量特徴レベル基準]は、入力され
た音声の音量と、基準音声特徴量格納部35に格納され
た標準の音量とを比べ、この比較から「大きな声/普通
の声/小さい声」の3レベルを求めるための基準であ
る。例えば、ここでは、以下のものである。 3db以上高ければ : 大きい声 3db以上低ければ : 小さい声 それ以外であれば : 普通の大きさの声 尚、音量の比較は、母音部分について比較している。
【0028】このように、音声特徴レベル判定基準格納
部34及び基準音声特徴量格納部35に格納されている
情報と、各検出部31,32,33からの出力とを基に
音声特徴レベル分析部36で音声情報が分析される。状
態情報抽出手段3では、まず、発生速度検出部31で音
声情報の発生速度を検出し、音声ピッチ周波数検出部3
2で音声ピッチ周波数を検出し、音量検出部33で音量
を検出する。
【0029】そして、音声特徴レベル分析部36では、
発生速度検出部31からの発生速度レベルを分析する。
具体的には、まず、検出した発生速度と基準音声特徴量
格納部35の標準発生速度との比を求める。次に、この
発生速度比と、音声特徴レベル判定基準格納部34の発
生速度レベル判定基準に基づいて、発生速度レベルを分
析する。
【0030】また、音声特徴レベル分析部36では、音
声ピッチ周波数検出部32からの音声ピッチ周波数レベ
ルを分析する。具体的には、まず、検出した音声ピッチ
周波数と基準音声特徴量格納部35の基準音声ピッチ周
波数との比を求める。次に、音声ピッチ周波数比と音声
特徴レベル判定基準格納部34の音声ピッチ周波数レベ
ル判定基準に基づいて音声ピッチ周波数レベルを分析す
る。
【0031】また、音声特徴レベル分析部36では、音
量検出部33からの音量特徴レベルを分析する。具体的
には、まず、検出した音量と基準音声特徴量格納部35
の標準音量との比を求める。次に、音量比と音声特徴レ
ベル判定基準格納部34の音量特徴レベル判定基準に基
づいて、音量特徴レベルを分析する。
【0032】そして、感性レベル分析用知識ベース格納
部37は、各音声特徴レベルと音声コードとによって、
感性レベルを判定するための条件(ルール)を設定して
おく。ここで、感性レベルとは、感性の種類と程度を意
味する。感性レベル分析部38では、音声特徴レベル分
析部36からの出力及び音声コード認識手段2からの出
力を入力し、音声コードと、発生速度レベル、音声ピッ
チ周波数レベル、音量特徴レベルから、感性レベル分析
用知識ベース格納部37に格納されている感性レベル分
析用知識ベースに基づいて、感性レベルを分析する。
【0033】出力制御手段4は、感性レベル分析部38
からの出力及び音声コード認識手段2からの出力を入力
し、各種の出力装置5を制御する。出力制御手段4は、
主制御部41及び出力制御用知識ベース格納部42を有
している。出力制御用知識ベース格納部42は、感性レ
ベル分析部38からの出力及び音声コード認識手段2か
らの出力によって如何なる出力を行えばよいかを判断す
る基準を格納する条件マップを格納したものである。
【0034】主制御部41は、感性レベル分析部38か
らの出力及び音声コード認識手段2からの出力を出力制
御用知識ベース格納部42で照合した後、その条件によ
って出力装置5の制御情報を決定し、その制御情報を出
力する。出力装置5は、音声制御装置により制御される
機器であり、制御しようとする制御対象の機器(産業用
機器、民生用機器等)のオン・オフ制御または所定の特
性を変化させる制御により、出力が変化する。
【0035】また、出力装置5は、メッセージ出力機能
を有し、そのメッセージを変更するものであってもよ
い。図3は、この第1実施例の音声制御装置の状態情報
抽出手段3が行う制御処理を示すフローチャートであ
る。まず、ステップS1で発生速度検出部31で音声情
報の発生速度を検出する。
【0036】ステップS2で音声ピッチ周波数検出部3
2によって音声ピッチ周波数を検出する。ステップS3
で音量検出部33によって音量を検出する。ステップS
4で発生速度検出部31から入力した発生速度レベルを
分析する。ここでは、検出した発生速度と基準音声特徴
量格納部35の標準発生速度との比を求め、発生速度比
と音声特徴レベル判定基準格納部34の発生速度レベル
判定基準に基づいて、発生速度レベルを分析する。
【0037】また、ステップS5で音声ピッチ周波数検
出部32から入力した音声ピッチ周波数レベルを分析
し、検出した音声ピッチ周波数と基準音声特徴量格納部
35の基準音声ピッチ周波数との比を求め、音声ピッチ
周波数比と音声特徴レベル判定基準格納部34の音声ピ
ッチ周波数レベル判定基準に基づいて音声ピッチ周波数
レベルを分析する。
【0038】そして、ステップS6で音量検出部33か
ら入力した音量特徴レベルを分析し、検出した音量と基
準音声特徴量格納部35の標準音量との比を求め、音量
比と音声特徴レベル判定基準格納部34の音量特徴レベ
ル判定基準に基づいて、音量特徴レベルを分析する。更
に、ステップS7で感性レベル分析部38で、音声コー
ドと、発生速度レベル、音声ピッチ周波数レベル、音量
特徴レベルから、感性レベル分析用知識ベースに基づい
て、感性レベル(感性の種類と程度)を分析する。
【0039】このように、感性レベル分析部38では、
入力された音声コード認識手段2からの音声コードと、
音声特徴レベル分析部36で処理された感性レベルとを
組合わせ、感性レベル分析用知識ベース格納部37に格
納された感性レベル分析用知識ベース(条件マップ)に
基づいて、感性レベルを検出する。感性レベル分析用知
識ベース格納部37に格納された感性分析用知識ベース
としては、予め、普通の喋り方や怒ったときの喋り方
等、感性レベルを変えて入力したときの各音声特徴レベ
ルを、この感性レベルごとにデータベースとして記憶し
ておく。
【0040】そして、音声特徴レベル分析部36で処理
された後、入力された音声の各音声特徴レベルが、デー
タベース内の感性レベルごとの各音声特徴レベルとを照
合し、最も一致度の高い感性レベルを検出結果とする。
次に、この音声処理装置での処理の事例について説明す
る。 [事例1]
【0041】
【表1】
【0042】この表1の事例は、TVの音量調整に使用
する最も単純な例である。ここでは、単純に、1種類の
音声特徴レベルから、感性レベルを検出している。つま
り、状態情報抽出手段3は、大声の「うるさい」が入力
されると、「不満度が大」の感性レベル情報を出力す
る。
【0043】そして、出力制御手段4は、「不満度が
大」の「うるさい」が入力されると、出力装置の消音を
行う。また、状態情報抽出手段3は、小声の「うるさ
い」が入力されると、「不満度が小」の感性レベル情報
を出力する。そして、出力制御手段4は、「不満度が
小」の「うるさい」が入力されると、出力装置の出力音
量を下げる。
【0044】[事例2]
【0045】
【表2】
【0046】この表2の事例は、TVの画面の明るさ又
は照明の明るさ等の調整に使用する最も単純な例であ
る。ここでも、単純に、1種類の音声特徴レベルから、
感性レベルを検出している。つまり、状態情報抽出手段
3は、音声ピッチ周波数の高い「もっと、明るく」が入
力されると、「要望の程度大」の感性レベル情報を出力
する。
【0047】そして、出力制御手段4は、「要望の程度
大」と「もっと、明るく」が入力されると、出力装置5
の明るさのレベルを2段上げる。また、状態情報抽出手
段3は、音声ピッチ周波数の低い「もっと、明るく」が
入力されると、「要望の程度小」の感性レベル情報を出
力する。そして、出力制御手段4は、「要望の程度小」
と「もっと、明るく」が入力されると、出力装置5の明
るさのレベルを1段上げる。
【0048】[事例3]
【0049】
【表3】
【0050】この表3の事例は、リモコンカ−の速度制
御を行う単純な例である。ここでも、単純に、1種類の
音声特徴レベルから、感性レベルを検出している。つま
り、状態情報抽出手段3は、音声速度の遅い「止まれ」
が入力されると、「危機感小」の感性レベル情報を出力
する。
【0051】そして、出力制御手段4は、「危機感小」
と「止まれ」が入力されると、出力装置5を徐々に停止
させる。また、状態情報抽出手段3は、音声速度が速い
「止まれ」が入力されると、「危機感大」の感性レベル
情報を出力する。そして、出力制御手段4は、「危機感
大」と「止まれ」が入力されると、出力装置5を緊急停
止させる。
【0052】[事例4]
【0053】
【表4】
【0054】この表4の事例は、コンピュータ等の文書
処理における「UNDO機能(取り消し機能,元に戻す
機能)」に関する。つまり、状態情報抽出手段3は、音
声ピッチ周波数が高く、且つ、発生速度が速く、且つ、
大声の「ちがう」が入力されると、「不満度が高い」の
感性レベル情報を出力する。
【0055】そして、出力制御手段4は、「不満度が高
い」と「ちがう」が入力されると、出力装置5におい
て、今まで処理していた動作を止め、元の状態に戻すU
NDO機能を実行するとともに、「大変申し訳ありませ
ん」の録音メッセ−ジデータを音声出力する。また、状
態情報抽出手段3は、上記以外の場合の「ちがう」が入
力されると、「不満度が低い」の感性レベル情報を出力
する。
【0056】そして、出力制御手段4は、「不満度が低
い」と「ちがう」が入力されると、出力装置5におい
て、今まで処理していた動作を止め、UNDO機能を実
行するとともに、画面に「申し訳ありません」の表示を
行う。このように、本実施例の音声制御装置は、音声情
報を入力し、その音声情報に対応する音声コード情報を
認識する音声コード認識手段2と、音声情報に付随する
感性情報を抽出する状態情報抽出手段3と、音声コード
認識手段2の出力と状態情報抽出手段3との出力に基づ
いて出力装置5の出力を制御する出力制御手段4とを具
備している。
【0057】出力制御手段4は、状態情報抽出手段3か
らの出力と音声コード認識手段2の出力とに応じて如何
なる出力を行えばよいかを、出力制御知識ベース部42
で照合した後、その照合結果である制御情報を出力装置
5に出力する。尚、上記実施例では、感性の種類として
は、不満度、要望度、危機感を述べたが、緊張度、興奮
度、冷静度等の様々なものが考えられる。
【0058】また、抽出する感性の種類は、平常と非常
の2種類でも良い。抽出する感性の種類は、音声制御装
置と組み合わされる出力装置5の操作性・安全性・耐久
性・用途・設置場所等を考慮して、適宜設定されるもの
である。また、音声特徴のレベルを3段階としたが、本
願はこれに限定されるものではない。
【0059】また、本実施例の出力装置5としては、テ
レビジョン、照明装置、情報処理装置の事例で説明した
が、本発明を実施する場合には、オン・オフ制御または
可変制御する機器または応答を制御する機器であればよ
く、その用途が特定されるものではない。また、音声制
御装置と出力装置とは、通常一体化されて販売される。
【0060】また、感性レベル分析部36での感性レベ
ルの分析及び出力制御手段4での制御情報の決定には、
ファジィ理論を用いるようにしてもよい。また、上記実
施例では、音声特徴レベル分析部36には、発生速度検
出部31、音声ピッチ周波数検出部32、音量検出部3
3の出力を入力しているが、本発明を実施する場合に
は、更に、周波数成分を計測した音声スペクトル情報
(音韻「音色」)の検出を行い、その出力も使用しても
よい。
【0061】図4を参照しつつ、本発明の第2実施例を
説明する。なお、図中、図1と同一部分には、同一符号
を付して重複説明を省略する。上記第1実施例では、音
声制御装置の特に感情による制御について説明したが、
この第2実施例は、話者の感情だけでなく、話者の状態
を検出している。ここでいう状態とは、「喉頭癌や風邪
などの体調状態」や「鼻をつまんで喋っている」や「マ
イクに口をつけて喋っている」などである。
【0062】つまり、上記の話者の状態を検出するよう
に、感性レベル分析用知識ベース格納部に感情を検出す
るためだけなく、体調等を検出するためのデータを予め
追加格納して状態レベル分析用知識ベース格納部37’
とする。同様に、出力制御用知識ベース格納部42’に
は、感情に対応するだけなく、体調等にも対応するデー
タを予め追加格納する。
【0063】図4において、音声スペクトル検出部39
は、ある時間内の音声データをDFT(デジタルフーリ
エ変換)分析して、音声スペクトルを得ている。普通、
穏やかな話し方では、音声波形は正弦波に近く、あまり
高調波成分はない。しかし、怒鳴ったり強く言うときに
は、三角波に近くなり、高調波成分が多く含まれる。
【0064】基準音声特徴量格納部35’には、音声分
析する場合の基準となる音声特徴量(発生速度、音声ピ
ッチ周波数、音量、音声スペクトル)が記憶されてい
る。音声特徴レベル判定基準格納部34’には、レベル
分類の[発生速度レベル基準]と[音声ピッチ周波数レ
ベル基準]、[音量特徴レベル基準]、[音声スペクト
ルレベル基準]が格納されている。
【0065】音声特徴レベル分析部36’は、検出部3
1,32,33,39で得られた種々の音声特徴量と基
準音声特徴量とを比較し、この比較結果を音声特徴レベ
ル判定基準格納部34’に格納されているレベル基準と
比較する。比較した結果を状態レベル分析38’に送出
する。状態レベル分析38’ではその結果を基に状態レ
ベル分析用知識ベース格納部37’に格納されている知
識ベースに基づいて話者の状態レベル(状態と程度)を
決定する。
【0066】出力制御手段4は、状態レベルと音声コ−
ドを基に、状態レベル分析用知識ベース格納部37’に
格納されている知識ベース(条件マップ)に基づいて、
出力装置5への制御情報を決定する。例えば、対話型の
システムでは、話者の体調が異常であれば、状態レベル
分析部38’でその状態を判断し、その結果を基に出力
制御手段4で応答内容や応答メッセージを変えることも
考えられる。
【0067】例としては、話者の声「始動」が、風邪気
味の声であると状態情報抽出手段3’で検出すると、出
力制御手段4は、出力装置5を始動させる制御情報を出
力すると共に、「病気ですか?」のメッセージを画面出
力する。そして、次に、話者の声「違う」又は、他の命
令等(話者がこのメッセージを無視)が入力されると、
出力制御手段4は、通常通りに動作する。
【0068】このときに、話者の声「ハイ」「そうだ」
「うるさい」等が、入力されると、出力制御手段4は、
出力制御用知識データベース格納部42’で使用する条
件マップを体調不調話者用の条件マップに変更する。こ
の体調不調話者用の条件マップに変更した後に、話者の
声「業務ファイルを開け」が入力されると、出力制御手
段4は、業務ファイルを開く制御情報を出力すると共
に、、「大丈夫ですか?」のメッセージを画面出力す
る。
【0069】また、この体調不調話者用の条件マップに
変更した後に、話者の声「ゲ−ムフィイルを開け」が入
力されると、出力制御手段4は、ゲ−ムファイルを開く
制御情報を出力せずに、「具合が悪いのだから遊んだり
しちゃダメ!」のメッセージを画面出力させる。尚、上
記実施例では、状態情報抽出手段3と音声コード認識手
段2は、別ブロックで表したが、これは、当然、一体化
してもよい。
【0070】又、上記実施例では、状態情報抽出手段
3’は、音声が入力される度に、常に状態レベル情報を
出力するが、これは、状態レベルが変化した時だけ出力
するようにしても良い。又、抽出精度が低い時には、出
力しないようにしてもよい。また、状態レベル情報の精
度が悪い時には、前回検出した状態レベル情報を出力し
てもよい。また、状態レベル情報の精度が悪い時には、
平常の状態レベル情報を出力してもよい。また、状態レ
ベル情報の精度が悪い時には、非常の状態レベル情報を
出力してもよい。また、状態情報抽出手段3’は、常
に、音声コードと音声特徴レベルの両方により、状態レ
ベル情報を決定したが、全ての場合に、両者が必要とい
うわけでもない。同様に、出力制御手段4’,3’は、
常に、音声コードと状態レベルの両方により、制御情報
を決定したが、全ての場合において、音声コードと状態
レベルの両情報が常に必須というわけでもない。この両
情報の必要性は、音声制御装置と組み合わされる出力装
置5の操作性・安全性・耐久性・用途・設置場所等を考
慮して、適宜設定されるものである。
【0071】
【発明の効果】本発明によれば、音声制御装置は、話者
からの音声命令に対して、額面通りの命令内容でなく、
その音声命令に含まれるニュアンスにも対応した制御が
可能となる。更に、本発明によれば、音声制御装置は、
話者からの音声命令の入力時に状態を抽出出来なくても
適切な制御を行うことが出来る。
【図面の簡単な説明】
【図1】本発明の第1実施例の音声制御装置を示すブロ
ック図である。
【図2】この第1実施例の音声制御装置の処理動作を説
明する説明図である。
【図3】第1実施例の音声制御装置の状態情報抽出手段
が行う制御処理を示すフローチャートである。
【図4】本発明の第2実施例の音声制御装置を示すブロ
ック図である。
【符号の説明】
1・・・マイクロホン、 2・・・音声コード認識手段(コード認識手段)、 3・・・状態情報抽出手段、 3’・・状態情報抽出手段、 4・・・出力制御手段、 36・・・音声特徴レベル分析部、 36’・・音声特徴レベル分析部、 37・・・感性レベル分析用知識ベース格納部、 37’・・状態レベル分析用知識ベース格納部、 38・・・感性レベル分析部、 38’・・状態レベル分析部、 41・・・主制御部、 42・・・出力制御用知識ベース格納部。 42’・・出力制御用知識ベース格納部。

Claims (12)

    【特許請求の範囲】
  1. 【請求項1】 音声情報を入力し、その音声情報に対応
    するコード情報を認識するコード認識手段(2)と、 前記音声情報に付随する話者の状態情報を抽出する状態
    情報抽出手段(3,3’)と、 前記コード認識手段(2)の出力と前記状態情報抽出手段
    (3,3’)の出力とに基づいて出力装置(5)を制御する出力
    制御手段(4)とを備えたことを特徴とする音声制御装
    置。
  2. 【請求項2】 前記状態とは、話者の体調状態であるこ
    とを特徴とする請求項1記載の音声制御装置。
  3. 【請求項3】 前記状態とは、話者の感情状態であるこ
    とを特徴とする請求項1記載の音声制御装置。
  4. 【請求項4】 音声情報を入力し、その音声情報に対応
    するコード情報を認識するコード認識手段(2)と、 前記音声情報に付随する話者の状態情報を抽出する状態
    情報抽出手段(3,3’)と、 前記コード認識手段(2)の出力と前記状態情報抽出手段
    (3,3’)の出力とに基づいて、出力装置(5)で出力される
    メッセージ出力の内容を変更する出力制御手段(4)とを
    備えたことを特徴とする音声制御装置。
  5. 【請求項5】 前記出力装置は、音声メッセージ出力機
    能を備えたことを特徴とする請求項4記載の音声制御装
    置。
  6. 【請求項6】 前記出力装置は、映像メッセージ出力機
    能を備えたことを特徴とする請求項4記載の音声制御装
    置。
  7. 【請求項7】 入力した音声情報に対応するコード情報
    を認識し、このコード情報に対応して出力装置(5)を制
    御する音声制御装置の音声制御方法において、 前記音声情報から話者の状態を検出し、この検出した話
    者の状態と、前記コード情報とに基づいて前記出力装置
    (5)を制御することを特徴とする音声制御方法。
  8. 【請求項8】 入力した音声情報に対応するコード情報
    を認識すると共に、前記音声情報から話者の状態を検出
    し、この検出した話者の状態と前記コード情報とに対応
    して出力装置(5)を制御する音声制御装置の音声制御方
    法において、 話者の状態を検出出来なかった時は、直前に検出した状
    態として制御することを特徴とする音声制御方法。
  9. 【請求項9】 入力した音声情報に対応するコード情報
    を認識すると共に、前記音声情報から話者の状態を検出
    し、この検出した話者の状態と前記コード情報とに対応
    して出力装置(5)を制御する音声制御装置の音声制御方
    法において、 話者の状態を検出出来なかった時は、平常状態として制
    御することを特徴とする音声制御方法。
  10. 【請求項10】 入力した音声情報に対応するコード情
    報を認識すると共に、前記音声情報から話者の状態を検
    出し、この検出した話者の状態と前記コード情報とに対
    応して出力装置(5)を制御する音声制御装置の音声制御
    方法において、 話者の状態を検出出来なかった時は、非常状態として制
    御することを特徴とする音声制御方法。
  11. 【請求項11】 入力した音声情報に対応するコード情
    報を認識すると共に、前記音声情報から話者の状態を検
    出し、この検出した話者の状態と前記コード情報とに対
    応して出力装置(5)を制御する音声制御装置の音声制御
    方法において、 前記出力装置(5)で前記コード情報と話者の状態とに応
    じて、この話者を気遣うメッセージを出力することを特
    徴とする音声制御方法。
  12. 【請求項12】 入力した音声情報に対応するコード情
    報を認識すると共に、前記音声情報から話者の状態を検
    出し、この検出した話者の状態と前記コード情報とに対
    応して、出力装置(5)で話者に対してメッセージを出力
    する音声制御装置の音声制御方法において、 このメッセージに対する話者の反応を検出して、この検
    出結果に応じて出力装置(5)を制御することを特徴とす
    る音声制御方法。
JP8210196A 1996-08-08 1996-08-08 音声制御装置と音声制御方法 Pending JPH1055194A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP8210196A JPH1055194A (ja) 1996-08-08 1996-08-08 音声制御装置と音声制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP8210196A JPH1055194A (ja) 1996-08-08 1996-08-08 音声制御装置と音声制御方法

Publications (1)

Publication Number Publication Date
JPH1055194A true JPH1055194A (ja) 1998-02-24

Family

ID=16585383

Family Applications (1)

Application Number Title Priority Date Filing Date
JP8210196A Pending JPH1055194A (ja) 1996-08-08 1996-08-08 音声制御装置と音声制御方法

Country Status (1)

Country Link
JP (1) JPH1055194A (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004075135A1 (ja) * 2003-02-19 2004-09-02 Matsushita Electric Industrial Co., Ltd. 監視電子機器システム、監視方法、プログラムおよび、記録媒体
WO2005027091A1 (en) * 2003-09-12 2005-03-24 Toyota Infotechnology Center Co., Ltd. Method and system for adjusting the voice prompt of an interactive system based upon the user's state
JP2006350221A (ja) * 2005-06-20 2006-12-28 Funai Electric Co Ltd 音声認識機能付きav機器
JP2008070596A (ja) * 2006-09-14 2008-03-27 Yamaha Corp 音声認証装置、音声認証方法およびプログラム
JP2008070597A (ja) * 2006-09-14 2008-03-27 Yamaha Corp 音声認証装置、音声認証方法およびプログラム
JP2011130762A (ja) * 2009-12-22 2011-07-07 Ind Technol Res Inst 語意認識機能付き食品製造装置
WO2014069075A1 (ja) * 2012-10-31 2014-05-08 日本電気株式会社 不満会話判定装置及び不満会話判定方法

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004075135A1 (ja) * 2003-02-19 2004-09-02 Matsushita Electric Industrial Co., Ltd. 監視電子機器システム、監視方法、プログラムおよび、記録媒体
WO2005027091A1 (en) * 2003-09-12 2005-03-24 Toyota Infotechnology Center Co., Ltd. Method and system for adjusting the voice prompt of an interactive system based upon the user's state
US7881934B2 (en) 2003-09-12 2011-02-01 Toyota Infotechnology Center Co., Ltd. Method and system for adjusting the voice prompt of an interactive system based upon the user's state
JP2006350221A (ja) * 2005-06-20 2006-12-28 Funai Electric Co Ltd 音声認識機能付きav機器
JP2008070596A (ja) * 2006-09-14 2008-03-27 Yamaha Corp 音声認証装置、音声認証方法およびプログラム
JP2008070597A (ja) * 2006-09-14 2008-03-27 Yamaha Corp 音声認証装置、音声認証方法およびプログラム
US8694314B2 (en) 2006-09-14 2014-04-08 Yamaha Corporation Voice authentication apparatus
JP2011130762A (ja) * 2009-12-22 2011-07-07 Ind Technol Res Inst 語意認識機能付き食品製造装置
WO2014069075A1 (ja) * 2012-10-31 2014-05-08 日本電気株式会社 不満会話判定装置及び不満会話判定方法
JPWO2014069075A1 (ja) * 2012-10-31 2016-09-08 日本電気株式会社 不満会話判定装置及び不満会話判定方法

Similar Documents

Publication Publication Date Title
US8204747B2 (en) Emotion recognition apparatus
Johns-Lewis Prosodic differentiation of discourse modes
US8185395B2 (en) Information transmission device
JP4914295B2 (ja) 力み音声検出装置
US20130325470A1 (en) System and method for identification of a speaker by phonograms of spontaneous oral speech and by using formant equalization
JP2004538543A (ja) 多モード入力を使用した多モード・フォーカス検出、参照の曖昧性の解決およびムード分類のためのシステムおよび方法
JP2002091482A (ja) 感情検出方法及び感情検出装置ならびに記録媒体
JP2009237353A (ja) 関連付け装置、関連付け方法及びコンピュータプログラム
Davidson The effects of pitch, gender, and prosodic context on the identification of creaky voice
US20020107695A1 (en) Feedback for unrecognized speech
Kostov et al. Emotion in user interface, voice interaction system
JP4587854B2 (ja) 感情解析装置、感情解析プログラム、プログラム格納媒体
JP2008262120A (ja) 発話評価装置及び発話評価プログラム
JPH1055194A (ja) 音声制御装置と音声制御方法
WO2021210332A1 (ja) 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム
KR20210000802A (ko) 인공지능 음성 인식 처리 방법 및 시스템
US20230148275A1 (en) Speech synthesis device and speech synthesis method
JPH0922296A (ja) 感性情報入力処理装置及びその処理方法
KR20190133325A (ko) 음성인식 방법 및 장치
JP2001318915A (ja) フォント変換装置
JP2005258235A (ja) 感情発話検知による対話修正機能を備えた対話制御装置
CN110895941A (zh) 声纹识别方法、装置及存储装置
Fadhilah Fuzzy petri nets as a classification method for automatic speech intelligibility detection of children with speech impairments/Fadhilah Rosdi
JP2004139049A (ja) 話者正規化方法及びそれを用いた音声認識装置
JP2017068153A (ja) 半導体装置、システム、電子機器、及び、音声認識方法