JP2001154685A - 音声認識装置および音声認識方法、並びに記録媒体 - Google Patents

音声認識装置および音声認識方法、並びに記録媒体

Info

Publication number
JP2001154685A
JP2001154685A JP34046899A JP34046899A JP2001154685A JP 2001154685 A JP2001154685 A JP 2001154685A JP 34046899 A JP34046899 A JP 34046899A JP 34046899 A JP34046899 A JP 34046899A JP 2001154685 A JP2001154685 A JP 2001154685A
Authority
JP
Japan
Prior art keywords
voice recognition
robot
unit
dictionary
growth
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP34046899A
Other languages
English (en)
Inventor
Katsuki Minamino
活樹 南野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP34046899A priority Critical patent/JP2001154685A/ja
Priority to US09/723,512 priority patent/US7313524B1/en
Publication of JP2001154685A publication Critical patent/JP2001154685A/ja
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/065Adaptation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/183Speech classification or search using natural language modelling using context dependencies, e.g. language models
    • G10L15/19Grammatical context, e.g. disambiguation of the recognition hypotheses based on word sequence rules
    • G10L15/197Probabilistic grammars, e.g. word n-grams
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/226Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
    • G10L2015/228Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of application context

Abstract

(57)【要約】 【課題】 ロボットの成長の状態にあわせて変化する音
声認識処理を実現して、ロボットのエンタテイメント性
の向上を図る 【解決手段】 成長スコア設定部46は、ロボットの成
長状態に基づいて、辞書記憶部44における単語辞書に
登録された各単語に、成長スコアを設定する。そして、
マッチング部42は、単語辞書に登録された単語を対象
とする音声認識を、その単語に設定された成長スコアを
考慮して行う。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、音声認識装置およ
び音声認識方法、並びに記録媒体に関し、音声認識機能
を有するロボットに用いて好適な音声認識装置および音
声認識方法、並びに記録媒体に関する。
【0002】
【従来の技術】例えば、音響モデル、辞書、文法などに
基づいて、音響スコアおよび言語スコアを求め、入力音
声の音声認識結果としての単語系列が決定される音声認
識技術が知られている。また、ある命令信号に対応し
て、ロボットの動作を制御する制御方法が、FA(Factor
y Automation)などのロボットに用いられている。さら
に、これらの音声認識技術およびロボット制御技術を組
み合わせ、音声認識結果に基づいて、ロボットの動作を
制御するシステムも実現されている。そのようなシステ
ムとしては、例えば、荷物の仕分けにおいて、音声認識
を利用して荷物の振り分け先を変更するシステムがあ
る。なお、ロボットの他、コンピュータのコントロール
(コマンド入力等)などを、音声認識を利用して行うこ
とも、近年広く行われるようになってきている。
【0003】また、上述のようないわゆる産業用ロボッ
トの他、疑似ペットとしての、エンタテイメント用のロ
ボット(ぬいぐるみ状のものを含む)においても、使用
者の発話を音声認識し、その音声認識結果に基づいて、
各種の行動を起こすものが製品化されつつある。
【0004】
【発明が解決しようとする課題】ところで、特に、エン
タテイメント用のロボットについては、実際のペットが
成長していくのと同様の感覚を、使用者に享受させるこ
とが望まれる。即ち、例えば、最初は、使用者の発話を
理解(音声認識)できないが、成長するにつれて、使用
者の発話を徐々に理解することができるようにすれば、
ロボットの娯楽性を格段的に向上させることができる。
【0005】本発明は、このような状況に鑑みてなされ
たものであり、ロボットの成長等の状態にあわせて変化
する音声認識処理を行うことができるようにするもので
ある。
【0006】
【課題を解決するための手段】本発明の音声認識装置
は、音声を認識する音声認識手段と、ロボットの状態に
基づいて、音声認識手段を制御する制御手段とを備える
ことを特徴とする。
【0007】制御手段には、ロボットの成長、感情、ま
たは本能の状態に基づいて、音声認識手段を制御させる
ことができる。
【0008】また、制御手段には、ロボットの状態に基
づいて、音声認識手段の音声認識精度を変更させること
ができる。
【0009】音声認識手段には、音声認識の対象とする
語彙が登録された辞書を記憶する辞書記憶手段を設け、
制御手段には、辞書に登録された語彙に対して、ロボッ
トの状態に対応する重みを付して音声認識を行うよう
に、音声認識手段を制御させることができる。
【0010】また、音声認識手段には、音声認識の対象
とする語彙が分けて登録された複数の辞書を記憶する辞
書記憶手段を設け、制御手段には、複数の辞書に対し
て、ロボットの状態に対応する重みを付して音声認識を
行うように、音声認識手段を制御させることができる。
【0011】さらに、音声認識手段には、音声認識の対
象とする語彙が、他の語彙と対応付けられて登録された
辞書を記憶する辞書記憶手段を設け、制御手段には、ロ
ボットの状態に基づいて、辞書において、音声認識結果
としての語彙に対応付けられている他の語彙を、最終的
な音声認識結果として出力するように、音声認識手段を
制御させることができる。
【0012】辞書には、音声認識の対象とする語彙を、
その語彙と音響的に類似しているまたは意味的に関連す
る他の語彙と対応付けて登録しておくことができる。
【0013】音声認識手段には、音声認識の対象とする
語彙が登録される辞書を記憶する辞書記憶手段を設け、
制御手段には、ロボットの状態に基づいて、辞書に登録
可能な語彙の数を制御させることができる。
【0014】ロボットは、音声認識手段が出力する音声
認識結果に基づいて、所定の行動を起こすものとするこ
とができる。
【0015】本発明の音声認識方法は、音声を認識する
音声認識ステップと、ロボットの状態に基づいて、音声
認識ステップを制御する制御ステップとを備えることを
特徴とする。
【0016】本発明の記録媒体は、音声を認識する音声
認識ステップと、ロボットの状態に基づいて、音声認識
ステップを制御する制御ステップとを備えるプログラム
が記録されていることを特徴とする。
【0017】本発明の音声認識装置および音声認識方
法、並びに記録媒体においては、ロボットの状態に基づ
いて、音声認識処理が制御される。
【0018】
【発明の実施の形態】図1は、本発明を適用したロボッ
トの一実施の形態の外観構成例を示しており、図2は、
その電気的構成例を示している。
【0019】本実施の形態では、ロボットは、犬形状の
ものとされており、胴体部ユニット2には、その前端に
頭部ユニット3が配設され、また、その前後左右の各隅
部には、それぞれ、大腿部ユニット4A,4B,4C,
4Dおよび脛部ユニット5A,5B,5C,5Dからな
る脚部ユニット6A,6B,6C,6Dが取り付けられ
ている。さらに、胴体部ユニット2の後端には、尻尾ユ
ニット1が取り付けられている。
【0020】尻尾ユニット1と胴体部ユニット2、頭部
ユニット3と胴体部ユニット2、大腿部ユニット4A乃
至4Dそれぞれと胴体部ユニット2、および大腿部ユニ
ット4A乃至4Dそれぞれと脛部ユニット5A乃至5D
それぞれを連結する各関節機構には、アクチュエータと
してのモータ71,72,・・・,7Nが配設されてお
り、これにより、対応するモータ71乃至7Nを駆動する
ことによって、尻尾ユニット1および頭部ユニット3
を、x軸、y軸、z軸の3軸それぞれを中心とする方向
に自在に回転させ、腿部ユニット4A乃至4Dを、x
軸、y軸の2軸それぞれを中心とする方向に自在に回転
させ、かつ脛部ユニット5A乃至5Dを、x軸の1軸を
中心とする方向に回転させ得るようになっており、これ
により、ロボットは、各種の行動を行うことができるよ
うになっている。
【0021】頭部ユニット3には、カメラ(CCD(Cha
rge Coupled Device)カメラ)8、マイク(マイクロフ
ォン)9、および圧力センサ10がそれぞれ所定位置に
配設されており、また、胴体部ユニット2は、制御部1
1を内蔵している。カメラ8では、使用者を含む周囲の
状況の画像が撮像され、マイク9では、使用者の音声を
含む周囲の音声が集音される。また、圧力センサ10で
は、使用者等によって与えられる圧力が検出される。そ
して、カメラ8により撮像された周囲の状況の画像や、
マイク9により集音された周囲の音声、圧力センサ10
により検出された、使用者により頭部に与えられた圧力
は、それぞれ画像データ、音声データ、圧力検出データ
として、それぞれ制御部11に与えられる。
【0022】各関節機構に対応する各モータ71乃至7N
については、それぞれに対応させてロータリエンコーダ
121乃至12Nが設けられており、各ロータリエンコー
ダ121乃至12Nでは、対応するモータ71乃至7Nの回
転軸の回転角度が検出される。ロータリエンコーダ12
1乃至12Nで検出された回転角度は、それぞれ角度検出
データとして制御部11に与えられる。
【0023】制御部11は、カメラ8からの画像デー
タ、マイク9からの音声データ、圧力センサ10からの
圧力検出データ、およびロータリエンコーダ121乃至
12Nそれぞれからの角度検出データに基づいて、周囲
の状況や自分の姿勢等を判断するとともに、予めインス
トールされている制御プログラムに基づいて続く行動を
決定し、その決定結果に基づいて、必要なモータ71
至7Nを駆動させるようになっている。
【0024】これにより、ロボットは、尻尾ユニット1
や、頭部ユニット2、各脚部ユニット6A乃至6Dを動
かして所望状態にし、自律的に行動する。
【0025】次に、図3は、図2の制御部11の構成例
を示している。
【0026】制御部11は、CPU(Central Processi
ng Unit)20、プログラムメモリ21、RAM(Rando
m Access Memory)22、不揮発性メモリ23、インタ
フェース回路(I/F)24、およびモータドライバ2
5が、バス26を介して接続されて構成されている。
【0027】CPU(Central Processing Unit)20
は、プログラムメモリ21に記憶されている制御プログ
ラムを実行することにより、ロボットの行動を制御す
る。プログラムメモリ21は、例えば、EEPROM(E
lectrically Erasable Programmable Read Only Memor
y)等で構成され、CPU20が実行する制御プログラム
や必要なデータを記憶している。RAM22は、CPU
20の動作上必要なデータ等を一時記憶するようになっ
ている。不揮発性メモリ23は、後述するような感情/
本能モデルや、行動モデル、成長モデル、単語辞書、音
韻モデル、文法規則等の、電源がオフ状態とされた後も
保持する必要のあるデータを記憶するようになってい
る。インタフェース回路24は、カメラ8や、マイク
9、圧力センサ10、ロータリエンコーダ121乃至1
Nから供給されるデータを受信し、CPU20に供給
するようになっている。モータドライバ25は、CPU
20の制御にしたがい、モータ71乃至7Nを駆動(ドラ
イブ)するための駆動信号を、モータ71乃至7Nに供給
するようになっている。
【0028】制御部11は、CPU20において、プロ
グラムメモリ21に記憶された制御プログラムが実行さ
れることにより、機能的に、図4に示すような構成とな
って、ロボットの行動を制御する。
【0029】即ち、図4は、制御部11の機能的な構成
例を示している。
【0030】センサ入力処理部30は、外部から与えら
れる刺激や、外部の状態を、マイク9や、カメラ8、圧
力センサの出力に基づいて認識し、成長モデル部31、
感情/本能モデル部32、および行動決定部33に供給
するようになっている。なお、センサ入力処理部30
は、必要に応じて、成長モデル部31の出力を用いて処
理を行うようになっている。この点については後述す
る。
【0031】成長モデル部31は、ロボットの成長の状
態を表す成長モデルを管理しており、センサ入力処理部
30の出力や、時間経過に基づいて、ロボットの成長状
態を変化させ、その変化後の成長状態を、センサ入力処
理部30および行動決定部33に供給するようになって
いる。
【0032】感情/本能モデル部32は、ロボットの感
情と本能の状態をそれぞれ表現する感情モデルと本能モ
デルを管理しており、センサ入力処理部30の出力や、
行動決定部33の出力、時間経過に基づいて、感情モデ
ルや本能モデルを規定するパラメータを変更すること
で、ロボットの感情や本能の状態を変化させるようにな
っている。この変化後の感情や本能の状態は、行動決定
部33に供給されるようになっている。
【0033】行動決定部33は、行動モデル記憶部33
Aを内蔵しており、この記憶内容や、センサ入力処理部
30の出力、成長モデル部31で管理されている成長モ
デル、感情/本能モデル部32で管理されている感情モ
デルおよび本能モデル、時間経過に基づいて、その後に
ロボットが行う行動を決定して、その情報(以下、適
宜、行動情報という)を、姿勢遷移部34に供給するよ
うになっている。
【0034】姿勢遷移部34は、行動決定部33から供
給される行動情報に対応する行動をロボットに行わせる
ためのモータ71乃至7Nの回転角や回転速度等の制御デ
ータを演算し、モータ制御部35に出力する。
【0035】モータ制御部35は、姿勢遷移部34から
の制御データにしたがって、モータ71乃至7Nを回転駆
動するようになっている。
【0036】以上のように構成される制御部11では、
入力センサ処理部30において、カメラ8から供給され
る画像データや、マイク9から供給される音声データ、
圧力センサ10から出力される圧力検出データに基づい
て、特定の外部状態や、使用者からの特定の働きかけ、
使用者からの指示等が認識され、その認識結果が、成長
モデル部31、感情/本能モデル部32、および行動決
定部33に出力される。
【0037】即ち、センサ入力処理部30は、カメラ8
が出力する画像データに基づいて、画像認識を行い、例
えば、「ボールがある」とか、「壁がある」といったこ
とを認識して、その認識結果を、成長モデル部31、感
情/本能モデル部32、および行動決定部33に供給す
る。また、センサ入力処理部30は、マイク9が出力す
る音声データに基づいて、音声認識を行い、その音声認
識結果を、成長モデル部31、感情/本能モデル部3
2、および行動決定部33に供給する。さらに、センサ
入力処理部30は、圧力センサ10から与えられる圧力
検出データを処理し、例えば、所定の閾値以上で、かつ
短時間の圧力を検出したときには「たたかれた(しから
れた)」と認識し、また、所定の閾値未満で、かつ長時
間の圧力を検出したときには「なでられた(ほめられ
た)」と認識して、その認識結果を、成長モデル部3
1、感情/本能モデル部32、および行動決定部33に
供給する。
【0038】成長モデル部31は、ロボットの成長状態
を規定するための成長モデルを管理している。成長モデ
ルは、例えば、図5(A)に示すようなオートマトンで
構成される。このオートマトンでは、成長状態は、ノー
ド(状態)NODE0乃至NODEGで表現され、成長、
つまり成長状態の遷移は、ある成長状態に対応するノー
ドNODEgから、次の成長状態に対応するノードNO
DEg+1への遷移を表すアークARCg+1で表現される
(g=0,1,・・・,G−1)。
【0039】ここで、本実施の形態では、成長の状態
は、図5(A)(後述する図5(B)においても同様)
において、左のノードから右方向のノードに遷移してい
くようになっている。従って、図5(A)において、例
えば、最も左のノードNODE 0は、生まれたばかりの
「新生児」の状態を表し、左から2番目のノードNOD
1は、「幼児」の状態を表し、左から3番目のノード
NODE2は「児童」の状態を表す。以下、同様にし
て、右方向のノードほど、より成長した状態を表し、最
も右のノードNODEGは、「高齢」の状態を表す。
【0040】そして、あるノードNODEgから、右隣
のノードNODEg+1への遷移を表すアークARCg+1
は、その遷移が生じるための条件(入力)Ptg+1が設定
されており、ノードの遷移(成長)は、この条件に基づ
いて決定される。即ち、アークARCg+1においては、
その遷移が生じるために要求される、カメラ8や、マイ
ク9、圧力センサ10からの出力、時間経過等について
の条件Ptg+1が設定されており、その条件Ptg+1が満た
された場合に、ノードNODEgから右隣のノードNO
DEg+1への遷移が生じ、ロボットが成長する。
【0041】なお、図5(A)に示した成長モデルにお
いては、左のノードから右方向のノードに遷移していく
パスが1つで固定であるため、成長過程は、その1つの
パスにしたがった一定のものとなるが、成長モデルとし
ては、成長過程が複数パターン存在する、例えば、図5
(B)に示すようなものを用いるようにすることも可能
である。
【0042】即ち、図5(B)においては、成長モデル
は、木構造になっており、例えば、「新生児」に対応す
るノードNODE0からは、「幼児」に対応するノード
NODE1-0またはNODE1-1のうちのいずれかに遷移
し得る。「幼児」に対応する2つのノードNODE1-0
およびNODE1-1は、例えば、人間で言えば、異なる
人格の幼児を表しており、ノードNODE1-0またはN
ODE1-1のうちのいずれに遷移するかは、カメラ8
や、マイク9、圧力センサ10からの出力、時間経過等
に基づいて決定される。従って、この場合、受けた刺激
等によって、ロボットの成長過程を異なるものとするこ
とができる。
【0043】なお、成長モデルとしては、木構造の他、
グラフ構造等のオートマトンで表現可能な構造を採用す
ることができる。
【0044】成長モデル部31は、以上のような成長モ
デルに基づいて、ロボットの成長状態を管理し、現在の
成長状態を、センサ入力処理部30および行動決定部3
3に出力する。
【0045】一方、感情/本能モデル部32は、ロボッ
トの、例えば、「うれしさ」や、「悲しさ」、「怒り」
等の、いわゆる喜怒哀楽の感情の状態を表現する感情モ
デルと、例えば、「食欲」や、「睡眠欲」、「運動欲」
等の本能の状態を表現する本能モデルとを管理してい
る。
【0046】即ち、感情モデルと本能モデルは、それぞ
れ、ロボットの感情と本能の状態を、例えば、0乃至1
00の範囲の整数値で表すもので、感情/本能モデル部
32は、感情モデルや本能モデルの値を、センサ入力処
理部30の出力や、行動決定部33の出力、時間経過に
基づいて変化させる。従って、ここでは、ロボットの感
情および本能の状態は、センサ入力処理部30が出力す
る外部の認識結果の他、行動決定部33の出力や、時間
経過にも基づいて変化する。そして、感情/本能モデル
部32は、変更後の感情モデルおよび本能モデルの値
(ロボットの感情および本能の状態)を、行動決定部3
3に供給する。
【0047】なお、感情モデルや本能モデルは、その
他、例えば、オートマトン等で構成することも可能であ
る。
【0048】ここで、ロボットの感情および本能の状態
は、行動決定部33の出力に基づいて、例えば、次のよ
うに変化する。
【0049】即ち、行動決定部33から感情/本能モデ
ル部32に対しては、ロボットがとっている現在の行動
または過去にとった行動の内容(例えば、「そっぽを向
いた」など)を示す行動情報が供給されるようになって
いる。
【0050】いま、ロボットにおいて、「怒り」の感情
が高いときに、使用者から何らかの刺激を受け、ロボッ
トが、「そっぽを向く」行動をとったとする。この場
合、行動決定部33から感情/本能モデル部32に対し
て、行動情報「そっぽを向いた」が供給される。
【0051】一般に、怒っているときに、そっぽを向く
ような不満を表現する行動をとると、その行動によっ
て、怒りが幾分か静まることがある。そこで、感情/本
能モデル部32は、行動決定部33から、行動情報「そ
っぽを向いた」が供給された場合、「怒り」を表す感情
モデルの値を、小さい値に変更する(「怒り」の度合い
が小さくなるように変更する)。
【0052】行動決定部33は、センサ入力処理部30
が出力する外部の認識結果や、成長モデル部31におけ
る成長モデル、感情/本能モデル部32における感情モ
デルおよび本能モデル、行動モデル記憶部33Aの記憶
内容、時間経過等に基づいて、次にとる行動を決定し、
その行動を表す行動情報を、感情/本能モデル部32お
よび姿勢遷移部34に供給する。
【0053】ここで、行動モデル記憶部33Aは、ロボ
ットの行動を規定する、例えば、図6に示すような行動
モデルを記憶している。
【0054】即ち、本実施の形態では、行動モデルは、
例えば、確率オートマトンで構成される。この確率オー
トマトンでは、行動は、ノード(状態)NODE0乃至
NODEMで表現され、行動の遷移は、ある行動に対応
するノードNODEm0から、他の行動(同一の行動であ
る場合もある)に対応するノードNODEm1への遷移を
表すアークARCm1で表現される(m0,m1=0,
1,・・・,M)。
【0055】なお、図6においては、図が煩雑になるの
を避けるため、M+1個のノードからなる確率オートマ
トンに関して、ノードNODE0から、他のノード(自
身を含む)NODE0乃至NODEMへのアークARC0
乃至ARCMのみを示してある。
【0056】あるノードNODEm0から、他のノードN
ODEm1への遷移を表すアークARCm1には、その遷移
が生じる遷移確率Ptm1が設定されており、また、各ノ
ードNODEm(m=0,1,・・・,M)には、そのノー
ドNODEmに対応する行動が生起する生起確率Pnm
設定されている。そして、行動モデルでは、ある行動の
次に、どのような行動をとるかは、アークに設定されて
いる遷移確率と、ノードに設定されている生起確率とか
ら決定される。
【0057】行動決定部33は、行動モデルの、現在の
行動(以下、適宜、現在行動という)に対応するノード
から、どのノードに遷移するかを、現在行動に対応する
ノードから延びるアークに設定されている遷移確率、お
よびそのアークによって示される遷移先のノードに設定
されている生起確率の他、成長モデル部31における成
長モデルや、感情/本能モデル部32における感情モデ
ルおよび本能モデル、時間経過、センサ入力処理部30
が出力する外部の認識結果に基づいて決定し、遷移後の
ノードに対応する行動(以下、適宜、遷移行動という)
を表す行動情報を、感情/本能モデル部32および姿勢
遷移部34に供給する。
【0058】従って、行動決定部33では、例えば、セ
ンサ入力処理部30が出力する外部の認識結果が同一の
ものであっても、成長モデルが表す成長の状態によって
は、異なる行動を起こすことが決定される。
【0059】ここで、行動決定部33は、成長モデルに
基づいて、行動モデルの各ノードに設定された生起確率
を変更するようになっている。
【0060】具体的には、例えば、いま、行動モデルに
おける各アークに設定された遷移確率を無視して、各ノ
ードに設定された生起確率だけを考えると、各ノードに
設定された生起確率の総和は、1となる。例えば、い
ま、行動モデルにおいて、行動として、「寝る」、「立
ち上がる」、「歩く」、および「走る」の4つが存在す
るとして、ある行動の生起確率を、P(行動)で表す
と、P(「寝る」)+P(「立ち上がる」)+P(「歩
く」)+P(「走る」)は、1となる。
【0061】ロボットの成長によっては、各ノードに設
定された生起確率の総和が1であることは変わらない
が、行動決定部33では、各ノードに対応する行動の生
起確率が、ロボットの成長にしたがって変更される。
【0062】即ち、例えば、成長モデルにおいて、成長
状態が「新生児」を表している場合においては、行動決
定部33は、行動「寝る」の生起確率を1にし、他の行
動「立ち上がる」、「歩く」、および「走る」の生起確
率を0にする。この場合、ロボットは、「寝る」以外の
行動はしない。
【0063】その後、時間経過等に基づいて、成長モデ
ルにおいて、成長状態が「幼児」になると、行動決定部
33は、行動「寝る」の生起確率を幾分小さくするとと
もに、行動「立ち上がる」の生起確率を、その分高くす
る。さらに、行動決定部33は、ロボットが成長するに
つれて、行動「歩く」、「走る」の順に、それぞれの生
起確率を徐々に高くしていく。これにより、ロボット
は、最初は、「寝る」ことしかしないが、成長するにつ
れて、「立ち上がる」ようになり、さらに、「歩く」、
「走る」といった行動をとるようになる。即ち、起こし
得る行動パターンが増加していく。
【0064】行動決定部33では、以上のようにして、
センサ入力処理部30が出力する外部の認識結果が同一
のものであっても、成長状態によって異なる行動を起こ
すことが決定される他、感情モデルや本能モデルの値に
よっても、異なる行動を起こすことが決定される。
【0065】具体的には、例えば、センサ入力処理部3
0の出力が、「目の前に手のひらが差し出された」旨を
示すものである場合において、「怒り」の感情モデルが
「怒っていない」ことを表しており、かつ「食欲」の本
能モデルが「お腹がすいていない」ことを表していると
きには、行動決定部33は、目の前に手のひらが差し出
されたことに応じて、遷移行動として「お手」を行わせ
ることを決定する。
【0066】また、例えば、上述の場合と同様に、セン
サ入力処理部30の出力が、「目の前に手のひらが差し
出された」旨を示すものであり、かつ「怒り」の感情モ
デルが「怒っていない」ことを表しているが、「食欲」
の本能モデルが「お腹がすいている」ことを表している
場合には、行動決定部33は、遷移行動として、「手の
ひらをぺろぺろなめる」ような行動を行わせることを決
定する。
【0067】さらに、センサ入力処理部30の出力が、
「目の前に手のひらが差し出された」旨を示すものであ
るが、「怒り」の感情モデルが「怒っている」ことを表
している場合には、「食欲」の本能モデルの値にかかわ
らず、行動決定部33は、遷移行動として、「ぷいと横
を向く」ような行動を行わせることを決定する。
【0068】なお、行動決定部33は、所定のトリガ(t
rigger)があった場合に、行動モデルのノードを遷移
し、遷移行動を決定する。即ち、行動決定部33は、例
えば、ロボットが現在行動を開始してから所定の時間が
経過した場合や、音声認識結果等の特定の認識結果がセ
ンサ入力処理部30から出力された場合、成長モデル部
31における成長モデルが、ある成長状態を表している
場合、感情/本能モデル部32における感情モデルや本
能モデルの値が所定の閾値に達した場合等に、遷移行動
を決定する。
【0069】また、行動決定部33は、ロータリエンコ
ーダ121乃至12Nの出力に基づいて、現在のロボット
の姿勢を認識し、その姿勢から、自然な形で遷移行動を
起こすことができるような行動情報を、姿勢遷移部34
に出力するようになっている。
【0070】姿勢遷移部34は、行動決定部33から供
給される行動情報に基づいて、現在の姿勢から次の姿勢
に遷移するための姿勢遷移情報を生成し、モータ制御部
35に出力する。即ち、姿勢遷移部34は、現在の姿勢
を、行動決定部33を介して、ロータリエンコーダ12
1乃至12Nの出力に基づいて認識し、行動決定部33か
らの行動情報に対応する行動(遷移行動)を、ロボット
にとらせるためのモータ71乃至7Nの回転角や回転速度
等を計算し、姿勢遷移情報として、モータ制御部35に
出力する。
【0071】モータ制御部35は、姿勢遷移部34から
の姿勢遷移情報にしたがって、モータ71乃至7Nを駆動
するための駆動信号を生成し、モータ71乃至7Nに供給
する。これにより、モータ71乃至7Nは回転駆動し、ロ
ボットは、遷移行動を行う。
【0072】次に、図7は、図4のセンサ入力処理部3
0のうち、マイク9からの音声データを用いて音声認識
を行う部分(以下、適宜、音声認識装置という)の機能
的構成例を示している。
【0073】この音声認識装置においては、マイク9に
入力された音声が、例えば、連続分布HMM(Hidden Ma
rkov Model)法にしたがって認識され、その音声認識結
果が出力されるようになっている。
【0074】即ち、特徴パラメータ抽出部41には、マ
イク9からの音声データが供給されるようになってお
り、特徴パラメータ抽出部41は、そこに入力される音
声データについて、適当なフレームごとに、例えば、M
FCC(Mel Frequency Cepstrum Coefficient)分析を行
い、その分析結果を、特徴パラメータ(特徴ベクトル)
として、マッチング部42に出力する。なお、特徴パラ
メータ抽出部41では、その他、例えば、線形予測係
数、ケプストラム係数、線スペクトル対、所定の周波数
帯域ごとのパワー(フィルタバンクの出力)等を、特徴
パラメータとして抽出することが可能である。
【0075】マッチング部42は、特徴パラメータ抽出
部41からの特徴パラメータを用いて、音響モデル記憶
部43、辞書記憶部44、および文法記憶部45を必要
に応じて参照しながら、マイク9に入力された音声(入
力音声)を、連続分布HMM法に基づいて音声認識す
る。
【0076】即ち、音響モデル記憶部43は、音声認識
する音声の言語における個々の音素や音節などの音響的
な特徴を表す音響モデルを記憶している。ここでは、連
続分布HMM法に基づいて音声認識を行うので、音響モ
デルとしては、HMM(Hidden Markov Model)が用いら
れる。辞書記憶部44は、認識対象の各単語について、
その発音に関する情報(音韻情報)が記述された単語辞
書を記憶している。文法記憶部45は、辞書記憶部35
の単語辞書に登録されている各単語が、どのように連鎖
する(つながる)かを記述した文法規則を記憶してい
る。ここで、文法規則としては、例えば、文脈自由文法
(CFG)や、統計的な単語連鎖確率(N−gram)
などに基づく規則を用いることができる。
【0077】マッチング部42は、辞書記憶部44の単
語辞書を参照することにより、音響モデル記憶部43に
記憶されている音響モデルを接続することで、単語の音
響モデル(単語モデル)を構成する。さらに、マッチン
グ部42は、幾つかの単語モデルを、文法記憶部45に
記憶された文法規則を参照することにより接続し、その
ようにして接続された単語モデルを用いて、特徴パラメ
ータに基づき、連続分布HMM法によって、マイク9に
入力された音声を認識する。即ち、マッチング部42
は、特徴パラメータ抽出部41が出力する時系列の特徴
パラメータが観測されるスコア(尤度)が最も高い単語
モデルの系列を検出し、その単語モデルの系列に対応す
る単語列を、音声の認識結果として出力する。
【0078】具体的には、マッチング部42は、接続さ
れた単語モデルに対応する単語列について、時系列に入
力される特徴パラメータの出現確率を累積し、その累積
値をスコアとして、そのスコアを最も高くする単語列
を、音声認識結果として出力する。マッチング部42に
よる音声認識結果は、センサ入力処理部30の出力とし
て、上述したように、成長モデル部31、感情/本能モ
デル部32、および行動決定部33に出力される。
【0079】ここで、辞書記憶部44における単語辞書
に登録されているすべての単語によってとり得る単語列
を対象として、スコアを計算すると、その計算量が莫大
になることから、どのような単語列を対象として、スコ
アの計算を行うかは、文法記憶部45に記憶された文法
規則により制限される。また、マッチング部42では、
出現頻度の高い単語列についてのスコアを高くするよう
な重みが付される場合もある。
【0080】マッチング部42におけるスコア計算は、
例えば、音響モデル記憶部43に記憶された音響モデル
によって与えられる音響的なスコア(以下、適宜、音響
スコアという)と、文法記憶部45に記憶された文法規
則によって与えられる言語的なスコア(以下、適宜、言
語スコアという)とを総合評価することで行われる。
【0081】即ち、あるN個の単語からなる単語列にお
けるk番目の単語をWkとして、その単語Wkの音響スコ
アをA(Wk)と、言語スコアをL(Wk)と、それぞれ
表すとき、その単語列のスコアSは、例えば、次式にし
たがって計算される。
【0082】 S=Σ(A(Wk)+Ck×L(Wk)) ・・・(1) 但し、Σは、kを1からNに変えてのサメーションをと
ることを表す。また、C kは、単語Wkの言語スコアL
(Wk)にかける重みを表す。
【0083】なお、音声認識装置が有する辞書記憶部4
4に記憶された単語辞書は、ロボットが扱うことのでき
る語彙を規定するから、その点で、非常に重要である。
即ち、単語辞書に登録しておく単語数が多いほど、ロボ
ットは、各種の発話に対して対処することができる。
【0084】但し、図7の音声認識装置は、図3のCP
U20がプログラムを実行することにより機能的に実現
されるものであり、この場合、CPU20の処理能力
や、CPU20が利用可能なRAM22の空き領域の大
きさ等によって、単語辞書における語彙数は制限を受け
る。
【0085】また、音声波形は、例えば、同一の語彙が
同一人により発話されたとしても、完全に一致すること
は、ほとんどなく、このため、マッチング部42におけ
るマッチング処理(スコア計算)は、曖昧性を有する入
力に対する処理となることから、発話されていない単語
列が音声認識結果とされる誤認識が生じる場合がある
が、このような誤認識は、一般に、単語辞書に登録され
た語彙数が多くなると、類似する単語も多くなることに
起因して増加する。
【0086】従って、単語辞書に登録する語彙は、CP
U20の処理能力やRAM22の容量の他、要求される
認識精度によっても制限を受ける。
【0087】成長スコア設定部46は、成長モデル部3
1における成長モデルに基づいて、音声認識装置による
音声認識処理を制御する。即ち、図7の実施の形態で
は、成長スコア設定部46は、成長モデルに基づいて、
辞書記憶部44における単語辞書を操作し、これによ
り、音声認識処理の制御を行うようになっている。
【0088】具体的には、例えば、成長スコア設定部4
6は、成長モデルに基づき、単語辞書に登録された各単
語について、ロボットの成長状態において理解すること
ができる度合いを表す成長スコアを計算する。例えば、
いま、ある単語Wを、ロボットの成長状態において理解
することができる確率をP(W)と表すと、成長スコア
設定部46は、単語Wに対する成長スコアG(W)を、
例えば、次式にしたがって計算する。
【0089】 G(W)=−log(P(W)) ・・・(2)
【0090】さらに、成長スコア設定部46は、成長ス
コアを、辞書記憶部44における単語辞書の、対応する
単語に対応付ける。従って、単語辞書は、一般には、単
語の表記等の単語を識別するための情報と、その単語の
音韻情報とが登録されたものとなっているが、辞書記憶
部44における単語辞書は、例えば、図8に示すよう
に、単語の表記と音韻情報の他、その単語に対する成長
スコアも登録されたものとなっている。ここで、図8に
おいては、単語「走れ」、「起きろ」、「歩け」、「お
手」、「お座り」、・・・に対して、10,20,3
0,40,50,・・・の成長スコアがそれぞれ登録さ
れている。
【0091】辞書記憶部44における単語辞書に、図8
に示したように、成長スコアが登録されている場合、マ
ッチング部42では、単語列に対するスコアが、音韻ス
コアおよび言語スコアだけでなく、成長スコアも考慮し
て求められる。即ち、マッチング部42では、式(1)
に替えて、例えば、式(3)にしたがって、スコアSが
計算される。
【0092】 S=Σ(A(Wk)+Ck×L(Wk)+Dk×G(Wk)) ・・・(3) 但し、Gk(Wk)は、k番目の単語Wkに対する成長ス
コアを表し、Dkは、その成長スコアG(Wk)にかける
重みを表す。
【0093】以上のように、マッチング部42における
スコアSの計算にあたって、成長スコアを導入すること
により、ロボットの成長状態に応じて、音声認識装置に
よる音声の認識精度が変化される。
【0094】即ち、例えば、成長状態が「幼児」である
場合には、図8の単語辞書において、単語「走れ」の成
長スコアが、他の単語の成長スコアに比較して小さくさ
れ、これにより、発話「走れ」の音声認識精度が低くさ
れる。その結果、例えば、「走れ」と発話がされた場合
には、その発話を正確に音声認識して、ロボットに「走
る」という行動をとらせるのが一般的であるが、ここで
は、いわば故意に、発話「走れ」を誤認識させて、ロボ
ットが「走る」という行動をとらせないようにする(あ
るいは、「走る」以外の行動をとらせるようにする)。
【0095】そして、ロボットが成長するにしたがっ
て、単語「走れ」の成長スコアが徐々に大きくされ、そ
の結果、発話「走れ」が正確に音声認識されるようにな
り、ロボットは、その発話にしたがって、「走る」とい
う行動をとるようになる。
【0096】ここで、例えば、人間を例にすれば、成長
(あるいは、学習)するにつれて、理解することのでき
る語彙が増加することから、上述のようにして、成長ス
コアに基づいて、音声認識精度を、成長モデルにしたが
って変化させることは、実際の人間の成長に合致するこ
とになる。
【0097】次に、図9のフローチャートを参照して、
図7の音声認識装置の動作について、さらに説明する。
【0098】マイク9に音声が入力され、その音声に対
応するディジタルの音声データが、センサ入力処理部3
0に供給されると、その音声データは、特徴パラメータ
抽出部41に供給される。
【0099】特徴パラメータ抽出部41では、ステップ
S1において、音声データが音響分析されることによ
り、その特徴パラメータが時系列に抽出され、マッチン
グ部42に供給される。マッチング部42は、ステップ
S2において、特徴パラメータ抽出部41からの特徴パ
ラメータを用いて、式(3)にしたがい、成長スコアを
考慮したスコアの計算(マッチング)を行い、そのスコ
アに基づいて、マイク9に入力された音声の音声認識結
果を決定する。そして、ステップS3に進み、マッチン
グ部42は、その音声認識結果を、成長モデル部31、
感情/本能モデル部32、および行動決定部33に出力
し、処理を終了する。
【0100】なお、上述の場合には、単語辞書に登録さ
れた単語の成長スコアを、成長モデルから得られるロボ
ットの成長状態に応じて変化(適応)させることで、音
声認識装置の音声認識精度を変えるようにしたが、音声
認識精度は、その他、例えば、ロボットの成長状態に応
じて、音響モデル記憶部43における音響モデルや、文
法記憶部45に記憶された文法規則を規定するパラメー
タを変更すること等によって変えるようにすることも可
能である。
【0101】また、音声認識装置では、単語辞書に登録
されている単語を対象として音声認識が行われるため、
単語辞書に登録する単語を変更することで、音声認識装
置が音声認識の対象とする単語を変えるようにすること
が可能である。即ち、例えば、成長モデルから得られる
ロボットの成長状態に応じて、順次、単語辞書に単語を
登録したり、あるいは、単語辞書に登録された単語を削
除し、音声認識の対象とする単語を変えるようにするこ
とが可能である。
【0102】さらに、上述の場合には、ロボットの成長
状態に応じて、音声認識装置の音声認識精度を変化させ
るようにしたが、音声認識精度は、ロボットの感情や本
能の状態に応じて変化させることも可能である。音声認
識精度を、ロボットの感情や本能の状態に応じて変化さ
せる場合には、図4に点線で示すように、感情/本能モ
デル部32からセンサ入力処理部30に対して、感情モ
デルおよび本能モデルを供給するようにするとともに、
図7に点線で示すように、これを、成長スコア設定部4
6で受信し、感情モデルや本能モデルから、成長スコア
と同様の感情スコアや本能スコアを求めて、単語辞書に
登録すれば良い。この場合、マッチング部42におい
て、感情スコアや本能スコアを考慮して、最終的なスコ
アを求めるようにすることで、音声認識精度を、ロボッ
トの感情や本能の状態に応じて変化させることができ
る。
【0103】即ち、感情スコアや本能スコアを考慮する
場合には、ロボットの機嫌が良い状態のときには、例え
ば、単語「お手」や「お座り」の音声認識精度を向上さ
せ、これにより、発話「お手」や「お座り」を正しく音
声認識させ、対応する行動を起こさせることができる。
また、ロボットの機嫌が悪い状態のときには、例えば、
単語「お手」や「お座り」の音声認識精度を低下させ、
これにより、発話「お手」や「お座り」を誤認識させ
て、発話と関係ない行動を起こさせて、ロボットの不機
嫌さを表現することができる。
【0104】なお、図7の音声認識装置には、人間の音
声以外にも、例えば、拍手の音や、ロボットの各部を叩
く音、楽器の音、ロボットの周辺で発生する環境音、音
楽(曲)等の各種の音を音声として音声認識させること
が可能である。即ち、例えば、連続分布HMM法によっ
て音声認識が行われる場合には、音声認識対象とする音
声(音)をHMMにモデル化しておけば良い。そして、
人間の音声以外の音声(音)を対象として音声認識を行
う場合にも、その音声認識精度を、ロボットの成長状態
や、感情の状態、本能の状態に応じて変化させることが
可能である。
【0105】次に、音声認識を行う場合には、音声認識
の対象とする単語すべてを、1つの単語辞書に登録して
おく他、音声認識の対象とする単語を、複数のグループ
に分け(但し、異なるグループに、同一の単語が属して
いてもかまわない)、各グループに属する単語ごとに、
単語辞書を構成しておくことがある。このように、音声
認識対象とする単語を複数のグループに分けて、複数の
単語辞書を用意する場合には、ある発話に対する音声認
識処理は、一般に、その複数の単語辞書の全部ではな
く、そのうちの1つ、あるいは2以上の単語辞書を用い
て行われる。
【0106】即ち、ある発話に対して、音声認識の対象
とする語彙数は、上述のように、CPU20の処理能力
やRAM22の容量の他、要求される認識精度によって
も制限を受ける。
【0107】そこで、複数の単語辞書を用意しておき、
ある発話の音声認識が、要求される認識精度等に基づい
て、用いる単語辞書を選択して行われる場合がある。
【0108】また、音声認識の対象とする単語を、例え
ば、旅行、野球、ニュースなどといったドメイン(テー
マ)ごとにグループ化して、複数の単語辞書を構成し、
音声認識が行われる場面に応じて、用いる単語辞書を選
択するようにして、特定のテーマに含まれる固有名詞
(例えば、地域名や、野球選手の名前、会社名など)な
どの音声認識性能を向上させる場合もある。
【0109】このように、複数の単語辞書を構成して、
用いる単語辞書を選択し、音声認識を行うことは、図7
の音声認識装置にも適用することができる。
【0110】即ち、例えば、いま、音声認識の対象とす
る単語を、Q個のグループに分け、これにより、各グル
ープに対応するQ個の単語辞書D1,D2,・・・,DQ
を構成して、辞書記憶部44に記憶させておく。
【0111】さらに、成長スコア設定部46には、上述
のQ個の単語辞書D1乃至DQそれぞれについて、ロボッ
トの成長状態に応じて割り当てる成長スコアを対応付け
た、例えば、図10に示すような辞書成長スコアテーブ
ルを作成して記憶させておく。
【0112】ここで、図10においては、例えば、図5
(A)に示した成長モデルの各ノードで表されるロボッ
トの成長状態に対して、各単語辞書D1乃至DQそれぞれ
に対する成長スコアが設定されている。
【0113】図10の辞書成長スコアテーブルによれ
ば、現在のロボットの成長状態(を表すノード)から、
単語辞書D1乃至DQそれぞれに対する成長スコアが決定
される。
【0114】成長スコア設定部46は、単語辞書D1
至DQそれぞれの単語に対して、辞書成長スコアテーブ
ルに基づいて決定される成長スコアを、上述した場合と
同様に登録し、マッチング部42では、その成長スコア
を考慮して、マッチング処理が行われる。
【0115】但し、ある1つの単語が、2以上の単語辞
書に登録されている場合には、その単語には、その2以
上の単語辞書に対する成長スコアのうち、例えば、最も
大きい値が登録される。また、いまの場合、例えば、成
長スコアが0の単語は、音声認識の対象とされない。即
ち、ここでは、0より大きい値の成長スコアが設定され
ている単語辞書に登録されている単語だけを対象とし
て、音声認識が行われる。
【0116】以上のように、単語辞書に対して、成長ス
コアを設定することによっても、ロボットの成長状態に
応じて、音声認識精度を変化させることができる。
【0117】即ち、例えば、いま、図10の辞書成長ス
コアテーブルにおいて、成長状態が「新生児」である場
合の、単語辞書D1に対する成長スコアを70とすると
ともに、単語辞書D2に対する成長スコアを30とし、
他の単語辞書D3乃至DQに対する成長スコアを0として
おく。さらに、成長状態が「幼児」である場合の、単語
辞書D1乃至D3に対する成長スコアを、それぞれ40,
10,50とするとともに、他の単語辞書D4乃至DQ
対する成長スコアを0としておく。
【0118】この場合、成長状態が「新生児」のときに
は、単語辞書D1に登録された単語と、単語辞書D2に登
録された単語のみを対象に音声認識が行われる。従っ
て、単語辞書D1とD2に登録されている単語が、例え
ば、「はいはい」、「パパ」、および「ママ」の3単語
だけであれば、この3単語に対応する発話のみが、正確
に音声認識される。
【0119】なお、いまの場合、単語辞書D1に対する
成長スコアを70とするとともに、単語辞書D2に対す
る成長スコアを30としており、従って、単語辞書D1
の成長スコアの方が、単語辞書D2の成長スコアよりも
大きいため、単語辞書D2に登録されている単語より
は、単語辞書D1に登録されている単語の方が、より正
確に音声認識される。
【0120】その後、ロボットが成長し、成長状態が
「幼児」になると、単語辞書D1およびD2の他、単語辞
書D3に登録された単語も対象として音声認識が行われ
る。従って、単語辞書D3に登録されている単語が、例
えば、「お手」および「お座り」の2単語であれば、上
述の「はいはい」、「パパ」、および「ママ」の3単語
に加えて、「お手」や「お座り」に対応する発話も、正
確に音声認識することができるようになる。
【0121】なお、いまの場合、成長状態が「新生児」
から「幼児」になると、単語辞書D 1に対する成長スコ
アは70から40に、単語辞書D2に対する成長スコア
は30から10に、それぞれ低下する。従って、単語辞
書D1およびD2に登録された単語の認識精度は、成長状
態が「新生児」から「幼児」になると低下する。さら
に、成長状態が「幼児」の場合には、単語辞書D3に対
する成長スコアは50であり、単語辞書D1およびD2
対する成長スコアのいずれよりも大きい。その結果、成
長状態が「幼児」になると、上述のように、「はいは
い」、「パパ」、および「ママ」の3単語に加えて、
「お手」や「お座り」に対応する発話も音声認識するこ
とが可能となるが、「はいはい」、「パパ」、および
「ママ」に対応する発話の音声認識精度は、「お手」お
よび「お座り」に対する発話の音声認識精度よりも劣化
する。即ち、成長するにつれて、ロボットは、「はいは
い」、「パパ」、および「ママ」といった幼児期に使用
される単語を理解することができなくなっていく。
【0122】以上のように、複数の単語辞書を構成し
て、用いる単語辞書を選択し、音声認識を行うことは、
ハードウェア上等の制約がある場合には、その制約の範
囲内で音声認識を行うことが可能となるから便宜であ
る。
【0123】なお、上述のように複数の単語辞書を用意
して音声認識を行う場合には、各単語辞書に対して成長
スコアを割り当てる他、上述の感情スコアや本能スコア
を割り当てるようにすることも可能である。
【0124】また、成長モデルとして、図5(A)では
なく、図5(B)に示したような木構造状のものを用い
る場合には、図10の辞書成長スコアテーブルには、図
5(B)の各ノードに対応する成長状態に、単語辞書の
成長スコアを割り当てることが可能である。この場合、
図5(B)において、例えば、「幼児」の成長状態は、
ノードNODE1-0とNODE1-1の2状態があるが、同
じ「幼児」の成長状態であっても、ノードNODE1-0
に対応する成長状態となった場合と、ノードNODE
1-1に対応する成長状態となった場合とで、音声認識可
能な単語や、音声認識精度を、異なるものとすることが
できる。
【0125】即ち、例えば、ノードNODE0に対応す
る成長状態「新生児」から、ノードNODE1-0に対応
する成長状態「幼児」に成長した場合には、成長状態が
「新生児」のときに音声認識可能であった発話「はいは
い」、「パパ」、および「ママ」に加えて、「お手」や
「お座り」に対応する発話も音声認識可能なようにする
ことができる。これに対して、ノードNODE0に対応
する成長状態「新生児」から、ノードNODE1-1に対
応する成長状態「幼児」に成長した場合には、成長状態
が「新生児」のときに音声認識可能であった発話「はい
はい」、「パパ」、および「ママ」は音声認識不可にし
て、「お手」や「お座り」に対応する発話だけ音声認識
可能なようにすることができる。
【0126】次に、図7の音声認識装置において、辞書
記憶部44における単語辞書に登録されていない単語
(未知語)に対応する発話については、正確な音声認識
結果を得ることができない。
【0127】そこで、未知語の正確な音声認識を可能と
するために、単語辞書には、新たに、単語を登録するよ
うにすることができる。単語辞書への単語の登録は、例
えば、ロボットに、入力用のインタフェースを設けてキ
ーボード等を接続し、そのキーボードを操作することに
より、新たな単語の表記と読み(音韻)を与えること等
によって行うことが可能である。
【0128】単語辞書に登録して音声認識の対象とする
単語の数は、上述したように、CPU20やRAM2
2、あるいは認識精度上の問題から制約されることがあ
るが、ここでは、そのような問題による制約を受けない
範囲で、単語辞書に新たに登録する単語の数を制限する
ようにすることができる。
【0129】即ち、単語辞書に新たに登録する単語の数
は、ロボットの成長状態に応じて制限することができ
る。具体的には、例えば、成長状態が「新生児」の場合
は、新たに登録可能な単語数は、数単語とし、ロボット
が成長するにしたがって、数十単語、数百単語と増加さ
せていくことができる。この場合、ロボットが理解可能
な単語が、成長に伴って増加していくことになる。
【0130】なお、単語辞書に新たに登録する単語の数
は、その他、上述の感情スコアや本能スコアに基づいて
変化させることが可能である。
【0131】また、センサ入力処理部30では、音声認
識の他、カメラ8からの画像の認識が行われるが、この
画像認識においても、あらかじめ認識可能な色や顔等の
パターンに加えて、後から、新たに画像認識対象とする
色や顔のパターンを登録することが可能である。そし
て、この場合も、新たに登録可能な色や顔のパターン数
を、ロボットの成長状態や、感情または本能の状態応じ
て変化させることが可能である。
【0132】次に、図7の音声認識装置では、上述した
ように、スコアを最も高くする単語列が、音声認識結果
として出力されるが、一般に、音声認識結果は、正確な
ことが望ましい。
【0133】しかしながら、ロボットに適用される図7
の音声認識装置では、故意に誤認識結果を出力すること
で、ロボットとのやりとりを楽しくすることが可能とな
る。即ち、例えば、漫才においては、会話の相手が、発
話者の発話した単語を、音響的に類似する単語に捉え
て、いわゆる「ボケ」を演出し、その「ボケ」に対し
て、発話者が、いわゆる「ツッコミ」を行う場合がある
が、音声認識装置において、故意に、誤った音声認識結
果を出力することで、このような「ボケ」や「ツッコ
ミ」を、ロボットに行わせることが可能となる。
【0134】「ボケ」は、例えば、次のようにして実現
することができる。
【0135】即ち、単語辞書には、図11に示すよう
に、音声認識対象とする単語の表記および音韻情報に、
その単語と音響的に類似しているが意味が異なる単語、
あるいはその単語と音響的には類似していないが、その
単語から連想される単語(以下、適宜、置換単語情報)
を対応付けて登録しておく。そして、マッチング部42
には、音声認識結果として得た、単語辞書に登録された
単語ではなく、その単語に対応付けられている置換単語
情報を、最終的な音声認識結果として出力させる。
【0136】この場合、行動決定部33では、その最終
的な音声認識結果である置換単語情報に基づいて、次に
起こす行動が決定されるため、ロボットは、使用者の発
話内容に対応しない「ボケ」た行動を行うことになる。
【0137】なお、このような「ボケ」は、その他、例
えば、上述のように、複数の単語辞書を用意しておき、
ある単語辞書を用いるべきところを、他の単語辞書を用
いて音声認識を行うことで、使用者の発話した単語と音
響的に類似した他の単語を、音声認識結果として得るこ
とができるようにすることによっても実現可能である。
【0138】ここで、上述のように、音声認識装置に、
故意に、誤った音声認識結果を出力させることは、例え
ば、「ボケ」るか、「ボケ」ないかの2状態を有する状
態遷移モデル等を用いて、ランダムに、しかも稀に行う
ようにするのが望ましい。また、この場合、状態遷移モ
デルにおける状態の遷移の仕方は、例えば、成長モデル
や、感情モデル、本能モデルに基づいて変更することが
可能である。
【0139】次に、使用者が「ボケ」た発話を行った場
合には、ロボットにおいて、その「ボケ」に対して、
「ツッコミ」の行動を行うようにすることが、例えば、
上述の「ボケ」を実現する場合と同様に可能である。
【0140】即ち、音声認識装置において、使用者が
「ボケ」た発話(誤った発話)を行ったかどうかを認識
することは困難であるから、図11に示したように、音
声認識対象とする単語の表記および音韻情報に、置換単
語情報を対応付けて、単語辞書に登録しておき、マッチ
ング部42には、音声認識結果として得た、単語辞書に
登録された単語ではなく、その単語に対応付けられてい
る置換単語情報を、最終的な音声認識結果として出力さ
せる。
【0141】使用者が「ボケ」た発話を行った場合に
は、その発話に対応して、音声認識装置が出力する音声
認識結果としての置換単語情報は、使用者が本来発話す
べきであった単語となり、行動決定部33では、そのよ
うな置換単語情報に基づいて、次に起こす行動が決定さ
れるため、ロボットは、使用者の「ボケ」た発話に対し
て、「ツッコミ」の行動を行うことになる。
【0142】以上のように、ロボットの状態に基づい
て、音声認識処理を制御するようにしたので、ロボット
の成長等の状態にあわせて変化する音声認識処理が行わ
れ、その結果、エンタテイメント性の高いロボットを提
供すること等が可能となる。
【0143】なお、本実施の形態においては、本発明
を、エンターテイメント用のロボット(疑似ペットとし
てのロボット)に適用した場合について説明したが、本
発明は、これに限らず、例えば、産業用のロボット等の
各種のロボットに広く適用することが可能である。
【0144】また、本実施の形態においては、ロボット
に行動を行わせるための駆動手段としてモータ71乃至
Nを用いるようにしたが、本発明はこれに限らず、要
は、外界に対して作用をもたらす行動(動作)を発現で
きるのであれば、駆動手段として、他のアクチュエータ
や、スピーカ、ブザー、照明装置等を広く用いることが
できる。
【0145】さらに、本実施の形態においては、上述し
た一連の処理を、CPU20にプログラムを実行させる
ことにより行うようにしたが、一連の処理は、それ専用
のハードウェアによって行うことも可能である。
【0146】なお、プログラムは、あらかじめプログラ
ムメモリ21(図3)に記憶させておく他、フロッピー
ディスク、CD-ROM(Compact Disc Read Only Memory),M
O(Magneto optical)ディスク,DVD(Digital Versatile
Disc)、磁気ディスク、半導体メモリなどのリムーバブ
ル記録媒体に、一時的あるいは永続的に格納(記録)し
ておくことができる。そして、このようなリムーバブル
記録媒体を、いわゆるパッケージソフトウエアとして提
供し、ロボット(プログラムメモリ21)にインストー
ルするようにすることができる。
【0147】また、プログラムは、リムーバブル記録媒
体からインストールする他、ダウンロードサイトから、
ディジタル衛星放送用の人工衛星を介して、無線で転送
したり、LAN(Local Area Network)、インターネットと
いったネットワークを介して、有線で転送し、プログラ
ムメモリ21にインストールすることができる。
【0148】この場合、プログラムがバージョンアップ
されたとき等に、そのバージョンアップされたプログラ
ムを、プログラムメモリ21に、容易にインストールす
ることができる。
【0149】ここで、本明細書において、CPU20に
各種の処理を行わせるためのプログラムを記述する処理
ステップは、必ずしもフローチャートとして記載された
順序に沿って時系列に処理する必要はなく、並列的ある
いは個別に実行される処理(例えば、並列処理あるいは
オブジェクトによる処理)も含むものである。
【0150】また、プログラムは、1のCPUにより処
理されるものであっても良いし、複数のCPUによって
分散処理されるものであっても良い。
【0151】さらに、本実施の形態では、連続分布HM
M法にしたがって、音声認識を行うようにしたが、音声
認識は、連続分布HMM法による他、例えば、スペクト
ル波形どうしのマッチング等によって行うことも可能で
ある。
【0152】
【発明の効果】本発明の音声認識装置および音声認識方
法、並びに記録媒体によれば、ロボットの状態に基づい
て、音声認識処理が制御されるので、ロボットの成長等
の状態にあわせて変化する音声認識処理を実現すること
ができ、その結果、ロボットのエンタテイメント性の向
上等を図ることが可能となる。
【図面の簡単な説明】
【図1】本発明を適用したロボットの一実施の形態の外
観構成例を示す斜視図である。
【図2】ロボットの内部構成を示すブロック図である。
【図3】制御部11のハードウェア構成例を示すブロッ
ク図である。
【図4】制御部11がプログラムが実行することにより
実現される、制御部11の機能的構成例を示すブロック
図である。
【図5】成長モデルを示す図である。
【図6】行動モデルを示す図である。
【図7】センサ入力処理部30における音声認識を行う
部分としての音声認識装置の構成例を示すブロック図で
ある。
【図8】単語辞書を示す図である。
【図9】図7の音声認識装置の動作を説明するためのフ
ローチャートである。
【図10】辞書成長スコアテーブルを示す図である。
【図11】「ボケ」を実現するための単語辞書を示す図
である。
【符号の説明】
1 尻尾ユニット, 2 胴体部ユニット, 3 頭部
ユニット, 4A乃至4D 大腿部ユニット, 5A乃
至5D 脛部ユニット, 6A乃至6D 脚部ユニッ
ト, 71乃至7N モータ, 8 カメラ, 9 マイ
ク, 10 圧力センサ, 11 制御部, 121
至12N ロータリエンコーダ, 20 CPU, 2
1 プログラムメモリ, 22 RAM, 23 不揮
発性メモリ,24 I/F, 25 モータドライバ,
30 センサ入力処理部, 31成長モデル部, 3
2 感情/本能モデル部, 33 行動決定部, 33
A行動モデル記憶部, 34 姿勢遷移部, 35 モ
ータ制御部, 41 特徴パラメータ抽出部, 42
マッチング部, 43 音響モデル記憶部, 44 辞
書記憶部, 45 文法記憶部, 46 成長スコア設
定部
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G10L 15/06 G10L 3/00 521F 15/10 521V 531G

Claims (11)

    【特許請求の範囲】
  1. 【請求項1】 ロボットに内蔵される音声認識装置であ
    って、 音声を認識する音声認識手段と、 前記ロボットの状態に基づいて、前記音声認識手段を制
    御する制御手段とを備えることを特徴とする音声認識装
    置。
  2. 【請求項2】 制御手段は、前記ロボットの成長、感
    情、または本能の状態に基づいて、前記音声認識手段を
    制御することを特徴とする請求項1に記載の音声認識装
    置。
  3. 【請求項3】 前記制御手段は、前記ロボットの状態に
    基づいて、前記音声認識手段の音声認識精度を変更する
    ことを特徴とする請求項1に記載の音声認識装置。
  4. 【請求項4】 前記音声認識手段は、音声認識の対象と
    する語彙が登録された辞書を記憶する辞書記憶手段を有
    し、 前記制御手段は、前記辞書に登録された語彙に対して、
    前記ロボットの状態に対応する重みを付して音声認識を
    行うように、前記音声認識手段を制御することを特徴と
    する請求項1に記載の音声認識装置。
  5. 【請求項5】 前記音声認識手段は、音声認識の対象と
    する語彙が分けて登録された複数の辞書を記憶する辞書
    記憶手段を有し、 前記制御手段は、前記複数の辞書に対して、前記ロボッ
    トの状態に対応する重みを付して音声認識を行うよう
    に、前記音声認識手段を制御することを特徴とする請求
    項1に記載の音声認識装置。
  6. 【請求項6】 前記音声認識手段は、音声認識の対象と
    する語彙が、他の語彙と対応付けられて登録された辞書
    を記憶する辞書記憶手段を有し、 前記制御手段は、前記ロボットの状態に基づいて、前記
    辞書において、音声認識結果としての語彙に対応付けら
    れている前記他の語彙を、最終的な音声認識結果として
    出力するように、前記音声認識手段を制御することを特
    徴とする請求項1に記載の音声認識装置。
  7. 【請求項7】 前記辞書には、音声認識の対象とする語
    彙が、その語彙と音響的に類似しているまたは意味的に
    関連する他の語彙と対応付けられて登録されていること
    を特徴とする請求項6に記載の音声認識装置。
  8. 【請求項8】 前記音声認識手段は、音声認識の対象と
    する語彙が登録される辞書を記憶する辞書記憶手段を有
    し、 前記制御手段は、前記ロボットの状態に基づいて、前記
    辞書に登録可能な語彙の数を制御することを特徴とする
    請求項1に記載の音声認識装置。
  9. 【請求項9】 前記ロボットは、前記音声認識手段が出
    力する音声認識結果に基づいて、所定の行動を起こすこ
    とを特徴とする請求項1に記載の音声認識装置。
  10. 【請求項10】 ロボットに内蔵される音声認識装置の
    音声認識方法であって、 音声を認識する音声認識ステップと、 前記ロボットの状態に基づいて、前記音声認識ステップ
    を制御する制御ステップとを備えることを特徴とする音
    声認識方法。
  11. 【請求項11】 ロボットに音声認識を行わせるため
    に、コンピュータが実行するプログラムが記録されてい
    る記録媒体であって、 音声を認識する音声認識ステップと、 前記ロボットの状態に基づいて、前記音声認識ステップ
    を制御する制御ステップとを備えるプログラムが記録さ
    れていることを特徴とする記録媒体。
JP34046899A 1999-11-30 1999-11-30 音声認識装置および音声認識方法、並びに記録媒体 Withdrawn JP2001154685A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP34046899A JP2001154685A (ja) 1999-11-30 1999-11-30 音声認識装置および音声認識方法、並びに記録媒体
US09/723,512 US7313524B1 (en) 1999-11-30 2000-11-28 Voice recognition based on a growth state of a robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP34046899A JP2001154685A (ja) 1999-11-30 1999-11-30 音声認識装置および音声認識方法、並びに記録媒体

Publications (1)

Publication Number Publication Date
JP2001154685A true JP2001154685A (ja) 2001-06-08

Family

ID=18337262

Family Applications (1)

Application Number Title Priority Date Filing Date
JP34046899A Withdrawn JP2001154685A (ja) 1999-11-30 1999-11-30 音声認識装置および音声認識方法、並びに記録媒体

Country Status (2)

Country Link
US (1) US7313524B1 (ja)
JP (1) JP2001154685A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010190995A (ja) * 2009-02-16 2010-09-02 Toshiba Corp 音声処理装置、音声処理方法及び音声処理プログラム
JP6134043B1 (ja) * 2016-11-04 2017-05-24 株式会社カプコン 音声生成プログラムおよびゲーム装置
WO2017200075A1 (ja) * 2016-05-20 2017-11-23 日本電信電話株式会社 対話方法、対話システム、対話シナリオ生成方法、対話シナリオ生成装置、及びプログラム
US9886947B2 (en) 2013-02-25 2018-02-06 Seiko Epson Corporation Speech recognition device and method, and semiconductor integrated circuit device
JP2018072805A (ja) * 2017-04-20 2018-05-10 株式会社カプコン 音声生成プログラムおよびゲーム装置

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7571101B2 (en) * 2006-05-25 2009-08-04 Charles Humble Quantifying psychological stress levels using voice patterns
US20080119959A1 (en) * 2006-11-21 2008-05-22 Park Cheonshu Expression of emotions in robot
JP5187128B2 (ja) * 2008-10-16 2013-04-24 富士通株式会社 検索装置、検索方法、及び、プログラム
JP2011033680A (ja) * 2009-07-30 2011-02-17 Sony Corp 音声処理装置及び方法、並びにプログラム
US8738377B2 (en) 2010-06-07 2014-05-27 Google Inc. Predicting and learning carrier phrases for speech input
FR2962048A1 (fr) * 2010-07-02 2012-01-06 Aldebaran Robotics S A Robot humanoide joueur, methode et systeme d'utilisation dudit robot
WO2013163494A1 (en) * 2012-04-27 2013-10-31 Interactive Itelligence, Inc. Negative example (anti-word) based performance improvement for speech recognition
EP2933067B1 (en) * 2014-04-17 2019-09-18 Softbank Robotics Europe Method of performing multi-modal dialogue between a humanoid robot and user, computer program product and humanoid robot for implementing said method
US10120386B2 (en) 2016-11-18 2018-11-06 Robert Bosch Start-Up Platform North America, LLC, Series 1 Robotic creature and method of operation
KR102228866B1 (ko) * 2018-10-18 2021-03-17 엘지전자 주식회사 로봇 및 그의 제어 방법
KR102295836B1 (ko) * 2020-11-20 2021-08-31 오로라월드 주식회사 성장형 스마트 토이 장치 및 스마트 토이 시스템

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5860064A (en) * 1993-05-13 1999-01-12 Apple Computer, Inc. Method and apparatus for automatic generation of vocal emotion in a synthetic text-to-speech system
JP3254994B2 (ja) * 1995-03-01 2002-02-12 セイコーエプソン株式会社 音声認識対話装置および音声認識対話処理方法
DE69830295T2 (de) * 1997-11-27 2005-10-13 Matsushita Electric Industrial Co., Ltd., Kadoma Steuerungsverfahren
US6243680B1 (en) * 1998-06-15 2001-06-05 Nortel Networks Limited Method and apparatus for obtaining a transcription of phrases through text and spoken utterances
US6754631B1 (en) * 1998-11-04 2004-06-22 Gateway, Inc. Recording meeting minutes based upon speech recognition
US6766036B1 (en) * 1999-07-08 2004-07-20 Timothy R. Pryor Camera based man machine interfaces
US6347261B1 (en) * 1999-08-04 2002-02-12 Yamaha Hatsudoki Kabushiki Kaisha User-machine interface system for enhanced interaction
US6446056B1 (en) * 1999-09-10 2002-09-03 Yamaha Hatsudoki Kabushiki Kaisha Interactive artificial intelligence

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010190995A (ja) * 2009-02-16 2010-09-02 Toshiba Corp 音声処理装置、音声処理方法及び音声処理プログラム
US8650034B2 (en) 2009-02-16 2014-02-11 Kabushiki Kaisha Toshiba Speech processing device, speech processing method, and computer program product for speech processing
US9886947B2 (en) 2013-02-25 2018-02-06 Seiko Epson Corporation Speech recognition device and method, and semiconductor integrated circuit device
WO2017200075A1 (ja) * 2016-05-20 2017-11-23 日本電信電話株式会社 対話方法、対話システム、対話シナリオ生成方法、対話シナリオ生成装置、及びプログラム
JP6134043B1 (ja) * 2016-11-04 2017-05-24 株式会社カプコン 音声生成プログラムおよびゲーム装置
JP2018072765A (ja) * 2016-11-04 2018-05-10 株式会社カプコン 音声生成プログラムおよびゲーム装置
JP2018072805A (ja) * 2017-04-20 2018-05-10 株式会社カプコン 音声生成プログラムおよびゲーム装置

Also Published As

Publication number Publication date
US7313524B1 (en) 2007-12-25

Similar Documents

Publication Publication Date Title
US7065490B1 (en) Voice processing method based on the emotion and instinct states of a robot
US7228276B2 (en) Sound processing registering a word in a dictionary
JP2001157976A (ja) ロボット制御装置およびロボット制御方法、並びに記録媒体
US6980956B1 (en) Machine apparatus and its driving method, and recorded medium
JP4296714B2 (ja) ロボット制御装置およびロボット制御方法、記録媒体、並びにプログラム
JP4150198B2 (ja) 音声合成方法、音声合成装置、プログラム及び記録媒体、並びにロボット装置
JP2001154685A (ja) 音声認識装置および音声認識方法、並びに記録媒体
Rosen et al. Automatic speech recognition and a review of its functioning with dysarthric speech
JP2003271174A (ja) 音声合成方法、音声合成装置、プログラム及び記録媒体、制約情報生成方法及び装置、並びにロボット装置
JP2002268699A (ja) 音声合成装置及び音声合成方法、並びにプログラムおよび記録媒体
JP2002116792A (ja) ロボット制御装置およびロボット制御方法、並びに記録媒体
JP4587009B2 (ja) ロボット制御装置およびロボット制御方法、並びに記録媒体
JP4600736B2 (ja) ロボット制御装置および方法、記録媒体、並びにプログラム
JP2001154693A (ja) ロボット制御装置およびロボット制御方法、並びに記録媒体
JP2002268663A (ja) 音声合成装置および音声合成方法、並びにプログラムおよび記録媒体
JP4706893B2 (ja) 音声認識装置および方法、並びに、プログラムおよび記録媒体
JP2001154692A (ja) ロボット制御装置およびロボット制御方法、並びに記録媒体
JP2003271172A (ja) 音声合成方法、音声合成装置、プログラム及び記録媒体、並びにロボット装置
JP2004170756A (ja) ロボット制御装置および方法、記録媒体、並びにプログラム
JP2004286805A (ja) 話者識別装置および話者識別方法、並びにプログラム
JP4656354B2 (ja) 音声処理装置および音声処理方法、並びに記録媒体
JP2002258886A (ja) 音声合成装置および音声合成方法、並びにプログラムおよび記録媒体
JP2002372988A (ja) 認識辞書作成装置及び棄却辞書及び棄却辞書の生成方法
JP4639533B2 (ja) 音声認識装置および音声認識方法、並びにプログラムおよび記録媒体
JP4742415B2 (ja) ロボット制御装置およびロボット制御方法、並びに記録媒体

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20070206