JP2001154692A - ロボット制御装置およびロボット制御方法、並びに記録媒体 - Google Patents

ロボット制御装置およびロボット制御方法、並びに記録媒体

Info

Publication number
JP2001154692A
JP2001154692A JP34046999A JP34046999A JP2001154692A JP 2001154692 A JP2001154692 A JP 2001154692A JP 34046999 A JP34046999 A JP 34046999A JP 34046999 A JP34046999 A JP 34046999A JP 2001154692 A JP2001154692 A JP 2001154692A
Authority
JP
Japan
Prior art keywords
robot
unit
sound
voice recognition
start sound
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP34046999A
Other languages
English (en)
Inventor
Hironaga Tsutsumi
洪長 包
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP34046999A priority Critical patent/JP2001154692A/ja
Publication of JP2001154692A publication Critical patent/JP2001154692A/ja
Withdrawn legal-status Critical Current

Links

Abstract

(57)【要約】 【課題】 音声の誤認識を防止する。 【解決手段】 開始音検出部46は、閾値L以上のパワ
ーの音であって、閾値T 1以上の時間継続しない音であ
る開始音(例えば、手を叩く音)が検出され、特徴パラ
メータ抽出部41およびマッチング部42では、その開
始音の検出に対応して、音声認識が行われる。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、ロボット制御装置
およびロボット制御方法、並びに記録媒体に関し、特
に、例えば、音声にしたがって、忠実に行動するロボッ
トを提供することができるようにするロボット制御装置
およびロボット制御方法、並びに記録媒体に関する。
【0002】
【従来の技術】従来より、玩具等として、タッチスイッ
チが押圧操作されたり、又は所定レベル以上の音声を検
出した場合に、動作を開始するようになっているロボッ
ト(本明細書においては、ぬいぐるみ状のものを含む)
が数多く製品化されている。
【0003】一方、近年においては、音声認識技術を利
用して、音声により、各種のコマンドを与えることがで
きるカーナビゲーションシステムや、パーソナルコンピ
ュータが実現されている。
【0004】
【発明が解決しようとする課題】そこで、ロボットにつ
いても、音声認識技術を利用して、音声によりコマンド
を与えて、各種の行動を起こさせるものが実用化されつ
つある。
【0005】このようなロボットについては、使用者
が、ある行動を起こさせるためのコマンドを発話した場
合、基本的には、その発話を正確に音声認識して、その
音声認識結果に対応する行動を起こさせることが望まれ
る。
【0006】即ち、例えば、玩具としてのロボットが、
使用者が発話したコマンドとは無関係の行動を起こした
場合には、使用者に違和感を感じさせることになる。
【0007】しかしながら、一般に、ロボットが使用さ
れる環境は一定ではなく、また、環境ごとに異なる雑音
が存在する。従って、ロボットにおいては、そこに入力
される音声(音)が、使用者の発話か、雑音なのかを判
定するのが困難であり、さらに、使用者の発話であって
も、その発話が、ロボットに向けられたコマンドである
のかどうかを判定することも困難である。また、使用者
の音声と雑音とが混在する環境においては、使用者の音
声の開始点(音声区間の開始点)を判定することも困難
である。
【0008】そして、これらの判定が困難である結果、
正確な音声認識結果を得ることができない場合がある。
【0009】そこで、音声認識を行うプロセッサとして
高機能のものを用いて、音声認識装置を構成し、これに
より、音声認識性能を向上させる方法があるが、この方
法では、音声認識装置が高コスト化する。
【0010】本発明は、このような状況に鑑みてなされ
たものであり、コストアップを避けて、誤認識を防止す
ることができるようにし、これにより、使用者の発話し
たコマンドに対して、忠実に行動するロボットを提供す
ること等ができるようにするものである。
【0011】
【課題を解決するための手段】本発明のロボット制御装
置は、第1の閾値以上のパワーの音であって、第2の閾
値以上の時間継続しない音である開始音を検出する検出
手段と、開始音の検出に対応して、音声認識を行う音声
認識手段とを備えることを特徴とする。
【0012】検出手段には、開始音を検出してから所定
の時間が経過したときのタイミングを、音声区間の開始
点として、さらに検出させ、音声認識手段には、音声区
間の開始点後を対象に音声認識を行わせることができ
る。
【0013】音声認識手段には、音声認識の対象とする
語彙が登録されている複数の単語辞書を設け、開始音が
検出された場合に、複数の単語辞書のうち、所定の単語
辞書のみを用いて、音声認識を行わせることがえでき
る。
【0014】開始音が検出された場合に、音声認識手段
が用いる所定の単語辞書は、ロボットに対する命令を与
える語彙が登録されているものとすることができる。
【0015】本発明のロボット制御方法は、第1の閾値
以上のパワーの音であって、第2の閾値以上の時間継続
しない音である開始音を検出する検出ステップと、開始
音の検出に対応して、音声認識を行う音声認識ステップ
とを備えることを特徴とする。
【0016】本発明の記録媒体は、第1の閾値以上のパ
ワーの音であって、第2の閾値以上の時間継続しない音
である開始音を検出する検出ステップと、開始音の検出
に対応して、音声認識を行う音声認識ステップとを備え
るプログラムが記録されていることを特徴とする。
【0017】本発明のロボット制御装置およびロボット
制御方法、並びに記録媒体においては、第1の閾値以上
のパワーの音であって、第2の閾値以上の時間継続しな
い音である開始音が検出され、その開始音の検出に対応
して、音声認識が行われる。
【0018】
【発明の実施の形態】図1は、本発明を適用したロボッ
トの一実施の形態の外観構成例を示しており、図2は、
その電気的構成例を示している。
【0019】本実施の形態では、ロボットは、犬形状の
ものとされており、胴体部ユニット2には、その前端に
頭部ユニット3が配設され、また、その前後左右の各隅
部には、それぞれ、大腿部ユニット4A,4B,4C,
4Dおよび脛部ユニット5A,5B,5C,5Dからな
る脚部ユニット6A,6B,6C,6Dが取り付けられ
ている。さらに、胴体部ユニット2の後端には、尻尾ユ
ニット1が取り付けられている。
【0020】尻尾ユニット1と胴体部ユニット2、頭部
ユニット3と胴体部ユニット2、大腿部ユニット4A乃
至4Dそれぞれと胴体部ユニット2、および大腿部ユニ
ット4A乃至4Dそれぞれと脛部ユニット5A乃至5D
それぞれを連結する各関節機構には、アクチュエータと
してのモータ71,72,・・・,7Nが配設されてお
り、これにより、対応するモータ71乃至7Nを駆動する
ことによって、尻尾ユニット1および頭部ユニット3
を、x軸、y軸、z軸の3軸それぞれを中心とする方向
に自在に回転させ、腿部ユニット4A乃至4Dを、x
軸、y軸の2軸それぞれを中心とする方向に自在に回転
させ、かつ脛部ユニット5A乃至5Dを、x軸の1軸を
中心とする方向に回転させ得るようになっており、これ
により、ロボットは、各種の行動を行うことができるよ
うになっている。
【0021】頭部ユニット3には、カメラ(CCD(Cha
rge Coupled Device)カメラ)8、マイク(マイクロフ
ォン)9、および圧力センサ10がそれぞれ所定位置に
配設されており、また、胴体部ユニット2は、制御部1
1を内蔵している。カメラ8では、使用者を含む周囲の
状況の画像が撮像され、マイク9では、使用者の音声を
含む周囲の音声が集音される。また、圧力センサ10で
は、使用者等によって与えられる圧力が検出される。そ
して、カメラ8により撮像された周囲の状況の画像や、
マイク9により集音された周囲の音声、圧力センサ10
により検出された、使用者により頭部に与えられた圧力
は、それぞれ画像データ、音声データ、圧力検出データ
として、それぞれ制御部11に与えられる。
【0022】各関節機構に対応する各モータ71乃至7N
については、それぞれに対応させてロータリエンコーダ
121乃至12Nが設けられており、各ロータリエンコー
ダ121乃至12Nでは、対応するモータ71乃至7Nの回
転軸の回転角度が検出される。ロータリエンコーダ12
1乃至12Nで検出された回転角度は、それぞれ角度検出
データとして制御部11に与えられる。
【0023】制御部11は、予めインストールされてい
る制御プログラムを実行することにより、カメラ8から
の画像データ、マイク9からの音声データ、圧力センサ
10からの圧力検出データ、およびロータリエンコーダ
121乃至12Nそれぞれからの角度検出データに基づい
て、周囲の状況や自分の姿勢等を判断するとともに、続
く行動を決定し、その決定結果に基づいて、必要なモー
タ71乃至7Nを駆動させるようになっている。
【0024】これにより、ロボットは、尻尾ユニット1
や、頭部ユニット2、各脚部ユニット6A乃至6Dを動
かして所望状態にし、自律的に行動する。
【0025】次に、図3は、図2の制御部11の構成例
を示している。
【0026】制御部11は、CPU(Central Processi
ng Unit)20、プログラムメモリ21、RAM(Rando
m Access Memory)22、不揮発性メモリ23、インタ
フェース回路(I/F)24、およびモータドライバ2
5が、バス26を介して接続されて構成されている。
【0027】CPU(Central Processing Unit)20
は、プログラムメモリ21に記憶されている制御プログ
ラムを実行することにより、ロボットの行動を制御す
る。プログラムメモリ21は、例えば、EEPROM(E
lectrically Erasable Programmable Read Only Memor
y)等で構成され、CPU20が実行する制御プログラム
や必要なデータを記憶している。RAM22は、CPU
20の動作上必要なデータ等を一時記憶するようになっ
ている。不揮発性メモリ23は、後述するような感情/
本能モデルや、行動モデル、音声認識に用いる音韻モデ
ル、単語辞書、文法規則等の、電源がオフ状態とされた
後も保持する必要のあるデータを記憶するようになって
いる。インタフェース回路24は、カメラ8や、マイク
9、圧力センサ10、ロータリエンコーダ121乃至1
Nから供給されるデータを受信し、CPU20に供給
するようになっている。モータドライバ25は、CPU
20の制御にしたがい、モータ71乃至7Nを駆動(ドラ
イブ)するための駆動信号を、モータ71乃至7Nに供給
するようになっている。
【0028】制御部11は、CPU20において、プロ
グラムメモリ21に記憶された制御プログラムが実行さ
れることにより、機能的に、図4に示すような構成とな
って、ロボットの行動を制御する。
【0029】即ち、図4は、制御部11の機能的な構成
例を示している。
【0030】センサ入力処理部31は、外部から与えら
れる刺激や、外部の状態を認識し、感情/本能モデル部
32および行動決定部33に供給するようになってい
る。
【0031】感情/本能モデル部32は、ロボットの感
情と本能の状態をそれぞれ表現する感情モデルと本能モ
デルを管理しており、センサ入力処理部31の出力や、
行動決定部33の出力に基づいて、感情モデルや本能モ
デルを規定するパラメータを変更することで、ロボット
の感情や本能の状態を変化させるようになっている。
【0032】行動決定部33は、行動モデル記憶部33
Aを内蔵しており、この記憶内容や、センサ入力処理部
31の出力、感情/本能モデル部32で管理されている
感情モデルおよび本能モデルに基づいて、その後にロボ
ットが行う行動を決定して、その情報(以下、適宜、行
動情報という)を、姿勢遷移部34に供給するようにな
っている。
【0033】姿勢遷移部34は、行動決定部33から供
給される行動情報に対応する行動をロボットに行わせる
ためのモータ71乃至7Nの回転角や回転速度等の制御デ
ータを演算し、モータ制御部35に出力する。
【0034】モータ制御部35は、姿勢遷移部34から
の制御データにしたがって、モータ71乃至7Nを回転駆
動するようになっている。
【0035】以上のように構成される制御部11では、
入力センサ処理部31において、カメラ8から供給され
る画像データや、マイク9から供給される音声データ、
圧力センサ10から出力される圧力検出データに基づい
て、特定の外部状態や、使用者からの特定の働きかけ、
使用者からの指示等が認識され、その認識結果が、感情
/本能モデル部32および行動決定部33に出力され
る。
【0036】即ち、センサ入力処理部31は、カメラ8
が出力する画像データに基づいて、画像認識を行い、例
えば、「ボールがある」とか、「壁がある」といったこ
とを認識して、その認識結果を、感情/本能モデル部3
2および行動決定部33に供給する。また、センサ入力
処理部31は、マイク9が出力する音声データに基づい
て、音声認識を行い、その音声認識結果を、感情/本能
モデル部32および行動決定部33に供給する。さら
に、センサ入力処理部31は、圧力センサ10から与え
られる圧力検出データを処理し、例えば、所定の閾値以
上で、かつ短時間の圧力を検出したときには「たたかれ
た(しかられた)」と認識し、また、所定の閾値未満
で、かつ長時間の圧力を検出したときには「なでられた
(ほめられた)」と認識して、その認識結果を、感情/
本能モデル部32および行動決定部33に供給する。
【0037】感情/本能モデル部32は、ロボットの、
例えば、「うれしさ」や、「悲しさ」、「怒り」等の感
情の状態を表現する感情モデルと、例えば、「食欲」
や、「睡眠欲」、「運動欲」等の本能の状態を表現する
本能モデルとを管理している。
【0038】即ち、感情モデルと本能モデルは、それぞ
れ、ロボットの感情と本能の状態を、例えば、0乃至1
00の範囲の整数値で表すもので、感情/本能モデル部
32は、感情モデルや本能モデルの値を、センサ入力処
理部31の出力や、行動決定部33の出力、時間経過に
基づいて変化させる。従って、ここでは、ロボットの感
情および本能の状態は、センサ入力処理部31が出力す
る外部の認識結果の他、行動決定部33の出力や、時間
経過にも基づいて変化する。そして、感情/本能モデル
部32は、変更後の感情モデルおよび本能モデルの値
(ロボットの感情および本能の状態)を、行動決定部3
3に供給する。
【0039】ここで、ロボットの感情および本能の状態
は、行動決定部33の出力に基づいて、例えば、次のよ
うに変化する。
【0040】即ち、行動決定部33から感情/本能モデ
ル部32に対しては、ロボットがとっている現在の行動
または過去にとった行動の内容(例えば、「そっぽを向
いた」など)を示す行動情報が供給されるようになって
いる。
【0041】いま、ロボットにおいて、「怒り」の感情
が高いときに、使用者から何らかの刺激を受け、ロボッ
トが、「そっぽを向く」行動をとったとする。この場
合、行動決定部33から感情/本能モデル部32に対し
て、行動情報「そっぽを向いた」が供給される。
【0042】一般に、怒っているときに、そっぽを向く
ような不満を表現する行動をとると、その行動によっ
て、怒りが幾分か静まることがある。そこで、感情/本
能モデル部32は、行動決定部33から、行動情報「そ
っぽを向いた」が供給された場合、「怒り」を表す感情
モデルの値を、小さい値に変更する(「怒り」の度合い
が小さくなるように変更する)。
【0043】行動決定部33は、センサ入力処理部31
が出力する外部の認識結果や、感情/本能モデル部32
における感情モデルおよび本能モデル、時間経過、行動
モデル記憶部33Aにおける行動モデルに基づいて、次
にとる行動を決定し、その行動を表す行動情報を、感情
/本能モデル部32および姿勢遷移部34に供給する。
【0044】ここで、行動モデル記憶部33Aは、ロボ
ットの行動を規定する行動モデルを記憶している。
【0045】即ち、行動モデルは、例えば、図5に示す
ような確率オートマトンで構成される。この確率オート
マトンでは、行動は、ノード(状態)NODE0乃至N
ODEMで表現され、行動の遷移は、ある行動に対応す
るノードNODEm0から、他の行動(同一の行動である
場合もある)に対応するノードNODEm1への遷移を表
すアークARCm1で表現される(m0,m1=0,1,
・・・,M)。
【0046】そして、あるノードNODEm0から、他の
ノードNODEm1への遷移を表すアークARCm1には、
その遷移が生じる遷移確率Pm1が設定されており、ノー
ドの遷移、即ち、行動の移り変わりは、基本的には、遷
移確率に基づいて決定される。
【0047】なお、図5においては、図が煩雑になるの
を避けるため、M+1個のノードからなる確率オートマ
トンに関して、ノードNODE0から、他のノード(自
身を含む)NODE0乃至NODEMへのアークARC0
乃至ARCMのみを示してある。
【0048】行動決定部33は、基本的には、行動モデ
ルとしての確率オートマトン(図5)の、現在の行動
(以下、適宜、現在行動という)に対応するノードか
ら、どのノードに遷移するかを、現在行動に対応するノ
ードから延びるアークに設定されている遷移確率の他、
感情/本能モデル部32における感情モデルおよび本能
モデルの値、時間経過、センサ入力処理部31が出力す
る外部の認識結果に基づいて決定し、遷移後のノードに
対応する行動(以下、適宜、遷移行動という)を表す行
動情報を、感情/本能モデル部32および姿勢遷移部3
4に供給する。
【0049】従って、行動決定部33では、例えば、セ
ンサ入力処理部31が出力する外部の認識結果が同一の
ものであっても、感情モデルや本能モデルの値によって
は、異なるノードに遷移することとが決定される。
【0050】具体的には、例えば、センサ入力処理部3
1の出力が、「目の前に手のひらが差し出された」旨を
示すものである場合において、「怒り」の感情モデルが
「怒っていない」ことを表しており、かつ「食欲」の本
能モデルが「お腹がすいていない」ことを表していると
きには、行動決定部33は、目の前に手のひらが差し出
されたことに応じて、遷移行動として「お手」を行わせ
ることを決定する。
【0051】また、例えば、上述の場合と同様に、セン
サ入力処理部31の出力が、「目の前に手のひらが差し
出された」旨を示すものであり、かつ「怒り」の感情モ
デルが「怒っていない」ことを表しているが、「食欲」
の本能モデルが「お腹がすいている」ことを表している
場合には、行動決定部33は、遷移行動として、「手の
ひらをぺろぺろなめる」ような行動を行わせることを決
定する。
【0052】さらに、センサ入力処理部31の出力が、
「目の前に手のひらが差し出された」旨を示すものであ
るが、「怒り」の感情モデルが「怒っている」ことを表
している場合には、「食欲」の本能モデルの値にかかわ
らず、行動決定部33は、遷移行動として、「ぷいと横
を向く」ような行動を行わせることを決定する。
【0053】なお、行動決定部33は、所定のトリガ(t
rigger)があった場合に、行動モデルのノードを遷移
し、遷移行動を決定する。即ち、行動決定部33は、例
えば、ロボットが現在行動を開始してから所定の時間が
経過した場合や、音声認識結果等の特定の認識結果が、
センサ入力処理部31から出力された場合、感情/本能
モデル部32における感情モデルや本能モデルの値が所
定の閾値に達した場合等に、遷移行動を決定する。
【0054】姿勢遷移部34は、行動決定部33から供
給される行動情報に基づいて、現在の姿勢から次の姿勢
に遷移させるための制御データを生成し、モータ制御部
35に出力する。即ち、姿勢遷移部34は、現在の姿勢
を、行動決定部33を介して、ロータリエンコーダ12
1乃至12Nの出力に基づいて認識し、行動決定部33か
らの行動情報に対応する行動(遷移行動)を、ロボット
にとらせるためのモータ71乃至7Nの回転角や回転速度
等を計算し、制御データとして、モータ制御部35に出
力する。
【0055】モータ制御部35は、姿勢遷移部34から
の制御データにしたがって、モータ71乃至7Nを駆動す
るための駆動信号を生成し、モータ71乃至7Nに供給す
る。これにより、モータ71乃至7Nは回転駆動し、ロボ
ットは、遷移行動を行う。
【0056】次に、図6は、図4のセンサ入力処理部3
1のうち、マイク9からの音声データを用いて音声認識
を行う部分(以下、適宜、音声認識装置という)の機能
的構成例を示している。
【0057】この音声認識装置においては、マイク9に
入力された音声が、例えば、連続分布HMM(Hidden Ma
rkov Model)法にしたがって認識され、その音声認識結
果が出力されるようになっている。
【0058】即ち、特徴パラメータ抽出部41には、マ
イク9からの音声データが供給されるようになってお
り、特徴パラメータ抽出部41は、そこに入力される音
声データについて、適当なフレームごとに、例えば、M
FCC(Mel Frequency Cepstrum Coefficient)分析を行
い、その分析結果を、特徴パラメータ(特徴ベクトル)
として、マッチング部42に出力する。なお、特徴パラ
メータ抽出部41では、その他、例えば、線形予測係
数、ケプストラム係数、線スペクトル対、所定の周波数
帯域ごとのパワー(フィルタバンクの出力)等を、特徴
パラメータとして抽出することが可能である。
【0059】マッチング部42は、特徴パラメータ抽出
部41からの特徴パラメータを用いて、音響モデル記憶
部43、辞書記憶部44、および文法記憶部45を必要
に応じて参照しながら、マイク9に入力された音声(入
力音声)を、連続分布HMM法に基づいて音声認識す
る。
【0060】即ち、音響モデル記憶部43は、音声認識
する音声の言語における個々の音素や音節などの音響的
な特徴を表す音響モデルを記憶している。ここでは、連
続分布HMM法に基づいて音声認識を行うので、音響モ
デルとしては、HMM(Hidden Markov Model)が用いら
れる。辞書記憶部44は、認識対象の各単語について、
その発音に関する情報(音韻情報)が記述された単語辞
書を記憶している。文法記憶部45は、辞書記憶部35
の単語辞書に登録されている各単語が、どのように連鎖
する(つながる)かを記述した文法規則を記憶してい
る。ここで、文法規則としては、例えば、文脈自由文法
(CFG)や、統計的な単語連鎖確率(N−gram)
などに基づく規則を用いることができる。
【0061】マッチング部42は、辞書記憶部44の単
語辞書を参照することにより、音響モデル記憶部43に
記憶されている音響モデルを接続することで、単語の音
響モデル(単語モデル)を構成する。さらに、マッチン
グ部42は、幾つかの単語モデルを、文法記憶部45に
記憶された文法規則を参照することにより接続し、その
ようにして接続された単語モデルを用いて、特徴パラメ
ータに基づき、連続分布HMM法によって、マイク9に
入力された音声を認識する。即ち、マッチング部42
は、特徴パラメータ抽出部41が出力する時系列の特徴
パラメータが観測されるスコア(尤度)が最も高い単語
モデルの系列を、連続分布HMM法によって検出し、そ
の単語モデルの系列に対応する単語列を、音声の認識結
果として出力する。
【0062】具体的には、マッチング部42は、接続さ
れた単語モデルに対応する単語列について、各特徴パラ
メータの出現確率を、連続分布HMM法により計算して
累積し、その累積値をスコアとして、そのスコアを最も
高くする単語列を、音声認識結果として出力する。マッ
チング部42による音声認識結果は、センサ入力処理部
31の出力として、上述したように、感情/本能モデル
部32および行動決定部33に出力される。
【0063】開始音検出部46には、特徴パラメータ抽
出部41と同様に、マイク9からの音声データが供給さ
れるようになっている。開始音検出部46は、そこに供
給される音声データに基づいて、例えば、図7に示すよ
うに、閾値L以上のパワーの音であって、閾値T1以上
の時間継続しない音である開始音を検出するようになっ
ている。さらに、開始音検出部46は、その開始音か
ら、所定の時間Tpostだけ経過したタイミングを、音声
区間の開始点として検出し、開始音を検出したこと、お
よび音声区間の開始点であることを表す検出メッセージ
を、特徴パラメータ抽出部41およびマッチング部42
に出力するようになっている。
【0064】特徴パラメータ抽出部41およびマッチン
グ部42は、開始音検出部46から検出メッセージを受
信すると、上述したような処理(音声認識処理)を開始
する。
【0065】従って、開始音は、特徴パラメータ抽出部
41およびマッチング部42に、音声認識のための処理
を開始させるトリガ(trigger)となるものであり、各種
の環境における雑音や、使用者の音声と区別しやすい音
である必要がある。このような音としては、例えば、非
常に短時間だけしか継続しない、パワーの大きな音があ
る。
【0066】また、開始音を発するのに、使用者が物を
用いなければならないとすると、使用者は、その物が手
の届くところにない場合には、その物を取りに行かなけ
ればならず、面倒である。
【0067】以上から、開始音としては、非常に短時間
だけしか継続しない、パワーの大きな音で、かつ、使用
者が物を用いずに発することのできる音である必要があ
り、そのような音としては、例えば、ある程度の力を入
れて、手を一回だけ叩く音がある。ここで、手を叩く音
のパワーは、一般に、人間が通常発する音声よりも十分
大きく、また、そのパワーが継続する時間は、0.1秒
程度である。
【0068】そこで、ある程度の力を入れて、手を一回
だけ叩く音を、開始音として採用することとすると、上
述のように、手を叩く音の継続時間は、0.1秒程度で
あるから、開始音検出部46における時間の閾値T
1は、0.1秒程度とすることができる。
【0069】また、使用者がロボットに対して話しかけ
ると想定される平均的な距離(例えば、0.5m程度)
だけ離れた位置において観測される、人間が手の叩く音
のパワーは、本件発明者による実験によれば、20dB
程度であり、従って、開始音検出部46におけるパワー
の閾値Lは、20dB程度とすることができる。
【0070】さらに、いま、使用者が手を叩いてから即
座に、ロボットに行動を起こさせるためのコマンドを発
話するものとすると、使用者の発話が開始されるのは、
本件発明者による実験によれば、手を叩いてから、0.
5秒乃至1秒程度であることが分かっており、従って、
図7における所定の時間Tpostは、0.5秒乃至1秒程
度とすることができる。
【0071】なお、開始音検出部46においては、閾値
L以上のパワーの音であって、閾値T1以上の時間継続
しない音が観測された場合に、その音を開始音として検
出する他、閾値L以上のパワーの音であって、閾値T1
以上の時間継続しない音が観測され、かつ、その音の後
の所定の時間Tpostにおいて、閾値L以上のパワーの音
が存在しない場合に、時間Tpostの直前に観測された音
(閾値L以上のパワーの音であって、閾値T1以上の時
間継続しない音)を、開始音として検出させるようにす
ることも可能である。
【0072】次に、図8のフローチャートを参照して、
図6の音声認識装置の動作について、さらに説明する。
【0073】マイク9から出力されるディジタルの音声
データは、特徴パラメータ抽出部41および開始音検出
部46に供給される。
【0074】開始音検出部46は、ステップS1におい
て、そこに供給される音声データに基づき、閾値L以上
のパワーの音であって、閾値T1以上の時間継続しない
音である開始音が、マイク9に入力されたかどうかを判
定する。ステップS1において、開始音が入力されてい
ないと判定された場合、ステップS1に戻る。
【0075】また、ステップS1において、開始音が入
力されたと判定された場合、即ち、例えば、使用者が手
を叩いたり、あるいは何か物を叩く等して、図7で説明
した開始音としての条件を満たす、いわば破裂音的な音
が、マイク9から入力された場合、開始音検出部46
は、その開始音から、所定の時間Tpostだけ経過したタ
イミングを、音声区間の開始点として検出し、開始音を
検出したこと、および音声区間の開始点であることを表
す検出メッセージを、特徴パラメータ抽出部41および
マッチング部42に出力して、ステップS2に進む。
【0076】特徴パラメータ抽出部41は、検出メッセ
ージを受信すると、そのタイミングを音声区間の開始点
として、そこに供給される音声データの音響分析を開始
する。即ち、特徴パラメータ抽出部41では、図9に示
すように、開始音が観測されてから、所定の時間Tpost
だけ経過した時点を、音声区間の開始点として、音響分
析が開始される。そして、特徴パラメータ抽出部41
は、その音響分析の結果得られる時系列の特徴パラメー
タを、マッチング部42に供給する。マッチング部42
は、ステップS3において、特徴パラメータ抽出部41
からの特徴パラメータを用いて、スコアの計算(マッチ
ング)を行い、そのスコアに基づいて、マイク9に入力
された音声の音声認識結果を決定する。そして、ステッ
プS4に進み、マッチング部42は、その音声認識結果
を、感情/本能モデル部32および行動決定部33に出
力し、ステップS1に戻り、以下、同様の処理を繰り返
す。
【0077】行動決定部33は、マッチング部42から
音声認識結果を受信すると、上述したように、その音声
認識結果に基づいて、次にとる行動を決定し、これによ
り、ロボットは、その行動を起こすことになる。
【0078】以上のように、各種の環境における雑音
や、使用者の発話との区別が容易な開始音を検出し、そ
の開始音に対応して、音声認識を開始するようにしたの
で、音声区間が開始する前の区間を含めて音声認識が行
われることによる誤認識を防止することができる。
【0079】なお、音声区間の開始、即ち、使用者が発
話を開始することは、その他、例えば、ロボットにスイ
ッチを設け、そのスイッチを押してもらうことや、リモ
ートコマンダを用意して、そのリモートコマンダを操作
すること等によっても、図6の音声認識装置に認識させ
ることが可能である。しかしながら、スイッチを操作す
る場合には、ロボットが手の届くところにいないと、そ
の操作を行うことができないし、また、リモートコマン
ダによる場合にも、そのリモートコマンダが手の届くと
ころにないと、その操作を行うことができない。これに
対して、上述のような開始音を検出する場合には、使用
者が手を叩けば良いので、そのようなことはない。
【0080】次に、上述のように、使用者が手を叩く等
して開始音を発した後に発話する単語を、例えば、ロボ
ットに対するコマンド等のある範疇に属するものに限定
するように約束をしておくことで、音声認識装置の処理
速度を向上させ、さらに、その音声認識率を向上させる
ことができる。
【0081】即ち、例えば、いま辞書記憶部44に、通
常の音声認識において用いる単語が登録された単語辞書
(以下、適宜、汎用単語辞書という)と、ロボットに対
するコマンドだけが登録された単語辞書(以下、適宜、
コマンド単語辞書という)とを記憶させておき、開始音
の後は、使用者が、ロボットに対するコマンドの範疇に
属する単語を発話するものとする。なお、汎用単語辞書
には、コマンド単語辞書に登録された単語も登録してお
くことが可能である。
【0082】そして、図6の音声認識装置に、例えば、
図10のフローチャートにしたがった処理を行わせるこ
とで、音声認識の処理速度および認識率を向上させるこ
とができる。
【0083】即ち、まず最初に、ステップS11におい
て、マッチング部42は、辞書記憶部44に記憶された
汎用単語辞書を、処理に用いる単語辞書として選択し、
ステップS12に進む。ステップS12では、開始音検
出部46は、図8のステップS1における場合と同様
に、開始音がマイク9に入力されたかどうかを判定す
る。ステップS12において、開始音が入力されていな
いと判定された場合、ステップS13に進み、特徴パラ
メータ抽出部41およびマッチング部42において、上
述した処理が行われることにより、マイク9から出力さ
れる音声データを用いた音声認識が行われ、その音声認
識結果が、行動決定部33に出力される。
【0084】従って、図10の実施の形態では、開始音
が入力されていない場合でも、音声認識が行われるが、
この音声認識は、ステップS11で選択された汎用単語
辞書に登録された単語を対象に行われる。
【0085】一方、ステップS12において、開始音が
入力されたと判定された場合、即ち、例えば、使用者が
手を叩いたり、あるいは何か物を叩く等して、その音
が、マイク9から入力された場合、開始音検出部46
は、その開始音から、所定の時間Tpostだけ経過したタ
イミングを、音声区間の開始点として検出し、開始音を
検出したこと、および音声区間の開始点であることを表
す検出メッセージを、特徴パラメータ抽出部41および
マッチング部42に出力して、ステップS14に進む。
【0086】マッチング部42は、検出メッセージを受
信すると、ステップS14において、辞書記憶部44に
記憶されたコマンド単語辞書を、処理に用いる単語辞書
として選択し、ステップS15に進む。ステップS15
では、特徴パラメータ抽出部41およびマッチング部4
2において、上述した処理が行われることにより、マイ
ク9から出力される音声データを用いた音声認識が行わ
れ、その音声認識結果が、感情/本能モデル部32およ
び行動決定部33に出力されて、ステップS11に戻
る。
【0087】従って、この場合、ステップS14で選択
されたコマンド単語辞書に登録された単語、即ち、コマ
ンドを対象に、音声認識が行われる。
【0088】そして、ここでは、開始音の後に、使用者
は、コマンドを発話するものとしていることから、コマ
ンドだけが登録されたコマンド単語辞書を用いて音声認
識が行われることにより、音声認識装置の処理速度およ
び認識率を向上させることができる。
【0089】即ち、音声波形は、例えば、同一の語彙が
同一人により発話されたとしても、完全に一致すること
は、ほとんどなく、このため、マッチング部42におけ
るマッチング処理(上述のスコア計算)は、いわば曖昧
性を有する入力に対する処理となる。従って、発話され
ていない単語が音声認識結果とされる誤認識が生じる場
合があるが、このような誤認識は、一般に、音声認識の
対象とする語彙数が多くなると、類似する単語が多くな
るために増加する。
【0090】これに対して、コマンド単語辞書に登録さ
れたコマンドのみを対象に音声認識を行う場合には、音
声認識の対象とする語彙数が少なくて済むから、音声認
識率を向上させることができ、さらに、演算量も少なく
て済むから、処理速度も向上させることができる。
【0091】なお、本実施の形態においては、本発明
を、エンターテイメント用のロボット(疑似ペットとし
てのロボット)に適用した場合について説明したが、本
発明は、これに限らず、例えば、産業用のロボット等の
各種のロボットに広く適用することが可能である。
【0092】また、本実施の形態においては、ロボット
に行動を行わせるための駆動手段としてモータ71乃至
Nを用いるようにしたが、本発明はこれに限らず、要
は、外界に対して作用をもたらす行動(動作)を発現で
きるのであれば、駆動手段として、他のアクチュエータ
や、スピーカ、ブザー、照明装置等を広く用いることが
できる。
【0093】さらに、本実施の形態においては、上述し
た一連の処理を、CPU20にプログラムを実行させる
ことにより行うようにしたが、一連の処理は、それ専用
のハードウェアによって行うことも可能である。
【0094】なお、プログラムは、あらかじめプログラ
ムメモリ21(図3)に記憶させておく他、フロッピー
ディスク、CD-ROM(Compact Disc Read Only Memory),M
O(Magneto optical)ディスク,DVD(Digital Versatile
Disc)、磁気ディスク、半導体メモリなどのリムーバブ
ル記録媒体に、一時的あるいは永続的に格納(記録)し
ておくことができる。そして、このようなリムーバブル
記録媒体を、いわゆるパッケージソフトウエアとして提
供し、ロボット(プログラムメモリ21)にインストー
ルするようにすることができる。
【0095】また、プログラムは、リムーバブル記録媒
体からインストールする他、ダウンロードサイトから、
ディジタル衛星放送用の人工衛星を介して、無線で転送
したり、LAN(Local Area Network)、インターネットと
いったネットワークを介して、有線で転送し、プログラ
ムメモリ21にインストールすることができる。
【0096】この場合、プログラムがバージョンアップ
されたとき等に、そのバージョンアップされたプログラ
ムを、プログラムメモリ21に、容易にインストールす
ることができる。
【0097】ここで、本明細書において、CPU20に
各種の処理を行わせるためのプログラムを記述する処理
ステップは、必ずしもフローチャートとして記載された
順序に沿って時系列に処理する必要はなく、並列的ある
いは個別に実行される処理(例えば、並列処理あるいは
オブジェクトによる処理)も含むものである。
【0098】また、プログラムは、1のCPUにより処
理されるものであっても良いし、複数のCPUによって
分散処理されるものであっても良い。
【0099】なお、本明細書中において、「ある値以
上」という記載は、「ある値より大きい」という記載で
あってもかまわない。同様に、「ある値以下」という記
載は、「ある値より小さい」という記載であってもかま
わない。
【0100】
【発明の効果】本発明のロボット制御装置およびロボッ
ト制御方法、並びに記録媒体によれば、第1の閾値以上
のパワーの音であって、第2の閾値以上の時間継続しな
い音である開始音が検出され、その開始音の検出に対応
して、音声認識が行われる。従って、誤認識を防止する
ことが可能となる。
【図面の簡単な説明】
【図1】本発明を適用したロボットの一実施の形態の外
観構成例を示す斜視図である。
【図2】ロボットの内部構成を示すブロック図である。
【図3】制御部11のハードウェア構成例を示すブロッ
ク図である。
【図4】制御部11がプログラムが実行することにより
実現される、制御部11の機能的構成例を示すブロック
図である。
【図5】行動モデルとしての確率オートマトンを示す図
である。
【図6】センサ入力処理部31における音声認識を行う
部分としての音声認識装置の構成例を示すブロック図で
ある。
【図7】開始音検出部46の処理を説明するための図で
ある。
【図8】図6の音声認識装置の動作を説明するためのフ
ローチャートである。
【図9】音声波形を示す図である。
【図10】図6の音声認識装置の動作を説明するための
フローチャートである。
【符号の説明】
1 尻尾ユニット, 2 胴体部ユニット, 3 頭部
ユニット, 4A乃至4D 大腿部ユニット, 5A乃
至5D 脛部ユニット, 6A乃至6D 脚部ユニッ
ト, 71乃至7N モータ, 8 カメラ, 9 マイ
ク, 10 圧力センサ, 11 制御部, 121
至12N ロータリエンコーダ, 20 CPU, 2
1 プログラムメモリ, 22 RAM, 23 不揮
発性メモリ,24 I/F, 25 モータドライバ,
31 センサ入力処理部, 32感情/本能モデル
部, 33 行動決定部, 33A 行動モデル記憶
部,34 姿勢遷移部, 35 モータ制御部, 41
特徴パラメータ抽出部,42 マッチング部, 43
音響モデル記憶部, 44 辞書記憶部, 45文法
記憶部, 46 開始音検出部
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G10L 11/02 G10L 3/00 571K 15/04 513A 15/00 551H // G10L 101:065 Fターム(参考) 2C150 AA14 BA06 CA02 DA05 DA24 DA27 DA28 DF02 EF16 EF29 3F059 AA00 BA02 BB06 BC04 CA05 CA09 DA05 DA09 DB04 DB09 DC01 DC04 DC08 DD01 DD05 DD18 FA03 FA05 FB12 FC07 FC14 3F060 AA00 CA14 GA05 GA11 GB21 GD14 GD15 5D015 CC15 DD04 DD05 KK01 LL00

Claims (6)

    【特許請求の範囲】
  1. 【請求項1】 ロボットの行動を制御するロボット制御
    装置であって、 第1の閾値以上のパワーの音であって、第2の閾値以上
    の時間継続しない音である開始音を検出する検出手段
    と、 前記開始音の検出に対応して、音声認識を行う音声認識
    手段と、 前記音声認識手段による音声認識結果に基づいて、前記
    ロボットの行動を制御する制御手段とを備えることを特
    徴とするロボット制御装置。
  2. 【請求項2】 前記検出手段は、前記開始音を検出して
    から所定の時間が経過したときのタイミングを、前記音
    声区間の開始点として、さらに検出し、 前記音声認識手段は、前記音声区間の開始点後を対象に
    音声認識を行うことを特徴とする請求項1に記載のロボ
    ット制御装置。
  3. 【請求項3】 前記音声認識手段は、音声認識の対象と
    する語彙が登録されている複数の単語辞書を有し、 前記開始音が検出された場合に、前記複数の単語辞書の
    うち、所定の単語辞書のみを用いて、音声認識を行うこ
    とを特徴とする請求項1に記載の音声認識装置。
  4. 【請求項4】 前記開始音が検出された場合に、前記音
    声認識手段が用いる前記所定の単語辞書は、前記ロボッ
    トに対する命令を与える語彙が登録されているものであ
    ることを特徴とする請求項3に記載の音声認識装置。
  5. 【請求項5】 ロボットの行動を制御するロボット制御
    方法であって、 第1の閾値以上のパワーの音であって、第2の閾値以上
    の時間継続しない音である開始音を検出する検出ステッ
    プと、 前記開始音の検出に対応して、音声認識を行う音声認識
    ステップと、 前記音声認識ステップにおける音声認識結果に基づい
    て、前記ロボットの行動を制御する制御手段とを備える
    ことを特徴とするロボット制御方法。
  6. 【請求項6】 ロボットの行動を制御する制御処理を、
    コンピュータに行わせるプログラムが記録されている記
    録媒体であって、 第1の閾値以上のパワーの音であって、第2の閾値以上
    の時間継続しない音である開始音を検出する検出ステッ
    プと、 前記開始音の検出に対応して、音声認識を行う音声認識
    ステップと、 前記音声認識ステップにおける音声認識結果に基づい
    て、前記ロボットの行動を制御する制御手段とを備える
    プログラムが記録されていることを特徴とする記録媒
    体。
JP34046999A 1999-11-30 1999-11-30 ロボット制御装置およびロボット制御方法、並びに記録媒体 Withdrawn JP2001154692A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP34046999A JP2001154692A (ja) 1999-11-30 1999-11-30 ロボット制御装置およびロボット制御方法、並びに記録媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP34046999A JP2001154692A (ja) 1999-11-30 1999-11-30 ロボット制御装置およびロボット制御方法、並びに記録媒体

Publications (1)

Publication Number Publication Date
JP2001154692A true JP2001154692A (ja) 2001-06-08

Family

ID=18337270

Family Applications (1)

Application Number Title Priority Date Filing Date
JP34046999A Withdrawn JP2001154692A (ja) 1999-11-30 1999-11-30 ロボット制御装置およびロボット制御方法、並びに記録媒体

Country Status (1)

Country Link
JP (1) JP2001154692A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7409267B2 (en) 2003-11-04 2008-08-05 Kabushiki Kaisha Toshiba Predictive robot, control method for predictive robot, and predictive robotic system
JP2011221702A (ja) * 2010-04-07 2011-11-04 Sony Corp 音声信号処理装置、音声信号処理方法、プログラム
JP2012173325A (ja) * 2011-02-17 2012-09-10 Toshiba Corp 音声認識操作装置及び音声認識操作方法
JP2013134302A (ja) * 2011-12-26 2013-07-08 Denso Corp 音声認識装置
JP2015039071A (ja) * 2011-03-30 2015-02-26 株式会社東芝 音声認識操作装置及び音声認識操作方法

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7409267B2 (en) 2003-11-04 2008-08-05 Kabushiki Kaisha Toshiba Predictive robot, control method for predictive robot, and predictive robotic system
JP2011221702A (ja) * 2010-04-07 2011-11-04 Sony Corp 音声信号処理装置、音声信号処理方法、プログラム
US8634565B2 (en) 2010-04-07 2014-01-21 Sony Corporation Audio signal processing apparatus, audio signal processing method, and program
US9479883B2 (en) 2010-04-07 2016-10-25 Sony Corporation Audio signal processing apparatus, audio signal processing method, and program
JP2012173325A (ja) * 2011-02-17 2012-09-10 Toshiba Corp 音声認識操作装置及び音声認識操作方法
JP2015039071A (ja) * 2011-03-30 2015-02-26 株式会社東芝 音声認識操作装置及び音声認識操作方法
JP2013134302A (ja) * 2011-12-26 2013-07-08 Denso Corp 音声認識装置

Similar Documents

Publication Publication Date Title
JP2001157976A (ja) ロボット制御装置およびロボット制御方法、並びに記録媒体
US7065490B1 (en) Voice processing method based on the emotion and instinct states of a robot
WO2000040377A1 (fr) Appareil de type machine, procede d'actionnement de celui-ci et support enregistre
JP4296714B2 (ja) ロボット制御装置およびロボット制御方法、記録媒体、並びにプログラム
JP2001188555A (ja) 情報処理装置および方法、並びに記録媒体
JP2002358095A (ja) 音声処理装置および音声処理方法、並びにプログラムおよび記録媒体
JP2005022065A (ja) 音声対話装置及び方法並びにロボット装置
JP2002268699A (ja) 音声合成装置及び音声合成方法、並びにプログラムおよび記録媒体
JP2001188787A (ja) 会話処理装置および方法、並びに記録媒体
JP2001154685A (ja) 音声認識装置および音声認識方法、並びに記録媒体
JP2021184087A (ja) サウンド特徴に対する音響モデル条件付け
JP2002116792A (ja) ロボット制御装置およびロボット制御方法、並びに記録媒体
JP2001154692A (ja) ロボット制御装置およびロボット制御方法、並びに記録媒体
JP4600736B2 (ja) ロボット制御装置および方法、記録媒体、並びにプログラム
JP4587009B2 (ja) ロボット制御装置およびロボット制御方法、並びに記録媒体
JP2002323900A (ja) ロボット装置、プログラム及び記録媒体
JP2001154693A (ja) ロボット制御装置およびロボット制御方法、並びに記録媒体
JP2004283927A (ja) ロボット制御装置および方法、記録媒体、並びにプログラム
JP2002268663A (ja) 音声合成装置および音声合成方法、並びにプログラムおよび記録媒体
JP2001212780A (ja) 行動制御装置および行動制御方法、並びに記録媒体
JP4706893B2 (ja) 音声認識装置および方法、並びに、プログラムおよび記録媒体
JP2002307349A (ja) ロボット装置、情報学習方法、プログラム及び記録媒体
JP2004286805A (ja) 話者識別装置および話者識別方法、並びにプログラム
JP2002258886A (ja) 音声合成装置および音声合成方法、並びにプログラムおよび記録媒体
JP4656354B2 (ja) 音声処理装置および音声処理方法、並びに記録媒体

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20070206