JP2003266353A - ロボット装置及びその制御方法 - Google Patents

ロボット装置及びその制御方法

Info

Publication number
JP2003266353A
JP2003266353A JP2002074909A JP2002074909A JP2003266353A JP 2003266353 A JP2003266353 A JP 2003266353A JP 2002074909 A JP2002074909 A JP 2002074909A JP 2002074909 A JP2002074909 A JP 2002074909A JP 2003266353 A JP2003266353 A JP 2003266353A
Authority
JP
Japan
Prior art keywords
robot
operation command
reflex movement
state
motion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002074909A
Other languages
English (en)
Inventor
Masaki Fukuchi
正樹 福地
Takeshi Takagi
剛 高木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2002074909A priority Critical patent/JP2003266353A/ja
Publication of JP2003266353A publication Critical patent/JP2003266353A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Manipulator (AREA)
  • Toys (AREA)

Abstract

(57)【要約】 【課題】本発明は、エンターテインメント性を格段と向
上し得るロボット装置及びその制御方法を実現するもの
である。 【解決手段】外部の状態を検知した後、当該検知した外
部の状態が、人間の反射運動を引き起させる状態である
か否かを判断し、当該判断結果に基づいて生成した反射
運動に応じた動作指令を、反射運動以外に基づく動作指
令よりも優先させて、当該反射運動に応じた動作指令に
対応する駆動系を制御するようにしたことにより、あた
かも人間が外部状況に応じて反射的に行動する場合と同
様の行動をリアルタイムで発現させることができるよう
にした。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明はロボット装置及びそ
の制御方法に関し、例えばエンターテインメントロボッ
トに適用して好適なものである。
【0002】
【従来の技術】近年、一般家庭向けのエンターテインメ
ントロボットが数多く商品化されている。そしてこのよ
うなエンターテインメントロボットの中には、CCD
(ChargeCoupled Device)カメラやマイクロホン等の各
種外部センサが搭載され、これら外部センサの出力に基
づいて外部状況を認識し、認識結果に基づいて自律的に
行動し得るようになされたものなどもある。
【0003】
【発明が解決しようとする課題】ところで、かかる自律
型のロボットには、ユーザから発せられる動作や音声に
応じて、発現可能な各種の行動をとるといった、ユーザ
との間で自然なやりとりを行うようになされている。
【0004】実際にロボットでは、各種センサの検出結
果に基づいて、次に発現する動作を表す動作コマンドを
生成して、当該動作コマンドを各種アクチュエータに供
給することにより、当該動作コマンドに基づく動作を発
現するようになされている。
【0005】このときロボットが現時点の動作中に複数
種類の動作コマンドを生成した場合、当該各動作コマン
ドを生成順にスケジューリングしながら管理するのが一
般的な手法として考えられる。
【0006】ところが、外部の状況を各種センサが検出
したときに、当該検出結果がロボットに対して緊急性を
要するか否かを明確に区別する方法が確立されておら
ず、外部の状況に対して自己の意思のまま(随意的)に
行動するのか、自己の意思と無関係(反射的)に行動す
るのかにかかわらず、各種センサの検出結果の受け取り
順に動作コマンドを順次生成し、当該動作コマンドの生
成順にロボットの動作を順次発現させているのが現状で
ある。
【0007】この発現方法によると、例えばロボットが
ダンスを踊っていたり又はボールを蹴っていたりしてい
る動作中に物体が急接近してきたとき、当該物体を回避
するといった回避動作を発現することは非常に困難とな
る。
【0008】この原因は、ロボット内部の処理におい
て、各種センサの検出結果を受け取るタイミングが随意
系と反射系とで分かれておらず、非常に緊急度が高いセ
ンサ情報であっても、それより前に受け取った緊急度が
低い他のセンサ情報から先に処理するからである。
【0009】この結果、ロボットがダンス中などに急接
近する物体を発見しても、ダンスが終わった後に、びっ
くりする動作を発現するといったように、反射的に行動
すべき事態に対しても非常に不自然な動きとなることと
なる。この動きは人間から見ても不可解であり、親近感
が沸かないおそれがある。
【0010】さらに、従来技術においては、ロボットが
自分に近づいてくる物体の距離を測定しながら、当該距
離情報を用いて急接近する物体に対してびっくりすると
いう動作を行うといった実現例は未だ提案されていな
い。
【0011】通常、急接近する物体を検出する手法とし
ては、物体を撮像しながら当該撮像画像内に占める物体
の大きさに基づいて物体の距離を推定する方法が提案さ
れているが、この方法によると、物体の大きさが既知の
場合しか取り扱うことが非常に困難となる。例えば、壁
に貼ってあるポスターに大きな人間の手が描写されてい
る場合に、当該ポスターが少し動いただけで、人間の手
が接近する物体であると判断してしまうおそれがあっ
た。
【0012】本発明は以上の点を考慮してなされたもの
で、エンターテインメント性を格段と向上し得るロボッ
ト装置及びその制御方法を提案しようとするものであ
る。
【0013】
【課題を解決するための手段】かかる課題を解決するた
め本発明においては、外部の状態を検知するセンサ手段
と、センサ手段によって検知された外部の状態が、人間
の反射運動を引き起させる状態であるか否かを判断する
状態判断手段と、状態判断手段による判断結果に基づい
て、反射運動に応じた動作指令を生成する動作指令生成
手段と、動作指令生成手段から供給される動作指令に基
づいて、当該動作指令に対応する駆動系を制御する制御
手段とを設け、制御手段は、動作指令生成手段から反射
運動に応じた動作指令を受けたとき、当該動作指令を反
射運動以外に基づく動作指令よりも優先させるようにし
た。
【0014】この結果、このロボット装置では、あたか
も人間が外部状況に応じて反射的に行動する場合と同様
の行動をリアルタイムで発現させることができる。
【0015】また本発明においては、外部の状態を検知
する第1のステップと、検知された外部の状態が、人間
の反射運動を引き起させる状態であるか否かを判断する
第2のステップと、判断結果に基づいて、反射運動に応
じた動作指令を生成する第3のステップと、反射運動に
応じた動作指令を反射運動以外に基づく動作指令よりも
優先させて、当該反射運動に応じた動作指令に対応する
駆動系を制御する第4のステップとを設けるようにし
た。
【0016】この結果、このロボット装置の制御方法で
は、あたかも人間が外部状況に応じて反射的に行動する
場合と同様の行動をリアルタイムで発現させることがで
きる。
【0017】
【発明の実施の形態】以下図面について、本発明の一実
施の形態を詳述する。
【0018】(1)本実施の形態によるロボットの構成 図1及び図2において、1は全体として本実施の形態に
よる2足歩行型のロボットを示し、胴体部ユニット2の
上部に頭部ユニット3が配設されると共に、当該胴体部
ユニット2の上部左右にそれぞれ同じ構成の腕部ユニッ
ト4A、4Bがそれぞれ配設され、かつ胴体部ユニット
2の下部左右にそれぞれ同じ構成の脚部ユニット5A、
5Bがそれぞれ所定位置に取り付けられることにより構
成されている。
【0019】胴体部ユニット2においては、体幹上部を
形成するフレーム10及び体幹下部を形成する腰ベース
11が腰関節機構12を介して連結することにより構成
されており、体幹下部の腰ベース11に固定された腰関
節機構12の各アクチュエータA1、A2をそれぞれ駆
動することによって、体幹上部を図3に示す直交するロ
ール軸13及びピッチ軸14の回りにそれぞれ独立に回
転させることができるようになされている。
【0020】また頭部ユニット3は、フレーム10の上
端に固定された肩ベース15の上面中央部に首関節機構
16を介して取り付けられており、当該首関節機構16
の各アクチュエータA3、A4をそれぞれ駆動すること
によって、図3に示す直交するピッチ軸17及びヨー軸
18の回りにそれぞれ独立に回転させることができるよ
うになされている。
【0021】さらに各腕部ユニット4A、4Bは、それ
ぞれ肩関節機構19を介して肩ベース15の左右に取り
付けられており、対応する肩関節機構19の各アクチュ
エータA5、A6をそれぞれ駆動することによって図3
に示す直交するピッチ軸20及びロール軸21の回りに
それぞれ独立に回転させることができるようになされて
いる。
【0022】この場合、各腕部ユニット4A、4Bは、
それぞれ上腕部を形成するアクチュエータA7の出力軸
に肘関節機構22を介して前腕部を形成するアクチュエ
ータA8が連結され、当該前腕部の先端に手部23が取
り付けられることにより構成されている。
【0023】そして各腕部ユニット4A、4Bでは、ア
クチュエータA7を駆動することによって前腕部を図3
に示すヨー軸24の回りに回転させ、アクチュエータA
8を駆動することによって前腕部を図3に示すピッチ軸
25の回りにそれぞれ回転させることができるようにな
されている。
【0024】これに対して各脚部ユニット5A、5Bに
おいては、それぞれ股関節機構26を介して体幹下部の
腰ベース11にそれぞれ取り付けられており、それぞれ
対応する股関節機構26の各アクチュエータをA9〜A
11それぞれ駆動することによって、図3に示す互いに
直交するヨー軸27、ロール軸28及びピッチ軸29の
回りにそれぞれ独立に回転させることができるようにな
されている。
【0025】この場合各脚部ユニット5A、5Bは、そ
れぞれ大腿部を形成するフレーム30の下端に膝関節機
構31を介して下腿部を形成するフレーム32が連結さ
れると共に、当該フレーム32の下端に足首関節機構3
3を介して足部34が連結されることにより構成されて
いる。
【0026】これにより各脚部ユニット5A、5Bにお
いては、膝関節機構31を形成するアクチュエータA1
2を駆動することによって、下腿部を図3に示すピッチ
軸35の回りに回転させることができ、また足首関節機
構33のアクチュエータA13、A14をそれぞれ駆動
することによって、足部34を図3に示す直交するピッ
チ軸36及びロール軸37の回りにそれぞれ独立に回転
させることができるようになされている。
【0027】また胴体部ユニット2の体幹下部を形成す
る腰ベース11の背面側には、図4に示すように、当該
ロボット1全体の動作制御を司るメイン制御部40と、
電源回路及び通信回路などの周辺回路41と、バッテリ
45(図5)となどがボックスに収納されてなる制御ユ
ニット42が配設されている。
【0028】そしてこの制御ユニット42は、各構成ユ
ニット(胴体部ユニット2、頭部ユニット3、各腕部ユ
ニット4A、4B及び各脚部ユニット5A、5B)内に
それぞれ配設された各サブ制御部43A〜43Dと接続
されており、これらサブ制御部43A〜43Dに対して
必要な電源電圧を供給したり、これらサブ制御部43A
〜43Dと通信を行ったりすることができるようになさ
れている。
【0029】また各サブ制御部43A〜43Dは、それ
ぞれ対応する構成ユニット内の各アクチュエータA1〜
A14と接続されており、当該構成ユニット内の各アク
チュエータA1〜A14をメイン制御部40から与えら
れる各種制御コマンドに基づいて指定された状態に駆動
し得るようになされている。
【0030】さらに頭部ユニット3には、図5に示すよ
うに、このロボット1の「目」として機能する一対のC
CD(Charge Coupled Device )カメラ50A、50B
及び「耳」として機能するマイクロホン51、タッチセ
ンサ52及び光センサ53などからなる外部センサ部5
4と、「口」として機能するスピーカ55となどがそれ
ぞれ所定位置に配設され、制御ユニット42内には、バ
ッテリセンサ56及び加速度センサ57などからなる内
部センサ部58が配設されている。
【0031】そして外部センサ部54のCCDカメラ5
0A、50Bは、周囲の状況を撮像し、得られた画像信
号S1Aをメイン制御部40に送出してフレーム単位で
内部メモリ40Aに順次記憶する一方、マイクロホン5
1は、ユーザから音声入力として与えられる「歩け」、
「伏せ」又は「ボールを追いかけろ」等の各種命令音声
を集音し、かくして得られた音声信号S1Bをメイン制
御部40に送出するようになされている。
【0032】さらにタッチセンサ52は、図1及び図2
において明らかなように頭部ユニット3の上部に設けら
れており、ユーザからの「撫でる」や「叩く」といった
物理的な働きかけにより受けた圧力を検出し、検出結果
を圧力検出信号S1Cとしてメイン制御部40に送出す
る。
【0033】さらに光センサ53は、頭部ユニット3に
おける一対のCCDカメラ50A、50Bの近傍に設け
られたCdS(硫化カドミウム)等の光電変換素子でな
り、受けた光の強さによって抵抗値が変化することによ
り、ロボット1自身に照射される光の強さを検出し、検
出結果を光強度検出信号S1Dとしてメイン制御部40
に送出する。
【0034】さらに内部センサ部58のバッテリセンサ
56は、バッテリ45のエネルギ残量を所定周期で検出
し、検出結果をバッテリ残量検出信号S2Aとしてメイ
ン制御部40に送出する一方、加速度センサ57は、3
軸方向(x軸、y軸及びz軸)の加速度を所定周期で検
出し、検出結果を加速度検出信号S2Bとしてメイン制
御部40に送出する。
【0035】メイン制御部40は、外部センサ部54の
CCDカメラ50A、50B、マイクロホン51、タッ
チセンサ52及び光センサ53等からそれぞれ供給され
る画像信号S1A、音声信号S1B、圧力検出信号S1
C及び光強度検出信号S1D等(以下、これらをまとめ
て外部センサ信号S1と呼ぶ)と、内部センサ部58の
バッテリセンサ56及び加速度センサ57等からそれぞ
れ供給されるバッテリ残量検出信号S2A及び加速度検
出信号S2B等(以下、これらをまとめて内部センサ信
号S2と呼ぶ)に基づいて、ロボット1の周囲及び内部
の状況や、ユーザからの指令、ユーザからの働きかけの
有無などを判断する。
【0036】そしてメイン制御部40は、この判断結果
と、予め内部メモリ40Aに格納されている制御プログ
ラムと、そのとき装填されている外部メモリ59に格納
されている各種制御パラメータとに基づいて続く行動を
決定し、決定結果に基づく制御コマンドを対応するサブ
制御部43A〜43Dに送出する。この結果、この制御
コマンドに基づき、そのサブ制御部43A〜43Dの制
御のもとに、対応するアクチュエータA1〜A14が駆
動され、かくして頭部ユニット3を上下左右に揺動させ
たり、腕部ユニット4A、4Bを上にあげたり、歩行す
るなどの行動がロボット1により発現されることとな
る。
【0037】またこの際メイン制御部40は、必要に応
じて所定の音声信号S3をスピーカ54に与えることに
より当該音声信号S3に基づく音声を外部に出力させた
り、外見上の「目」として機能する頭部ユニット3の所
定位置に設けられたLEDに駆動信号を出力することに
よりこれを点滅させる。
【0038】このようにしてこのロボット1において
は、周囲及び内部の状況や、ユーザからの指令及び働き
かけの有無などに基づいて自律的に行動することができ
るようになされている。
【0039】(2)反射行動優先機能に関するメイン制
御部40の処理 次にこのロボット1に搭載された反射行動優先機能につ
いて説明する。このロボット1には、外部センサ部54
から得られるセンサ情報S1に基づいて、当該センサ情
報S1が非常に緊急度が高い場合には、それより前に受
け取ったセンサ情報S1よりも優先的に処理することに
より、当該緊急度の高いセンサ情報S1に応じた動作コ
マンドを生成して対応する行動をロボットに発現させ得
る反射行動優先機能が搭載されている。そしてこの反射
行動優先機能は、メイン制御部40における各種処理に
より実現されている。
【0040】ここで、かかる反射行動優先機能に関する
メイン制御部40の処理内容を機能的に分類すると、図
6に示すように、センサ情報処理部60、第1次センサ
情報統合部61、反射系判断部62、第2次センサ情報
統合部63、随意系判断部64及び行動制御部65に分
けることができる。
【0041】センサ情報処理部60は、外部センサ部5
4のセンサ情報S1(S1A〜S1D)に基づいて、そ
れぞれ対応する検出処理を実行する。
【0042】具体的には、センサ情報処理部60は、一
対のCCDカメラ50A、50Bから与えられる画像信
号S1Aを常時監視し、当該画像信号S1Aに基づくフ
レーム画像内に含まれる人の顔の形態的特徴を所定の信
号処理により検出(以下、これを顔検出と呼ぶ)する機
能を有している。
【0043】またセンサ情報処理部60は、一対のCC
Dカメラ50A、50Bから与えられる画像信号S1A
に基づくフレーム画像の前後変化(フレーム間の差分)
から予測される画像内部の動きを、所定の信号処理によ
り画素単位で観測時間を考慮しながら検出(以下、これ
を動き検出と呼ぶ)する機能を有している。
【0044】さらにセンサ情報処理部60は、一対のC
CDカメラ50A、50Bから与えられる画像信号S1
Aに基づくフレーム画像内の画素ごとの色レベルを所定
の信号処理により検出(以下、これを色検出と呼ぶ)す
る機能を有している。
【0045】さらにセンサ情報処理部60は、一対のC
CDカメラ50A、50Bから得られる画像信号S1A
に基づいて、当該画像信号S1Aに基づく双方のフレー
ム画像同士を画素単位で比較して当該フレーム画像内の
被写体との距離を検出(以下、これを距離検出と呼ぶ)
するステレオ3次元計測機能(いわゆるステレオビジョ
ン)を有している。
【0046】またセンサ情報処理部60は、マイクロホ
ン51から与えられる音声信号S1Bに含まれる人の声
の音響的特徴を、例えば“Segregation of Speakers fo
r Recognition and Speaker Identification(CH2977-7
/91/0000~0873 S1.00 1991 IEEE)”に記載された方法
等を利用した所定の信号処理により検出(以下、これを
音声検出と呼ぶ)する機能を有している。
【0047】このようにセンサ情報処理部60は、外部
センサ部54から得られる各センサ情報に基づく各種の
検出処理を行った後、当該各検出結果を第1次センサ情
報統合部61に送出する。
【0048】この第1次センサ情報統合部61は、セン
サ情報処理部60から得られた各検出結果について、当
該各検出結果の補完や種類の統合といった比較的演算処
理に要する負担が軽い処理を実行した後、当該処理結果
を反射系判断部62及び第2次センサ情報統合部63に
送出する。
【0049】例えば第1次センサ情報統合部61は、セ
ンサ情報処理部60から画像信号S1Aに基づく顔検出
結果、動き検出結果、色検出結果及び距離検出結果に基
づいて、当該画像信号S1Aに基づくフレーム画像内に
存在する特定の物体の形状、模様、色彩及び大きさ等を
認識する。
【0050】反射系判断部62は、第1次センサ情報統
合部61による処理結果に基づいて、所定の成立条件を
満たした場合のみ、対応する動作コマンドを生成した
後、行動制御部に送出する。
【0051】かかる成立条件は、外部から働く種々の作
用のうち人間が無意識にとる反射行動の原因となり得る
非常に緊急度が高いものについて、外部センサ部54を
構成する各種センサごとにそれぞれ閾値レベルを設定す
ることにより決定されるものである。
【0052】例えばマイクロホン55から得られる音声
信号S1Bの信号レベルが所定の閾値レベル以上の場合
には、集音した音声の音量が人間の耳で聞いた場合でも
非常に大きいと思われる程度であると判断し、当該判断
結果に基づいて「びっくりした」という音声言語を発話
させるための動作コマンドを生成する。
【0053】また一対のCCDカメラ50A、50Bか
ら得られる画像信号に基づくフレーム画像内で、上述の
動き検出及び距離検出により所定速度以上の速さで急接
近する物体を検出した場合には、「びっくりした」とい
う音声言語を表す発話させると共にロボット1が「顔を
覆う」動作を発現させるための動作コマンドを生成す
る。
【0054】さらにタッチセンサ52から得られる圧力
検出信号S1Cに基づく圧力レベルが所定レベル以上に
なった場合には、非常に強い力で急に外部から接触する
物体を検出した場合には、当該接触した物体を避けると
同時にロボット1自身が振り向く動作を発現させるため
の動作コマンドを生成する。
【0055】一方、第2次センサ情報統合部63は、第
1次センサ情報統合部61の処理結果を受け取ると、当
該第1次センサ情報統合部61よりもセンサ情報処理部
60から得られた各検出結果について高度な意味処理
(例えば、過去の記憶に基づく連想など)やそれらの統
合といった比較的演算処理に要する負担が重い処理を実
行した後、当該処理結果を随意系判断部64に送出す
る。
【0056】随意系判断部64は、第2次センサ情報統
合部63による処理結果に基づいて、当該処理結果であ
る高度に意味処理された動作を発現させるための動作コ
マンドを生成した後、行動制御部65に送出する。
【0057】行動制御部65は、反射系判断部62及び
随意系判断部64が生成した各動作コマンドを受け取る
と、当該各動作コマンドのうち反射系判断部62が生成
した動作コマンドを随意系判断部64が生成した動作コ
マンドよりも優先的に取り込み、当該動作コマンドに応
じた駆動指令を該当するアクチュエータ43A〜43D
及び又はスピーカ55に送出する。
【0058】かくしてロボット1は、行動制御部65に
よる駆動指令に基づいて、対応する各アクチュエータ4
3A〜43Dを駆動制御し、及び又はスピーカ55から
対応する音声言語を発話させることにより、あたかも人
間が外部状況に応じて反射的に行動する場合と同様の行
動を発現させることができる。
【0059】(3)急接近物体検出時における反射行動
優先機能に関するメイン制御部40の処理 次にロボット1自身に急接近する物体を検出する場合に
ついて、上述した反射行動優先機能に関するメイン制御
部40の処理内容を詳述する。この場合、メイン制御部
40の処理機能は、図6に示す処理機能の下位概念とし
て、図7に示すように、動き検出部70、距離情報統合
部71、反射系処理部72、短期記憶部73、随意系処
理部74及び行動制御部75に分けることができる。
【0060】ここで動き検出部70、距離情報統合部7
1、反射系処理部72、短期記憶部73、随意系処理部
74及び行動制御部75は、上述した図6に示すセンサ
情報処理部60、第1次センサ情報統合部61、反射系
判断部62、第2次センサ情報統合部63、随意系判断
部64及び行動制御部65に対応するものである。
【0061】まず動き検出部70は、外部センサ部54
のうち一対のCCDカメラ50A、50Bから得られる
画像信号S1Aに基づいて、上述の動き検出を行い、当
該画像信号S1Aに基づくフレーム画像内の所定の観測
領域内で所定時間連続して動きがある領域(以下、これ
を動作領域と呼ぶ)を観測したとき、当該フレーム画像
に対する動作領域の左上位置(座標)及びその大きさ
(縦横の画素数)を表すデータ(以下、これを動作領域
位置データと呼ぶ)を距離情報統合部71に送出する。
【0062】また動き検出部70は、一対のCCDカメ
ラ50A、50Bから得られる画像信号S1Aに基づい
て、上述の距離検出を行い、当該画像信号S1Aに基づ
くフレーム画像内の所定の観測領域内で当該観測領域を
形成する各画素の距離(ロボット1から当該観測領域に
相当する被写体までの距離)を測定した後、当該各画素
の距離を表すデータ(以下、これを画素単位距離データ
と呼ぶ)を距離情報統合部71に送出する。
【0063】距離情報統合部71は、動き検出部70か
ら得られた動作領域位置データ及び画素単位距離データ
に基づいて、フレーム画像内の動作領域について、ロボ
ット1から当該動作領域に相当する被写体までの距離を
推定した後、当該距離を表すデータ(以下、これを距離
決定データと呼ぶ)を反射系処理部72及び短期記憶部
73に送出する。
【0064】具体的には、距離情報統合部71は、動作
領域位置データによって指定されるフレーム画像内の動
作領域を形成する全ての画素について、画素単位距離デ
ータによって当該各画素に相当する被写体までの距離を
それぞれ求めた後、当該全ての距離値について所定の統
計処理を実行することにより上述の距離決定データを求
める。
【0065】この統計処理としては、動作領域内の各画
素の距離値を複数のガウス分布の集合として推定し、当
該推定されたガウス分布のうち支配的な分布の中央値を
その動作領域の距離情報として距離決定データとする。
なおこれ以外にも、動作領域の中心に位置する画素の距
離値をその動作領域の距離情報とする方法や、動作領域
内の各画素の距離の平均値をその動作領域の距離情報と
する方法を用いるようにしても良い。
【0066】反射系処理部72は、距離情報統合部71
から得られる距離決定データに基づいて、以下に述べる
急接近物体検出機能による所定の成立条件を満たした場
合には、即座に対応する動作コマンドを生成して行動制
御部75に送出する一方、当該成立条件を満たさない場
合には、次の距離決定データが与えられるのを待つ。
【0067】かかる反射系の成立条件として、外部から
働く種々の作用のうち「急になんとかする」というもの
が非常に多く、これは一般的に各種センサの観測値の速
度で求めることができる。特にロボット1の場合におけ
る各種センサ(外部センサ部54)に設定する閾値レベ
ルは、人間の場合において設定した閾値レベルに、当該
ロボットと人間とのサイズ(大きさ)の比を乗算するこ
とによって求めるのが自然である。
【0068】本実施の形態の場合、反射系処理部72
は、急接近物体検出機能を用いて、距離情報統合部71
から得られる距離決定データに基づく動作領域に相当す
る被写体である物体がロボット1に急接近してきたと判
断した場合、ロボット1自身にとって危険(近い将来ロ
ボットに衝突する)と判断したときには、この物体の衝
突を回避するための動作コマンドを生成して行動制御部
75に送出する。
【0069】かかる急接近物体検出機能には、以下に示
すように2種類の異なる判定基準モデルが考えられる。
【0070】第1の判定基準モデルの場合、ロボット1
に対する物体の距離及び速度に基づいて当該物体が急接
近物体であるか否かを判定するモデルである。
【0071】まずフレーム画像内の動作領域に基づく距
離決定データに対してメディアンフィルタ等の平滑化フ
ィルタを用いてフィルタリングを行うことにより、当該
距離決定データに含まれるランダム雑音を抑制する。
【0072】距離決定データに基づく動作領域に相当す
る物体とロボット1との距離をX(i:データ番号)
とすると、N(N:自然数)番前の中央値を基準とする
メディアンフィルタ処理後の距離X´は、次式
【0073】
【数1】
【0074】で表される。そして、動作領域に相当する
物体の速度Vは、次式
【0075】
【数2】
【0076】で表され、当該物体の速度Vが、ロボッ
ト1にとって急接近物体であると判断される閾値V
fast以上の値であり、かつ、当該物体の距離X
十分に近いと判断される閾値Xclose以上の値であ
る場合、すなわち次式
【0077】
【数3】
【0078】
【数4】
【0079】を同時に満たす場合には、当該物体が急接
近物体でありロボット1自身に衝突する危険があると判
断する。
【0080】また物体の距離Xが閾値Xclose
り大きい値の場合、すなわち次式
【0081】
【数5】
【0082】を満たす場合には、当該物体がロボット1
から十分遠いところにあり衝突の危険性がないと判断す
る。
【0083】さらに当該物体の速度Vが上述の閾値V
fast以上の値であっても負の値を示す場合、すなわ
ち次式
【0084】
【数6】
【0085】の場合には、当該物体は急速度でロボット
1から離れていくと判断する。
【0086】さらに当該物体の速度Vが上述の閾値V
fastより小さい値の場合、すなわち次式
【0087】
【数7】
【0088】の場合には、当該物体が急接近物体ではな
く単に移動中であると判断する。
【0089】このように急接近物体か否かを判断するた
めの閾値となる速度Vfast及び距離X
closeは、人間の場合に実際に感じると推定される
速度V(H)fa st及び距離X(H)closeと、
ロボット1と人間とのスケール比Sとにより、次式
【0090】
【数8】
【0091】
【数9】
【0092】のように表される。
【0093】実験の結果として、距離決定データについ
て、横軸に時間遷移するデータ番号をとり、縦軸にロボ
ット1を基準とした物体の距離をとった場合のグラフを
図8に示す。このグラフでは、データ番号iが30〜267
の範囲R1では、人間の手がロボットに対して何度も近
接又は離反するように動いており、データ番号iが267
〜448の範囲R2では、人間の手がロボットと等距離の
まま左右に振っており、データ番号iが448〜595の範囲
R3では、人間の手がロボット1に対してランダムに動
いている状態を表している。
【0094】まずデータ番号iが30〜267の範囲R1で
は、初めに人間の手をロボット1に対して300〔mm〕か
ら1500〔mm〕までの範囲で前後に動かし、次に、ロボッ
ト1に対して1500〔mm〕付近で手を横に振った。その
後、1100〔mm〕から1500〔mm〕までの範囲で手を前後に
動かした。
【0095】このグラフには、ロボット1に対する物体
の距離Xと、当該距離Xをフィルタリングした距離
X´と、物体の速度Vとの時間遷移がそれぞれ示さ
れている。物体の距離Xが十分に近いと判断される閾
値Xcloseと、物体の速度Vがロボット1にとっ
て急接近物体であると判断される閾値Vfastとがそ
れぞれ所定レベルに設定されている。
【0096】このグラフによれば、物体の距離Xが30
0〔mm〕から1500〔mm〕までの範囲で人間の手を前後に
動かしているときに、数回、上述の条件(式(1)及び
式(2))を満たし(図8に示すグラフ中には、上向き
の矢印ARで示す)、このとき当該物体は急接近物体と
して検出される。
【0097】このようにして反射系処理部72は、図9
に示す急接近物体検出機能処理手順RT1を実行するこ
とにより、撮像画像内で動きのある動作領域に相当する
物体がロボット1に急接近してきた場合でも、ロボット
1自身が危険と判断したときには、この物体の衝突を回
避するための動作コマンドを生成することができる。
【0098】まず反射系処理部72は、距離情報統合部
71から距離決定データを受け取ると、急接近物体検出
機能処理手順RT1をステップSP0から開始し、続く
ステップSP1において当該距離決定データを検出した
後、ステップSP2に進んで、当該距離決定データに対
してフィルタリング処理後にフレーム画像内での動作領
域に相当する物体の距離X及び速度Vを求める(式
(1)及び(2))。
【0099】続いてステップSP3において、反射系処
理部72は、当該物体がロボット1に対して急接近中で
あるか否かを、上述の式(3)を満たすか否かで判断
し、肯定結果が得られたときには、さらにステップSP
4に進んで、当該物体とロボット1との距離が衝突の危
険があるほど近いか否かを、上述の式(4)を満たすか
否かで判断する。
【0100】このステップSP4においても肯定結果が
得られると、反射系処理部72は、ステップSP5に進
んで、当該物体が急接近物体であると判断し、衝突回避
のための動作コマンドを後段の行動制御部に送出した
後、そのままステップSP6に進んで当該急接近物体検
出機能処理手順RT1を終了する。
【0101】これに対してステップSP3及びSP4に
おいて否定結果が得られると、このことは当該物体が急
接近中でもなく、又は危険なほど近づいていないことを
表しており、このとき反射系処理部72は、ステップS
P7に進んで、当該物体がロボットにとって緊急性のな
い安全な存在であると判断した後、何も動作コマンドを
生成することなく、そのままステップSP6に進んで当
該急接近物体検出機能処理手順RT1を終了する。
【0102】また第2の判定基準モデルは、ロボット1
に対する物体の到達推定時間に基づいて当該物体が急接
近物体であるか否かを判定するモデルである。
【0103】まずフレーム画像内の動作領域に基づく距
離決定データに対してメディアン(中央値)フィルタ等
の平滑化フィルタを用いてフィルタリングを行うことに
より、当該距離決定データに含まれるランダム雑音を抑
制する。
【0104】上述のように距離決定データに基づく動作
領域に相当する物体とロボット1との距離Xと、動作
領域に相当する物体の速度Vとにより、物体がロボッ
ト自身に到達するまでの到達時間tは、次式
【0105】
【数10】
【0106】で表され、この到達時間tが、負の値を
示す場合、すなわち次式
【0107】
【数11】
【0108】を満たす場合には、当該物体はロボット1
から次第に離れていくと判断する。
【0109】また到達時間tが、0又は正の値であっ
て、かつ、ロボット1にとって急接近物体であると判断
される閾値tsafety以下の値である場合、すなわ
ち次式
【0110】
【数12】
【0111】を満たす場合には、当該物体が急接近物体
でありロボット1自身に衝突する危険があると判断す
る。
【0112】さらに到達時間tが、ロボット1にとっ
て急接近物体であると判断される閾値tsafety
り大きい値である場合、すなわち次式
【0113】
【数13】
【0114】には、当該物体がロボット1に対してゆっ
くりと向かってきていると判断する。
【0115】ここでロボット1にとって急接近物体であ
ると判断される閾値tsafetyは、ロボットとの衝
突を回避するために必要な時間taboidと、安全マ
ージン時間tmarginとの和の値、すなわち次式
【0116】
【数14】
【0117】によって決定される値である。この衝突を
回避するために必要な時間taboi は、衝突回避動
作に必要なロボット1の動作の時間と、それを実現する
アクチュエータの限界値、さらにはロボット1のサイズ
によって決定される。
【0118】このようにして反射系処理部72は、図1
0に示す急接近物体検出機能処理手順RT1を実行する
ことにより、撮像画像内で動きのある動作領域に相当す
る物体がロボット1に急接近してきた場合でも、ロボッ
ト1自身が危険と判断したときには、この物体の衝突を
回避するための動作コマンドを生成することができる。
【0119】まず反射系処理部72は、距離情報統合部
71から距離決定データを受け取ると、急接近物体検出
機能処理手順RT2をステップSP10から開始し、続
くステップSP11において当該距離決定データを検出
した後、ステップSP12に進んで、当該距離決定デー
タに対してフィルタリング処理後にフレーム画像内での
動作領域に相当する物体の距離及び速度と、当該物体が
ロボット1自身に到達するまでの到達時間とを求める
(式(1)、(2)、(10))。
【0120】続いてステップSP13において、反射系
処理部72は、当該物体がロボット1に対して急接近中
であるか否かを、上述の式(13)を満たすか否かで判
断する。
【0121】このステップSP13においても肯定結果
が得られると、反射系処理部72は、ステップSP14
に進んで、当該物体が急接近物体であると判断し、衝突
回避のための動作コマンドを後段の行動制御部に送出し
た後、そのままステップSP15に進んで当該急接近物
体検出機能処理手順RT2を終了する。
【0122】これに対してステップSP13において否
定結果が得られると、このことは当該物体が急接近中で
ないことを表しており、このとき反射系処理部72は、
ステップSP16に進んで、当該物体がロボット1にと
って緊急性のない安全な存在であると判断した後、何も
動作コマンドを生成することなく、そのままステップS
P17に進んで当該急接近物体検出機能処理手順RT2
を終了する。
【0123】一方、短期記憶部73は、距離情報統合部
71から距離決定データを受け取ると共に、一対のCC
Dカメラ50A、50Bのセンサ情報に基づく顔検出結
果及び色検出結果と、マイクロホン51のセンサ情報に
基づく音声検出結果とを別系統から受け取る。
【0124】本実施の形態の場合、上述した図6に示す
反射行動優先機能に関するメイン制御部40の処理内容
のうち、ロボット1自身に急接近する物体を検出する場
合の処理内容を図5に示し、かかる図5において、セン
サ情報処理部60及び第1次センサ情報統合部61に対
応する処理内容として動き検出部及び距離情報統合部の
みが記載されているが、実際には、随意系処理部74で
高度な意味処理をするにあたって外部センサ部54を構
成する他の種々のセンサ情報をも必要とすることから、
当該他の種々のセンサ情報についても、センサ情報処理
部及び第1次センサ情報統合部に対応する処理内容(図
示せず)を介して各種検出結果が短期記憶部73に与え
られるようになされている。
【0125】短期記憶部73は、距離決定データ並びに
上述した顔検出結果、色検出結果及び音声検出結果を総
合して短期的に保持する。そして短期記憶部73は、距
離決定データに基づくフレーム画像内の動作領域に相当
する物体の距離と、当該動作領域に関する顔検出結果及
び色検出結果と、当該動作領域に関する音声検出結果と
に基づいて、当該動作領域に相当する物体を時間及び位
置などを用いて連想する。
【0126】例えば、顔検出結果として得られる顔画像
について、当該顔画像に対応する領域に、色検出結果と
して肌色が得られた場合には、当該顔画像と肌色とを統
合して、「肌色の顔」としてまとめることができる。ま
た顔画像の位置する方向から音声検出結果が得られた場
合には、当該音声検出結果が人の声を表している可能性
が高いため、上述の「肌色の顔」と「人の声」とをまと
めることができる。
【0127】随意系処理部74は、短期記憶部73によ
る処理結果、すなわちロボット1に接近する物体につい
ての連想結果に基づいて、動物における随意運動のよう
に、種々のセンサ情報を高度に意味処理し、総合的に判
断して行動を決定し、動作コマンドを発行する。
【0128】上述の例によれば、随意系処理部74は、
短期記憶部73による連想結果である肌色の動作領域を
表す情報に基づいて、当該動作領域に相当する物体を一
対のCCDカメラ50A、50Bが撮像範囲の中央で捕
らえられるようにトラッキングするための動作コマンド
を生成して行動制御部75に送出する。
【0129】行動制御部75は、アクチュエータ43A
〜43D及びスピーカ55(以下、これらをまとめてア
クチュエータ群と呼ぶ)の駆動時の競合管理や、複数の
動作コマンドのスケジューリング管理を行う。
【0130】行動制御部75は、図11(A)及び
(B)に示すような待ち行列(コマンドキュー)機能を
有し、反射系処理部72及び随意系処理部74から与え
られる動作コマンドを、選択的にどのタイミングで実行
するかを順次1つずつ決定して、当該決定した動作コマ
ンドに対応するアクチュエータ群43A〜43D、55
に動作指令を与えるようになされている。
【0131】具体的には行動制御部75は、随意系処理
部74から受けた動作コマンドを待ち行列の最後に追加
し(時点t〜t間)、当該待ち行列の先頭の動作コ
マンドに応じたアクチュエータ群43A〜43D、55
の駆動が終了した後(時点t 〜t間)、続く2番目
の動作コマンドに応じたアクチュエータ群43A〜43
D、55を駆動させるように、待ち行列の順番に従って
追加順に逐次動作コマンドに応じたアクチュエータ群4
3A〜43D、55を駆動させる(時点t〜t間)
(図11(A))。
【0132】一方、行動制御部75は、待ち行列として
蓄積された動作コマンドが全て随意系処理74から受け
た動作コマンドであり、このとき反射系処理部72から
動作コマンドを受けた場合には(時点t〜t間)、
当該動作コマンドを待ち行列の先頭に挿入すると共に随
意系の動作コマンドを全て削除して(時点t〜t
間)、待ち行列に積まれた随意形処理部74から受け
た動作コマンドよりも優先的に処理を実行させる(時点
〜t間)(図11(B))。
【0133】このようにして行動制御部75では、随意
系処理部74から受けた複数の動作コマンドの処理が待
ち状態にあっても、反射系処理部72から動作コマンド
を受けたときには当該動作コマンドを優先的に処理させ
ることにより、現在の動作を即座に中断すると同時に、
反射系処理部72において緊急性が高いと判断されたセ
ンサ情報に応じた素早い行動を発現することができる。
【0134】例えば、随意系処理部74から受けた動作
コマンドが、動いている物体をロボット1が注視できる
ようにトラッキングするための首振り及び旋回動作を表
し、実際にロボット1が当該首振り及び旋回動作を実行
している途中であって、反射系処理部72から動きのあ
る物体を避けるための回避動作を表す動作コマンドを受
けた場合、行動制御部75は、上述の待ち行列機能によ
り、当該反射系処理部72からの動作コマンドに応じた
回避動作を現在のトラッキング動作よりも優先して実行
させるように、該当するアクチュエータ群43A〜43
D、55に駆動指令を送出する。
【0135】かくしてロボット1は、行動制御部65に
よる駆動指令に基づいて、対応する各アクチュエータ4
3A〜43Dを駆動制御し、及び又はスピーカ55から
対応する音声言語を発話させることにより、あたかも人
間が外部状況に応じて反射的に行動する場合と同様の行
動を発現させることができる。
【0136】上述の例では、ロボット1は、図12
(A)のように、動きのある物体(例えば人間の手)を
検出した場合、まず頭部ユニット3に搭載されたCCD
カメラ50A、50Bの向きが当該物体を注視するよう
に首を振る動作を行わせ、さらにその物体が急接近して
きたと判断したときには、図12(B)のように、即座
に「顔を覆う」といった反射動作を実行させることがで
きる。また急接近物体を検出した場合には、反射系の処
理の実行後に当該処理に連動させるように、例えば「び
っくりした」や「あぶなかった」などの音声言語の発話
を表す随意系の処理を実行させることができる。
【0137】(4)メイン制御部による反射行動優先処
理手順 メイン制御部40は、外部センサ部54のうち一対のC
CDカメラ50A、50Bから画像信号S1Aを受ける
と、反射行動優先処理手順RT3をステップSP20か
ら開始し、続くステップSP21において当該画像信号
S1Aに基づくフレーム画像を取得した後、ステップS
P22に進む。
【0138】このステップSP22において、メイン制
御部40は、かかるフレーム画像内で動作領域を検出
し、そのままステップSP23に進んで、当該動作領域
が実際に検出されたか否かを判断する。
【0139】このステップSP23において肯定結果が
得られると、メイン制御部40は、ステップSP24に
進んで、動作領域に相当する物体とロボット1との距離
を求めた後、ステップSP25に進む。これに対してス
テップSP23において否定結果が得られると、メイン
制御部40は、再度ステップSP22に戻って動作領域
が実際に検出されるのを待つ。
【0140】続いてステップSP25において、メイン
制御部40は、この物体が急接近物体であるか否かを判
断し、肯定結果が得られた場合には、ステップSP26
に進んで、反射系である衝突回避のための動作コマンド
を生成した後、ステップSP27に進んで、当該動作コ
マンドを待ち行列の先頭に挿入する。
【0141】これに対してステップSP25において否
定結果が得られると、メイン制御部40は、ステップS
P29に進んで、随意系である物体を注視するための動
作コマンドを生成した後、ステップSP30に進んで、
当該動作コマンドを待ち行列の最後に追加する。
【0142】この後、メイン制御部40は、ステップS
P27又はSP30から得られた反射系又は随意系の動
作コマンドについて、当該動作コマンドに対応するアク
チュエータ群が現在使用中であるか否かを判断する。
【0143】このステップSP28において否定結果が
得られたとき、メイン制御部40は、ステップSP31
に進んで、当該動作コマンドを実行させると共に、その
動作コマンドを待ち行列から削除した後、ステップSP
32に進んで、当該動作コマンドに対応するアクチュエ
ータ群を駆動させるようにして、そのままステップSP
33に進んで当該反射行動優先処理手順RT3を終了す
る。
【0144】これに対してステップSP28において肯
定結果が得られたとき、このことは現時点のロボット1
の行動に使用されているアクチュエータ群43A〜43
D、55が当該動作コマンドに対応するアクチュエータ
群43A〜43D、55と一致することを表しており、
このときメイン制御部40は、再度ステップSP28に
戻って肯定結果が得られるのを待つ。
【0145】(5)本実施の形態による動作及び効果 以上の構成において、このロボット1では、外部センサ
部54から得られる各種センサ情報に基づいて、CCD
カメラ50A、50Bによる撮像画像内で動作領域を検
出したとき、当該動作領域に相当する被写体である物体
が急接近しかつロボット自身に衝突する危険性があるか
否かを判断する。
【0146】その結果、急接近物体であると判断された
ときには、ロボット1が次に発現する動作の順番が予め
設定されている場合でも、当該動作の順番にかかわら
ず、急接近物体に対して衝突回避するための動作を優先
的に発現させる。
【0147】このようにロボット1は、通常の動作中に
あっても緊急性を要する場合には、その場合に応じた動
作を即座に発現するようにしたことにより、あたかも人
間が外部状況に応じて反射的に行動する場合と同様の行
動をリアルタイムで発現させることができる。
【0148】以上の構成によれば、このロボット1にお
いて、外部センサ部54から得られる各種センサ情報に
基づいて、ロボット自身に急接近しかつ衝突する危険性
がある物体を検出した際、予め設定されている動作の順
番にかかわらず、急接近物体に対して衝突回避するため
の動作を優先的に発現させるようにしたことにより、あ
たかも人間が外部状況に応じて反射的に行動する場合と
同様の行動をリアルタイムで発現させることができ、か
くしてエンターテインメント性を向上させることができ
る。
【0149】(6)他の実施の形態 なお上述の実施の形態においては、本発明を図1のよう
に構成された2足歩行型のロボット1に適用するように
した場合について述べたが、本発明はこれに限らず、こ
の他種々のロボット装置及びロボット装置以外のこの他
種々の装置に広く適用することができる。
【0150】また上述の実施の形態においては、外部の
状態を検知するセンサ手段として、外部センサ部54を
適用した場合について述べたが、本発明はこれに限ら
ず、一対のCCDカメラ50A、50B、マイクロホン
51、タッチセンサ52及び光センサ53以外にも、温
度センサや超音波センサ、赤外線センサ等のロボット1
の外部状態を検知できるものであれば、この他種々のセ
ンサ手段を適用するようにしても良い。
【0151】さらに上述の実施の形態においては、外部
センサ部(センサ手段)54によって検知されたロボッ
ト1の外部状態が、人間の反射運動を引き起させる状態
であるか否かを判断する状態判断手段として、メイン制
御部40の処理内容のうちの第1次センサ情報統合部6
1(距離情報統合部71)及び反射系判断部62(反射
系処理部72)を適用し、特に人間の反射運動を引き起
させる状態を、ロボット本体に物体が急接近しかつ衝突
間近である状態とし、当該物体がロボット本体に急接近
し衝突間近である状態か否かを、ロボット本体に対する
物体の距離及び物体の速度に基づいて判断し、又は物体
がロボット本体に到達する時間に基づいて判断するよう
にした場合について述べたが、本発明はこれに限らず、
要は、各種センサ情報に基づいて人間の反射運動を引き
起させる状態を判断することができれば、この他種々の
構成のものを広く適用するようにしても良い。
【0152】さらに上述の実施の形態においては、人間
の反射運動を引き起させる状態であると判断された結果
に基づいて、当該反射運動に応じた動作コマンド(動作
指令)を生成する動作指令生成手段として、メイン制御
部40の処理内容のうちの反射系判断部62(反射系処
理部72)を適用し、ロボット本体に物体が急接近しか
つ衝突間近な物体が検知されたときには、かかる動作コ
マンド(動作指令)として当該物体との衝突を回避する
ための動作コマンド(動作指令)を生成するようにした
場合について述べたが、本発明はこれに限らず、要は、
人間の反射運動を引き起させるような動作コマンド(動
作指令)を生成することができれば、この他種々の構成
のものを広く適用するようにしても良い。
【0153】さらに上述の実施の形態においては、供給
される動作コマンド(動作指令)に基づいて、当該動作
指令に対応するアクチュエータ群(駆動系)43A〜4
3D、55を制御する制御手段として、メイン制御部4
0の処理内容のうちの行動制御部65(75)を適用
し、反射系の動作コマンド(反射運動に応じた動作指
令)を受けたとき、当該動作コマンドを随意系の動作コ
マンド(反射運動以外に基づく動作指令)よりも優先さ
せるようにした場合について述べたが、本発明はこれに
限らず、この他種々の構成のものを広く適用するように
しても良い。
【0154】この場合、メイン制御部40の処理内容の
うちの行動制御部65(75)では、随意系の動作コマ
ンドについては、待ち行列(到着順序)に従って先頭の
動作コマンドから順次処理する一方、反射系の動作コマ
ンドについては、待ち行列(到着順序)にかかわらず当
該待ち行列(到着順序)の先頭に割り込ませて処理する
ようにしたが、本発明はこれに限らず、随意系の動作コ
マンドよりも反射系の動作コマンドを優先させて処理す
ることができれば、当該随意系の動作コマンドを全て削
除させるようにしても良く、要は、待ち行例以外の他の
順番で動作コマンドのスケジューリングを管理するよう
にしても良い。
【0155】さらに上述の実施の形態においては、急接
近物体に対する反射行動としては、当該物体との衝突を
回避するように「顔を覆う」動作を発現すると共にスピ
ーカ55を介して「びっくりした」という音声言語を発
話するようにした場合について述べたが、本発明はこれ
に限らず、この他にも「仰け反る」、「首を後ろに傾け
る」、「首を左右に振る」、「後ろに倒れる」、「屈
む」又は「左右に避ける」等の種々の動作を発現させる
ようにしても良い。またスピーカ55を介して発話する
内容も、「びっくりした」のみならず、「あぶなかっ
た」や「おどろいた」等の種々の音声言語で発話させる
ようにしても良い。
【0156】
【発明の効果】上述のように本発明によれば、外部の状
態を検知するセンサ手段と、センサ手段によって検知さ
れた外部の状態が、人間の反射運動を引き起させる状態
であるか否かを判断する状態判断手段と、状態判断手段
による判断結果に基づいて、反射運動に応じた動作指令
を生成する動作指令生成手段と、動作指令生成手段から
供給される動作指令に基づいて、当該動作指令に対応す
る駆動系を制御する制御手段とを設け、制御手段は、動
作指令生成手段から反射運動に応じた動作指令を受けた
とき、当該動作指令を反射運動以外に基づく動作指令よ
りも優先させるようにしたことにより、あたかも人間が
外部状況に応じて反射的に行動する場合と同様の行動を
リアルタイムで発現させることができ、かくしてエンタ
ーテインメント性を格段と向上し得るロボット装置を実
現できる。
【0157】また本発明によれば、外部の状態を検知す
る第1のステップと、検知された外部の状態が、人間の
反射運動を引き起させる状態であるか否かを判断する第
2のステップと、判断結果に基づいて、反射運動に応じ
た動作指令を生成する第3のステップと、反射運動に応
じた動作指令を反射運動以外に基づく動作指令よりも優
先させて、当該反射運動に応じた動作指令に対応する駆
動系を制御する第4のステップとを設けるようにしたこ
とにより、あたかも人間が外部状況に応じて反射的に行
動する場合と同様の行動をリアルタイムで発現させるこ
とができ、かくしてエンターテインメント性を格段と向
上し得るロボット装置の制御方法を実現できる。
【図面の簡単な説明】
【図1】本実施の形態によるロボットの外観構成を示す
斜視図である。
【図2】本実施の形態によるロボットの外観構成を示す
斜視図である。
【図3】本実施の形態によるロボットの外観構成の説明
に供する略線図である。
【図4】本実施の形態によるロボットの内部構成の説明
に供する略線図である。
【図5】本実施の形態によるロボットの内部構成の説明
に供する略線図である。
【図6】図5に示すメイン制御部の処理内容の説明に供
する略線図である。
【図7】図5に示すメイン制御部の処理内容の説明に供
する略線的である。
【図8】距離決定データに基づく実験結果を表すグラフ
である。
【図9】第1の判定基準モデルを用いた急接近物体検出
処理手順の説明に供するフローチャートである。
【図10】第2の判定基準モデルを用いた急接近物体検
出処理手順の説明に供するフローチャートである。
【図11】随意系及び反射系の動作コマンドに対する待
ち行列処理の説明に供する略線図である。
【図12】急接近物体検出時のロボットの様子の説明に
供する略線図である。
【図13】反射行動優先処理手順の説明に供するフロー
チャートである。
【符号の説明】
1……ロボット、40……メイン制御部、43A〜43
D……サブ制御部、50A、50B……CCDカメラ、
51……マイクロホン、52……タッチセンサ、53…
…光センサ、54……外部センサ部、55……スピー
カ、60……センサ情報処理部、61……第1次センサ
情報統合部、62……反射系判断部、63……第2次セ
ンサ情報統合部、64……随意系判断部、65、75…
…行動制御部、70……動き検出部、71……距離情報
統合部、72……反射系処理部、73……短期記憶部、
74……随意系処理部、R1、R2……急接近物体検出
処理手順、RT3……反射行動優先処理手順。
フロントページの続き Fターム(参考) 2C150 CA01 CA02 CA04 DA04 DA24 DA26 DA27 DA28 ED09 ED10 ED39 ED42 ED52 EF03 EF07 EF13 EF16 EF17 EF22 EF23 EF29 EF33 EF36 3C007 AS36 CS08 HS09 HS27 KS23 KS31 KS39 KT01 KX02 LT06 LV12 MT14 WA03 WA13 WB16 WB27

Claims (8)

    【特許請求の範囲】
  1. 【請求項1】外部の状態を検知するセンサ手段と、 上記センサ手段によって検知された上記外部の状態が、
    人間の反射運動を引き起させる状態であるか否かを判断
    する状態判断手段と、 上記状態判断手段による判断結果に基づいて、上記反射
    運動に応じた動作指令を生成する動作指令生成手段と、 上記動作指令生成手段から供給される上記動作指令に基
    づいて、当該動作指令に対応する駆動系を制御する制御
    手段とを具え、上記制御手段は、上記動作指令生成手段
    から上記反射運動に応じた動作指令を受けたとき、当該
    動作指令を上記反射運動以外に基づく動作指令よりも優
    先させることを特徴するロボット装置。
  2. 【請求項2】上記制御手段は、 上記反射運動以外に基づく複数の動作指令については、
    到着順序に従って先頭の上記動作指令から順次処理する
    一方、 上記反射運動に応じた動作指令については、上記到着順
    序にかかわらず当該到着順序の先頭に割り込ませて処理
    することを特徴とする請求項1に記載のロボット装置。
  3. 【請求項3】上記人間の反射運動を引き起させる状態
    は、ロボット本体に物体が急接近しかつ衝突間近である
    状態であり、 上記反射運動に応じた動作指令は、上記物体との衝突を
    回避するための動作指令であることを特徴とする請求項
    1に記載のロボット装置。
  4. 【請求項4】上記状態判断手段は、 上記物体が上記ロボット本体に急接近し衝突間近である
    状態か否かを、上記ロボット本体に対する上記物体の距
    離及び上記物体の速度に基づいて判断し、又は上記物体
    が上記ロボット本体に到達する時間に基づいて判断する
    ことを特徴とする請求項3に記載のロボット装置。
  5. 【請求項5】外部の状態を検知する第1のステップと、 検知された上記外部の状態が、人間の反射運動を引き起
    させる状態であるか否かを判断する第2のステップと、 上記判断結果に基づいて、上記反射運動に応じた動作指
    令を生成する第3のステップと、 上記反射運動に応じた動作指令を上記反射運動以外に基
    づく動作指令よりも優先させて、当該反射運動に応じた
    動作指令に対応する駆動系を制御する第4のステップと
    を具えることを特徴するロボット装置の制御方法。
  6. 【請求項6】上記第4のステップでは、 上記反射運動以外に基づく複数の動作指令については、
    到着順序に従って先頭の上記動作指令から順次処理する
    一方、 上記反射運動に応じた動作指令については、上記到着順
    序にかかわらず当該到着順序の先頭に割り込ませて処理
    することを特徴とする請求項5に記載のロボット装置の
    制御方法。
  7. 【請求項7】上記人間の反射運動を引き起させる状態
    は、ロボット本体に物体が急接近しかつ衝突間近である
    状態であり、 上記反射運動に応じた動作指令は、上記物体との衝突を
    回避するための動作指令であることを特徴とする請求項
    5に記載のロボット装置の制御方法。
  8. 【請求項8】上記第2のステップでは、 上記物体が上記ロボット本体に急接近し衝突間近である
    状態か否かを、上記ロボット本体に対する上記物体の距
    離及び上記物体の速度に基づいて判断し、又は上記物体
    が上記ロボット本体に到達する時間に基づいて判断する
    ことを特徴とする請求項7に記載のロボット装置の制御
    方法。
JP2002074909A 2002-03-18 2002-03-18 ロボット装置及びその制御方法 Pending JP2003266353A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002074909A JP2003266353A (ja) 2002-03-18 2002-03-18 ロボット装置及びその制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002074909A JP2003266353A (ja) 2002-03-18 2002-03-18 ロボット装置及びその制御方法

Publications (1)

Publication Number Publication Date
JP2003266353A true JP2003266353A (ja) 2003-09-24

Family

ID=29204184

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002074909A Pending JP2003266353A (ja) 2002-03-18 2002-03-18 ロボット装置及びその制御方法

Country Status (1)

Country Link
JP (1) JP2003266353A (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007044825A (ja) * 2005-08-10 2007-02-22 Toshiba Corp 行動管理装置、行動管理方法および行動管理プログラム
KR100692526B1 (ko) 2005-12-08 2007-03-12 한국전자통신연구원 시스템 자동제어용 제스처 인식 장치 및 그 방법
JP2010079697A (ja) * 2008-09-26 2010-04-08 Nissan Motor Co Ltd 障害物回避装置、障害物回避方法、及び自走車両
US7761231B2 (en) 2004-03-31 2010-07-20 Honda Motor Co., Ltd. Outside monitoring device for mobile robot
JP2011233071A (ja) * 2010-04-30 2011-11-17 Fujitsu Ltd 動作制御方法、インタラクティブデバイス及びプログラム
JP2017514709A (ja) * 2014-04-17 2017-06-08 ソフトバンク・ロボティクス・ヨーロッパSoftbank Robotics Europe 自律的生活能力を備えた人型ロボット
JPWO2018043235A1 (ja) * 2016-08-29 2018-12-20 Groove X株式会社 音源の方向を認識する自律行動型ロボット
WO2019088160A1 (ja) * 2017-11-01 2019-05-09 Groove X株式会社 反射行動を実行可能な自律行動型ロボット

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7761231B2 (en) 2004-03-31 2010-07-20 Honda Motor Co., Ltd. Outside monitoring device for mobile robot
DE102005014719B4 (de) * 2004-03-31 2010-08-19 Honda Motor Co., Ltd. Außenüberwachungsvorrichtung für einen mobilen Roboter
JP2007044825A (ja) * 2005-08-10 2007-02-22 Toshiba Corp 行動管理装置、行動管理方法および行動管理プログラム
KR100692526B1 (ko) 2005-12-08 2007-03-12 한국전자통신연구원 시스템 자동제어용 제스처 인식 장치 및 그 방법
JP2010079697A (ja) * 2008-09-26 2010-04-08 Nissan Motor Co Ltd 障害物回避装置、障害物回避方法、及び自走車両
JP2011233071A (ja) * 2010-04-30 2011-11-17 Fujitsu Ltd 動作制御方法、インタラクティブデバイス及びプログラム
JP2017514709A (ja) * 2014-04-17 2017-06-08 ソフトバンク・ロボティクス・ヨーロッパSoftbank Robotics Europe 自律的生活能力を備えた人型ロボット
US10583559B2 (en) 2014-04-17 2020-03-10 Softbank Robotics Europe Humanoid robot with an autonomous life capability
JPWO2018043235A1 (ja) * 2016-08-29 2018-12-20 Groove X株式会社 音源の方向を認識する自律行動型ロボット
US11376740B2 (en) 2016-08-29 2022-07-05 Groove X, Inc. Autonomously acting robot that recognizes direction of sound source
WO2019088160A1 (ja) * 2017-11-01 2019-05-09 Groove X株式会社 反射行動を実行可能な自律行動型ロボット
JPWO2019088160A1 (ja) * 2017-11-01 2020-11-12 Groove X株式会社 反射行動を実行可能な自律行動型ロボット

Similar Documents

Publication Publication Date Title
US11000952B2 (en) More endearing robot, method of controlling the same, and non-transitory recording medium
US7076334B2 (en) Robot apparatus and method and system for controlling the action of the robot apparatus
JP4239635B2 (ja) ロボット装置、その動作制御方法、及びプログラム
JP4396273B2 (ja) ロボット装置及びその制御方法
JP2006289508A (ja) ロボット装置及びその表情制御方法
WO2017215297A1 (zh) 云端互动系统及其多感知型智能机器人和感知互动方法
JP2003266351A (ja) ロボット装置及びロボット装置の動作制御方法
JP2024023193A (ja) 情報処理装置及び情報処理方法
CN109955264B (zh) 机器人、机器人控制系统、机器人的控制方法以及记录介质
JP2024009862A (ja) 情報処理装置、情報処理方法、およびプログラム
JP2003266353A (ja) ロボット装置及びその制御方法
US11969876B2 (en) Robot and control method of robot
JP4617428B2 (ja) 動作生成システム
JP2007130691A (ja) コミュニケーションロボット
US11986959B2 (en) Information processing device, action decision method and program
JP7428141B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP4281286B2 (ja) ロボット装置及びその制御方法
JP2004130427A (ja) ロボット装置及びロボット装置の動作制御方法
JP2003191187A (ja) ロボット装置及びその制御方法
EP3738726B1 (en) Animal-shaped autonomous moving body, method of operating animal-shaped autonomous moving body, and program
JP2005059185A (ja) ロボット装置及びその制御方法
JP2004302645A (ja) 顔登録装置、顔登録方法、記録媒体、及びロボット装置
JP2003271196A (ja) ロボット装置及びその制御方法
JP7156300B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP2002205290A (ja) 脚式移動ロボットの制御装置及び制御方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040805

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080619

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080818

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090122