JP2003136456A - ロボット装置、ロボット装置の明るさ検出方法、明るさ検出プログラム及び記録媒体 - Google Patents

ロボット装置、ロボット装置の明るさ検出方法、明るさ検出プログラム及び記録媒体

Info

Publication number
JP2003136456A
JP2003136456A JP2001341079A JP2001341079A JP2003136456A JP 2003136456 A JP2003136456 A JP 2003136456A JP 2001341079 A JP2001341079 A JP 2001341079A JP 2001341079 A JP2001341079 A JP 2001341079A JP 2003136456 A JP2003136456 A JP 2003136456A
Authority
JP
Japan
Prior art keywords
brightness
image
detecting
robot apparatus
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2001341079A
Other languages
English (en)
Inventor
Nozomi Ikeda
望 池田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2001341079A priority Critical patent/JP2003136456A/ja
Publication of JP2003136456A publication Critical patent/JP2003136456A/ja
Withdrawn legal-status Critical Current

Links

Abstract

(57)【要約】 【課題】 照度計を設けることなく精度良く周囲の環境
の明るさを検出する。 【解決手段】 ロボット装置1は、CCDカメラ20に
よって所定領域の画像を複数枚撮像し、その画像の明る
さに基づいて環境の明るさを判断する。そして、ロボッ
ト装置1は、環境が暗い場合等には、ヘッドライト25
を点灯し、周囲を照明する。その際、明るさのレベルに
応じて、光量を変えることもできる。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、ロボット装置、ロ
ボット装置の明るさ検出方法、明るさ検出プログラム、
及び記録媒体に関し、特に、周囲の環境の明るさを検出
するロボット装置、そのロボット装置の明るさ検出方
法、明るさ検出プログラム、及び明るさ検出プログラム
の記録された記録媒体に関する。
【0002】
【従来の技術】電気的又は磁気的な作用を用いて人間
(生物)の動作に似た運動を行う機械装置を「ロボッ
ト」という。我が国においてロボットが普及し始めたの
は、1960年代末からであるが、その多くは、工場に
おける生産作業の自動化・無人化等を目的としたマニピ
ュレータや搬送ロボット等の産業用ロボット(Industri
al Robot)であった。
【0003】最近では、人間のパートナーとして生活を
支援する、すなわち住環境その他の日常生活上の様々な
場面における人的活動を支援する実用ロボットの開発が
進められている。このような実用ロボットは、産業用ロ
ボットとは異なり、人間の生活環境の様々な局面におい
て、個々に個性の相違した人間、又は様々な環境への適
応方法を自ら学習する能力を備えている。例えば、犬、
猫のように4足歩行の動物の身体メカニズムやその動作
を模した「ペット型」ロボット、或いは、2足直立歩行
を行う動物の身体メカニズムや動作をモデルにしてデザ
インされた「人間型」又は「人間形」ロボット(Humano
id Robot)等の脚式移動ロボットは、既に実用化されつ
つある。
【0004】これらの脚式移動ロボットは、産業用ロボ
ットと比較して、エンターテインメント性を重視した様
々な動作を行うことができるため、エンターテインメン
トロボットと呼称される場合もある。
【0005】脚式移動ロボットは、動物や人間の容姿に
できる限り近い外観形状とされ、動物や人間の動作にで
きる限り近い動作を行うように設計されている。例え
ば、上述した4足歩行の「ペット型」ロボットの場合
は、一般家庭において飼育される犬や猫に似た外観形状
を有し、ユーザ(飼い主)からの「叩く」や「撫でる」
といった働きかけや、周囲の環境等に応じて自律的に行
動する。例えば、自律的な行動として、実際の動物と同
様に、「吠える」、「寝る」等といった行動をする。
【0006】
【発明が解決しようとする課題】ところで、上述した脚
式移動ロボットに周囲の環境の明るさを検出させ、明る
さを脚式移動ロボットの感情に影響させることが考えら
れる。また、このような脚式移動ロボットにライトを搭
載し、暗いときには自分で判断してライトを点灯させる
ことが考えられる。
【0007】このような場合、明るさを判断するための
一般的な方法としては、照度計を搭載することである。
しかしながら、従来搭載されていない照度計を搭載する
にはコストがかかり、実用的ではない。
【0008】本発明は、このような従来の実情に鑑みて
提案されたものであり、照度計を設けることなく、精度
良く周囲の環境の明るさを検出することのできるロボッ
ト装置、そのロボット装置の明るさ検出方法、明るさ検
出プログラム、及び明るさ検出プログラムの記録された
記録媒体を提供することを目的とする。
【0009】
【課題を解決するための手段】上述した目的を解決する
ために、本発明に係るロボット装置は、自律行動するロ
ボット装置であって、画像を撮像する撮像手段と、上記
撮像手段によって撮像された所定領域の画像の明るさに
基づいて環境の明るさを検出する明るさ検出手段とを備
えることを特徴としている。
【0010】ここで、ロボット装置は、上記明るさ検出
手段による検出結果に応じて周囲を照明する照明手段を
さらに備えるようにしてもよい。
【0011】このようなロボット装置は、撮像手段によ
って撮像された所定領域の画像の明るさに基づいて環境
の明るさを検出する。この際、明るさの検出結果に応じ
て、暗い場合には、周囲を照明することも可能である。
【0012】また、上述した目的を達成するために、本
発明に係るロボット装置の明るさ検出方法は、自律行動
するロボット装置の明るさ検出方法であって、画像を撮
像する撮像手段によって撮像された所定領域の画像の明
るさに基づいて環境の明るさを検出する明るさ検出工程
を有することを特徴としている。
【0013】ここで、ロボット装置の明るさ検出方法
は、上記明るさ検出工程における検出結果に応じて周囲
を照明する照明工程をさらに有するようにしてもよい。
【0014】このようなロボット装置の明るさ検出方法
では、撮像手段によって撮像された所定領域の画像の明
るさに基づいて環境の明るさが検出される。この際、明
るさの検出結果に応じて、暗い場合には、周囲を照明す
ることも可能である。
【0015】また、上述した目的を達成するために、本
発明に係る明るさ検出プログラムは、自律行動するロボ
ット装置の明るさ検出プログラムであって、画像を撮像
する撮像手段によって撮像された所定領域の画像の明る
さに基づいて環境の明るさを検出する明るさ検出工程を
有することを特徴としている。
【0016】ここで、明るさ検出プログラムは、上記明
るさ検出工程における検出結果に応じて周囲を照明する
照明工程をさらに有するようにしてもよい。
【0017】このような明るさ検出プログラムは、撮像
手段によって撮像された所定領域の画像の明るさに基づ
いて環境の明るさを検出する。この際、明るさの検出結
果に応じて、暗い場合には、周囲を照明することも可能
である。
【0018】また、上述した目的を達成するために、本
発明に係る記録媒体は、自律行動するロボット装置の明
るさ検出プログラムが記録されたコンピュータ制御可能
な記録媒体であって、上記明るさ検出プログラムは、画
像を撮像する撮像手段によって撮像された所定領域の画
像の明るさに基づいて環境の明るさを検出する明るさ検
出工程とを有することを特徴としている。
【0019】ここで、明るさ検出プログラムは、上記明
るさ検出工程における検出結果に応じて周囲を照明する
照明工程をさらに有するようにしてもよい。
【0020】このような記録媒体に記録されている明る
さ検出プログラムは、撮像手段によって撮像された所定
領域の画像の明るさに基づいて環境の明るさを検出す
る。この際、明るさの検出結果に応じて、暗い場合に
は、周囲を照明することも可能である。
【0021】
【発明の実施の形態】以下、本発明の実施の形態につい
て図面を用いて詳しく説明する。この実施の形態は、周
囲環境(或いは外部刺激)や内部状態に応じて自律行動
をする自律型のロボット装置である。
【0022】実施の形態では、先ず、ロボット装置の構
成について説明して、その後、ロボット装置における本
発明の適用部分について詳細に説明する。
【0023】(1)本実施の形態によるロボット装置の
構成 図1に示すように、本実施の形態によるロボット装置1
は、4足歩行の脚式移動ロボットとされ、胴体部ユニッ
ト2の前後左右にそれぞれ脚部ユニット3A,3B,3
C,3Dが連結されると共に、胴体部ユニット2の前端
部に頭部ユニット4が連結されて構成されている。
【0024】胴体部ユニット2には、図2に示すよう
に、CPU(Central Processing Unit)10、DRA
M(Dynamic Random Access Memory)11、フラッシュ
ROM(Read 0nly Memory)12、PC(Personal Co
mputer)カードインターフェース回路13及び信号処理
回路14が内部バス15を介して相互に接続されること
により形成されたコントロール部16と、このロボット
装置1の動力源としてのバッテリ17とが収納されてい
る。また、胴体部ユニット2には、ロボット装置1の向
きや動きの加速度を検出するための角速度センサ18及
び加速度センサ19なども収納されている。
【0025】また、頭部ユニット4には、外部の状況を
撮像するとともに、周囲の明るさを検出するためのCC
D(Charge Coupled Device)カメラ20と、前後に倒
すといった使用者からの物理的な働きかけを検出するた
めのタッチセンサ21と、前方に位置する物体までの距
離を測定するための距離センサ22と、外部音を集音す
るためのマイクロホン23と、各種音声を出力するため
のスピーカ24と、頭部ユニット4内に格納可能とされ
たヘッドライト25と、ロボット装置1の「目」に相当
するLED(Light Emitting Diode)(図示せず)など
がそれぞれ所定位置に配置されている。なお、ロボット
装置1においては、タッチセンサ21以外にも、胴体部
ユニット2及び頭部ユニット4の所定位置に複数のタッ
チセンサが配置されている。
【0026】さらに、各脚部ユニット3A〜3Dの関節
部分や各脚部ユニット3A〜3D及び胴体部ユニット2
の各連結部分、並びに頭部ユニット4及び胴体部ユニッ
ト2の連結部分などにはそれぞれ自由度数分のアクチュ
エータ26〜26及びポテンショメータ27〜2
が配設されている。例えば、アクチュエータ26
〜26はサーボモータを構成として有している。サー
ボモータの駆動により、脚部ユニット3A〜3Dが制御
されて、目標の姿勢或いは動作に遷移する。
【0027】そして、これら角速度センサ18、加速度
センサ19、タッチセンサ21、距離センサ22、マイ
クロホン23、スピーカ24、及び各ポテンショメータ
27 〜27などの各種センサ並びにヘッドライト2
5、LED及び各アクチュエータ26 〜26は、
それぞれ対応するハブ28〜28を介してコントロ
ール部16の信号処理回路14と接続され、CCDカメ
ラ20及びバッテリ17は、それぞれ信号処理回路14
と直接接続されている。
【0028】信号処理回路l4は、上述の各センサから
供給されるセンサデータや画像データ及び音声データを
順次取り込み、これらをそれぞれ内部バス15を介して
DRAM11内の所定位置に順次格納する。また信号処
理回路14は、これと共にバッテリ17から供給される
バッテリ残量を表すバッテリ残量データを順次取り込
み、これをDRAM11内の所定位置に格納する。
【0029】このようにしてDRAM11に格納された
各センサデータ、画像データ、音声データ及びバッテリ
残量データは、この後CPU10がこのロボット装置1
の動作制御を行う際に利用される。
【0030】実際上CPU10は、ロボット装置1の電
源が投入された初期時、胴体部ユニット2の図示しない
PCカードスロットに装填されたメモリカード29又は
フラッシュROM12に格納された制御プログラムをP
Cカードインターフェース回路13を介して又は直接読
み出し、これをDRAM11に格納する。
【0031】また、CPU10は、この後上述のように
信号処理回路14よりDRAM11に順次格納される各
センサデータ、画像データ、音声データ及びバッテリ残
量データに基づいて自己及び周囲の状況や、使用者から
の指示及び働きかけの有無などを判断する。
【0032】さらに、CPU10は、この判断結果及び
DRAM11に格納した制御プログラムに基づいて続く
行動を決定すると共に、当該決定結果に基づいて必要な
アクチュエータ26〜26を駆動させることによ
り、頭部ユニット4を上下左右に振らせたり、各脚部ユ
ニット3A〜3Dを駆動させて歩行させるなどの行動を
行わせる。
【0033】また、この際CPU10は、必要に応じて
音声データを生成し、これを信号処理回路14を介して
音声信号としてスピーカ24に与えることにより当該音
声信号に基づく音声を外部に出力させたり、上述のLE
Dを点灯、消灯又は点滅させる。また、CPU10は、
後述するように、CCDカメラ20を用いて周囲の明る
さを検出させ、その検出結果に応じてヘッドライト25
を点灯させる。
【0034】このようにしてこのロボット装置1におい
ては、自己及び周囲の状況や、使用者からの指示及び働
きかけに応じて自律的に行動し得るようになされてい
る。
【0035】(2)制御プログラムのソフトウェア構成 ここで、ロボット装置1における上述の制御プログラム
のソフトウェア構成は、図3に示すようになる。この図
3において、デバイス・ドライバ・レイヤ30は、この
制御プログラムの最下位層に位置し、複数のデバイス・
ドライバからなるデバイス・ドライバ・セット31から
構成されている。この場合、各デバイス・ドライバは、
CCDカメラ20(図2)やタイマ等の通常のコンピュ
ータで用いられるハードウェアに直接アクセスすること
を許されたオブジェクトであり、対応するハードウェア
からの割り込みを受けて処理を行う。
【0036】また、ロボティック・サーバ・オブジェク
ト32は、デバイス・ドライバ・レイヤ30の最下位層
に位置し、例えば上述の各種センサやアクチュエータ2
〜25等のハードウェアにアクセスするためのイ
ンターフェースを提供するソフトウェア群でなるバーチ
ャル・ロボット33と、電源の切換えなどを管理するソ
フトウェア群でなるバワーマネージャ34と、他の種々
のデバイス・ドライバを管理するソフトウェア群でなる
デバイス・ドライバ・マネージャ35と、ロボット装置
1の機構を管理するソフトウェア群でなるデザインド・
ロボット36とから構成されている。
【0037】マネージャ・オブジェクト37は、オブジ
ェクト・マネージャ38及びサービス・マネージャ39
から構成されている。オブジェクト・マネージャ38
は、ロボティック・サーバ・オブジェクト32、ミドル
・ウェア・レイヤ40、及びアプリケーション・レイヤ
41に含まれる各ソフトウェア群の起動や終了を管理す
るソフトウェア群であり、サービス・マネージャ39
は、メモリカード29(図2)に格納されたコネクショ
ンファイルに記述されている各オブジェクト間の接続情
報に基づいて各オブジェクトの接続を管理するソフトウ
ェア群である。
【0038】ミドル・ウェア・レイヤ40は、ロボティ
ック・サーバ・オブジェクト32の上位層に位置し、画
像処理や音声処理などのこのロボット装置1の基本的な
機能を提供するソフトウェア群から構成されている。ま
た、アプリケーション・レイヤ41は、ミドル・ウェア
・レイヤ40の上位層に位置し、当該ミドル・ウェア・
レイヤ40を構成する各ソフトウェア群によって処理さ
れた処理結果に基づいてロボット装置1の行動を決定す
るためのソフトウェア群から構成されている。
【0039】なお、ミドル・ウェア・レイヤ40及びア
プリケーション・レイヤ41の具体なソフトウェア構成
をそれぞれ図4に示す。
【0040】ミドル・ウェア・レイヤ40は、図4に示
すように、騒音検出用、温度検出用、明るさ検出用、音
階認識用、距離検出用、姿勢検出用、タッチセンサ用、
動き検出用及び色認識用の各信号処理モジュール50〜
58並びに入力セマンティクスコンバータモジュール5
9などを有する認識系60と、出力セマンティクスコン
バータモジュール68並びに姿勢管理用、トラッキング
用、モーション再生用、歩行用、転倒復帰用、ライト点
灯用及び音再生用の各信号処理モジュール61〜67な
どを有する出力系69とから構成されている。
【0041】認識系60の各信号処理モジュール50〜
58は、ロボティック・サーバ・オブジェクト32のバ
ーチャル・ロボット33によりDRAM11(図2)か
ら読み出される各センサデータや画像データ及び音声デ
ータのうちの対応するデータを取り込み、当該データに
基づいて所定の処理を施して、処理結果を入力セマンテ
ィクスコンバータモジュール59に与える。ここで、例
えば、バーチャル・ロボット33は、所定の通信規約に
よって、信号の授受或いは変換をする部分として構成さ
れている。
【0042】入力セマンティクスコンバータモジュール
59は、これら各信号処理モジュール50〜58から与
えられる処理結果に基づいて、「うるさい」、「暑
い」、「明るい」、「ボールを検出した」、「転倒を検
出した」、「撫でられた」、「叩かれた」、「ドミソの
音階が聞こえた」、「動く物体を検出した」又は「障害
物を検出した」などの自己及び周囲の状況や、使用者か
らの指令及び働きかけを認識し、認識結果をアプリケー
ション・レイヤ41(図2)に出力する。
【0043】アプリケーション・レイヤ4lは、図5に
示すように、行動モデルライブラリ70、行動切換モジ
ュール71、学習モジュール72、感情モデル73及び
本能モデル74の5つのモジュールから構成されてい
る。
【0044】行動モデルライブラリ70には、図6に示
すように、「バッテリ残量が少なくなった場合」、「転
倒復帰する」、「障害物を回避する場合」、「感情を表
現する場合」、「ボールを検出した場合」などの予め選
択されたいくつかの条件項目にそれぞれ対応させて、そ
れぞれ独立した行動モデル70〜70が設けられて
いる。
【0045】そして、これら行動モデル70〜70
は、それぞれ入力セマンティクスコンバータモジュール
59から認識結果が与えられたときや、最後の認識結果
が与えられてから一定時間が経過したときなどに、必要
に応じて後述のように感情モデル73に保持されている
対応する情動のパラメータ値や、本能モデル74に保持
されている対応する欲求のパラメータ値を参照しながら
続く行動をそれぞれ決定し、決定結果を行動切換モジュ
ール71に出力する。
【0046】なお、この実施の形態の場合、各行動モデ
ル70〜70は、次の行動を決定する手法として、
図7に示すような1つのノード(状態)NODE〜N
ODEから他のどのノードNODE〜NODE
遷移するかを各ノードNODE〜NODEに間を接
続するアークARC〜ARCに対してそれぞれ設定
された遷移確率P〜Pに基づいて確率的に決定する
有限確率オートマトンと呼ばれるアルゴリズムを用い
る。
【0047】具体的に、各行動モデル70〜70
は、それぞれ自己の行動モデル70〜70を形成
するノードNODE〜NODEにそれぞれ対応させ
て、これらノードNODE〜NODEごとに図8に
示すような状態遷移表80を有している。
【0048】この状態遷移表80では、そのノードNO
DE〜NODEにおいて遷移条件とする入力イベン
ト(認識結果)が「入力イベント名」の列に優先順に列
記され、その遷移条件についてのさらなる条件が「デー
タ名」及び「データ範囲」の列における対応する行に記
述されている。
【0049】したがって、図8の状態遷移表80で表さ
れるノードNODE100では、「ボールを検出(BA
LL)」という認識結果が与えられた場合に、当該認識
結果と共に与えられるそのボールの「大きさ(SIZ
E)」が「0から1000」の範囲であることや、「障害物
を検出(OBSTACLE)」という認識結果が与えら
れた場合に、当該認識結果と共に与えられるその障害物
までの「距離(DISTANCE)」が「0から100」の
範囲であることが他のノードに遷移するための条件とな
っている。
【0050】また、このノードNODE100では、認
識結果の入力がない場合においても、行動モデル70
〜70が周期的に参照する感情モデル73及び本能モ
デル74にそれぞれ保持された各情動及び各欲求のパラ
メータ値のうち、感情モデル73に保持された「喜び
(JOY)」、「驚き(SURPRISE)」若しくは
「悲しみ(SUDNESS)」のいずれかのパラメータ
値が「50から100」の範囲であるときには他のノードに
遷移することができるようになっている。
【0051】また、状態遷移表80では、「他のノード
ヘの遷移確率」の欄における「遷移先ノード」の行にそ
のノードNODE〜 NODEから遷移できるノー
ド名が列記されていると共に、「入力イベント名」、
「データ値」及び「データの範囲」の列に記述された全
ての条件が揃ったときに遷移できる他の各ノードNOD
〜NODEへの遷移確率が「他のノードヘの遷移
確率」の欄内の対応する箇所にそれぞれ記述され、その
ノードNODE〜NODEに遷移する際に出力すべ
き行動が「他のノードヘの遷移確率」の欄における「出
力行動」の行に記述されている。なお、「他のノードヘ
の遷移確率」の欄における各行の確率の和は100
[%]となっている。
【0052】したがって、図8の状態遷移表80で表さ
れるノードNODE100では、例えば「ボールを検出
(BALL)」し、そのボールの「SIZE(大き
さ)」が「0から1000」の範囲であるという認識結果が
与えられた場合には、「30[%]」の確率で「ノードN
ODE120(node 120)」に遷移でき、そのとき「A
CTION1」の行動が出力されることとなる。
【0053】各行動モデル70〜70は、それぞれ
このような状態遷移表80として記述されたノードNO
DE〜 NODEがいくつも繋がるようにして構成
されており、入力セマンティクスコンバータモジュール
59から認識結果が与えられたときなどに、対応するノ
ードNODE〜NODEの状態遷移表を利用して確
率的に次の行動を決定し、決定結果を行動切換モジュー
ル71に出力するようになされている。
【0054】図5に示す行動切換モジュール71は、行
動モデルライブラリ70の各行動モデル70〜70
からそれぞれ出力される行動のうち、予め定められた優
先順位の高い行動モデル70〜70から出力された
行動を選択し、当該行動を実行すべき旨のコマンド(以
下、これを行動コマンドという。)をミドル・ウェア・
レイヤ40の出力セマンティクスコンバータモジュール
68に送出する。なお、この実施の形態においては、図
6において下側に表記された行動モデル70〜70
ほど優先順位が高く設定されている。
【0055】また、行動切換モジュール71は、行動完
了後に出力セマンティクスコンバータモジュール68か
ら与えられる行動完了情報に基づいて、その行動が完了
したことを学習モジュール72、感情モデル73及び本
能モデル74に通知する。
【0056】一方、学習モジュール72は、入力セマン
ティクスコンバータモジュール59から与えられる認識
結果のうち、「叩かれた」や「撫でられた」など、使用
者からの働きかけとして受けた教示の認識結果を入力す
る。
【0057】そして、学習モジュール72は、この認識
結果及び行動切換モジュール71からの通知に基づい
て、「叩かれた(叱られた)」ときにはその行動の発現
確率を低下させ、「撫でられた(誉められた)」ときに
はその行動の発現確率を上昇させるように、行動モデル
ライブラリ70における対応する行動モデル70〜7
の対応する遷移確率を変更する。
【0058】他方、感情モデル73は、「喜び(jo
y)」、「悲しみ(sadness)」、「怒り(anger)」、
「驚き(surprise)」、「嫌悪(disgust)」及び「恐
れ(fear)」の合計6つの情動について、各情動ごとに
その情動の強さを表すパラメータを保持している。そし
て、感情モデル73は、これら各情動のパラメータ値
を、それぞれ入力セマンティクスコンバータモジュール
59から与えられる「叩かれた」及び「撫でられた」な
どの特定の認識結果と、経過時間及び行動切換モジュー
ル71からの通知などに基づいて周期的に更新する。
【0059】具体的には、感情モデル73は、入力セマ
ンティクスコンバータモジュール59から与えられる認
識結果と、そのときのロボット装置1の行動と、前回更
新してからの経過時間などに基づいて所定の演算式によ
り算出されるそのときのその情動の変動量を△E
[t]、現在のその情動のパラメータ値をE[t]、そ
の情動の感度を表す係数をkとして、(1)式によっ
て次の周期におけるその情動のパラメータ値E[t+
1]を算出し、これを現在のその情動のパラメータ値E
[t]と置き換えるようにしてその情動のパラメータ値
を更新する。また、感情モデル73は、これと同様にし
て全ての情動のパラメータ値を更新する。
【0060】
【数1】
【0061】なお、各認識結果や出力セマンティクスコ
ンバータモジュール68からの通知が各情動のパラメー
タ値の変動量△E[t]にどの程度の影響を与えるかは
予め決められており、例えば「叩かれた」といった認識
結果は「怒り」の情動のパラメータ値の変動量△E
[t]に大きな影響を与え、「撫でられた」といった認
識結果は「喜び」の情動のパラメータ値の変動量△E
[t]に大きな影響を与えるようになっている。
【0062】ここで、出力セマンティクスコンバータモ
ジュール68からの通知とは、いわゆる行動のフィード
バック情報(行動完了情報)であり、行動の出現結果の
情報であり、感情モデル73は、このような情報によっ
ても感情を変化させる。これは、例えば、「吠える」と
いった行動により怒りの感情レベルが下がるといったよ
うなことである。なお、出力セマンティクスコンバータ
モジュール68からの通知は、上述した学習モジュール
72にも入力されており、学習モジュール72は、その
通知に基づいて行動モデル70〜70の対応する遷
移確率を変更する。
【0063】なお、行動結果のフィードバックは、行動
切換モジュール71の出力(感情が付加された行動)に
よりなされるものであってもよい。
【0064】一方、本能モデル74は、「運動欲(exer
cise)」、「愛情欲(affection)」、「食欲(appetit
e)」及び「好奇心(curiosity)」の互いに独立した4
つの欲求について、これら欲求ごとにその欲求の強さを
表すパラメータを保持している。そして、本能モデル7
4は、これらの欲求のパラメータ値を、それぞれ入力セ
マンティクスコンバータモジュール59から与えられる
認識結果や、経過時間及び行動切換モジュール71から
の通知などに基づいて周期的に更新する。
【0065】具体的には、本能モデル74は、「運動
欲」、「愛情欲」及び「好奇心」については、認識結
果、経過時間及び出力セマンティクスコンバータモジュ
ール68からの通知などに基づいて所定の演算式により
算出されるそのときのその欲求の変動量をΔI[k]、
現在のその欲求のパラメータ値をI[k]、その欲求の
感度を表す係数kとして、所定周期で(2)式を用い
て次の周期におけるその欲求のパラメータ値I[k+
1]を算出し、この演算結果を現在のその欲求のパラメ
ータ値I[k]と置き換えるようにしてその欲求のパラ
メータ値を更新する。また、本能モデル74は、これと
同様にして「食欲」を除く各欲求のパラメータ値を更新
する。
【0066】
【数2】
【0067】なお、認識結果及び出力セマンティクスコ
ンバータモジュール68からの通知などが各欲求のパラ
メータ値の変動量△I[k]にどの程度の影響を与える
かは予め決められており、例えば出力セマンティクスコ
ンバータモジュール68からの通知は、「疲れ」のパラ
メータ値の変動量△I[k]に大きな影響を与えるよう
になっている。
【0068】なお、本実施の形態においては、各情動及
び各欲求(本能)のパラメータ値がそれぞれ0から100ま
での範囲で変動するように規制されており、また係数k
、kの値も各情動及び各欲求ごとに個別に設定され
ている。
【0069】一方、ミドル・ウェア・レイヤ40の出力
セマンティクスコンバータモジュール68は、図4に示
すように、上述のようにしてアプリケーション・レイヤ
41の行動切換モジュール71から与えられる「前
進」、「喜ぶ」、「鳴く」又は「トラッキング(ボール
を追いかける)」といった抽象的な行動コマンドを出力
系69の対応する信号処理モジュール61〜67に与え
る。
【0070】そしてこれら信号処理モジュール61〜6
7は、行動コマンドが与えられると当該行動コマンドに
基づいて、その行動を行うために対応するアクチュエー
タ25〜25(図2)に与えるべきサーボ指令値
や、スピーカ24(図2)から出力する音の音声データ
及び又は「目」のLEDに与える駆動データを生成し、
これらのデータをロボティック・サーバ・オブジェクト
32のバーチャル・ロボット33及び信号処理回路14
(図2)を順次介して対応するアクチュエータ25
25又はスピーカ24又はLEDに順次送出する。
【0071】このようにしてロボット装置1において
は、制御プログラムに基づいて、自己(内部)及び周囲
(外部)の状況や、使用者からの指示及び働きかけに応
じた自律的な行動を行うことができるようになされてい
る。
【0072】(3)ロボット装置への本発明の適用 ここで、本発明を上述したような構造を有するロボット
装置1に適用した例について説明する。
【0073】上述したように、本実施の形態におけるロ
ボット装置1は、頭部ユニット4にヘッドライト25が
格納されており、感情モデル73及び本能モデル74に
それぞれ保持された各情動及び各欲求のパラメータ値に
基づいて、或いは何かを探している場合等に持ち上がっ
て点灯する。また、ロボット装置1は、以下に説明する
ように、CCDカメラ20を用いて周囲の環境の明るさ
を検出することができ、暗い場合等にもヘッドライト2
5を点灯させることができる。
【0074】ここで、ロボット装置1のCCDカメラ2
0の画角は、水平方向約58度、垂直方向約48度と狭
いため、単純に1枚の画像の平均輝度から環境の明るさ
を推定する場合には誤認識が多く、正確性の低い判断と
なる。すなわち例えば、CCDカメラ20の画面全体に
白いものを見せると明るいと判断されやすく、反対に画
面全体に黒いものを見せると暗いと判断されやすい。
【0075】そこで、本実施の形態では、図9に示すよ
うに、CCDカメラ20を向ける方向を図中矢印aで示
す水平方向及び矢印bで示す垂直方向に動かして複数の
画像を取得する。このように、ロボット装置1の頭部1
00が頸部101を介して胴体部102に対して可動と
されており、視覚情報を取得するためのCCDカメラ2
0を明るさ検出に流用しているため、特別な駆動手段を
設けることなく、周囲の画像を取得し、環境の明るさを
検出することができる。
【0076】ここで、ロボット装置1は、例えば、図1
0に示すように、現在CCDカメラ20によって撮像さ
れる画像を中心として、画像a乃至画像iの9枚の画像
を取得する。
【0077】なお、取得する画像数がこの例に限定され
ないことは勿論である。また、図9の例では、隣り合う
画像同士が連続するようにしているが、オーバーラップ
させるようにしてもよく、また、連続しない画像を複数
取得するようにしても構わない。
【0078】そして、取得された画像毎に平均輝度を算
出し、取得した画像全てについての積和を明るさの評価
値とする。具体的には、図11に示すような画像内の全
ての画素について、以下の(3)式に従って平均輝度A
を計算する。ここで、(3)式において、Pxyは、位
置(x,y)に位置する画素の輝度である。また、heig
htは、垂直方向の画素数であり、widthは、水平方向の
画素数である。なお、本実施の形態におけるロボット装
置1の場合、垂直方向は、144画素であり、水平方向
は、176画素である。
【0079】
【数3】
【0080】取得した画像全ての輝度を計算したら、以
下の(4)式に従って、その積和を計算して評価値Eを
求める。ここで、(4)式において、Nは、取得した画
像の総数である。
【0081】
【数4】
【0082】そして、(4)式に従って求めた評価値を
所定の閾値と比較することによって明るさを評価する。
例えば、評価値Eが所定の閾値Eth以上であれば明る
いと判断し、所定の閾値Ethよりも小さければ暗いと
判断してヘッドライト25を点灯させる。
【0083】以上の処理を図12のフローチャートを用
いて説明する。先ず、ステップS1において、上述した
ように複数枚の画像を取得する。
【0084】次にステップS2において、取得した画像
データを評価する。具体的には、上述したように、各画
像の平均輝度Aを計算し、その積和である評価値Eを求
める。
【0085】続いてステップS3では、ステップS2で
求めた評価値Eが所定の閾値Ethよりも小さいか否か
が判別される。評価値Eが所定の閾値Ethよりも小さ
い場合(YES)には、暗いと判断し、ステップS4にお
いてヘッドライト25を点灯させて処理を終了する。ス
テップS3において評価値Eが所定の閾値Eth以上で
ある場合(NO)には、明るいと判断し、処理を終了す
る。
【0086】ここで、評価値の求め方は、上述した例に
限定されるものではなく、例えば、取得した画像の位置
に応じて重み付けを変えるようにすることもできる。す
なわち、前述した図10のように画像a乃至画像iの9
枚の画像を取得した場合、上方向の空間には照明器具が
ある可能性が高く、光源が直接画像内にない場合であっ
ても明るいと判断されやすい。そこで、画像a乃至画像
cのような上方向の画像の平均輝度については、重み付
けを低くして計算する。また、下方向の空間には影が映
っている可能性があるため、環境が明るくても暗いと判
断されやすい。そこで、画像g乃至画像iのような下方
向の画像の平均輝度についても、重み付けを低くして計
算する。
【0087】具体的には、以下の(5)式に示すよう
に、上方向の画像の平均輝度Aup、中間の画像の平均
輝度Amid及び下方向の画像の平均輝度Alowに対
して、それぞれ重み係数wup、wmid及びwlow
を乗算し、その総和を評価値Eとする。
【0088】
【数5】
【0089】このように、空間内における画像の位置を
考慮して評価値Eを求めることにより、精度良く環境の
明るさを検出することができる。
【0090】なお、上述した例では、評価値Eを所定の
閾値Ethと比較することによって明るいか否かを検出
するようにしたが、これに限定されるものではなく、例
えば、閾値を複数設けることにより、明るさのレベルを
多値化することも可能である。これにより、明るさのレ
ベルに応じた光量に設定することが可能である。
【0091】また、画像内の全ての画素の輝度を用いる
のではなく、輝度が所定値以上の画素をカウントし、そ
のカウント値が所定の閾値を超える場合に、明るいと判
断するようにすることもできる。この場合においても、
明るさのレベルを多値化しても構わない。
【0092】以上のように、ロボット装置1は、本発明
が適用されることにより、撮像手段であるCCDカメラ
20を用いて環境の明るさを検出することができる。こ
れにより、ロボット装置1は、例えば環境が暗い場合等
にヘッドライト25を点灯させることができる。また、
ロボット装置1は、例えば暗いときには怖がるなど、明
るさに応じて感情を変化させることが可能となる。さら
に、周囲で明るいところに近づくように設定すること
も、明るさによって周囲の人間の有無を認知させるよう
にすることも可能となる。
【0093】ここで、上述したような、ロボット装置1
への本発明の適用は、例えばソフトウェアとよって実現
可能とされるものであり、その制御プログラムは、メモ
リカード29又はフラッシュROM12に格納されてい
る。
【0094】なお、本発明は上述した実施の形態のみに
限定されるものではなく、本発明の要旨を逸脱しない範
囲において種々の変更が可能であることは勿論である。
【0095】例えば、上述した例では、複数枚の画像を
取得して明るさの検出を行うものとして説明したが、こ
れに限定されるものではなく、1枚の画像で十分な画角
が得られる場合には、1枚の画像のみを用いて明るさを
検出してもよい。この際、図13に示すように、画像を
上方向の画素、中間の画素及び下方向の画素に分け、以
下の(6)式に示すように、上方向の画素の平均輝度A
up、中間の画素の平均輝度Amid及び下方向の画素
の平均輝度Alowに対して、それぞれ重み係数
up、wmid及びwlowを乗算し、その和を画像
の平均輝度Aとすることが好ましい。
【0096】
【数6】
【0097】このように、画像内の画素の位置を考慮し
て評価値Eを求めることにより、上述した例と同様に、
精度良く環境の明るさを検出することができる。
【0098】
【発明の効果】以上詳細に説明したように本発明に係る
ロボット装置は、自律行動するロボット装置であって、
画像を撮像する撮像手段と、上記撮像手段によって撮像
された所定領域の画像の明るさに基づいて環境の明るさ
を検出する明るさ検出手段とを備えることを特徴として
いる。
【0099】ここで、ロボット装置は、上記明るさ検出
手段による検出結果に応じて周囲を照明する照明手段を
さらに備えるようにしてもよい。
【0100】このようなロボット装置によれば、撮像手
段によって撮像された所定領域の画像の明るさに基づい
て環境の明るさを検出することができる。この際、明る
さの検出結果に応じて、暗い場合には、周囲を照明する
ことも可能である。
【0101】また、本発明に係るロボット装置の明るさ
検出方法は、自律行動するロボット装置の明るさ検出方
法であって、画像を撮像する撮像手段によって撮像され
た所定領域の画像の明るさに基づいて環境の明るさを検
出する明るさ検出工程を有することを特徴としている。
【0102】ここで、ロボット装置の明るさ検出方法
は、上記明るさ検出工程における検出結果に応じて周囲
を照明する照明工程をさらに有するようにしてもよい。
【0103】このようなロボット装置の明るさ検出方法
によれば、撮像手段によって撮像された所定領域の画像
の明るさに基づいて環境の明るさを検出することができ
る。この際、明るさの検出結果に応じて、暗い場合に
は、周囲を照明することも可能である。
【0104】また、本発明に係る明るさ検出プログラム
は、自律行動するロボット装置の明るさ検出プログラム
であって、画像を撮像する撮像手段によって撮像された
所定領域の画像の明るさに基づいて環境の明るさを検出
する明るさ検出工程を有することを特徴としている。
【0105】ここで、明るさ検出プログラムは、上記明
るさ検出工程における検出結果に応じて周囲を照明する
照明工程をさらに有するようにしてもよい。
【0106】このような明るさ検出プログラムによれ
ば、撮像手段によって撮像された所定領域の画像の明る
さに基づいて環境の明るさを検出することができる。こ
の際、明るさの検出結果に応じて、暗い場合には、周囲
を照明することも可能である。
【0107】また、本発明に係る記録媒体は、自律行動
するロボット装置の明るさ検出プログラムが記録された
コンピュータ制御可能な記録媒体であって、上記明るさ
検出プログラムは、画像を撮像する撮像手段によって撮
像された所定領域の画像の明るさに基づいて環境の明る
さを検出する明るさ検出工程とを有することを特徴とし
ている。
【0108】ここで、明るさ検出プログラムは、上記明
るさ検出工程における検出結果に応じて周囲を照明する
照明工程をさらに有するようにしてもよい。
【0109】このような記録媒体に記録されている明る
さ検出プログラムによれば、撮像手段によって撮像され
た所定領域の画像の明るさに基づいて環境の明るさを検
出することができる。この際、明るさの検出結果に応じ
て、暗い場合には、周囲を照明することも可能である。
【図面の簡単な説明】
【図1】本発明の実施の形態におけるロボット装置の外
観構成を示す斜視図である。
【図2】同ロボット装置の回路構成を示すブロック図で
ある。
【図3】同ロボット装置のソフトウェア構成を示すブロ
ック図である。
【図4】同ロボット装置のソフトウェア構成におけるミ
ドル・ウェア・レイヤの構成を示すブロック図である。
【図5】同ロボット装置のソフトウェア構成におけるア
プリケーション・レイヤの構成を示すブロック図であ
る。
【図6】同アプリケーション・レイヤの行動モデルライ
ブラリの構成を示すブロック図である。
【図7】同ロボット装置の行動決定のための情報となる
有限確率オートマトンを説明するために使用した図であ
る。
【図8】有限確率オートマトンの各ノードに用意された
状態遷移表を示す図である。
【図9】同ロボット装置が複数の画像を撮像する様子を
説明する図である。
【図10】同ロボット装置によって撮像される複数の画
像を説明する図である。
【図11】各画像の平均輝度の計算手法を説明するため
に使用した図である。
【図12】同ロボット装置の明るさ検出処理を説明する
ためのフローチャートである。
【図13】画像内で輝度値の重み付けを変える例を説明
する図である。
【符号の説明】
1 ロボット装置、2 胴体部ユニット、3A〜3D
脚部ユニット、4 頭部ユニット、10 CPU、12
フラッシュROM、20 CCDカメラ、25 ヘッ
ドライト、29 メモリカード

Claims (28)

    【特許請求の範囲】
  1. 【請求項1】 自律行動するロボット装置であって、 画像を撮像する撮像手段と、 上記撮像手段によって撮像された所定領域の画像の明る
    さに基づいて環境の明るさを検出する明るさ検出手段と
    を備えることを特徴とするロボット装置。
  2. 【請求項2】 上記明るさ検出手段による検出結果に応
    じて周囲を照明する照明手段をさらに備えることを特徴
    とする請求項1記載のロボット装置。
  3. 【請求項3】 上記撮像手段は、胴体部に対して可動と
    された上記ロボット装置の頭部に設けられており、上記
    頭部が駆動されることによって、上記撮像手段の画角よ
    りも広い上記所定領域の画像を複数枚撮像することを特
    徴とする請求項1記載のロボット装置。
  4. 【請求項4】 上記明るさ検出手段は、上記撮像手段に
    よって撮像された画像の平均輝度を計算し、 上記照明手段は、上記平均輝度が所定の閾値未満である
    ときに照明することを特徴とする請求項2記載のロボッ
    ト装置。
  5. 【請求項5】 上記明るさ検出手段は、上記平均輝度を
    計算する際に、上記画像の空間内における位置に応じて
    重み付けを行うことを特徴とする請求項4記載のロボッ
    ト装置。
  6. 【請求項6】 上記照明手段は、上記明るさ検出手段に
    よる検出結果に応じて光量を変化させることを特徴とす
    る請求項2記載のロボット装置。
  7. 【請求項7】 上記明るさ検出手段は、輝度が所定の閾
    値以上である画素を計数し、当該計数結果に基づいて明
    るさを検出することを特徴とする請求項1記載のロボッ
    ト装置。
  8. 【請求項8】 自律行動するロボット装置の明るさ検出
    方法であって、 画像を撮像する撮像手段によって撮像された所定領域の
    画像の明るさに基づいて環境の明るさを検出する明るさ
    検出工程を有することを特徴とするロボット装置の明る
    さ検出方法。
  9. 【請求項9】 上記明るさ検出工程における検出結果に
    応じて周囲を照明する照明工程をさらに有することを特
    徴とする請求項8記載のロボット装置の明るさ検出方
    法。
  10. 【請求項10】 上記撮像手段は、胴体部に対して可動
    とされた上記ロボット装置の頭部に設けられており、上
    記頭部が駆動されることによって、上記撮像手段の画角
    よりも広い上記所定領域の画像を複数枚撮像することを
    特徴とする請求項8記載のロボット装置の明るさ検出方
    法。
  11. 【請求項11】 上記明るさ検出工程では、上記撮像手
    段によって撮像された画像の平均輝度が計算され、 上記照明工程では、上記平均輝度が所定の閾値未満であ
    るときに照明されることを特徴とする請求項9記載のロ
    ボット装置の明るさ検出方法。
  12. 【請求項12】 上記明るさ検出工程では、上記平均輝
    度を計算する際に、上記画像の空間内における位置に応
    じて重み付けが行われることを特徴とする請求項11記
    載のロボット装置の明るさ検出方法。
  13. 【請求項13】 上記照明工程では、上記明るさ検出工
    程における検出結果に応じて光量が変化されることを特
    徴とする請求項9記載のロボット装置の明るさ検出方
    法。
  14. 【請求項14】 上記明るさ検出工程では、輝度が所定
    の閾値以上である画素が計数され、当該計数結果に基づ
    いて明るさが検出されることを特徴とする請求項8記載
    のロボット装置の明るさ検出方法。
  15. 【請求項15】 自律行動するロボット装置の明るさ検
    出プログラムであって、 画像を撮像する撮像手段によって撮像された所定領域の
    画像の明るさに基づいて環境の明るさを検出する明るさ
    検出工程を有することを特徴とする明るさ検出プログラ
    ム。
  16. 【請求項16】 上記明るさ検出工程における検出結果
    に応じて周囲を照明する照明工程をさらに有することを
    特徴とする請求項15記載の明るさ検出プログラム。
  17. 【請求項17】 上記撮像手段は、胴体部に対して可動
    とされた上記ロボット装置の頭部に設けられており、上
    記頭部が駆動されることによって、上記撮像手段の画角
    よりも広い上記所定領域の画像を複数枚撮像することを
    特徴とする請求項15記載の明るさ検出プログラム。
  18. 【請求項18】 上記明るさ検出工程では、上記撮像手
    段によって撮像された画像の平均輝度が計算され、 上記照明工程では、上記平均輝度が所定の閾値未満であ
    るときに照明されることを特徴とする請求項16記載の
    明るさ検出プログラム。
  19. 【請求項19】 上記明るさ検出工程では、上記平均輝
    度を計算する際に、上記画像の空間内における位置に応
    じて重み付けが行われることを特徴とする請求項18記
    載の明るさ検出プログラム。
  20. 【請求項20】 上記照明工程では、上記明るさ検出工
    程における検出結果に応じて光量が変化されることを特
    徴とする請求項16記載の明るさ検出プログラム。
  21. 【請求項21】 上記明るさ検出工程では、輝度が所定
    の閾値以上である画素が計数され、当該計数結果に基づ
    いて明るさが検出されることを特徴とする請求項15記
    載の明るさ検出プログラム。
  22. 【請求項22】 自律行動するロボット装置の明るさ検
    出プログラムが記録されたコンピュータ制御可能な記録
    媒体であって、 上記明るさ検出プログラムは、 画像を撮像する撮像手段によって撮像された所定領域の
    画像の明るさに基づいて環境の明るさを検出する明るさ
    検出工程を有することを特徴とする明るさ検出プログラ
    ムが記録された記録媒体。
  23. 【請求項23】 上記明るさ検出プログラムは、上記明
    るさ検出工程における検出結果に応じて周囲を照明する
    照明工程をさらに有することを特徴とする明るさ検出プ
    ログラムが記録された請求項22記載の記録媒体。
  24. 【請求項24】 上記撮像手段は、胴体部に対して可動
    とされた上記ロボット装置の頭部に設けられており、上
    記頭部が駆動されることによって、上記撮像手段の画角
    よりも広い上記所定領域の画像を複数枚撮像することを
    特徴とする明るさ検出プログラムが記録された請求項2
    2記載の記録媒体。
  25. 【請求項25】 上記明るさ検出工程では、上記撮像手
    段によって撮像された画像の平均輝度が計算され、 上記照明工程では、上記平均輝度が所定の閾値未満であ
    るときに照明されることを特徴とする明るさ検出プログ
    ラムが記録された請求項23記載の記録媒体。
  26. 【請求項26】 上記明るさ検出工程では、上記平均輝
    度を計算する際に、上記画像の空間内における位置に応
    じて重み付けが行われることを特徴とする明るさ検出プ
    ログラムが記録された請求項25記載の記録媒体。
  27. 【請求項27】 上記照明工程では、上記明るさ検出工
    程における検出結果に応じて光量が変化されることを特
    徴とする明るさ検出プログラムが記録された請求項23
    記載の記録媒体。
  28. 【請求項28】 上記明るさ検出工程では、輝度が所定
    の閾値以上である画素が計数され、当該計数結果に基づ
    いて明るさが検出されることを特徴とする明るさ検出プ
    ログラムが記録された請求項22記載の記録媒体。
JP2001341079A 2001-11-06 2001-11-06 ロボット装置、ロボット装置の明るさ検出方法、明るさ検出プログラム及び記録媒体 Withdrawn JP2003136456A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001341079A JP2003136456A (ja) 2001-11-06 2001-11-06 ロボット装置、ロボット装置の明るさ検出方法、明るさ検出プログラム及び記録媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001341079A JP2003136456A (ja) 2001-11-06 2001-11-06 ロボット装置、ロボット装置の明るさ検出方法、明るさ検出プログラム及び記録媒体

Publications (1)

Publication Number Publication Date
JP2003136456A true JP2003136456A (ja) 2003-05-14

Family

ID=19155181

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001341079A Withdrawn JP2003136456A (ja) 2001-11-06 2001-11-06 ロボット装置、ロボット装置の明るさ検出方法、明るさ検出プログラム及び記録媒体

Country Status (1)

Country Link
JP (1) JP2003136456A (ja)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006030533A1 (ja) * 2004-09-17 2006-03-23 National Institute Of Advanced Industrial Science And Technology 生理的刺激飽和手段を備えた模擬生物装置
KR101412751B1 (ko) * 2008-03-14 2014-08-06 엘지전자 주식회사 이동로봇 및 그 동작방법
JP2016052515A (ja) * 2014-09-03 2016-04-14 ダイソン・テクノロジー・リミテッド 移動式ロボット
CN105922272A (zh) * 2016-06-03 2016-09-07 深圳市中幼国际教育科技有限公司 一种幼儿陪伴机器人
CN106003089A (zh) * 2016-07-03 2016-10-12 深圳市中幼国际教育科技有限公司 一种儿童智能陪伴机器人
US9547310B2 (en) 2014-02-21 2017-01-17 Toyota Jidosha Kabushiki Kaisha Mobile object control system, mobile object control method and non-transitory recording medium
JP2018501975A (ja) * 2015-01-12 2018-01-25 ユウトウ・テクノロジー(ハンジョウ)・カンパニー・リミテッド 制御システムと制御方法
US10112302B2 (en) 2014-09-03 2018-10-30 Dyson Technology Limited Mobile robot
GB2574418A (en) * 2018-06-05 2019-12-11 Dyson Technology Ltd A mobile robot and method of controlling a mobile robot illumination system
CN112077856A (zh) * 2020-08-08 2020-12-15 浙江科聪控制技术有限公司 一种防爆巡检机器人用一体化检测装置
US20230211842A1 (en) * 2021-12-31 2023-07-06 Hyundai Motor Company Autonomous walking vehicle

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006030533A1 (ja) * 2004-09-17 2006-03-23 National Institute Of Advanced Industrial Science And Technology 生理的刺激飽和手段を備えた模擬生物装置
KR101412751B1 (ko) * 2008-03-14 2014-08-06 엘지전자 주식회사 이동로봇 및 그 동작방법
US9547310B2 (en) 2014-02-21 2017-01-17 Toyota Jidosha Kabushiki Kaisha Mobile object control system, mobile object control method and non-transitory recording medium
US10144342B2 (en) 2014-09-03 2018-12-04 Dyson Technology Limited Mobile robot
JP2016052515A (ja) * 2014-09-03 2016-04-14 ダイソン・テクノロジー・リミテッド 移動式ロボット
US10112302B2 (en) 2014-09-03 2018-10-30 Dyson Technology Limited Mobile robot
JP2018501975A (ja) * 2015-01-12 2018-01-25 ユウトウ・テクノロジー(ハンジョウ)・カンパニー・リミテッド 制御システムと制御方法
CN105922272A (zh) * 2016-06-03 2016-09-07 深圳市中幼国际教育科技有限公司 一种幼儿陪伴机器人
CN106003089A (zh) * 2016-07-03 2016-10-12 深圳市中幼国际教育科技有限公司 一种儿童智能陪伴机器人
GB2574418A (en) * 2018-06-05 2019-12-11 Dyson Technology Ltd A mobile robot and method of controlling a mobile robot illumination system
CN112203807A (zh) * 2018-06-05 2021-01-08 戴森技术有限公司 移动机器人和控制移动机器人照明系统的方法
US20210229289A1 (en) * 2018-06-05 2021-07-29 Dyson Technology Limited Mobile robot and method of controlling a mobile robot illumination system
GB2574418B (en) * 2018-06-05 2022-08-31 Dyson Technology Ltd A mobile robot and method of controlling a mobile robot illumination system
CN112203807B (zh) * 2018-06-05 2023-09-05 戴森技术有限公司 移动机器人和控制移动机器人照明系统的方法
US11911917B2 (en) 2018-06-05 2024-02-27 Dyson Technology Limited Mobile robot and method of controlling a mobile robot illumination system
CN112077856A (zh) * 2020-08-08 2020-12-15 浙江科聪控制技术有限公司 一种防爆巡检机器人用一体化检测装置
US20230211842A1 (en) * 2021-12-31 2023-07-06 Hyundai Motor Company Autonomous walking vehicle

Similar Documents

Publication Publication Date Title
JP4032793B2 (ja) 充電システム及び充電制御方法、ロボット装置、及び充電制御プログラム及び記録媒体
US7062356B2 (en) Robot apparatus, control method for robot apparatus, and toy for robot apparatus
US6539283B2 (en) Robot and action deciding method for robot
JP3855812B2 (ja) 距離計測方法、その装置、そのプログラム、その記録媒体及び距離計測装置搭載型ロボット装置
JP2002239963A (ja) ロボット装置、ロボット装置の動作制御方法、プログラム及び記録媒体
JP2004133637A (ja) 顔検出装置、顔検出方法及びプログラム、並びにロボット装置
EP1120740A1 (en) Robot device, its control method, and recorded medium
JP2005078376A (ja) 対象物検出装置、対象物方法、及びロボット装置
WO2002066211A1 (fr) Procede de commande de fonctionnement, programme, et support d'enregistrement pour dispositif robotise, et dispositif robotise correspondant
JP2003136456A (ja) ロボット装置、ロボット装置の明るさ検出方法、明るさ検出プログラム及び記録媒体
JP2003159674A (ja) ロボット装置、ロボット装置の外力検出方法及びロボット装置の外力検出プログラム、並びにロボット装置の外力検出のためのキャリブレーション方法及びロボット装置の外力検出のためのキャリブレーションプログラム
JP2004298975A (ja) ロボット装置、障害物探索方法
JP2004302644A (ja) 顔識別装置、顔識別方法、記録媒体、及びロボット装置
JP2004130427A (ja) ロボット装置及びロボット装置の動作制御方法
JP2003271958A (ja) 画像処理方法、その装置、そのプログラム、その記録媒体及び画像処理装置搭載型ロボット装置
JP4379052B2 (ja) 動体検出装置、動体検出方法、及びロボット装置
JP2002239952A (ja) ロボット装置、ロボット装置の行動制御方法、プログラム及び記録媒体
JP2001157980A (ja) ロボット装置及びその制御方法
JP2002205289A (ja) ロボット装置の動作制御方法、プログラム、記録媒体及びロボット装置
JP4649806B2 (ja) ロボット装置及びロボット装置の衝撃吸収方法
JP4193098B2 (ja) トラッキング装置、トラッキング装置のトラッキング方法及びロボット装置
JP2001154707A (ja) ロボット装置及びその制御方法
JP2003136439A (ja) ロボット装置及びロボット装置の歩行制御方法並びにロボット装置の歩行制御プログラム
JP2003071765A (ja) ロボット装置及びロボット装置の入力方法
JP2002326176A (ja) ロボット装置、並びに、画像記憶方法及び画像記憶装置、並びに、制御プログラム及び記録媒体

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20050201