JP4032793B2 - 充電システム及び充電制御方法、ロボット装置、及び充電制御プログラム及び記録媒体 - Google Patents
充電システム及び充電制御方法、ロボット装置、及び充電制御プログラム及び記録媒体 Download PDFInfo
- Publication number
- JP4032793B2 JP4032793B2 JP2002090026A JP2002090026A JP4032793B2 JP 4032793 B2 JP4032793 B2 JP 4032793B2 JP 2002090026 A JP2002090026 A JP 2002090026A JP 2002090026 A JP2002090026 A JP 2002090026A JP 4032793 B2 JP4032793 B2 JP 4032793B2
- Authority
- JP
- Japan
- Prior art keywords
- marker
- robot
- robot apparatus
- distance
- charging
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims description 78
- 239000003550 marker Substances 0.000 claims abstract description 306
- 239000013598 vector Substances 0.000 claims abstract description 113
- 230000008569 process Effects 0.000 claims description 67
- 238000004364 calculation method Methods 0.000 claims description 52
- 238000003384 imaging method Methods 0.000 claims description 49
- 238000006243 chemical reaction Methods 0.000 claims description 4
- 230000006399 behavior Effects 0.000 description 37
- 230000009471 action Effects 0.000 description 29
- 230000008451 emotion Effects 0.000 description 29
- 238000010586 diagram Methods 0.000 description 25
- 230000007704 transition Effects 0.000 description 25
- 238000001514 detection method Methods 0.000 description 13
- 210000003128 head Anatomy 0.000 description 8
- 230000006870 function Effects 0.000 description 7
- 210000001015 abdomen Anatomy 0.000 description 4
- 230000008859 change Effects 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 241001465754 Metazoa Species 0.000 description 2
- 230000036528 appetite Effects 0.000 description 2
- 235000019789 appetite Nutrition 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000002996 emotional effect Effects 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 239000004570 mortar (masonry) Substances 0.000 description 2
- 230000035945 sensitivity Effects 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 241000282326 Felis catus Species 0.000 description 1
- 241000282412 Homo Species 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000001276 controlling effect Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 230000000704 physical effect Effects 0.000 description 1
- 230000001105 regulatory effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/005—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators using batteries, e.g. as a back-up power source
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/021—Optical sensing devices
- B25J19/023—Optical sensing devices including video camera means
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0225—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving docking at a fixed facility, e.g. base station or loading bay
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0234—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using optical markers or beacons
-
- H—ELECTRICITY
- H02—GENERATION; CONVERSION OR DISTRIBUTION OF ELECTRIC POWER
- H02J—CIRCUIT ARRANGEMENTS OR SYSTEMS FOR SUPPLYING OR DISTRIBUTING ELECTRIC POWER; SYSTEMS FOR STORING ELECTRIC ENERGY
- H02J7/00—Circuit arrangements for charging or depolarising batteries or for supplying loads from batteries
Description
【発明の属する技術分野】
本発明は、充電システム及び充電制御方法、ロボット装置、及び充電制御プログラム及び記録媒体に関する。
【0002】
【従来の技術】
最近では、人間のパートナーとして生活を支援する、すなわち住環境その他の日常生活上の様々な場面における人的活動を支援する実用ロボットの開発が進められている。このような実用ロボットは、産業用ロボットとは異なり、人間の生活環境の様々な局面において、個々に個性の相違した人間、又は様々な環境への適応方法を自ら学習する能力を備えている。例えば、犬、猫のように4足歩行の動物の身体メカニズムやその動作を模した「ペット型」ロボット、或いは、2足直立歩行を行う動物の身体メカニズムや動作をモデルにしてデザインされた「人間型」又は「人間形」ロボット(Humanoid Robot)等の脚式移動ロボットは、既に実用化されつつある。
【0003】
これらの脚式移動ロボットは、産業用ロボットと比較してエンターテインメント性を重視した様々な動作を行うことができるため、エンターテインメントロボットと呼称される場合もある。
【0004】
【発明が解決しようとする課題】
ところで、上述したような、ペット型または人間型のロボット装置は、自律的に行動するため、ケーブルなどで電源部に接続し、ロボット装置を駆動することは、ロボット装置の行動の妨げになってしまう。そのため、このようなロボット装置は、電力供給源としてのバッテリーを内蔵している。
【0005】
しかしながら、バッテリーに蓄えられる電力の量は有限であるため、従来のロボット装置は、定期的にバッテリーを充電しなければならず、定期的な充電を怠ると、バッテリー切れによってロボット装置の行動が停止してしまう。また、定期的な充電は、ユーザにとって煩雑である。
【0006】
そこで、本発明は、このような従来の実情に鑑みて提案されたものであり、自律的に充電を行うロボット装置の充電システム及び充電制御方法、ロボット装置、及び充電制御プログラム及び記録媒体を提供することを目的とする。
【0007】
【課題を解決するための手段】
上述した課題を解決するために、本発明に係る充電システムは、駆動用電源と移動手段とを備えたロボット装置と、上記電源を充電する充電装置とからなる充電システムにおいて、充電装置は、最高部に第1のマーカー、後端部に第2のマーカーを標識として有し、ロボット装置は、周囲の状況を撮像する撮像手段と、マーカーの位置の情報が予め記憶された記憶手段と、記憶手段に記憶されたマーカーの位置情報と撮像手段により撮像されたマーカーの位置を含む画像に基づいて、ロボット装置とマーカーとの距離及び方向を算出する位置ベクトル算出手段と、位置ベクトル算出手段によって算出されたロボット装置とマーカーとの距離及び方向にしたがって充電装置の方向に移動するようにロボット装置を制御するとともに、ロボット装置とマーカーとの距離及び方向に基づいて算出された各マーカー間の距離と記憶手段に記憶されたマーカーの位置の情報とに基づいて、ロボット装置がマーカーを誤認しているかどうかを判定するように制御する動作制御手段とを有し、位置ベクトル算出手段が、ロボット装置と第1のマーカーとの距離及び方向を算出し、動作制御手段がロボット装置を充電装置の方向に移動させた後、撮像手段が第2のマーカーを撮像できなかった場合には、第2のマーカーを探索するために動作制御手段がロボット装置を第1のマーカーを中心とした周囲を移動させるように制御して位置ベクトル算出手段がロボット装置と第1のマーカーとの距離及び方向を算出し、撮像手段が第2のマーカーを撮像できた場合には、位置ベクトル算出手段がロボット装置と第2のマーカーとの距離及び方向を算出し、動作制御手段が誤認していると判定した場合には、位置ベクトル算出手段がロボット装置と第1のマーカーとの距離及び方向を算出することを特徴としている。
【0008】
また、本発明にかかるロボット装置は、駆動用電源と移動手段とを備えたロボット装置において、ロボット装置は、周囲の状況を撮像する撮像手段と、電源を充電する充電装置の最高部及び後端部に設けられた標識としての第1のマーカー及び第2のマーカーの位置の情報が予め記憶された記憶手段と、記憶手段に記憶されたマーカーの位置情報と撮像手段により撮像されたマーカーの位置を含む画像に基づいて、ロボット装置とマーカーとの距離及び方向を算出する位置ベクトル算出手段と、位置ベクトル算出手段によって算出されたロボット装置とマーカーとの距離及び方向にしたがって充電装置の方向に移動するようにロボット装置を制御するとともに、ロボット装置とマーカーとの距離及び方向に基づいて算出された各マーカー間の距離と記憶手段に記憶されたマーカーの位置の情報とに基づいて、ロボット装置がマーカーを誤認しているかどうかを判定するように制御する動作制御手段とを有し、位置ベクトル算出手段が、ロボット装置と第1のマーカーとの距離及び方向を算出し、動作制御手段がロボット装置を充電装置の方向に移動させた後、撮像手段が第2のマーカーを撮像できなかった場合には、第2のマーカーを探索するために動作制御手段がロボット装置を第1のマーカーを中心とした周囲を移動させるように制御して位置ベクトル算出手段がロボット装置と第1のマーカーとの距離及び方向を算出し、撮像手段が第2のマーカーを撮像できた場合には、位置ベクトル算出手段がロボット装置と第2のマーカーとの距離及び方向を算出し、動作制御手段が誤認していると判定した場合には、位置ベクトル算出手段がロボット装置と第1のマーカーとの距離及び方向を算出する。
【0011】
また、本発明にかかる充電制御方法は、駆動用電源と移動手段を備えたロボット装置と、電源を充電する充電装置とからなる充電システムの充電制御方法において、周囲の状況を撮像する撮像工程と、撮像工程において撮像された充電装置の最高部及び後端部に設けられた標識としての第1のマーカー及び第2のマーカーの画像と記憶手段に予め記憶されたマーカーの位置の情報とに基づいて、ロボット装置とマーカーとの距離及び方向を算出する位置ベクトル算出工程と、位置ベクトル算出工程において算出されたロボット装置とマーカーとの距離及び方向にしたがってロボット装置が充電装置の方向に移動するとともに、ロボット装置とマーカーとの距離及び方向に基づいて算出された各マーカー間の距離と記憶手段に記憶されたマーカーの位置の情報とに基づいて、ロボット装置がマーカーを誤認しているかどうかを判定するように制御する移動制御工程とを有し、位置ベクトル算出工程では、ロボット装置と第1のマーカーとの距離及び方向を算出し、移動制御工程では、ロボット装置を充電装置の方向に移動させた後、撮像工程で第2のマーカーが撮像されなかった場合には、第2のマーカーを探索するために移動制御工程でロボット装置を第1のマーカーを中心とした周囲を移動させるように制御して位置ベクトル算出工程では、ロボット装置と第1のマーカーとの距離及び方向を算出し、撮像工程で第2のマーカーを撮像できた場合には、位置ベクトル算出工程では、ロボット装置と第2のマーカーの距離及び方向を算出し、移動制御工程で誤認していると判定した場合には、位置ベクトル算出工程では、ロボット装置と第1のマーカーとの距離及び方向を算出する。
【0012】
また、この充電制御方法をロボット装置に実行させるための制御プログラム、及びこの制御プログラムを記録した記録媒体を提供する。
【0013】
【発明の実施の形態】
本発明におけるロボット装置の充電システムは、電源を内蔵し、内部状態に応じて自律的に行動するロボット装置と、電源を充電する充電器とから構成される。この充電システムにおいて、ロボット装置は、自律的に充電器の方向に移動し、自動的に充電を開始する。ロボット装置が充電器の位置を認識できるのは、充電器にマーカーが設けられているためであり、ロボット装置は、このマーカーの位置を記憶し、撮像したマーカーの画像と予め記憶したマーカーの位置から、充電器への方向および距離を求める。
【0014】
本実施の形態では、まず充電器100の構成について説明し、その後ロボット装置について詳細に説明する。以下に、本発明にかかる充電器100の一構成例について図1〜3を用いて詳細に説明する。
【0015】
充電器100は、ロボット装置1が搭載されるロボット装置受部111と、ロボット装置の蓄電状態等を表示する表示部112と、表示部112の一部を覆う前面蓋113と、操作部114と、充電器の存在を示す目印となる主マーカー118および副マーカー113とを少なくとも備えている。
【0016】
充電器100は、当該充電装置の長手方向の一端から他端に向かって高さが曲面に沿って次第に減少するような半雫型として形成されている。このとき表示部112は、高い方の端面に設けられている。以下、表示部112が設けられる面を前面とし、低くなった方の端部を後端部として記す。
【0017】
充電器100の最高部は、ロボット装置1が4つ足で立って静止したときの腹部までの高さとほぼ等しい高さに形成されている。また、当該充電器100の横手方向の長さは、ロボット装置1の左右の足幅以下とされている。
【0018】
充電器100において、ロボット装置受部111は、ロボット装置1の腹部に沿うようなすり鉢状とされている。充電器100には、ロボット装置受部111の主面上に接続部115と搭載検出部116とが設けられている。
【0019】
接続部115は、ロボット装置1が搭載されたときにロボット装置1上に設けられた接続部と対応する位置に設けられている。接続部115は、図示しないが、電力供給用及び情報交換用のコネクタとしての機能を有し、ロボット装置1が搭載された際にロボット装置1上の接続部と接触してロボット装置1に対して電源を供給する。また、ロボット装置1に搭載されている充電電池の蓄電情報や、ロボット装置1の内部状態の情報を受け取る。
【0020】
搭載検出部116は、ロボット装置1が搭載されたときにロボット装置1が接触する位置に設けられている。搭載検出部116は、ロボット装置受部111の主面に対して垂直方向に突出され、弾性力をもって突出方向に付勢されており、ロボット装置1がロボット装置受部111に搭載された際、当該ロボット装置1の腹部によって充電部100内部に押し下げられる。搭載検出装置119は、これによってロボット装置1が搭載されたことを検出する。搭載検出装置119は、ロボット装置1が搭載されたことを検出した場合、充電を開始し、ロボット装置1の内部状態の情報を取得する。
【0021】
表示部112は、例えば液晶表示装置であって、少なくともロボット装置1の本体に搭載された充電電池の蓄電情報及び情報交換コネクタを介して取得したロボット装置1の内部状態の情報、或いは他の種々の情報を表示する。また、表示部112は、後述する充電部117において充電されるサブバッテリとしての充電電池の蓄電情報等も表示する。
【0022】
前面蓋113は、前面部における表示部112に対応する箇所に開口部を有している。また、前面蓋113は、上面部に設けられた操作部114と表示手段の周囲とを覆うような略L字型として形成されている。
【0023】
前面蓋113は、底面付近の所定箇所において軸着され、充電器100の本体に対して当該充電器100の長手方向の延長上に開閉自在とされている。
【0024】
操作部114は、例えば、充電部100の機能を選択する操作するものであって、上面部に設けられている。また、操作部114の隣には、サブバッテリとしての充電電池を充電する充電部117が設けられている。
【0025】
図4は、充電器100の上面および側面を模式的に示した図である。図4に示すように、充電器100には、主マーカー118と副マーカー119の2つのマーカーが設けられている。主マーカー118は、充電器100の最高部に設けられており、周囲から見えやすいようになっている。この充電器100の最高部の高さh、及び充電器100の先端から主マーカー118までの距離aは、ロボット装置1に記録されており、ロボット装置1と充電装置100の距離の算出に用いられる。また、主マーカー118の色は、日常的には稀にしか存在しない色であり、ロボット装置1がその色を検知することにより、主マーカー118の存在を認識できるようになっている。
【0026】
副マーカー119は、充電器100の後端部に設けられている。副マーカー119の色も日常的には稀にしか存在しない色であり、ロボット装置1はその色を検知することにより、副マーカー119の存在を認識できるようになっている。また、充電器100の先端と副マーカー119との距離は、ロボット装置1に記録されており、後述するステーション座標系{s}とロボット座標系{b}の相対距離および相対角度の算出やマーカーの誤認識を検出するために用いられる。
【0027】
次に、ロボット装置1について説明する。ロボット装置1は、図5に示すように、胴体部ユニット2の前後左右にそれぞれ脚部ユニット3A、3B、3C及び3Dが連結されて構成されている。また、胴体部ユニット2の前端部に頭部ユニット4が、胴体部ユニット2の後端部に尻尾部ユニット5がそれぞれ連結されて構成されている。
【0028】
胴体部ユニット2には、図6に示すようにCPU(Central Processing Unit)10、DRAM(Dynamic Random Access Memory)11、フラッシュROM(Read Only Memory)12、PC(Personal Computer)カードインターフェイス回路13及び信号処理回路14が内部バス15を介して相互に接続されることにより形成されたコントロール部16と、このロボット装置1の動力源であって充放電が繰り返し可能なバッテリー17とが収納されている。また、胴体部ユニット2には、ロボット装置1の向きや、動きの加速度を検出するための角速度センサ18及び加速度センサ19等が格納されている。
【0029】
また、頭部ユニット4には、外部の状況を撮像するためのCCD(Charge coupled Device)カメラ20と、使用者からの「撫でる」「叩く」といった物理的な働きかけにより受けた圧力を検出するためのタッチセンサ21と、前方に位置する物体までの距離を測定するための距離センサ22と、外部音を集音するためのマイクロフォン23と、鳴き声等の音声を出力するためのスピーカ24と、ロボット装置1の「目」に相当するLED(Light Emitting Diode)(図示しない)等が所定位置に配置されている。
【0030】
さらに、各脚部ユニット3A〜3Dの関節部分、各脚部ユニット3A〜3Dと胴体部ユニット2との各連結部分、頭部ユニット4と胴体部ユニット2との連結部分等には、それぞれ必要とする自由度に対応した数のアクチュエータ251〜25nと、ポテンショメータ261〜26nとが配設されている。ここで、例えばアクチュエータ251〜25nは、サーボモータを備えている。したがって、ロボット装置1は、脚部ユニット、頭部ユニット4、尻尾部ユニット5がサーボモータの駆動に制御されることで、目標の姿勢、或いは目標の動作を行うことができる。
【0031】
上述の角速度センサ18、加速度センサ19、タッチセンサ21、距離センサ22、マイクロフォン23、スピーカ24及び各ポテンショメータ等の各種センサ、並びに各アクチュエータは、それぞれ対応するハブ271〜27nを介してコントロール部16の信号処理回路14と接続されている。また、CCDカメラ20及びバッテリ17は、それぞれ信号処理回路14と直接接続されている。
【0032】
信号処理回路14は、上述の各センサから供給されるセンサデータ、画像データ、音声データ等を順次取り込み、これらをそれぞれ内部バス15を介してDRAM11内の所定位置に順次格納する。
【0033】
また、信号処理回路14は、バッテリ17から供給される電力の残量を表すバッテリ残量データを順次取り込み、DRAM11の所定位置に格納する。
【0034】
このようにしてDRAM11に格納された各センサデータ、画像データ、音声データ及びバッテリ残量データは、CPU10が当該ロボット装置1の動作制御を行う際に使用される。
【0035】
CPU10は、ロボット装置1の電源が投入された初期時において、フラッシュROM12に格納された制御プログラムを読み出して、DRAM11に格納する。または、CPU10は、図示しない胴体部ユニット2のPCカードスロットに装着された半導体メモリ装置、例えばいわゆるメモリカード28に格納された制御プログラムをPCカードインターフェイス回路13を介して読み出してDRAM11に格納する。
【0036】
CPU10は、上述のように信号処理回路14よりDRAM11に順次格納される各センサデータ、画像データ、音声データ、及びバッテリ残量データに基づいて自己及び周囲の状況や、使用者からの指示及び働きかけの有無を判断している。
【0037】
さらに、CPU10は、この判断結果とDRAM11とに格納した制御プログラムに基づく行動を決定する。CPU10は、当該決定結果に基づいてアクチュエータ251〜25nの中から必要とするアクチュエータを駆動することによって、例えば頭部ユニット4を上下左右に振らせたり、尻尾部ユニット5の尻尾を動かしたり、各脚部ユニット3A〜3Dを駆動して歩行させたりする。
【0038】
また、CPU10は、必要に応じて音声データを生成し、信号処理回路14を介してスピーカ24に供給する。また、CPU10は、上述のLEDの点灯・消灯を指示する信号を生成し、LEDを点灯したり消灯したりする。このように、ロボット装置1は、自己及び周囲の状況や、使用者からの指示及び働きかけに応じて自律的に行動する。
【0039】
以上のようにロボット装置1は、自律的に行動することが可能であるため、例えば、ロボット装置1に導電線を接続して電力を供給することは、ロボット装置1の動作の妨げになる。そのため、ロボット装置1は、図6に示したようにバッテリー17を内蔵し、このバッテリー17から供給される電力によって駆動している。このバッテリー17は、上述した充電器100によって充電されるようになっている。
【0040】
また、上記ロボット装置1は自動充電機能を有している。自動充電機能は、バッテリー残量が少なくなったときに、ロボット装置1が自律的に充電器100を探し出し、自ら充電を行う機能である。
【0041】
この自動充電機能を実行するため、メモリカード28などの記憶装置には、自動充電処理に関するプログラムが記録されており、CPU10はこの記述に従って自動充電処理を実行する。以下、本具体例のロボット装置1における自動充電処理について具体的に説明する。
【0042】
自動充電処理は、充電器100の最高部に設けられた主マーカー118を見つけ出す主マーカー探索処理と、充電器100の後端部に設けられた副マーカー119を見つけ出す副マーカー探索処理と、2つのマーカー113,114とロボット装置1との距離を算出する距離算出処理と、充電器100とロボット装置1との相対位置/角度を算出する相対位置算出手段と、充電器100のエントランスポイントに向かう進路決定処理とから構成されている。
【0043】
主マーカー探索処理においてロボット装置1は、四肢や首を駆動して周囲の画像を取り込み、取り込んだ画像情報の中に主マーカー118の色情報が含まれているか否かを検索し、主マーカー118の存在を認識する。そして、主マーカー118の存在を認識したロボット装置1は、ロボット装置1の首や四肢を駆動して画像の中心に主マーカー118を配置する。
【0044】
距離算出処理は、マーカー113、114とロボット装置1との距離を算出する処理である。距離算出処理においてロボット装置1は、充電器100を中心としたステーション座標系{s}、ロボット装置1の胴体を中心としたロボット座標系{r}、ロボット装置1の頭部に設けられたCCDカメラ20を中心とするカメラ座標系{c}、CCDカメラ20によって撮像された画像の中心を原点としたイメージ座標系{i}の4つの座標系を設定し、ロボット座標系{b}の原点Bからカメラ座標系{c}までの高さBCz、カメラ座標系{c}からロボット座標系{b}への座標変換行列ACBを算出し、以下の式(1)に代入して、ロボット装置とマーカーとの距離を算出する。なお、SPs1xは、ステーション座標系{s}の原点Sから主マーカーの中心Ps1までのy軸方向の距離であり、この値は、図4に示す距離aとしてロボット装置1に予め記録されている。
【0045】
【数1】
【0046】
この式は以下のアルゴリズムによって算出されている。まず、図を用いて上述した座標系を具体的に説明する。図7は、水平な床に充電器100とロボット装置1を配置したときの4つの座標系を示す図である。ステーション座標系{s}は、充電器100の一点を原点Sとする座標系であり、充電器100の配置された床上にxy座標を設定し、床からの高さをz座標で表す。ロボット座標系{b}は、ロボットの重心から床まで下ろした垂線の足を原点Bとする座標系であり、床上にxy座標を設定し、床からの高さをz座標で表す。このように、ステーション座標系{s}とロボット座標系{b}のxy平面は、同一平面上にあり、ステーション座標系{s}とロボット座標系{b}との座標変換を行ってもz座標の値は変化しない。
【0047】
カメラ座標系{c}は、ロボット装置の頭部に設けられたCCDカメラ20を原点Cとする座標系であり、CCDカメラ20の視軸をy軸としている。イメージ座標系{i}は、CCDカメラ20によって撮像された画像に設定された2次元座標であり、撮像された画像の中心を原点Iとしている。
【0048】
上記(1)式を算出するアルゴリズムについて説明する。このアルゴリズムでは、マーカーへの距離をαとおき、イメージ座標系{i}におけるマーカーの方向ベクトルに距離αをかけてマーカーの位置ベクトルを仮定する。この位置ベクトルをステーション座標系{s}の座標に座標変換し、このときのz成分(マーカーの高さ)を示す式と、ロボット装置が予め記憶しているマーカーの高さhとの等式を作り、この等式の項を移項して、マーカーとロボット装置の距離αを算出する式(1)を求める。
【0049】
以下、主マーカー118までの距離を求めるためのアルゴリズムを具体的に示すが、主マーカー118の距離を算出するアルゴリズムと副マーカー119の距離を算出するアルゴリズムは全く同じであり、主マーカー118の中心位置を示す記号Ps1を副マーカー119の中心位置を示す記号Ps2に変更すれば副マーカー119の距離を算出するアルゴリズムを説明することとなる。そのため、副マーカー119の距離を算出するアルゴリズムの説明は省略する。
【0050】
まず、カメラ座標系{c}における主マーカー118の中心Ps1の座標を(xc1,yc1,zc1)とするとカメラ座標系の原点Cから主マーカー118の中心Ps1への方向ベクトルCPs1は、以下の式(2)のように表される。
【0051】
【数2】
【0052】
イメージ座標系{i}における主マーカー118のPs1のxz座標がh1、v1であるとすると、方向ベクトルCPs1のxz成分は、以下の式(3)のように変換される。
【0053】
【数3】
【0054】
ここで、カメラ座標系{c}の原点Cから主マーカー118の中心Ps1までの距離をαとおいて、カメラ座標系{c}の原点Cから主マーカー118の中心Ps1へ向かうベクトルCPs1を表現すると、以下の式(4)のように表現される。
【0055】
【数4】
【0056】
カメラ座標系{c}における主マーカー118の中心Ps1を示す位置ベクトルCPs1は、以下の式(5)によってロボット座標系{b}における主マーカー118の中心Ps1を示すの位置ベクトルBPs1に変換される。
【0057】
【数5】
【0058】
ここで、ベクトルBCは、ロボット座標系{b}におけるカメラ座標系{c}の原点Cを示す位置ベクトルであり、ACBは、カメラ座標系{c}からロボット座標系{b}への座標変換行列であり、このACBは、ロボット装置1の関節の角度から算出される。
【0059】
次に(5)式を行列で表すと以下の式(6)のようになる。
【0060】
【数6】
【0061】
(6)式を解くと、ベクトルSPs1のz成分は、式(7)のようになり
【0062】
【数7】
【0063】
式(7)をαについて解くと、(1)式が算出される。上述したように式(1)の各項は既知の値、もしくは、ロボット装置1の関節角やCCDカメラ20の画像情報から算出される値であり、これらの値を式(1)に代入することによりロボット装置とマーカーの距離αが算出される。
【0064】
副マーカー検出処理は、距離算出処理によって算出された距離情報を用いて実行される。上述したように、主マーカー118は、充電器100の最高部に設けられているためロボット装置1に発見されやすいが、副マーカー119はロボット装置の後端部に設けられているため、充電器100の影に隠れてしまい、ロボット装置1のCCDカメラ20の視野に入らない場合がある。そのため、副マーカー検出処理では、ロボット装置1に主マーカー118の周囲を歩かせ、副マーカー119を探索する処理を行う。
【0065】
副マーカー119を探索する際、ロボット装置1は、主マーカー118の周囲を反時計回りに正八角形を描くように周りながら、正八角形の各頂点で画像を撮像し、この画像情報に副マーカー119の色情報が含まれるかどうかを探索する。ロボット装置1を正八角形に歩かせる手順は以下のようである。主マーカー118を見つけたロボット装置1は、まず、この画像情報の中に副マーカー119の色情報が含まれるか否かを探索する。このとき、画像情報に副マーカー119の色情報が含まれる場合には、副マーカー探索処理を終了する。
【0066】
そして、主マーカー118の撮像された画像に副マーカー119が撮像されていない場合には、正八角形の頂点への移動を開始する。正八角形の頂点への移動を開始したロボット装置1は、ロボット装置1の体が主マーカー118の方を向くように旋回する。そして、距離算出処理によって、主マーカー118とロボット装置1の間隔を計算し、予め設定された間隔になるまで前後に移動する。さらに、ロボット装置1は、その体を時計回りに67.5度旋回し、八角形の一辺の長さ分前進し、八角形の頂点に移動する。
【0067】
八角形の頂点に到達したロボット装置1は、四肢や首を動かし周囲の画像を取り込み、この画像情報に主マーカー118の色情報が含まれるか否かを探索する。そして、主マーカー118の存在を確認すると、主マーカー118の含まれる画像内に副マーカー119の色情報が含まれるかどうかを探索する。主マーカー118の含まれる画像内に副マーカー119の色情報が存在しない場合には、ロボット装置1は、次の頂点に移動し、主マーカー118と副マーカー119が同一の画面内に含まれる位置を探索する。ロボット装置1は、この処理を繰り返し、主マーカー118と副マーカー119が同一の画面内に含まれる位置に移動すると、副マーカー探索処理を終了する。
【0068】
副マーカーを見つけたロボット装置は、相対位置算出処理を行う。相対位置算出処理は、ステーション座標系{s}とロボット座標系{b}の相対位置/角度を算出する処理である。図8は、ステーション座標系{s}とロボット座標系{b}の相対位置/角度を示す図である。図8に示すように、相対位置は、ロボット座標系{b}の原点Bからステーション座標系{s}への位置ベクトルであり、相対角度は、ステーション座標系{s}とロボット座標系{b}の座標系の回転角度θである。
【0069】
相対位置算出手段において、ロボット装置1は、まず、距離算出処理を用いてロボット座標系{b}における主マーカーと副マーカーの位置ベクトルBPs1、BPs2を求める。そして、この位置ベクトルBPs1、BPs2を以下の式(8)(9)に代入することにより、ロボット座標系{b}の原点Bとステーション座標系{s}の原点Sの相対位置/角度を求める。
【0070】
【数8】
【0071】
進路決定処理は、効率的に充電器100のエントランスポイントEPに到達するようなロボット装置の進路を決定する処理である。エントランスポイントEPとは、ロボット装置1が充電器100に進入するのに適した位置であり、充電器100の後端部側に設定されている。図9は、充電器100のエントランスポイントEP及びロボット装置1の通過ポイントを示す図である。図9には、充電器100の周囲に点線で囲まれた長方形の範囲が描かれている。これはロボット装置1の幅に応じて決められる範囲(以下、接触範囲と呼ぶ)であり、ロボット装置1の重心がこの範囲内に進入するとロボット装置1と充電器100は接触してしまう。
【0072】
具体的に説明すると、図9のQの位置にロボット装置1が存在する場合、QからエントランスポイントEPに直接向かおうとすると、ロボット装置1の進路は点Qとエントランスポイントを結ぶ直線になる。この直線に沿ってロボット装置1が移動すると、ロボット装置1は接触空間に進入してしまい、充電器100に接触しまう。
【0073】
そのため、進行処理では、充電器100の周囲をI〜Vの5つの空間に分割し、ロボット装置1の存在する位置に応じて迂回路を設定する。ロボット装置1が空間Iに存在する場合、ロボット装置1は、通過ポイントAを経由してエントランスポイントEPに向かう。また、ロボット装置1が空間IIに存在する場合、ロボット装置1は通過ポイントDを経由して、エントランスポイントEPに向かう。
【0074】
また、ロボット装置1が空間IIIに存在する場合、ロボット装置1が通過ポイントAに移動しようとすると接触空間に進入し、充電器100に接触してしまう。そのため、ロボット装置1が空間IIIに存在する場合には、通過ポイントBを経由した後に通過ポイントAに向かい、その後エントランスポイントEPに向かう。また、ロボット装置1が空間IVに存在するときも、通過ポイントDに向かおうとすると、充電器100に接触してしまう。そのため、ロボット装置1が空間IVに存在するときは、通過ポイントC、Dを経由してエントランスポイントEPに向かう。以上のように、選択した進路に沿ってロボット装置1を移動させ、ロボット装置がエントランスポイントEPに到着する。
【0075】
次に、自動充電処理におけるロボット装置の動作を図10に従って説明する。図10は、ロボット装置1の動作を示す模式図である。バッテリー残量が少なくなると、ロボット装置1は、自動充電処理を開始する。自動充電処理を開始したロボット装置1は、まず、主マーカー探索処理を開始し、首や足を駆動しながら様々な空間の画像を取り込む。そして、主マーカー118が見つかると(ステップS1)、主マーカー118の存在する画像に副マーカー119の色情報が含まれるかどうかを探索する。このとき、取り込んだ画像に副マーカー119の色情報が含まれていない場合には(ステップS3)、副マーカー探索処理を開始し、主マーカー118を中心とする正八角形の頂点を次々と廻り、副マーカー113を視認できる位置にまで移動する(ステップS4)。
【0076】
主マーカー118と副マーカー119の両方が見えるようになると(ステップS5)、ロボット装置1は、相対位置算出処理を行いロボット装置と充電器100の相対位置/角度を算出し、進行処理によって充電器100のエントランスポイントEPの方向に進行する(ステップS6)。エントランスポイントEPに到着したロボット装置1は、ロボット装置受部111に向かって前進し(ステップS7)、ロボット装置受部111に充分はまりこんだ状態で四肢3A〜3Dを曲げロボット装置1のバッテリー接続部と充電器100の接続部115とを接着させ、充電を行い(ステップS7)、自動充電処理を終了する。
【0077】
上記の一連の処理を図11のフローチャートを用いて、さらに詳しく説明する。自動充電処理を開始すると、ロボット装置1は、まず主マーカー探索処理を開始し、ロボット装置1の首や足を駆動して周囲の画像を取り込み、取り込んだ画像情報に主マーカー118の色情報が含まれるか否かを探索する(ステップS11)。そして、主マーカー118の色情報を見つけた場合には(ステップS12)、主マーカー118の全体が画像に映るように、首や足を動かしてCCDカメラ20の位置を調整する。
【0078】
なお、主マーカー118の全体が画像に含まれるようにするのは、取り込んだ画像における主マーカー118の図心を求めることができるようにするためである。そのため、主マーカー118は、厳密な意味での画像中心に配置する必要はない。しかしながら、CCDカメラ20のレンズの歪みを少なくするため、主マーカー118ができるだけ画像の中心に配置されるようにCCDカメラ20の位置を調整することが望ましい。
【0079】
CCDカメラ20の位置を調整し、主マーカー118の全体が画像に映るようになると、ロボット装置1は、距離算出処理を実行し主マーカー118の位置ベクトルを算出する。ロボット装置1は首の制御の影響で主マーカー118の位置ベクトルが収束するのに若干時間がかかる。そのため、ロボット装置1は、CCDカメラ20から出力されるフレーム毎に主マーカー118の位置ベクトルを演算し、連続する位置ベクトルのノルムの差分である差分ノルムを算出し、この差分ノルムを用いて適切な位置ベクトルを選択する。位置ベクトルを採用する条件は、主マーカー118を視認してから64フレーム経過後に算出された位置ベクトルであり、かつ、位置ベクトルのノルム差分が5フレーム以上の間1mm以内に収束するという条件である。
【0080】
図12の上図は、位置ベクトルのノルムと主マーカー視認後フレームの枚数との関係を示すグラフであり、図12の下図は位置ベクトルの差分ノルムと主マーカー視認後のフレームの枚数との関係を示すグラフである。図12の下図において、64フレームで経過後であり、かつ、位置ベクトルのノルム差分が5フレーム以上の間1mm以内に収束する条件を満たす部分は、グラフ上の丸で囲んだ部分になる。そのため、この丸で囲んだ部分において算出された位置ベクトルを正確な位置ベクトルとして採用することにより、首の制御の不安定さによって生じる検出誤差を回避し、信頼性の高い位置ベクトルを取得することができる(ステップS13)。
【0081】
次いで、ロボット装置1は、首を駆動させて周囲の画像を取り込み、取り込んだ画像情報の中に副マーカー119の色情報が含まれるか否かを探索する(ステップS14)。そして、主マーカー118を視認した位置において、副マーカー119が見つからなかった場合には(ステップS15;NO)、ロボット装置1は、副マーカー探索処理を開始し、主マーカー118を中心とする正八角形の辺上を移動し(ステップS16)、ステップS11の処理を実行する。
【0082】
副マーカー119を視認したロボット装置1は(ステップS17)、主マーカー118と副マーカー119との位置ベクトルの差から、主マーカー118と副マーカー119の距離を求め、ロボット装置に記憶された主マーカー118と副マーカー119の距離と算出した距離を比較し、ロボット装置1がマーカー113,114の誤認をしているか否かの判定を行う(ステップS18)。
【0083】
すなわち、主マーカー118と副マーカー119の距離は固定されているため、ロボット装置1が他の対象物をマーカーと判断した場合には、主マーカー118と副マーカー119の距離が実際の距離とは異なる長さになる。そのため、主マーカー118と副マーカー119の距離が一定の範囲に含まれない場合には(ステップS19;NO)、ロボット装置1は、マーカーを誤認したと認識し、ステップS11に処理を移行して、再度マーカーの探索を行う。また、主マーカーと副マーカーの距離が一定の範囲内に含まれる場合には、ロボット装置は、正確なマーカーを視認しているとして(ステップS19;YES)、ステップS20に処理を移行する。
【0084】
ステップS20において、ロボット装置1は、相対位置算出処理を実行し、ロボット座標系{b}とステーション座標系{s}の相対位置/角度を求め、ステップS21に処理を移行する。なお、ステーション座標系{s}とロボット座標系{b}の相対位置/角度を求めるとロボット座標系{b}からステーション座標系{s}の座標変換が容易に行えるようになる。
【0085】
ステップS21では、ステーション座標系{s}におけるロボット座標系{b}の原点Bの座標を求め、このBの値を利用して進行処理を行う。進行処理は、ロボット装置が充電器100に接触しないような進路を選択する処理であり、ロボット装置1は進行処理によって決定された進路に沿って移動し(ステップS22)、エントランスポイントEPに到達する(ステップS23;YES)。エントランスポイントEPに到達したロボット装置1は、その体が主マーカー118と副マーカー119の中点を向くように旋回し、ロボット装置1の位置を微調整する(ステップS24)。
【0086】
また、ステップS23において、ロボット装置1がエントランスポイントEPに到達しなかった場合には(ステップS23;NO)、ステップS11に処理を移行し、再度主マーカー118の探索を開始する。
【0087】
ロボット装置1の位置が決定すると、ロボット装置1は充電器100の方向に向かって前進する。このとき、ロボット装置1は、距離算出処理を用いて、主マーカー118とロボット装置1の距離を算出し、主マーカー118とロボット装置1の距離が所定の距離になると、ロボット装置1の移動を停止する(ステップS25)。
【0088】
次いで、ロボット装置1は、腰を落とし、ロボット装置1のバッテリー17の接続部と充電器100の接続部を接触させる(ステップS26)。このとき、充電器100のロボット装置受部111はすり鉢状になっており、ロボット装置1の方向や位置が多少ずれていたとしても、ロボット装置1の腹部はロボット装置受部111に正確に装着できる。
【0089】
以上のような一連の動作により、ロボット装置1は、バッテリー残量が少なくなったことを認識し、自律的に充電器100に向かい、充電処理を行うことができる。そのため、ロボット装置1は、ユーザが手を貸さなくても、バッテリーの寿命の限り動作し続ける。
【0090】
また、ロボット装置のバッテリー残量に応じて、充電器へ向かう途中の歩行パターンを変える処理などを追加すると、焦っている様子等を演出でき、エンターテインメント性が向上できる。
【0091】
また、バッテリーの残量が比較的少ない場合などには、ロボット装置が充電器から離れないように制御することができる。逆に、充電器の近くにいるときには、バッテリー残量が少なくても、バッテリーの消耗が早い激しい動き等を頻繁に行うように制御することができる。
【0092】
次に、以上のような一連の処理は以下に示すソフトウェアによって実行されている。以下、ロボット装置1における制御プログラムのソフトウェア構成を図13に示す。図13において、デバイス・ドライバ・レイヤ30は、この制御プログラムの最下位層に位置し、複数のデバイス・ドライバからなるデバイス・ドライバ・セット31から構成されている。この場合、各デバイス・ドライバは、CCDカメラ20やタイマ等の通常のコンピュータで用いられるハードウェアに直接アクセスすることを許されたオブジェクトであり、対応するハードウェアからの割り込みを受けて処理を行う。
【0093】
また、ロボティック・サーバ・オブジェクト32は、デバイス・ドライバ・レイヤ30の最下位層に位置し、例えば上述の各種センサや各アクチュエータ等のハードウェアにアクセスするためのインターフェイスを提供するソフトウェア群でなるデバイス・ドライバ・マネージャ35と、ロボット装置1の機構を管理するソフトウェア群でなるデザインド・ロボット36とから構成されている。
【0094】
マネージャ・オブジェクト37は、オブジェクト・マネージャ38及びサービス・マネージャ39から構成されている。オブジェクト・マネージャ38は、ロボティック・サーバ・オブジェクト32、ミドル・ウェア・レイヤ40、及びアプリケーション・レイヤ41に含まれる各ソフトウェア群の起動や終了を管理するソフトウェア群である。サービス・マネージャ39は、メモリカード28に格納されたコネクションファイルに記述されている各オブジェクト間の接続情報に基づいて、各オブジェクトの接続を管理するソフトウェア群である。
【0095】
ミドル・ウェア・レイヤ40は、ロボティック・サーバ・オブジェクト32の上位層に位置し、画像処理や音声処理等のロボット装置1の基本的な機能を提供するソフトウェア群から構成されている。
【0096】
また、アプリケーション・レイヤ41は、ミドル・ウェア・レイヤ40の上位層に位置し、当該ミドル・ウェア・レイヤ40を構成する各ソフトウェア群によって処理された処理結果に基づいて、ロボット装置1の行動を決定するためのソフトウェア群から構成されている。
【0097】
ミドル・ウェア・レイヤ40は、図14に示すように、騒音検出用信号処理モジュール50、温度検出用信号処理モジュール51、明るさ検出用信号処理モジュール52、音階認識用信号処理モジュール53、距離検出用信号処理モジュール54、姿勢検出用信号処理モジュール55、タッチセンサ用信号処理モジュール56、動き検出用信号処理モジュール57、色認識用信号処理モジュール58、入力セマンティクスコンバータモジュール59等を有する認識系60と、出力セマンティクスコンバータモジュール68、姿勢管理用信号処理モジュール61、トラッキング用信号処理モジュール62、モーション再生用信号処理モジュール63、歩行用信号処理モジュール64、転倒復帰用信号処理モジュール65、LED点灯用信号処理モジュール66、音再生用信号処理モジュール67等を有する認識系69とから構成されている。
【0098】
認識系60の各信号処理モジュール50〜58は、ロボティック・サーバ・オブジェクト32のバーチャル・ロボット33によりDRAM11から読み出される各センサデータ、画像データ、音声データのうち、対応するデータを取り込み、当該データに基づいて所定の処理を施し、処理結果を入力セマンティクスコンバータモジュール59に与える。ここで、例えば、バーチャル・ロボット33は、所定の通信規約によって信号の授受或いは変換をする部分として構成されている。
【0099】
入力セマンティクスコンバータモジュール59は、各信号処理モジュール50〜58から与えられる処理結果に基づいて、例えば「うるさい」、「暑い」、「明るい」、「ボールを検出した」、「転倒を検出した」、「撫でられた」、「叩かれた」、「ド・ミ・ソの音階が聞こえた」、「動く物体を検出した」、「障害物を検出した」等の自己及び周囲の状況や、使用者からの指令や働きかけを認識し、認識結果をアプリケーション・レイヤ41に出力する。
【0100】
アプリケーション・レイヤ41は、図15に示すように行動モデルライブラリ70、行動切換モジュール71、学習モジュール72、感情モデル73、及び本能モデル74の5つのモジュールから構成されている。
【0101】
行動モデルライブラリ70には、例えば、図16に示すように「バッテリ残量が少なくなった場合」、「転倒復帰する場合」、「障害物を回避する場合」、「感情を表現する場合」、「ボールを検出した場合」等の予め選択されたいくつかの条件項目にそれぞれ対応させて、それぞれ独立した行動モデル701〜70nが設けられている。
【0102】
これらの行動モデル701〜70nは、それぞれ入力セマンティクスコンバータモジュール59から認識結果が与えられたときや、最後の認識結果が与えられてから一定時間が経過したとき等に必要に応じて後述するように感情モデル73に保持された対応する情動のパラメータ値や、本能モデル74に保持されている対応する欲求のパラメータ値を参照しながら続く行動をそれぞれ決定し、決定結果を行動切換モジュール71に出力する。
【0103】
本実施の形態にしめすロボット装置1の場合、各行動モデル701〜70nは、図17に示すようなノード(状態)NODE0〜NODEnのうちのあるノードから他のノードに遷移するか否かを有限確率オートマトンと呼ばれるアルゴリズムを用いて行動を決定している。有限確率オートマトンとは、ノード(状態)NODE0〜NODEnのうちのあるノードから他のノードに遷移するか否かを各ノードの間を接続するアークARC1〜ARCnのそれぞれに対応して設定された遷移確率P1〜Pnに基づいて確率的に決定するアルゴリズムである。
【0104】
具体的に、各行動モデル701〜70nは、それぞれ自己の行動モデル701〜70nを形成するノードNODE0〜NODEnにそれぞれ対応させて、これらのノード毎に図18に示すような状態遷移表80を有している。
【0105】
この状態遷移表80では、あるノードにおける遷移条件としての入力イベント(認識結果)が「入力イベント名」の行に優先的に列記され、その遷移条件についての更なる条件が「データ名」及び「データの範囲」の行における対応する列に記述されている。
【0106】
したがって、図18の状態遷移表80で表されるノードNODE100では、例えば、「ボールを検出(BALL)」という認識結果が与えられたときに、当該認識結果とともに与えられるボールの「大きさ(SIZE)」が「0から1000」の範囲であること、或いは、「障害物を検出(OBSTACLE)」という認識結果が与えられたときに、当該認識結果とともに与えられる障害物までの「距離(DISTANCE)」が「0から100」の範囲であること等が他のノードに遷移するための条件となっている。
【0107】
また、このNODE100では、認識結果の入力がない場合においても、行動モデル701〜70nが周期的に参照する感情モデル73及び本能モデル74に保持された各情動及び各欲求のパラメータ値のうち、感情モデル73に保持された「喜び(JOY)」、「驚き(SURPRISE)」、「悲しみ(SUDNESS)」の何れかのパラメータ値が「50から100」の範囲であるときには他のノードに遷移することができるようになっている。
【0108】
状態遷移表80では、「他のノードへの遷移確率」の欄に対応する「遷移先ノード」の欄の列に、ノードNODE0〜NODEnの中から遷移可能な遷移先ノード名が列記されている。また、「入力イベント名」、「データ値」、及び「データの範囲」の行に記述された全ての条件が揃ったときに遷移可能な他のノードへの遷移確率が「他のノードへの遷移確率」の欄内の対応する箇所に記述されている。そのノードに遷移する際に出力すべき行動が「他のノードへの遷移確率」の欄における「出力行動」の行に記述されている。
【0109】
なお、「他のノードへの遷移確率」の欄における各行の遷移確率の和は、100[%]となっている。
【0110】
したがって、図18の状態遷移表80で示されるノードNODE100では、例えば「ボールを検出(BALL)」し、そのボールの「SIZE(大きさ)」が「0から1000」の範囲であるという認識結果が与えられた場合には、「30[%]」の確率で「ノードNODE120(node 120)」に遷移でき、その時「ACTION1」の行動が出力されることとなる。
【0111】
各行動モデル701〜70nは、それぞれこのような状態遷移表80として記述されたノードNODE0〜NODEnが複数個繋がるように構成されている。各行動モデルは、入力セマンティクスコンバータモジュール59から認識結果が与えられたときに対応するノードNODE0〜NODEnの状態遷移表を利用して確率的に次の行動を決定し、決定結果を行動切換モジュール71に出力する。
【0112】
図15に示す行動切換モジュール71は、行動モデルライブラリ70の各行動モデル701〜70nからそれぞれ出力される行動のうち、予め定められた優先順位の高い行動モデルから出力された行動を選択し当該行動を実行すべき旨のコマンド(以下、行動コマンドという。)をミドル・ウェア・レイヤ40の出力セマンティクスコンバータモジュール68に送出する。なお、本実施の形態においては、図16において下側に標記された行動モデルほど優先順位が高く設定されている。
【0113】
また、行動切換モジュール71は、行動完了後に出力セマンティクスコンバータモジュール68から与えられる行動完了情報に基づいて、その行動が完了したことを学習モジュール72、感情モデル73及び本能モデル74に通知する。
【0114】
一方、学習モジュール72は、入力セマンティクスコンバータモジュール59から与えられる認識結果のうち、「叩かれた」や「撫でられた」等、使用者からの働きかけとして受けた教示の認識結果を入力する。
【0115】
そして、学習モジュール72は、この認識結果及び行動切換モジュール71からの通知に基づいて、「叩かれた(叱られた)」ときにはその行動の発現確率を低下させ、「撫でられた(誉められた)」ときにはその行動の発現確率を上昇させるように、行動モデルライブラリ70における行動モデル701〜70nのうち、対応する行動モデルの遷移確率を変更する。
【0116】
他方、感情モデル73は、「喜び(JOY)」、「悲しみ(SADNESS)」、「怒り(ANGER)」、「驚き(SURPRISE)」、「嫌悪(DISGUST)」及び「恐れ(FEAR)」の合計6つの情動について、各情動毎に、その強さを表すパラメータを保持している。そして、感情モデル73は、これら各情動のパラメータ値を入力セマンティクスコンバータモジュール59からの「叩かれた」及び「撫でられた」等の特定の認識結果、経過時間、及び行動切換モジュール71からの通知等に基づいて周期的に更新する。
【0117】
具体的には、感情モデル73は、入力セマンティクスコンバータモジュール59から与えられる認識結果と、その時のロボット装置1の行動と、前回更新してからの経過時間等に基づいて、所定の演算式により算出される。
【0118】
情動の変動量をΔE[t]、現在のその情動のパラメータ値をE[t]、その感情の感度を表す係数をkeとして、以下に示す式(10)によって次の周期における情動のパラメータ値E[t+1]を算出し、これを現在の情動のパラメータ値E[t]と置き換えるようにして情動のパラメータ値を更新する。また、感情モデル73は、これと同様にして全ての情動のパラメータ値を更新する。
【0119】
【数9】
【0120】
なお、各認識結果や出力セマンティクスコンバータモジュール68からの通知が各情動のパラメータ値の変動量ΔE[t]にどの程度の影響を与えるかは予め決められており、例えば「叩かれた」といった認識結果は、「怒り」の情動のパラメータ値の変動量ΔE[t]に大きな影響を与え、「撫でられた」といった認識結果は、「喜び」の情動のパラメータ値ΔE[t]に大きな影響を与えるようになっている。
【0121】
ここで、出力セマンティクスコンバータモジュール68からの通知とは、いわゆる行動のフィードバック情報(行動完了情報)であり、行動の出現結果の情報である。感情モデル73は、このような情報によっても感情を変化させる。これは、例えば「吠える」という行動により、怒りの感情レベルが下がるということである。
【0122】
なお、出力セマンティクスコンバータモジュール68からの通知は、上述した学習モジュール72にも入力されており、学習モジュール72は、その通知に基づいて行動モデル701〜70nの対応する遷移確率を変更する。なお、行動結果のフィードバックは、行動切換モジュレータ71の出力(感情が付加された行動)によりなされるものであってもよい。
【0123】
一方、本能モデル74は、例えば「運動欲(EXERCISE)」、「愛情欲(AFFECTION)」、「食欲(APPETITE)」、「好奇心(CURIOSITY)」の互いに独立した4つの欲求について、これら欲求毎にその欲求の強さを示すパラメータを保持している。そして、本能モデル74は、これら欲求のパラメータ値を入力セマンティクスコンバータモジュール59から与えられる認識結果、経過時間、行動切換モジュール71からの通知等に基づいて周期的に更新する。
【0124】
具体的には、本能モデル74は、「運動欲」、「愛情欲」及び「好奇心」においては、認識結果、経過時間及び出力セマンティクスコンバータモジュール68からの通知等に基づいて所定の計算式より算出される。このとき欲求の変動量をΔI[k]、現在の欲求のパラメータ値をI[k]、その欲求の感度を示す係数kiとして、所定周期で以下に示す式(11)を用いて次の周期におけるその欲求のパラメータ値I[k+1]を算出し、この演算結果を現在のその欲求のパラメータ値I[k]と置き換えるようにして欲求のパラメータ値を更新する。また、本能モデル74は、これと同様にして、「食欲」を除いた各欲求のパラメータ値を更新している。
【0125】
【数10】
【0126】
なお、認識結果及び出力セマンティクスコンバータモジュール68からの通知等が各欲求のパラメータ値の変動量ΔI[k]にどの程度の影響を与えるかは予め決められており、例えば出力セマンティクスコンバータモジュール68からの通知は、「疲れ」のパラメータ値の変動量ΔI[k]に大きな影響を与えるようになっている。
【0127】
なお、本実施の形態においては、各情動及び各欲求(本能)のパラメータ値がそれぞれ0から100までの範囲で変動するように規制されており、また係数ke、kiの値も各情動及び各欲求毎に個別に設定されている。
【0128】
一方、ミドル・ウェア・レイヤ40の出力セマンティクスコンバータモジュール68は、図14に示すように、上述のようにしてアプリケーション・レイヤ41の行動切換モジュール71から与えられる「前進」、「喜ぶ」、「鳴く」または「ボールを追いかける(トラッキング)」といった抽象的な行動コマンドを認識系69の対応する信号処理モジュール61〜67に与える。
【0129】
そして、これら信号処理モジュール61〜67は、行動コマンドが与えられると、当該行動コマンドに基づいて、その行動を行うために対応するアクチュエータ251〜25nに与えるべきサーボ指令値等のデータをロボティック・サーバ・オブジェクト32のバーチャル・ロボット33及び信号処置回路14を順次介して、アクチュエータ251〜25nのうち対応するアクチュエータに順次送出する。
【0130】
また、信号処理モジュール61〜67は、スピーカ24から出力する音の音声データ及び/または「目」のLEDの動作に関わるデータを生成し、これらのデータをロボティック・サーバ・オブジェクト32のバーチャル・ロボット33及び信号処理回路14を介して、スピーカ24またはLEDに順次送出する。
【0131】
このようにして、ロボット装置1は、制御プログラムに基づいて自己(内部)及び周囲(外部)の状況や使用者からの指示及び働きかけに応じた自律的な行動を行うことができるようになっている。
【0132】
【発明の効果】
以上説明したように、本発明に係る充電システムは、駆動用電源と移動手段とを備えたロボット装置と、上記電源を充電する充電装置とからなる充電システムにおいて、充電装置は、最高部に第1のマーカー、後端部に第2のマーカーを標識として有し、ロボット装置は、周囲の状況を撮像する撮像手段と、マーカーの位置の情報が予め記憶された記憶手段と、記憶手段に記憶されたマーカーの位置情報と撮像手段により撮像されたマーカーの位置を含む画像に基づいて、ロボット装置とマーカーとの距離及び方向を算出する位置ベクトル算出手段と、位置ベクトル算出手段によって算出されたロボット装置とマーカーとの距離及び方向にしたがって充電装置の方向に移動するようにロボット装置を制御するとともに、ロボット装置とマーカーとの距離及び方向に基づいて算出された各マーカー間の距離と記憶手段に記憶されたマーカーの位置の情報とに基づいて、ロボット装置がマーカーを誤認しているかどうかを判定するように制御する動作制御手段とを有し、位置ベクトル算出手段が、ロボット装置と第1のマーカーとの距離及び方向を算出し、動作制御手段がロボット装置を充電装置の方向に移動させた後、撮像手段が第2のマーカーを撮像できなかった場合には、第2のマーカーを探索するために動作制御手段がロボット装置を第1のマーカーを中心とした周囲を移動させるように制御して位置ベクトル算出手段がロボット装置と第1のマーカーとの距離及び方向を算出し、撮像手段が第2のマーカーを撮像できた場合には、位置ベクトル算出手段がロボット装置と第2のマーカーとの距離及び方向を算出し、動作制御手段が誤認していると判定した場合には、位置ベクトル算出手段がロボット装置と第1のマーカーとの距離及び方向を算出する。
【0133】
したがって、本発明に係る充電システムによれば、ロボット装置が充電装置を発見して、充電装置の方向に移動し、自律的に充電を行うことができる。
【0134】
また、本発明に係るロボット装置によれば、位置ベクトル算出手段において、記憶手段に記憶された標識位置情報と撮像手段により撮像された標識位置を含む画像とから標識との距離及び方向を算出することによって、ロボット装置は、充電装置を発見して、充電装置の方向に移動し、自律的に充電を行うことができる。
【0136】
また、本発明に係る充電制御方法によれば、位置ベクトル算出工程において、撮像工程で撮像された充電装置に設けられた標識の画像と記憶手段に予め記憶された標識位置の情報とから標識との距離及び方向を算出し、動作制御工程において、ここで算出された距離及び方向にしたがって充電装置の方向に移動するように制御することによって、ロボット装置が充電装置を発見して、充電装置の方向に移動し、自律的に充電を行うことができる。
【0137】
また、この充電制御方法をロボット装置に実行させるための制御プログラムを記録媒体に記録して提供することによって、ロボット装置が充電装置を発見して、充電装置の方向に移動し、自律的に充電を行うことができる。
【図面の簡単な説明】
【図1】本発明の具体例として示す充電器の外観を示す図である。
【図2】本発明の具体例として示す充電器の外観を示す図である。
【図3】本発明の具体例として示す充電器の外観を示す図である。
【図4】本発明の具体例として示す充電器の外観を示す模式図である。
【図5】本発明の具体例として示すロボット装置の外観を示す図である。
【図6】本具体例として示すロボット装置の内部構成を示す図である。
【図7】自動充電処理において使用される座標系を模式的に示す図である。
【図8】ロボット座標系とステーション座標系の相対距離および相対角度を示す図である。
【図9】エントランスポイントおよび通過ポイントを示す図である。
【図10】自動充電処理におけるロボット装置の動作を模式的に示す図である。
【図11】自動充電処理を示すフローチャートである。
【図12】位置ベクトルのノルムと撮像したフレーム数との関係を示す図である。
【図13】ロボット装置における制御プログラムのソフトウェア構成を示す図である。
【図14】ロボット装置に内蔵されたソフトウェアにおけるミドルウェア・レイヤの構成を示す図である。
【図15】ロボット装置に内蔵されたソフトウェアにおけるアプリケーション・レイヤの構成を示す図である。
【図16】ロボット装置に内蔵されたソフトウェアにおける行動モデルライブラリの構成を示す構成図である。
【図17】ロボット装置の行動を決定するための状態遷移図である。
【図18】ロボット装置の行動を決定するための状態遷移条件を示す図である。
【符号の説明】
1 ロボット装置、2 胴体部ユニット、3A,3B,3C 脚部ユニット、4頭部ユニット、10 CPU、17 バッテリー、20 CCDカメラ、28メモリカード、100 充電器、115 接続部、118 主マーカー、119 副マーカー
Claims (15)
- 駆動用電源と移動手段とを備えたロボット装置と、上記電源を充電する充電装置とからなる充電システムにおいて、
上記充電装置は、最高部に第1のマーカー、後端部に第2のマーカーを標識として有し、
上記ロボット装置は、周囲の状況を撮像する撮像手段と、
上記マーカーの位置の情報が予め記憶された記憶手段と、
上記記憶手段に記憶されたマーカーの位置情報と上記撮像手段により撮像された上記マーカーの位置を含む画像に基づいて、上記ロボット装置と上記マーカーとの距離及び方向を算出する位置ベクトル算出手段と、
上記位置ベクトル算出手段によって算出された上記ロボット装置と上記マーカーとの距離及び方向にしたがって上記充電装置の方向に移動するように上記ロボット装置を制御するとともに、上記ロボット装置と上記マーカーとの距離及び方向に基づいて算出された各マーカー間の距離と上記記憶手段に記憶されたマーカーの位置の情報とに基づいて、上記ロボット装置が上記マーカーを誤認しているかどうかを判定するように制御する動作制御手段とを有し、
上記位置ベクトル算出手段が、上記ロボット装置と上記第1のマーカーとの距離及び方向を算出し、上記動作制御手段が上記ロボット装置を上記充電装置の方向に移動させた後、上記撮像手段が上記第2のマーカーを撮像できなかった場合には、上記第2のマーカーを探索するために上記動作制御手段が上記ロボット装置を上記第1のマーカーを中心とした周囲を移動させるように制御して上記位置ベクトル算出手段が上記ロボット装置と上記第1のマーカーとの距離及び方向を算出し、上記撮像手段が上記第2のマーカーを撮像できた場合には、上記位置ベクトル算出手段が上記ロボット装置と上記第2のマーカーとの距離及び方向を算出し、上記動作制御手段が誤認していると判定した場合には、上記位置ベクトル算出手段が上記ロボット装置と上記第1のマーカーとの距離及び方向を算出することを特徴とする充電システム。 - 上記位置ベクトル算出手段は、上記撮像手段によって撮像された画像の画角中心から該画像内における上記マーカー位置までの方向ベクトルを算出する方向ベクトル算出手段と、
上記方向ベクトル算出手段によって算出された撮像画像上の方向ベクトルを上記撮像手段を中心とする撮像座標系における位置ベクトルに変換し、上記撮像座標系の位置ベクトルを当該ロボット装置を中心としたロボット座標系における位置ベクトルへと変換する座標変換手段と
を備え、
上記位置ベクトル算出手段は、上記ロボット座標系におけるマーカー位置と上記記憶手段に記憶されたマーカー位置とから該マーカーと当該ロボット装置との距離を算出することを特徴とする請求項1記載の充電システム。 - 上記マーカーの互いの位置関係及び上記充電装置における取付位置と、上記位置ベクトル算出手段によって算出された各マーカーとの距離及び方向から上記ロボット座標系と上記充電装置を中心とした充電装置座標系との相対位置及び相対角を算出する座標系相関算出手段を備えることを特徴とする請求項1記載の充電システム。
- 上記撮像手段により全てのマーカーが撮像されない場合、上記動作制御手段は、撮像できているマーカーを基準として所定位置まで移動するように制御することを特徴とする請求項1記載の充電システム。
- 上記記憶手段には、上記ロボット装置が直進することで上記充電装置に到達できるエントランス位置の座標と、上記充電装置周囲の所定地点の座標とが上記充電装置座標系で記憶され、上記動作制御手段は、上記位置ベクトル算出手段によって算出された上記マーカーの互いの位置関係に応じて、上記所定地点を経由して上記エントランス位置へ移動するよう制御することを特徴とする請求項1記載の充電システム。
- 上記ロボット装置は、移動手段を備え、上記ロボット座標系の原点及び上記充電装置座標系の原点は、上記移動手段の接地平面上に設定されていることを特徴とする請求項1記載の充電システム。
- 駆動用電源と移動手段を備えたロボット装置と、上記電源を充電する充電装置とからなる充電システムの充電制御方法において、
周囲の状況を撮像する撮像工程と、
上記撮像工程において撮像された充電装置の最高部及び後端部に設けられた標識としての第1のマーカー及び第2のマーカーの画像と記憶手段に予め記憶された上記マーカーの位置の情報とに基づいて、上記ロボット装置と上記マーカーとの距離及び方向を算出する位置ベクトル算出工程と、
上記位置ベクトル算出工程において算出された上記ロボット装置と上記マーカーとの距離及び方向にしたがって上記ロボット装置が上記充電装置の方向に移動するとともに、上記ロボット装置と上記マーカーとの距離及び方向に基づいて算出された上記各マーカー間の距離と上記記憶手段に記憶された上記マーカーの位置の情報とに基づいて、上記ロボット装置が上記マーカーを誤認しているかどうかを判定するように制御する移動制御工程とを有し、
上記位置ベクトル算出工程では、上記ロボット装置と上記第1のマーカーとの距離及び方向を算出し、上記移動制御工程では、上記ロボット装置を上記充電装置の方向に移動させた後、上記撮像工程で上記第2のマーカーが撮像されなかった場合には、上記第2のマーカーを探索するために上記移動制御工程で上記ロボット装置を上記第1のマーカーを中心とした周囲を移動させるように制御して上記位置ベクトル算出工程では、上記ロボット装置と上記第1のマーカーとの距離及び方向を算出し、上記撮像工程で上記第2のマーカーを撮像できた場合には、上記位置ベクトル算出工程では、上記ロボット装置と上記第2のマーカーの距離及び方向を算出し、上記移動制御工程で誤認していると判定した場合には、上記位置ベクトル算出工程では、上記ロボット装置と上記第1のマーカーとの距離及び方向を算出することを特徴とする充電制御方法。 - 駆動用電源と移動手段とを備えたロボット装置において、
上記ロボット装置は、周囲の状況を撮像する撮像手段と、
上記電源を充電する充電装置の最高部及び後端部に設けられた標識としての第1のマーカー及び第2のマーカーの位置の情報が予め記憶された記憶手段と、
上記記憶手段に記憶されたマーカーの位置情報と上記撮像手段により撮像された上記マーカーの位置を含む画像に基づいて、当該ロボット装置と上記マーカーとの距離及び方向を算出する位置ベクトル算出手段と、
上記位置ベクトル算出手段によって算出された当該ロボット装置と上記マーカーとの距離及び方向にしたがって上記充電装置の方向に移動するように、当該ロボット装置を制御するとともに、当該ロボット装置と上記マーカーとの距離及び方向に基づいて算出された上記各マーカー間の距離と上記記憶手段に記憶されたマーカーの位置の情報とに基づいて、当該ロボット装置が上記マーカーを誤認しているかどうかを判定するように制御する動作制御手段とを有し、
上記位置ベクトル算出手段が、当該ロボット装置と上記第1のマーカーとの距離及び方向を算出し、上記動作制御手段が当該ロボット装置を上記充電装置の方向に移動させた後、上記撮像手段が上記第2のマーカーを撮像できなかった場合には、上記第2のマーカーを探索するために上記動作制御手段が当該ロボット装置を上記第1のマーカーを中心とした周囲を移動させるように制御して上記位置ベクトル算出手段が当該ロボット装置と上記第1のマーカーとの距離及び方向を算出し、上記撮像手段が上記第2のマーカーを撮像できた場合には、上記位置ベクトル算出手段が当該ロボット装置と上記第2のマーカーとの距離及び方向を算出し、上記動作制御手段が誤認していると判定した場合には、上記位置ベクトル算出手段が当該ロボット装置と上記第1のマーカーとの距離及び方向を算出することを特徴とするロボット装置。 - 上記位置ベクトル算出手段は、上記撮像手段によって撮像された画像の画角中心から該画像内における上記マーカー位置までの方向ベクトルを算出する方向ベクトル算出手段と、
上記方向ベクトル算出手段によって算出された撮像画像上の方向ベクトルを上記撮像手段を中心とする撮像座標系における位置ベクトルに変換し、上記撮像座標系の位置ベクトルを当該ロボット装置を中心としたロボット座標系における位置ベクトルへと変換する座標変換手段とを含み、
上記位置ベクトル算出手段は、上記ロボット座標系におけるマーカー位置と上記記憶手段に記憶されたマーカー位置とから該マーカーと当該ロボット装置との距離を算出することを特徴とする請求項8記載のロボット装置。 - 上記マーカーの互いの位置関係及び上記充電装置における取付位置と、上記位置ベクトル算出手段によって算出された各マーカーとの距離及び方向から上記ロボット座標系と上記充電装置を中心とした充電装置座標系との相対位置及び相対角を算出する座標系相関算出手段を備えることを特徴とする請求項8記載のロボット装置。
- 上記撮像手段により全てのマーカーが撮像されない場合、上記動作制御手段は、撮像できているマーカーを基準として所定位置まで移動するように制御することを特徴とする請求項8記載のロボット装置。
- 上記記憶手段には、当該ロボット装置が直進することで上記充電装置に到達できるエントランス位置の座標と、上記充電装置周囲の所定地点の座標とが上記充電装置座標系で記憶され、
上記動作制御手段は、上記位置ベクトル算出手段によって算出された上記マーカーの互いの位置関係に応じて、上記所定地点を経由して上記エントランス位置へ移動するよう制御することを特徴とする請求項8記載のロボット装置。 - 移動手段を備え、
上記ロボット座標系の原点及び上記充電装置座標系の原点は、上記移動手段の接地平面上に設定されていることを特徴とする請求項8記載のロボット装置。 - 駆動用電源と移動装置とを備えたロボット装置と、上記電源を充電する充電装置とからなる充電システムにおけるロボット装置に対して上記電源を充電するための充電処理を実行させるプログラムであって、
周囲の状況を撮像する撮像工程と、
上記撮像工程において撮像された充電装置の最高部及び後端部に設けられた標識としての第1のマーカー及び第2のマーカーの画像と記憶手段に予め記憶された上記マーカーの位置の情報とに基づいて、上記ロボット装置と上記マーカーとの距離及び方向を算出する位置ベクトル算出工程と、
上記位置ベクトル算出工程において算出された上記ロボット装置と上記マーカーとの距離及び方向にしたがって上記ロボット装置が上記充電装置の方向に移動するとともに、上記ロボット装置と上記マーカーとの距離及び方向に基づいて算出された上記各マーカー間の距離と上記記憶手段に記憶された上記マーカーの位置の情報とに基づいて、上記ロボット装置が上記マーカーを誤認しているかどうかを判定するように制御する移動制御工程とを有し、
上記位置ベクトル算出工程では、上記ロボット装置と上記第1のマーカーとの距離及び方向を算出し、上記移動制御工程では、上記ロボット装置を上記充電装置の方向に移動させた後、上記撮像工程で上記第2のマーカーが撮像されなかった場合には、上記第2のマーカーを探索するために上記移動制御工程で上記ロボット装置を上記第1のマーカーを中心とした周囲を移動させるように制御して上記位置ベクトル算出工程では、上記第1のマーカーとの距離及び方向を算出し、上記撮像工程で上記第2のマーカーを撮像できた場合には、上記位置ベクトル算出工程では、上記ロボット装置と上記第2のマーカーとの距離及び方向を算出し、上記移動制御工程で誤認していると判定した場合には、上記位置ベクトル算出工程では、上記ロボット装置と上記第1のマーカーとの距離及び方向を算出することを上記ロボット装置に対して実行させることを特徴とする充電制御プログラム。 - 駆動用電源と移動手段とを備えたロボット装置と、上記電源を充電する充電装置とからなる充電システムにおいて、上記ロボット装置に対して上記電源を充電するための充電処理を実行させるプログラムであって、
周囲の状況を撮像する撮像工程と、
上記撮像工程において撮像された充電装置の最高部及び後端部に設けられた標識としての第1のマーカー及び第2のマーカーの画像と記憶手段に予め記憶された上記マーカーの位置の情報とに基づいて、上記ロボット装置と上記マーカーとの距離及び方向を算出する位置ベクトル算出工程と、
上記位置ベクトル算出工程において算出された上記ロボット装置と上記マーカーとの距離及び方向にしたがって上記ロボット装置が上記充電装置の方向に移動するとともに、上記ロボット装置と上記マーカーとの距離及び方向に基づいて算出された上記各マーカー間の距離と上記記憶手段に記憶された上記マーカーの位置の情報とに基づいて、上記ロボット装置が上記マーカーを誤認しているかどうかを判定するように制御する移動制御工程とを有し、
上記位置ベクトル算出工程では、上記ロボット装置と上記第1のマーカーとの距離及び方向を算出し、上記移動制御工程では、上記ロボット装置を上記充電装置の方向に移動させた後、上記撮像工程で上記第2のマーカーが撮像されなかった場合には、上記第2のマーカーを探索するために上記移動制御工程で上記ロボット装置を上記第1のマーカーを中心とした周囲を移動させるように制御して上記位置ベクトル算出工程では、上記第1のマーカーとの距離及び方向を算出し、上記撮像工程で上記第2のマーカーを撮像できた場合には、上記位置ベクトル算出工程では、上記ロボット装置と上記第2のマーカーとの距離及び方向を算出し、上記移動制御工程で誤認していると判定した場合には、上記位置ベクトル算出工程では、上記ロボット装置と上記第1のマーカーとの距離及び方向を算出することを上記ロボット装置に対して実行させるためのプログラムが記録された記録媒体。
Priority Applications (7)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002090026A JP4032793B2 (ja) | 2002-03-27 | 2002-03-27 | 充電システム及び充電制御方法、ロボット装置、及び充電制御プログラム及び記録媒体 |
US10/400,094 US6914403B2 (en) | 2002-03-27 | 2003-03-26 | Electrical charging system, electrical charging controlling method, robot apparatus, electrical charging device, electrical charging controlling program and recording medium |
US11/108,047 US7061199B2 (en) | 2002-03-27 | 2005-04-14 | Electrical charging system, electrical charging controlling method, robot apparatus, electrical charging device, electrical charging controlling program and recording medium |
US11/107,664 US6965211B2 (en) | 2002-03-27 | 2005-04-14 | Electrical charging system, electrical charging controlling method, robot apparatus, electrical charging device, electrical charging controlling program and recording medium |
US11/108,046 US7071648B2 (en) | 2002-03-27 | 2005-04-14 | Electrical charging system, electrical charging controlling method, robot apparatus, electrical charging device, electrical charging controlling program and recording medium |
US11/108,033 US7057368B2 (en) | 2002-03-27 | 2005-04-14 | Electrical charging system, electrical charging controlling method, robot apparatus, electrical charging device, electrical charging controlling program and recording medium |
US11/107,668 US7068004B2 (en) | 2002-03-27 | 2005-04-14 | Electrical charging system, electrical charging controlling method, robot apparatus, electrical charging device, electrical charging controlling program and recording medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002090026A JP4032793B2 (ja) | 2002-03-27 | 2002-03-27 | 充電システム及び充電制御方法、ロボット装置、及び充電制御プログラム及び記録媒体 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2003285288A JP2003285288A (ja) | 2003-10-07 |
JP2003285288A5 JP2003285288A5 (ja) | 2005-04-07 |
JP4032793B2 true JP4032793B2 (ja) | 2008-01-16 |
Family
ID=29235425
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002090026A Expired - Fee Related JP4032793B2 (ja) | 2002-03-27 | 2002-03-27 | 充電システム及び充電制御方法、ロボット装置、及び充電制御プログラム及び記録媒体 |
Country Status (2)
Country | Link |
---|---|
US (6) | US6914403B2 (ja) |
JP (1) | JP4032793B2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11715962B2 (en) | 2017-10-31 | 2023-08-01 | Sony Corporation | Charging device, charging method, and charging system |
Families Citing this family (102)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8412377B2 (en) | 2000-01-24 | 2013-04-02 | Irobot Corporation | Obstacle following sensor scheme for a mobile robot |
US8788092B2 (en) | 2000-01-24 | 2014-07-22 | Irobot Corporation | Obstacle following sensor scheme for a mobile robot |
US6956348B2 (en) | 2004-01-28 | 2005-10-18 | Irobot Corporation | Debris sensor for cleaning apparatus |
US7571511B2 (en) | 2002-01-03 | 2009-08-11 | Irobot Corporation | Autonomous floor-cleaning robot |
US6690134B1 (en) | 2001-01-24 | 2004-02-10 | Irobot Corporation | Method and system for robot localization and confinement |
US7429843B2 (en) | 2001-06-12 | 2008-09-30 | Irobot Corporation | Method and system for multi-mode coverage for an autonomous robot |
US8396592B2 (en) | 2001-06-12 | 2013-03-12 | Irobot Corporation | Method and system for multi-mode coverage for an autonomous robot |
US9128486B2 (en) | 2002-01-24 | 2015-09-08 | Irobot Corporation | Navigational control system for a robotic device |
DE10231391A1 (de) * | 2002-07-08 | 2004-02-12 | Alfred Kärcher Gmbh & Co. Kg | Bodenbearbeitungssystem |
US6925357B2 (en) * | 2002-07-25 | 2005-08-02 | Intouch Health, Inc. | Medical tele-robotic system |
US20040162637A1 (en) | 2002-07-25 | 2004-08-19 | Yulun Wang | Medical tele-robotic system with a master remote station with an arbitrator |
US8428778B2 (en) | 2002-09-13 | 2013-04-23 | Irobot Corporation | Navigational control system for a robotic device |
US8386081B2 (en) | 2002-09-13 | 2013-02-26 | Irobot Corporation | Navigational control system for a robotic device |
KR100485696B1 (ko) * | 2003-02-07 | 2005-04-28 | 삼성광주전자 주식회사 | 로봇청소기의 위치인식표지 검출방법 및 이 검출방법을적용한 로봇청소기 |
US7813836B2 (en) | 2003-12-09 | 2010-10-12 | Intouch Technologies, Inc. | Protocol for a remotely controlled videoconferencing robot |
US7332890B2 (en) | 2004-01-21 | 2008-02-19 | Irobot Corporation | Autonomous robot auto-docking and energy management systems and methods |
US20050204438A1 (en) * | 2004-02-26 | 2005-09-15 | Yulun Wang | Graphical interface for a remote presence system |
JP2007530978A (ja) | 2004-03-29 | 2007-11-01 | エヴォリューション ロボティクス インコーポレイテッド | 反射光源を使用する位置推定方法および装置 |
US9008835B2 (en) | 2004-06-24 | 2015-04-14 | Irobot Corporation | Remote control scheduler and method for autonomous robotic device |
US7706917B1 (en) | 2004-07-07 | 2010-04-27 | Irobot Corporation | Celestial navigation system for an autonomous robot |
US8972052B2 (en) | 2004-07-07 | 2015-03-03 | Irobot Corporation | Celestial navigation system for an autonomous vehicle |
US8077963B2 (en) | 2004-07-13 | 2011-12-13 | Yulun Wang | Mobile robot with a head-based movement mapping scheme |
US20060052676A1 (en) * | 2004-09-07 | 2006-03-09 | Yulun Wang | Tele-presence system that allows for remote monitoring/observation and review of a patient and their medical records |
JP4460411B2 (ja) * | 2004-10-01 | 2010-05-12 | 本田技研工業株式会社 | ロボット制御装置 |
US8392021B2 (en) | 2005-02-18 | 2013-03-05 | Irobot Corporation | Autonomous surface cleaning robot for wet cleaning |
EP2289384B1 (en) | 2005-02-18 | 2013-07-03 | iRobot Corporation | Autonomous surface cleaning robot for wet and dry cleaning |
US7620476B2 (en) | 2005-02-18 | 2009-11-17 | Irobot Corporation | Autonomous surface cleaning robot for dry cleaning |
US8930023B2 (en) | 2009-11-06 | 2015-01-06 | Irobot Corporation | Localization by learning of wave-signal distributions |
KR20060110483A (ko) * | 2005-04-20 | 2006-10-25 | 엘지전자 주식회사 | 충전대 자동 복귀 기능을 가진 청소로봇 및 그 방법 |
KR100645814B1 (ko) * | 2005-06-07 | 2006-11-23 | 엘지전자 주식회사 | 이동로봇의 자동충전 복귀 시스템 및 그 복귀 방법 |
KR100799573B1 (ko) * | 2005-07-29 | 2008-01-31 | 한국전자통신연구원 | 부착된 연결 수단의 움직임 정도를 측정하는 장치 |
WO2007013773A1 (en) * | 2005-07-29 | 2007-02-01 | Electronics And Telecommunications Research Institute | Apparatus for detecting the movement of its embedded attaching means |
US9198728B2 (en) * | 2005-09-30 | 2015-12-01 | Intouch Technologies, Inc. | Multi-camera mobile teleconferencing platform |
ES2522926T3 (es) | 2005-12-02 | 2014-11-19 | Irobot Corporation | Robot Autónomo de Cubrimiento |
ES2334064T3 (es) | 2005-12-02 | 2010-03-04 | Irobot Corporation | Robot modular. |
US7441298B2 (en) | 2005-12-02 | 2008-10-28 | Irobot Corporation | Coverage robot mobility |
EP2816434A3 (en) | 2005-12-02 | 2015-01-28 | iRobot Corporation | Autonomous coverage robot |
KR101099808B1 (ko) | 2005-12-02 | 2011-12-27 | 아이로보트 코퍼레이션 | 로봇 시스템 |
US20090044370A1 (en) | 2006-05-19 | 2009-02-19 | Irobot Corporation | Removing debris from cleaning robots |
US8417383B2 (en) | 2006-05-31 | 2013-04-09 | Irobot Corporation | Detecting robot stasis |
US8849679B2 (en) * | 2006-06-15 | 2014-09-30 | Intouch Technologies, Inc. | Remote controlled robot system that provides medical images |
TWI305610B (en) * | 2006-07-07 | 2009-01-21 | Ind Tech Res Inst | Path guidance method for autonomous mobile device |
US8265793B2 (en) | 2007-03-20 | 2012-09-11 | Irobot Corporation | Mobile robot for telecommunication |
US9160783B2 (en) * | 2007-05-09 | 2015-10-13 | Intouch Technologies, Inc. | Robot system that operates through a network firewall |
KR101160393B1 (ko) | 2007-05-09 | 2012-06-26 | 아이로보트 코퍼레이션 | 소형 자율 커버리지 로봇 |
CN101411946B (zh) * | 2007-10-19 | 2012-03-28 | 鸿富锦精密工业(深圳)有限公司 | 玩具恐龙 |
JP4560078B2 (ja) * | 2007-12-06 | 2010-10-13 | 本田技研工業株式会社 | コミュニケーションロボット |
US10875182B2 (en) * | 2008-03-20 | 2020-12-29 | Teladoc Health, Inc. | Remote presence system mounted to operating room hardware |
JPWO2009119379A1 (ja) * | 2008-03-28 | 2011-07-21 | 株式会社ダイヘン | ロボット制御システム |
US8179418B2 (en) | 2008-04-14 | 2012-05-15 | Intouch Technologies, Inc. | Robotic based health care system |
US8170241B2 (en) | 2008-04-17 | 2012-05-01 | Intouch Technologies, Inc. | Mobile tele-presence system with a microphone system |
US9193065B2 (en) | 2008-07-10 | 2015-11-24 | Intouch Technologies, Inc. | Docking system for a tele-presence robot |
US9842192B2 (en) * | 2008-07-11 | 2017-12-12 | Intouch Technologies, Inc. | Tele-presence robot system with multi-cast features |
US8340819B2 (en) | 2008-09-18 | 2012-12-25 | Intouch Technologies, Inc. | Mobile videoconferencing robot system with network adaptive driving |
US8996165B2 (en) | 2008-10-21 | 2015-03-31 | Intouch Technologies, Inc. | Telepresence robot with a camera boom |
US8463435B2 (en) | 2008-11-25 | 2013-06-11 | Intouch Technologies, Inc. | Server connectivity control for tele-presence robot |
US9138891B2 (en) * | 2008-11-25 | 2015-09-22 | Intouch Technologies, Inc. | Server connectivity control for tele-presence robot |
US8212521B2 (en) * | 2009-01-05 | 2012-07-03 | Woncheol Choi | System and method for charging a mobile device |
US8849680B2 (en) | 2009-01-29 | 2014-09-30 | Intouch Technologies, Inc. | Documentation through a remote presence robot |
US8897920B2 (en) | 2009-04-17 | 2014-11-25 | Intouch Technologies, Inc. | Tele-presence robot system with software modularity, projector and laser pointer |
US11399153B2 (en) * | 2009-08-26 | 2022-07-26 | Teladoc Health, Inc. | Portable telepresence apparatus |
US8384755B2 (en) | 2009-08-26 | 2013-02-26 | Intouch Technologies, Inc. | Portable remote presence robot |
US11154981B2 (en) * | 2010-02-04 | 2021-10-26 | Teladoc Health, Inc. | Robot user interface for telepresence robot system |
US20110187875A1 (en) * | 2010-02-04 | 2011-08-04 | Intouch Technologies, Inc. | Robot face used in a sterile environment |
CN104127156B (zh) | 2010-02-16 | 2017-01-11 | 艾罗伯特公司 | 真空吸尘器毛刷 |
US8670017B2 (en) | 2010-03-04 | 2014-03-11 | Intouch Technologies, Inc. | Remote presence system including a cart that supports a robot face and an overhead camera |
US8918213B2 (en) | 2010-05-20 | 2014-12-23 | Irobot Corporation | Mobile human interface robot |
US9014848B2 (en) | 2010-05-20 | 2015-04-21 | Irobot Corporation | Mobile robot system |
US8935005B2 (en) | 2010-05-20 | 2015-01-13 | Irobot Corporation | Operating a mobile robot |
US10343283B2 (en) | 2010-05-24 | 2019-07-09 | Intouch Technologies, Inc. | Telepresence robot system that can be accessed by a cellular phone |
US10808882B2 (en) | 2010-05-26 | 2020-10-20 | Intouch Technologies, Inc. | Tele-robotic system with a robot face placed on a chair |
US9264664B2 (en) | 2010-12-03 | 2016-02-16 | Intouch Technologies, Inc. | Systems and methods for dynamic bandwidth allocation |
US8930019B2 (en) | 2010-12-30 | 2015-01-06 | Irobot Corporation | Mobile human interface robot |
KR20140040094A (ko) | 2011-01-28 | 2014-04-02 | 인터치 테크놀로지스 인코퍼레이티드 | 이동형 원격현전 로봇과의 인터페이싱 |
US9323250B2 (en) | 2011-01-28 | 2016-04-26 | Intouch Technologies, Inc. | Time-dependent navigation of telepresence robots |
US10769739B2 (en) | 2011-04-25 | 2020-09-08 | Intouch Technologies, Inc. | Systems and methods for management of information among medical providers and facilities |
US20140139616A1 (en) | 2012-01-27 | 2014-05-22 | Intouch Technologies, Inc. | Enhanced Diagnostics for a Telepresence Robot |
US9098611B2 (en) | 2012-11-26 | 2015-08-04 | Intouch Technologies, Inc. | Enhanced video interaction for a user interface of a telepresence network |
US8836751B2 (en) | 2011-11-08 | 2014-09-16 | Intouch Technologies, Inc. | Tele-presence system with a user interface that displays different communication links |
US8924011B2 (en) * | 2012-04-03 | 2014-12-30 | Knu-Industry Cooperation Foundation | Intelligent robot apparatus responsive to environmental change and method of controlling and reconfiguring intelligent robot apparatus |
US8902278B2 (en) | 2012-04-11 | 2014-12-02 | Intouch Technologies, Inc. | Systems and methods for visualizing and managing telepresence devices in healthcare networks |
US9251313B2 (en) | 2012-04-11 | 2016-02-02 | Intouch Technologies, Inc. | Systems and methods for visualizing and managing telepresence devices in healthcare networks |
US9361021B2 (en) | 2012-05-22 | 2016-06-07 | Irobot Corporation | Graphical user interfaces including touchpad driving interfaces for telemedicine devices |
EP2852475A4 (en) | 2012-05-22 | 2016-01-20 | Intouch Technologies Inc | SOCIAL BEHAVIOR OF A MEDICAL TELEPRESCENT ROBOT |
JP2015535373A (ja) | 2012-10-05 | 2015-12-10 | アイロボット コーポレイション | 移動ロボットを含むドッキングステーション姿勢を決定するためのロボット管理システムとこれを用いる方法 |
GB2509990B (en) * | 2013-01-22 | 2014-12-10 | Dyson Technology Ltd | Docking station for a mobile robot |
GB2513912B (en) * | 2013-05-10 | 2018-01-24 | Dyson Technology Ltd | Apparatus for guiding an autonomous vehicle towards a docking station |
CN105025242A (zh) * | 2014-04-30 | 2015-11-04 | 北京兆维电子(集团)有限责任公司 | 移动视频装置 |
CN106444777B (zh) * | 2016-10-28 | 2019-12-17 | 北京进化者机器人科技有限公司 | 机器人自动回位充电方法和系统 |
US10698411B1 (en) | 2016-12-13 | 2020-06-30 | AI Incorporated | Recharge station for mobile robot |
US11862302B2 (en) | 2017-04-24 | 2024-01-02 | Teladoc Health, Inc. | Automated transcription and documentation of tele-health encounters |
US11760221B2 (en) * | 2017-06-27 | 2023-09-19 | A9.Com, Inc. | Charging systems and methods for autonomous carts |
US10483007B2 (en) | 2017-07-25 | 2019-11-19 | Intouch Technologies, Inc. | Modular telehealth cart with thermal imaging and touch screen user interface |
US11636944B2 (en) | 2017-08-25 | 2023-04-25 | Teladoc Health, Inc. | Connectivity infrastructure for a telehealth platform |
CN109993790A (zh) * | 2017-12-29 | 2019-07-09 | 深圳市优必选科技有限公司 | 标志物、标志物的形成方法、定位方法以及装置 |
US10617299B2 (en) | 2018-04-27 | 2020-04-14 | Intouch Technologies, Inc. | Telehealth cart that supports a removable tablet with seamless audio/video switching |
CN108818529A (zh) * | 2018-06-01 | 2018-11-16 | 重庆锐纳达自动化技术有限公司 | 一种机器人充电桩视觉引导方法 |
JP2022050929A (ja) * | 2020-09-18 | 2022-03-31 | カシオ計算機株式会社 | 移動体位置決定装置、移動体位置決定方法及びプログラム |
WO2022123639A1 (ja) * | 2020-12-07 | 2022-06-16 | 株式会社ロボ・ガレージ | 薄型携帯通信端末およびその制御方法並びに制御プログラム |
CN116430838A (zh) * | 2022-01-04 | 2023-07-14 | 未岚大陆(北京)科技有限公司 | 自移动设备、及其控制方法 |
US20230286399A1 (en) * | 2022-03-09 | 2023-09-14 | Willand (Beijing) Technology Co., Ltd. | Charging station, charging station system, method and apparatus for returning to station and lawnmowing robot |
CN114794992B (zh) * | 2022-06-07 | 2024-01-09 | 深圳甲壳虫智能有限公司 | 充电座、机器人的回充方法和扫地机器人 |
Family Cites Families (34)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4638445A (en) * | 1984-06-08 | 1987-01-20 | Mattaboni Paul J | Autonomous mobile robot |
US4679152A (en) * | 1985-02-20 | 1987-07-07 | Heath Company | Navigation system and method for a mobile robot |
US5280431A (en) * | 1985-08-30 | 1994-01-18 | Texas Instruments Incorporated | Method for controlling the movements of a mobile robot in a multiple node factory |
US5367456A (en) * | 1985-08-30 | 1994-11-22 | Texas Instruments Incorporated | Hierarchical control system for automatically guided vehicles |
US4777416A (en) * | 1986-05-16 | 1988-10-11 | Denning Mobile Robotics, Inc. | Recharge docking system for mobile robot |
US5377106A (en) * | 1987-03-24 | 1994-12-27 | Fraunhofer Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Process for navigating an unmanned vehicle and a vehicle for the same |
JPS6488716A (en) * | 1987-09-30 | 1989-04-03 | Komatsu Mfg Co Ltd | Automatic driving device for traveling vehicle |
US4954962A (en) * | 1988-09-06 | 1990-09-04 | Transitions Research Corporation | Visual navigation and obstacle avoidance structured light system |
US5040116A (en) * | 1988-09-06 | 1991-08-13 | Transitions Research Corporation | Visual navigation and obstacle avoidance structured light system |
US4933864A (en) * | 1988-10-04 | 1990-06-12 | Transitions Research Corporation | Mobile robot navigation employing ceiling light fixtures |
US5390125A (en) * | 1990-02-05 | 1995-02-14 | Caterpillar Inc. | Vehicle position determination system and method |
US5049802A (en) * | 1990-03-01 | 1991-09-17 | Caterpillar Industrial Inc. | Charging system for a vehicle |
JP2679346B2 (ja) * | 1990-03-28 | 1997-11-19 | 神鋼電機株式会社 | 移動ロボットシステムにおける充電制御方式 |
US5204814A (en) * | 1990-11-13 | 1993-04-20 | Mobot, Inc. | Autonomous lawn mower |
US5321614A (en) * | 1991-06-06 | 1994-06-14 | Ashworth Guy T D | Navigational control apparatus and method for autonomus vehicles |
US5477459A (en) * | 1992-03-06 | 1995-12-19 | Clegg; Philip M. | Real time three-dimensional machine locating system |
US5812267A (en) * | 1996-07-10 | 1998-09-22 | The United States Of America As Represented By The Secretary Of The Navy | Optically based position location system for an autonomous guided vehicle |
US5999866A (en) * | 1996-11-05 | 1999-12-07 | Carnegie Mellon University | Infrastructure independent position determining system |
US5995884A (en) * | 1997-03-07 | 1999-11-30 | Allen; Timothy P. | Computer peripheral floor cleaning system and navigation method |
US6266442B1 (en) * | 1998-10-23 | 2001-07-24 | Facet Technology Corp. | Method and apparatus for identifying objects depicted in a videostream |
DE19854011A1 (de) * | 1998-11-12 | 2000-05-25 | Knoll Alois | Einrichtung und Verfahren zum Vermessen von Mechanismen und ihrer Stellung |
US6330503B1 (en) * | 1999-02-22 | 2001-12-11 | Trimble Navigation Limited | Global positioning system controlled staking apparatus |
JP2000323219A (ja) * | 1999-05-10 | 2000-11-24 | Sony Corp | 接続装置及びロボットシステム |
JP4207336B2 (ja) * | 1999-10-29 | 2009-01-14 | ソニー株式会社 | 移動ロボットのための充電システム、充電ステーションを探索する方法、移動ロボット、コネクタ、及び、電気的接続構造 |
JP2001250491A (ja) * | 2000-03-07 | 2001-09-14 | Hitachi Ltd | Upf型電子銃を有する陰極線管 |
JP2002059389A (ja) * | 2000-08-16 | 2002-02-26 | Sony Corp | 自律歩行ロボット装置 |
US6496754B2 (en) * | 2000-11-17 | 2002-12-17 | Samsung Kwangju Electronics Co., Ltd. | Mobile robot and course adjusting method thereof |
JP2002270111A (ja) * | 2001-03-14 | 2002-09-20 | Hitachi Ltd | カラー陰極線管 |
SE0100924D0 (sv) * | 2001-03-15 | 2001-03-15 | Electrolux Ab | Energy-efficient navigation of an autonomous surface treatment apparatus |
AU767561B2 (en) * | 2001-04-18 | 2003-11-13 | Samsung Kwangju Electronics Co., Ltd. | Robot cleaner, system employing the same and method for reconnecting to external recharging device |
JP4547594B2 (ja) * | 2001-06-25 | 2010-09-22 | ソニー株式会社 | 充電装置、ロボットシステム及び充電制御方法 |
JP2003079062A (ja) * | 2001-09-04 | 2003-03-14 | Sony Corp | 充電装置 |
GB0126497D0 (en) * | 2001-11-03 | 2002-01-02 | Dyson Ltd | An autonomous machine |
GB0126499D0 (en) * | 2001-11-03 | 2002-01-02 | Dyson Ltd | An autonomous machine |
-
2002
- 2002-03-27 JP JP2002090026A patent/JP4032793B2/ja not_active Expired - Fee Related
-
2003
- 2003-03-26 US US10/400,094 patent/US6914403B2/en not_active Expired - Fee Related
-
2005
- 2005-04-14 US US11/108,047 patent/US7061199B2/en not_active Expired - Fee Related
- 2005-04-14 US US11/107,668 patent/US7068004B2/en not_active Expired - Fee Related
- 2005-04-14 US US11/108,046 patent/US7071648B2/en not_active Expired - Fee Related
- 2005-04-14 US US11/107,664 patent/US6965211B2/en not_active Expired - Fee Related
- 2005-04-14 US US11/108,033 patent/US7057368B2/en not_active Expired - Fee Related
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11715962B2 (en) | 2017-10-31 | 2023-08-01 | Sony Corporation | Charging device, charging method, and charging system |
Also Published As
Publication number | Publication date |
---|---|
US6965211B2 (en) | 2005-11-15 |
US20040012362A1 (en) | 2004-01-22 |
US20050189899A1 (en) | 2005-09-01 |
US7061199B2 (en) | 2006-06-13 |
US20050194921A1 (en) | 2005-09-08 |
US20050182517A1 (en) | 2005-08-18 |
US20050182515A1 (en) | 2005-08-18 |
JP2003285288A (ja) | 2003-10-07 |
US6914403B2 (en) | 2005-07-05 |
US7068004B2 (en) | 2006-06-27 |
US20050182516A1 (en) | 2005-08-18 |
US7071648B2 (en) | 2006-07-04 |
US7057368B2 (en) | 2006-06-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4032793B2 (ja) | 充電システム及び充電制御方法、ロボット装置、及び充電制御プログラム及び記録媒体 | |
US7532743B2 (en) | Object detector, object detecting method and robot | |
JP3855812B2 (ja) | 距離計測方法、その装置、そのプログラム、その記録媒体及び距離計測装置搭載型ロボット装置 | |
JP3945279B2 (ja) | 障害物認識装置、障害物認識方法、及び障害物認識プログラム並びに移動型ロボット装置 | |
JP4609584B2 (ja) | ロボット装置、顔認識方法及び顔認識装置 | |
US7062356B2 (en) | Robot apparatus, control method for robot apparatus, and toy for robot apparatus | |
JP3714268B2 (ja) | ロボット装置 | |
JP2003266345A (ja) | 経路計画装置、経路計画方法及び経路計画プログラム並びに移動型ロボット装置 | |
CN114080583A (zh) | 视觉教导和重复移动操纵系统 | |
JP2004110802A (ja) | 環境同定装置、環境同定方法、プログラム及び記録媒体、並びにロボット装置 | |
JP2003266349A (ja) | 位置認識方法、その装置、そのプログラム、その記録媒体及び位置認識装置搭載型ロボット装置 | |
US20210031378A1 (en) | Information processor, information processing method, and program | |
JP4635398B2 (ja) | ロボット装置 | |
JP2004298975A (ja) | ロボット装置、障害物探索方法 | |
JP2003136456A (ja) | ロボット装置、ロボット装置の明るさ検出方法、明るさ検出プログラム及び記録媒体 | |
JP2003271958A (ja) | 画像処理方法、その装置、そのプログラム、その記録媒体及び画像処理装置搭載型ロボット装置 | |
JP7309371B2 (ja) | ロボット制御システム | |
US11915523B2 (en) | Engagement detection and attention estimation for human-robot interaction | |
JP4779226B2 (ja) | ロボット装置、並びに、画像記憶方法及び画像記憶装置、並びに、制御プログラム及び記録媒体 | |
JP4193098B2 (ja) | トラッキング装置、トラッキング装置のトラッキング方法及びロボット装置 | |
JP4379052B2 (ja) | 動体検出装置、動体検出方法、及びロボット装置 | |
JP2005074562A (ja) | ロボット装置、ロボット装置の制御方法、及び記録媒体 | |
JP2004130426A (ja) | ロボット装置及びその動作制御方法 | |
JP7190919B2 (ja) | 画像解析システム | |
WO2022009859A1 (ja) | 強化学習装置、強化学習システム、物体操作装置、モデル生成方法及び強化学習プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20040426 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20040426 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20061212 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070213 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070522 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070709 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20071002 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20071015 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101102 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101102 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111102 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121102 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131102 Year of fee payment: 6 |
|
LAPS | Cancellation because of no payment of annual fees |