JP2006185239A - ロボット装置、ロボット装置の移動追従方法、および、プログラム - Google Patents

ロボット装置、ロボット装置の移動追従方法、および、プログラム Download PDF

Info

Publication number
JP2006185239A
JP2006185239A JP2004378816A JP2004378816A JP2006185239A JP 2006185239 A JP2006185239 A JP 2006185239A JP 2004378816 A JP2004378816 A JP 2004378816A JP 2004378816 A JP2004378816 A JP 2004378816A JP 2006185239 A JP2006185239 A JP 2006185239A
Authority
JP
Japan
Prior art keywords
robot apparatus
movement
target object
data
moving
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004378816A
Other languages
English (en)
Other versions
JP4198676B2 (ja
Inventor
Taku Yoshimi
卓 吉見
Manabu Nishiyama
学 西山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2004378816A priority Critical patent/JP4198676B2/ja
Publication of JP2006185239A publication Critical patent/JP2006185239A/ja
Application granted granted Critical
Publication of JP4198676B2 publication Critical patent/JP4198676B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

【課題】追従対象が障害物の周囲を回りこんで移動する場合でも、障害物を回避しながらの、スムーズで確実な追従性能を簡単に実現すること。
【解決手段】 床上を移動する対象物体を移動追従するロボット装置は、撮像部31で撮像した画像を画像処理し、ロボット装置と対象物体との間に障害物がない場合に、対象物体の方向と距離とを示すデータを記憶部33へ記憶する。移動指令生成部34は、記憶部33に記憶する最新のデータが示す位置を移動先と決定し、その位置への移動指令を生成する。移動制御部35は、この移動指令に基づいて移動部36を動作させる。
【選択図】図3

Description

本発明は、室内や屋外環境内を動き回る人などの物体を認識し、それに追従する動作を行う、ロボット装置、ロボット装置の移動追従方法、および、プログラムに関する。
家庭にロボットが導入され、人に安全・安心を与える、あるいは人のお手伝いをする際には、人に付いて行く、即ち、お供する動作が必要である。このお供する動作をロボットで実現するためには、対人追従機能が重要である。対人追従機能は、人がロボットに未知環境を教示する際にも有用な機能であり、細かな指示無しでロボットを簡単に誘導することが可能となる。
一般に、ロボットで対人追従機能を実現する第1の方法としては、非特許文献1に記載されているように、ロボットに搭載したカメラで追従対象の人物を認識し、その人物の方向や人物までの距離を計測してロボットをその方向へ誘導することで実現される。しかしながら、この対人追従方法では、ロボットは常に追従対象の人物に向かって動作することから、追従対象の人物に向かった直線軌道に沿った移動であった。
また、対人追従機能として良く知られる第2の方法としては、非特許文献2に記載されているように、ロボットが人の通った空間を障害物が存在しない空間領域として認識し、そこを通って移動するロボットの動作軌道を生成することで、人に追従する方法がある。しかしながら、この対人追従方法では、ロボットは常に追従対象の人物が通った所と同じ場所を移動するものの、追従対象の人物の動きとは別に、ロボットの動作軌道を別途生成する必要があった。
HIRAI Nobutaka and MIZOGUCHI Hiroshi:"Visual Tracking of Human Back and Shoulder for Person Following Robot", Proceedings of the 2003 IEEE/ASME International Conference on Advanced Intelligent Mechatronics (AIM2003), pp.527-532, 2003. 大須賀公一他,ロボティックフォロワ -第1報,第2報-,第15回日本ロボット学会学術講演会予稿集,pp.735-738,1997年9月。
上記の第1の方法で対人追従機能を実現する場合、ロボットは常に追従対象の人物に向かって直線軌道に沿って移動することから、追従対象の人物が障害物の周囲を回りこんで移動する場合などは、障害物を回避する動作がとれず、十分な追従性能を得ることが困難であった。
また、上記の第2の方法で対人追従機能を実現する場合、追従対象の人物の動きから障害物が存在しない空間領域を生成するだけでなく、ロボットの動作軌道を別途生成する必要があるため、ロボットの動きが必ずしも追従対象の人物の動きと一致しない、処理負荷が大きいなどの問題があった。
従って、本発明は上記問題点に鑑みなされたものであり、追従対象が障害物の周囲を回りこんで移動する場合でも、障害物を回避しながらの、スムーズで確実な追従性能を簡単に実現するロボット装置、ロボット装置の移動追従方法、および、プログラムを提供することを目的とする。
本発明は、床上を移動する対象物体を、移動追従するロボット装置であって、該ロボット装置に対する前記対象物体の方向と距離とを示すデータを定められた間隔で順次取得する取得手段と、前記取得手段によって順次取得した複数のデータの中から最新のデータの一つ前に取得されたデータが示す位置を移動先と決定し、その位置への移動指令を生成する生成手段と、該ロボット装置自身を移動するためのものであって、該生成された移動指令に基づいて移動する移動手段とを備えた。
また、本発明は、床上を移動する対象物体を、移動追従するロボット装置であって、該ロボット装置に対する前記対象物体の方向と距離とを示すデータを定められた間隔で順次取得するとともに、該ロボット装置と前記対象物体との間に障害物があるか否かを判断し、障害物がないと判断された場合に該ロボット装置に対する前記対象物体の方向と距離とを示すデータを出力する出力手段と、前記出力手段によって出力された複数のデータの中から一つのデータが示す位置を移動先と決定し、その位置への移動指令を生成する生成手段と、該ロボット装置自身を移動するためのものであって、該生成された移動指令に基づいて移動する移動手段とを備えた。
また、本発明は、床上を移動する対象物体を、移動追従するロボット装置であって、該ロボット装置に対する前記対象物体の方向と距離とを示すデータを定められた間隔で順次取得するとともに、該ロボット装置と前記対象物体との間に障害物があるか否かを判断し、障害物がないと判断された場合に該ロボット装置に対する前記対象物体の方向と距離とを示すデータを出力する出力手段と、前記出力手段によって出力された複数のデータの中から最新のデータが示す前記対象物体の方向と距離とを示すデータが示す位置を移動先と決定し、その位置への移動指令を生成する生成手段と、該ロボット装置自身を移動するためのものであって、該生成された移動指令に基づいて移動する移動手段とを備えた。
また、本発明は、床上を移動する対象物体を、移動追従するロボット装置であって、該ロボット装置に対する前記対象物体の方向と距離とを示すデータを定められた間隔で順次取得するとともに、該ロボット装置と前記対象物体との間に障害物があるか否かを判断し、障害物がないと判断された場合に該ロボット装置に対する前記対象物体の方向と距離とを示すデータを出力する出力手段と、前記出力手段によって出力されたデータを上書き記憶する記憶手段と、前記記憶手段に記憶されたデータの組に含まれる前記対象物体の方向と距離とを示すデータが示す位置を移動先と決定し、その位置への移動指令を生成する生成手段と、該ロボット装置自身を移動するためのものであって、該生成された移動指令に基づいて移動する移動手段とを備えた。
また、本発明は、床上を移動する対象物体を、移動追従するために、撮像した画像データ処理する画像処理サブシステムと、移動追従動作を行うための移動追従指令を生成するシステム制御部と、ロボット装置の移動を行う移動サブシステムとを備えたロボット装置の追従移動方法であって、前記画像処理サブシステムによって、該ロボット装置に対する前記対象物体の方向と距離とを示すデータを定められた間隔で順次取得し、前記システム制御部によって、前記順次取得された複数のデータの中から最新のデータの一つ前に取得されたデータが示す位置を移動先と決定し、その位置への移動指令を生成し、前記移動サブシステムによって、該生成された移動指令に基づいて移動するようにした。
また、本発明は、床上を移動する対象物体を、移動追従するために、撮像した画像データ処理する画像処理サブシステムと、移動追従動作を行うための移動追従指令を生成するシステム制御部と、ロボット装置の移動を行う移動サブシステムとを備えたロボット装置の追従移動方法であって、前記画像処理サブシステムによって、該ロボット装置に対する前記対象物体の方向と距離とを示すデータを定められた間隔で順次取得するとともに、該ロボット装置と前記対象物体との間に障害物があるか否かを判断し、障害物がないと判断された場合に該ロボット装置に対する前記対象物体の方向と距離とを示すデータを出力し、前記システム制御部によって、該出力された複数のデータの中から一つのデータが示す位置を移動先と決定し、その位置への移動指令を生成し、前記移動サブシステムによって、該生成された移動指令に基づいて移動するようにした。
また、本発明は、床上を移動する対象物体を、移動追従するために、撮像した画像データ処理する画像処理サブシステムと、移動追従動作を行うための移動追従指令を生成するシステム制御部と、ロボット装置の移動を行う移動サブシステムとを備えたロボット装置で実行されるプログラムであって、前記画像処理サブシステムによって実行される、該ロボット装置に対する前記対象物体の方向と距離とを示すデータを定められた間隔で順次取得するための第1プログラムコードと、前記システム制御部によって実行される、前記順次取得された複数のデータの中から最新のデータの一つ前に取得されたデータが示す位置を移動先と決定し、その位置への移動指令を生成するための第2プログラムコードと、前記移動サブシステムによって実行される、該生成された移動指令に基づいて移動するための第3プログラムコードとを備えた。
また、本発明は、床上を移動する対象物体を、移動追従するために、撮像した画像データ処理する画像処理サブシステムと、移動追従動作を行うための移動追従指令を生成するシステム制御部と、ロボット装置の移動を行う移動サブシステムとを備えたロボット装置で実行されるプログラムであって、前記画像処理サブシステムによって実行される、該ロボット装置に対する前記対象物体の方向と距離とを示すデータを定められた間隔で順次取得するとともに、該ロボット装置と前記対象物体との間に障害物があるか否かを判断し、障害物がないと判断された場合に該ロボット装置に対する前記対象物体の方向と距離とを示すデータを出力するための第1プログラムコードと、前記システム制御部によって実行される、該出力された複数のデータの中から一つのデータが示す位置を移動先と決定し、その位置への移動指令を生成するための第2プログラムコードと、前記移動サブシステムによって、該生成された移動指令に基づいて移動するための第3プログラムコードとを備えた。
本発明によれば、追従対象の人物が障害物の周囲を回りこんで移動する場合でも、障害物を回避しながらの、スムーズで確実な追従性能が、別途動作軌道の生成を行わずに得られる。
以下、本発明に係るロボット装置の実施の形態を、図面を参照して説明する。
図1は、本実施の形態のロボット装置の外観を示しており、(a)は正面から見た図であり、(b)が側面から見た図である。本実施の形態のロボット装置は、人間と類似した形状であって、図1中、1は首を含む顔部、2は胴部、3はアーム部、4は移動部を示している。
顔部1は、音声を出力するスピーカ11を含む口部5と、音声を入力するマイク12を含む2つの耳部6と、外部の映像を入力するカメラ13を含む2つの目部7とを備えている。アーム部3は、手や、幾つかの関節を備え、人間の型、腕、手に相当する動きを行うものである。
移動部4は、タイヤ8を4つ備えており、ロボット装置が移動する床面に対し、ロボット装置(の全体)を直進・後退したり左右へ方向を変えたりするもので、人間の足に相当する。
胴部2は、ロボット装置の中心的な部位であり、顔部1(の首)、アーム部3、移動部4とそれぞれ回転機構を介して接続されており、また、胴部2の内部には、ロボット装置の動作や情報処理などの制御全般を行うロボットシステム10が内蔵されている。
図2は、ロボットシステム10のシステム構成を示している。
ロボットシステム10は、ロボット装置自身の動作や処理を決定するためのシステム制御部21と、システム制御部21で動作や処理を決定するための情報(以下、制御入力情報と称す)を入力したり、システム制御部21で決定された動作や処理の指示情報(以下、制御出力情報と称す)を受けて実行するための各種サブシステム22・・・27とに大別される。
音声処理サブシステム22は、A/D変換やD/A変換、音声認識、音声合成などの音声処理全般を行うものであって、マイク11を介して入力された外界の音声のうち、システム制御部21で必要とされる制御入力情報をシステム制御部21へ供給したり、システム制御部21や音声処理サブシステム22の内部で生成したロボット装置が外界へ発する言葉、等をスピーカ12を介して音声出力するための処理を行ったりするものである。また、音声処理サブシステム22は、例えば、入力した音声認識が上手く出来なかった時に、システム制御部21を介すことなく、音声合成を介して聞き返すといった音声出力を自動的に行う(音声処理サブシステム22の内部で閉じて処理される)ような処理を含んでいても良い。
画像処理サブシステム23は、カメラ13から入力された画像を画像認識し、画像認識された情報のうちシステム制御部21で必要とされる制御入力情報を全体制御部21へ供給するものである。また、画像処理サブシステム23は、二つのカメラ13を用いた三角測量法による撮像対象物の距離測定を行なう処理を含む。更に、画像処理サブシステム23は、撮像対象の方向を常に追跡しつつ、撮影対象を撮像し続ける、従来より良く知られるトラッキング機能を備える。
アームサブシステム24は、システム制御部21から制御出力情報を受け取って、アーム部3の各関節の物理駆動量を決定しアーム部3を動作させるものである。胴回転サブシステム25は、システム制御部21から制御出力情報を受け取って、移動部4に対する胴部2の物理回転量を決定し胴部2を回転動作させるものである。首回転サブシステム26は、システム制御部21から制御出力情報を受け取って、胴部2に対する顔部1(の首)の物理回転駆動量を決定し、顔部1(の首)を回転動作させるものである。移動サブシステム27は、システム制御部21から制御出力情報を受け取って、各タイヤ8の回転量を決定(直進の場合は単一に決定しても良い)し、各タイヤ8を回転動作させるものである。なお、一定時間内における回転量を調整することによって、速度を調整することも可能である。
システム制御部21は、ロボット装置自身の動作や処理を決定するものであり、外界の状態や内部の状態(例えば、ロボット装置の姿勢、バッテリー残量、等)を制御入力情報として受け取って、例えば、予め定めたルールなどに従って一以上の動作や処理を決定し、それら動作や処理が可能な一以上のサブシステムへ制御出力情報を出力する。なお、処理、例えば計算処理などの静的な処理は、サブシステムへさせることなくシステム制御部21で処理するようにしても良いことは勿論である。
なお、本実施の形態のロボット装置は、上記のサブシステム22〜27を備えるようにしたが、これらに限らず他に、例えば、無線機能や表示機能などが必要なロボット装置を提供する場合には、無線通信処理を行う無線サブシステムや、別途表示装置を取り付けるとともに表示制御を行う表示サブシステムなどを備えるようにすればよい。
次に、本ロボット装置の追従動作について、図3の機能ブロック図、及び、図4のフローチャートで説明する。なお、以下で説明する機能ブロック部31〜36は、図2のカメラ13、画像処理サブシステム23、システム制御部21、首回転サブシステム26、移動サブシステム27などで実現される。
まず、追従の対象となる対象物体(例えば、人間)を撮像部31にて撮像された映像は、画像処理部32へ入力される(S101)。
また、撮像したタイミングのロボット装置の姿勢を併せて求める(S102)。ここで言うロボット装置の姿勢とは、所定方向に対するカメラの向きを示した角度のことを言い、本実施の形態のロボット装置においては、所定方向に対する移動部4の向き(角度)と、移動部4に対する胴部2の向き(角度)と、胴部2に対する顔部(首)の向き(角度)と、顔部1に対するカメラ13の取り付け方向(角度)との合計で求まる。なお、これらの各角度は、例えば、ロボット装置の姿勢に係る各サブシステムから制御入力情報(内部状態)として得ればよい。
画像処理部32は、撮像された画像の認識処理を行って対象物体を特定し、また、対象物体を常に画像の中心付近で撮像できるよう対象物体の動きを取得し、取得した対象物体の動きを追従するために、ここではロボット装置の顔部(首)1を回転制御する(S103)。この対象物体の映像で追う一連の処理は、一般にトラッキング機能と呼ばれる。本実施の形態のロボット装置では、トラッキング機能の制御は、どのような方法で行われていても良い。なお、トラッキング機能は、追従動作のフローから見れば、独立して常時動作していれば良い。
画像処理部32は、撮像された画像を利用し、三角測量法などでロボット装置(撮像部31)と対象物体との距離を求める(S104)。以上のステップS102およびS104の処理から、ロボット装置の画像取得時の位置に対する対象物体の方向及び距離がわかる。
次に、画像処理部32は、撮像された画像の認識処理を行うことにより、ロボット装置と対象物体との間に障害物があるか否かを検出する(S105)。なお、ここでは障害物の有無の判断を画像によって行うこととしたが、これに代えて、超音波センサ等の近接覚センサを用いて行っても良い。また、ここで想定する障害物は、ロボット装置から対象物体を撮像する際に認識の妨げにならない高さ程度であることを前提としている。
画像処理部32でロボット装置と対象物体との間に障害物がないと検出された場合には、ロボット装置(カメラ31)の画像取得時の位置と、ロボット装置に対する対象物体の方向及び距離(相対的な方向、距離)とを組とし、記憶部33へ記憶する(S106)。記憶部33に既に記憶されているデータの組が有る場合には、上書き、つまり更新するようにする。本フローでは、記憶部33へ記憶するデータの組は、一組だけとしたが、データの組の書き込み順序がわかればよく、例えば連番を付したり、記憶時刻(タイムスタンプ)を付したり、アドレス順(物理的に順)に追記書き込みしても良い。
一方、ステップS105で、障害物が有ると検出された場合には、求められた距離や方向は破棄し、ステップS107へ進む。
移動指令生成部34は、記憶部33に記憶されるデータの組を読み出し、そのデータの組をロボット装置の次の移動地点と決定し、その移動地点を含む移動指令を出力する(S107)。ここで、移動指令生成部34で利用する移動地点は、ステップS105で障害物があると検出された場合には、現在撮像した時点より過去の撮像した時点のデータの組を利用することとなる点が重要である(詳細は、後記する)。
移動制御部35は、移動指令生成部34から移動指令を受け取ると、現在のロボット装置の位置から、移動指令に含む移動地点への直線経路を決定し、直線経路を進行するよう物理量を移動部36へ与え、移動部36は、これに基づきタイヤなどを駆動し、ロボット装置が移動する(S108)。
そして、追従動作が終了するか否かを判断し(S109)、追従動作を継続する場合には、ステップS101に戻り、以上の一連の処理が繰り返される。なお、追従動作の終了は、例えば、追従の時間や、追従する距離など何らかの条件を設定しておけばよい。
なお、以上説明してきた追従動作フローのうち、ステップS102およびS104の処理順は、反対でも良い。また、ステップS105の処理をステップS102およびS104の処理の前に実現すれば、障害物があると判断した場合には、ステップS102およびS104の処理を行う必要がなくなるので、処理負荷も減少する。
以上説明してきた本実施の形態のロボット装置の追従動作による動作結果の一例を図5に模式的に示す。
同図中、41はロボット装置の位置、42は追従する対象物体の位置、43は障害物を示す。また、ロボット装置の位置41、及び、対象物体42の位置の左下の数値は、タイムスタンプであり、同じ値は同時刻を示す。更に、上部の太字矢印44は、対象物体の移動方向を明示している。つまり、図5の(a)、(b)、(c)、(d)は、この順に時間が経過している。
また、ロボット装置から出ている実線の矢印45は、ロボット装置の現在の位置からロボット装置が目標とする移動地点(矢の部分)までの軌跡を示しており、例えば、(a)のタイムスタンプ“1”の際には、ロボット装置は、タイムスタンプ“1”の対象物体を移動地点としていることを意味する。
一方、ロボット装置から出ている点線の矢印46は、ロボット装置の現在の位置からロボット装置が、本来、目標とする移動地点(矢の部分)であるが、障害物があることにより採用しなかった移動地点までの軌跡を示している。例えば、(b)のタイムスタンプ“2”の際には、ロボット装置は、タイムスタンプ“2”の対象物体を移動地点としたかったが、移動地点とできなかったことを意味する。
まず、タイムスタンプ1の時点(a)で、タイムスタンプ1の位置にいるロボット装置は、タイムスタンプ1の対象物体の位置を移動地点として移動を行う。
次に、タイムスタンプ2の時点(b)で、タイムスタンプ2の位置にいるロボット装置は、タイムスタンプ2の対象物体を撮像するが、障害物があるために移動地点とできず、その結果、引き続きタイムスタンプ1の対象物体を移動地点として移動を行う。ここで、ロボット装置が、タイムスタンプ2の時点でタイムスタンプ1の対象物体を移動地点とできるのは、タイムスタンプ2のロボット装置の位置が、タイムスタンプ1の時点の移動地点までの軌跡の上に存在するからである。つまり、前記軌跡上に存在するということは、その軌跡上での移動は既に保証されている(障害物がない)からである。しかも、保証済みの軌跡のうち最新のものを利用するから、さほど離されることなく追跡を継続できる。
次に、タイムスタンプ3の時点(c)で、タイムスタンプ3の位置にいるロボット装置は、タイムスタンプ2の対象物体を撮像した結果、障害物がないからタイムスタンプ3の対象物体の位置を移動地点とし、移動を行う。最後に、タイムスタンプ4の時点(d)も、タイムスタンプ3の時と同様で、タイムスタンプ4の位置にいるロボット装置は、タイムスタンプ4の対象物体を撮像した結果、障害物がないからタイムスタンプ43の対象物体の位置を移動地点とし、移動を行う。
以上詳細に説明してきた本実施の形態のロボット装置は、追従対象が障害物の周囲を回りこんで移動する場合でも、既に障害物がないことが保証されている軌跡を利用して動作することにより、障害物を回避しながらの、スムーズで確実な追従性能を簡単に実現できる。
次に、本実施の形態の変形例を説明する。
図6は、本変形例のうち、上記で説明した図4との差分を示す部分的なフローチャートである。
図4との違いは、ステップS105の後に、通路幅より設定される閾値を予め備え、算出された移動地点との距離が該閾値を超えるか否かを判定している(S201)点が追加されたことにある。このステップS201が閾値を越えない限り、記憶部33へのデータの組の記憶(更新)は行わない。従って、ステップS107では、移動地点を定めた後、閾値(通路幅)に到達するまでは、現在撮像した時点より過去である前記定められた移動地点のデータの組が利用されることになる。なお、図7は、本変形例のロボット装置の追従動作による動作結果の一例を模式的に示したものであり、ブロック矢印の順に変化していく。図7の51がここでいう通路幅で、これを距離データとして表した閾値として設定している。このようにした変形例によれば、ロボット装置は、移動地点の変更(記憶部33の更新)の時点では、少なくともこの設定された閾値が示す距離(通路幅)分だけ、対象物体に遅れて追従できるようになる。
また、この変形例に対し更に変形した例として、開始から最初に閾値に到達するまでの時間を計測し、以後、この計測時間が経過するごとにステップS106の記憶部33への記憶(更新)を行うことにより、対象物体に対し、この計測時間分だけ遅れた位置を移動地点とした移動指令が生成できる。即ち、ロボット装置は、移動地点の変更(記憶部33の更新)の時点では、少なくともこの計測時間分だけ、対象物体に遅れて追従できるようになる。
本実施の形態のロボット装置の外観を示す図。 本実施の形態のロボットシステム10のシステム構成図。 本実施の形態のロボット装置の追従動作に係る機能ブロック図。 本実施の形態のロボット装置の追従動作に係るフローチャート。 本実施の形態のロボット装置の追従動作による動作結果の一例を模式的に示した図。 本実施の形態の変形例に係るロボット装置の、本実施の形態との差分を示した部分的なフローチャート。 本実施の形態の変形例に係るロボット装置の追従動作による動作結果の一例を模式的に示した図。
符号の説明
1・・・顔部 2・・・胴部 3・・・アーム部 4・・・移動部
5・・・口部 6・・・耳部 7・・・目部 8・・・タイヤ
10・・・ロボットシステム 11・・・スピーカ 12・・・マイク
13・・・カメラ
21・・・システム制御部 22・・・音声処理サブシステム
23・・・画像処理サブシステム 24・・・アームサブシステム
25・・・胴回転サブシステム 26・・・首回転サブシステム
27・・・移動サブシステム
31・・・撮像部 32・・・画像処理部 33・・・記憶部
34・・・移動指令生成部 35・・・移動制御部 36・・・移動部
41・・・ロボットの位置 42・・・対象物体の位置 43・・・障害物

Claims (11)

  1. 床上を移動する対象物体を、移動追従するロボット装置であって、
    該ロボット装置に対する前記対象物体の方向と距離とを示すデータを定められた間隔で順次取得する取得手段と、
    前記取得手段によって順次取得した複数のデータの中から最新のデータの一つ前に取得されたデータが示す位置を移動先と決定し、その位置への移動指令を生成する生成手段と、
    該ロボット装置自身を移動するためのものであって、該生成された移動指令に基づいて移動する移動手段とを備えたことを特徴とするロボット装置。
  2. 床上を移動する対象物体を、移動追従するロボット装置であって、
    該ロボット装置に対する前記対象物体の方向と距離とを示すデータを定められた間隔で順次取得するとともに、該ロボット装置と前記対象物体との間に障害物があるか否かを判断し、障害物がないと判断された場合に該ロボット装置に対する前記対象物体の方向と距離とを示すデータを出力する出力手段と、
    前記出力手段によって出力された複数のデータの中から一つのデータが示す位置を移動先と決定し、その位置への移動指令を生成する生成手段と、
    該ロボット装置自身を移動するためのものであって、該生成された移動指令に基づいて移動する移動手段とを備えたことを特徴とするロボット装置。
  3. 床上を移動する対象物体を、移動追従するロボット装置であって、
    該ロボット装置に対する前記対象物体の方向と距離とを示すデータを定められた間隔で順次取得するとともに、該ロボット装置と前記対象物体との間に障害物があるか否かを判断し、障害物がないと判断された場合に該ロボット装置に対する前記対象物体の方向と距離とを示すデータを出力する出力手段と、
    前記出力手段によって出力された複数のデータの中から最新のデータが示す前記対象物体の方向と距離とを示すデータが示す位置を移動先と決定し、その位置への移動指令を生成する生成手段と、
    該ロボット装置自身を移動するためのものであって、該生成された移動指令に基づいて移動する移動手段とを備えたことを特徴とするロボット装置。
  4. 床上を移動する対象物体を、移動追従するロボット装置であって、
    該ロボット装置に対する前記対象物体の方向と距離とを示すデータを定められた間隔で順次取得するとともに、該ロボット装置と前記対象物体との間に障害物があるか否かを判断し、障害物がないと判断された場合に該ロボット装置に対する前記対象物体の方向と距離とを示すデータを出力する出力手段と、
    前記出力手段によって出力されたデータを上書き記憶する記憶手段と、
    前記記憶手段に記憶されたデータの組に含まれる前記対象物体の方向と距離とを示すデータが示す位置を移動先と決定し、その位置への移動指令を生成する生成手段と、
    該ロボット装置自身を移動するためのものであって、該生成された移動指令に基づいて移動する移動手段とを備えたことを特徴とするロボット装置。
  5. 更に、前記対象物体を撮像するカメラを備え、
    前記出力手段は、該カメラで撮像した画像データに基づいて、ロボット装置に対する前記対象物体の方向と距離とを示すデータを取得すると共に、同一の前記画像データに基づいて、該ロボット装置と前記対象物体との間に障害物があるか否かを判断するようにしたことを特徴とする請求項2乃至4の何れかに記載のロボット装置。
  6. 前記出力手段は、ある距離を示す閾値を設定し、該ロボット装置に対する前記対象物体との距離が前記閾値以下となったときに、該ロボット装置に対する前記対象物体の方向と距離とを示すデータを出力するようにしたことを特徴とする請求項3乃至請求項5の何れかに記載のロボット装置。
  7. 前記出力手段は、ある距離を示す閾値を設定し、該ロボット装置に対する前記対象物体との距離が前記閾値以下となったときまでの該ロボット装置の移動時間を計測し、計測以降は、前記計測された移動時間間隔で該ロボット装置に対する前記対象物体の方向と距離とを示すデータを出力するようにしたことを特徴とする請求項3乃至請求項5の何れかに記載のロボット装置。
  8. 床上を移動する対象物体を、移動追従するために、撮像した画像データ処理する画像処理サブシステムと、移動追従動作を行うための移動追従指令を生成するシステム制御部と、ロボット装置の移動を行う移動サブシステムとを備えたロボット装置の追従移動方法であって、
    前記画像処理サブシステムによって、該ロボット装置に対する前記対象物体の方向と距離とを示すデータを定められた間隔で順次取得し、
    前記システム制御部によって、前記順次取得された複数のデータの中から最新のデータの一つ前に取得されたデータが示す位置を移動先と決定し、その位置への移動指令を生成し、
    前記移動サブシステムによって、該生成された移動指令に基づいて移動するようにしたことを特徴とするロボット装置の移動追従方法。
  9. 床上を移動する対象物体を、移動追従するために、撮像した画像データ処理する画像処理サブシステムと、移動追従動作を行うための移動追従指令を生成するシステム制御部と、ロボット装置の移動を行う移動サブシステムとを備えたロボット装置の追従移動方法であって、
    前記画像処理サブシステムによって、該ロボット装置に対する前記対象物体の方向と距離とを示すデータを定められた間隔で順次取得するとともに、該ロボット装置と前記対象物体との間に障害物があるか否かを判断し、障害物がないと判断された場合に該ロボット装置に対する前記対象物体の方向と距離とを示すデータを出力し、
    前記システム制御部によって、該出力された複数のデータの中から一つのデータが示す位置を移動先と決定し、その位置への移動指令を生成し、
    前記移動サブシステムによって、該生成された移動指令に基づいて移動するようにしたことを特徴とするロボット装置の移動追従方法。
  10. 床上を移動する対象物体を、移動追従するために、撮像した画像データ処理する画像処理サブシステムと、移動追従動作を行うための移動追従指令を生成するシステム制御部と、ロボット装置の移動を行う移動サブシステムとを備えたロボット装置で実行されるプログラムであって、
    前記画像処理サブシステムによって実行される、該ロボット装置に対する前記対象物体の方向と距離とを示すデータを定められた間隔で順次取得するための第1プログラムコードと、
    前記システム制御部によって実行される、前記順次取得された複数のデータの中から最新のデータの一つ前に取得されたデータが示す位置を移動先と決定し、その位置への移動指令を生成するための第2プログラムコードと、
    前記移動サブシステムによって実行される、該生成された移動指令に基づいて移動するための第3プログラムコードとを備えたことを特徴とするプログラム。
  11. 床上を移動する対象物体を、移動追従するために、撮像した画像データ処理する画像処理サブシステムと、移動追従動作を行うための移動追従指令を生成するシステム制御部と、ロボット装置の移動を行う移動サブシステムとを備えたロボット装置で実行されるプログラムであって、
    前記画像処理サブシステムによって実行される、該ロボット装置に対する前記対象物体の方向と距離とを示すデータを定められた間隔で順次取得するとともに、該ロボット装置と前記対象物体との間に障害物があるか否かを判断し、障害物がないと判断された場合に該ロボット装置に対する前記対象物体の方向と距離とを示すデータを出力するための第1プログラムコードと、
    前記システム制御部によって実行される、該出力された複数のデータの中から一つのデータが示す位置を移動先と決定し、その位置への移動指令を生成するための第2プログラムコードと、
    前記移動サブシステムによって、該生成された移動指令に基づいて移動するための第3プログラムコードとを備えたことを特徴とするプログラム。


JP2004378816A 2004-12-28 2004-12-28 ロボット装置、ロボット装置の移動追従方法、および、プログラム Expired - Fee Related JP4198676B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004378816A JP4198676B2 (ja) 2004-12-28 2004-12-28 ロボット装置、ロボット装置の移動追従方法、および、プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004378816A JP4198676B2 (ja) 2004-12-28 2004-12-28 ロボット装置、ロボット装置の移動追従方法、および、プログラム

Publications (2)

Publication Number Publication Date
JP2006185239A true JP2006185239A (ja) 2006-07-13
JP4198676B2 JP4198676B2 (ja) 2008-12-17

Family

ID=36738302

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004378816A Expired - Fee Related JP4198676B2 (ja) 2004-12-28 2004-12-28 ロボット装置、ロボット装置の移動追従方法、および、プログラム

Country Status (1)

Country Link
JP (1) JP4198676B2 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011067941A (ja) * 2009-09-22 2011-04-07 Gm Global Technology Operations Inc 人間型ロボットのための視覚認知システムおよび方法
JP2015184699A (ja) * 2014-03-20 2015-10-22 トヨタ自動車株式会社 移動体及び移動体の制御方法、制御プログラム
CN108227697A (zh) * 2016-12-22 2018-06-29 松下电器(美国)知识产权公司 自主移动体、移动控制方法以及记录有移动控制程序的记录介质
JP2018535840A (ja) * 2015-11-18 2018-12-06 ソフトバンク・ロボティクス・ヨーロッパSoftbank Robotics Europe 電動人間型ロボット
JP2020077144A (ja) * 2018-11-07 2020-05-21 富士ゼロックス株式会社 自律移動装置およびプログラム
US10775794B2 (en) 2015-08-26 2020-09-15 Hanwha Defense Co., Ltd. Following system for mobile robot to follow moving object
JP2020535557A (ja) * 2017-09-29 2020-12-03 株式会社ソニー・インタラクティブエンタテインメント 自律型パーソナルコンパニオンのモジュール階層視覚システム
WO2023219101A1 (ja) * 2022-05-12 2023-11-16 株式会社計数技研 移動体、及びプログラム

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110658819B (zh) * 2019-09-30 2022-04-15 北京猎户星空科技有限公司 一种避障方法、装置、电子设备和存储介质

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011067941A (ja) * 2009-09-22 2011-04-07 Gm Global Technology Operations Inc 人間型ロボットのための視覚認知システムおよび方法
JP2015184699A (ja) * 2014-03-20 2015-10-22 トヨタ自動車株式会社 移動体及び移動体の制御方法、制御プログラム
US10775794B2 (en) 2015-08-26 2020-09-15 Hanwha Defense Co., Ltd. Following system for mobile robot to follow moving object
JP2018535840A (ja) * 2015-11-18 2018-12-06 ソフトバンク・ロボティクス・ヨーロッパSoftbank Robotics Europe 電動人間型ロボット
CN108227697A (zh) * 2016-12-22 2018-06-29 松下电器(美国)知识产权公司 自主移动体、移动控制方法以及记录有移动控制程序的记录介质
JP2020535557A (ja) * 2017-09-29 2020-12-03 株式会社ソニー・インタラクティブエンタテインメント 自律型パーソナルコンパニオンのモジュール階層視覚システム
JP7028966B2 (ja) 2017-09-29 2022-03-02 株式会社ソニー・インタラクティブエンタテインメント 自律型パーソナルコンパニオンのモジュール階層視覚システム
JP2020077144A (ja) * 2018-11-07 2020-05-21 富士ゼロックス株式会社 自律移動装置およびプログラム
US11550323B2 (en) 2018-11-07 2023-01-10 Fujifilm Business Innovation Corp. Autonomous moving apparatus and non-transitory computer readable medium storing program
JP7225695B2 (ja) 2018-11-07 2023-02-21 富士フイルムビジネスイノベーション株式会社 自律移動装置およびプログラム
WO2023219101A1 (ja) * 2022-05-12 2023-11-16 株式会社計数技研 移動体、及びプログラム
JP7481029B2 (ja) 2022-05-12 2024-05-10 株式会社計数技研 移動体、及びプログラム

Also Published As

Publication number Publication date
JP4198676B2 (ja) 2008-12-17

Similar Documents

Publication Publication Date Title
JP4266211B2 (ja) ロボット装置、ロボット装置の移動方法、および、プログラム
US20120316680A1 (en) Tracking and following of moving objects by a mobile robot
JP2009222969A (ja) 音声認識ロボットおよび音声認識ロボットの制御方法
US9485474B2 (en) System and method for learning driving information in vehicle
CN105979442B (zh) 噪声抑制方法、装置和可移动设备
JP2008087140A (ja) 音声認識ロボットおよび音声認識ロボットの制御方法
JP4131392B2 (ja) ロボット装置およびロボット制御方法、記録媒体、並びにプログラム
JP5751610B2 (ja) 会話ロボット
JP2004299025A (ja) 移動ロボット制御装置、移動ロボット制御方法及び移動ロボット制御プログラム
JP2008084135A (ja) 移動制御方法、移動ロボットおよび移動制御プログラム
JP2008126329A (ja) 音声認識ロボットおよび音声認識ロボットの制御方法
JP2008158868A (ja) 移動体、及びその制御方法
WO2008001793A1 (fr) Dispositif de robot et son procédé de commande
JP2005290813A (ja) 駐車誘導ロボット
JP4198676B2 (ja) ロボット装置、ロボット装置の移動追従方法、および、プログラム
JP6150429B2 (ja) ロボット制御システム、ロボット、出力制御プログラムおよび出力制御方法
JP4315872B2 (ja) 移動ロボットの制御装置
JP4271161B2 (ja) ロボット装置、ロボット装置の旋回方法、及び、プログラム
JP2011224737A (ja) 案内ロボット、案内方法、及び案内制御用プログラム
JP3768957B2 (ja) 移動ロボットの経路設定方法
US10828773B2 (en) Voice interactive robot and voice interaction system
JP2009178782A (ja) 移動体、環境地図生成装置、及び環境地図生成方法
Gomez et al. Mouth gesture and voice command based robot command interface
JP2005099953A (ja) 画像処理装置、それを備えるオブジェクト追跡システム、画像処理方法及び画像処理プログラム
JP2006187825A (ja) ロボット装置およびその制御方法

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080206

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080325

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080526

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080930

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20081001

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111010

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4198676

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111010

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111010

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121010

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131010

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees