JP2007229816A - 自律移動型ロボット - Google Patents
自律移動型ロボット Download PDFInfo
- Publication number
- JP2007229816A JP2007229816A JP2006050868A JP2006050868A JP2007229816A JP 2007229816 A JP2007229816 A JP 2007229816A JP 2006050868 A JP2006050868 A JP 2006050868A JP 2006050868 A JP2006050868 A JP 2006050868A JP 2007229816 A JP2007229816 A JP 2007229816A
- Authority
- JP
- Japan
- Prior art keywords
- pedestrian
- course
- mobile robot
- unspecified
- path
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Manipulator (AREA)
Abstract
【課題】特定人物に随伴して移動する際、前方を歩行する不特定の歩行者の進路を予測することができる自律移動型ロボットを提供する。
【解決手段】モビルロボットの前方を歩行する特定の歩行者の足先の画像を歩行者足先画像生成部5Fが生成し、その足先画像が生成された特定の歩行者の進路を歩行者進路検出部5Gが検出する。そして、生成された特定の歩行者の足先画像の情報と、検出された特定の歩行者の進路情報とを組み合わせることで、歩行者進路モデル構築部5Hが一般の歩行者の進路モデルを予め構築し、その歩行者進路モデルの情報を歩行者進路モデル記憶部5Jが記憶する。その後、歩行者足先画像生成部5Fにより生成される不特定の歩行者の足先画像の情報を歩行者進路モデル記憶部5Jに記憶されている歩行者進路モデルの情報と照合することにより、歩行者進路予測部5Kが不特定の歩行者の進路を予測する。
【選択図】図3
【解決手段】モビルロボットの前方を歩行する特定の歩行者の足先の画像を歩行者足先画像生成部5Fが生成し、その足先画像が生成された特定の歩行者の進路を歩行者進路検出部5Gが検出する。そして、生成された特定の歩行者の足先画像の情報と、検出された特定の歩行者の進路情報とを組み合わせることで、歩行者進路モデル構築部5Hが一般の歩行者の進路モデルを予め構築し、その歩行者進路モデルの情報を歩行者進路モデル記憶部5Jが記憶する。その後、歩行者足先画像生成部5Fにより生成される不特定の歩行者の足先画像の情報を歩行者進路モデル記憶部5Jに記憶されている歩行者進路モデルの情報と照合することにより、歩行者進路予測部5Kが不特定の歩行者の進路を予測する。
【選択図】図3
Description
本発明は、特定人物に随伴して移動可能な自律移動型ロボットに関するものである。
近年、走行装置や歩行装置により自律的に移動して各種の作業を行うロボットの研究開発が盛んに行われており、その成果として各種の自律移動型ロボットが提案されている(例えば特許文献1、2参照)。
ここで、特許文献1には、特定の被案内者の歩行状態に応じて自律的に移動することで特定の被案内者を所定の案内先まで案内するロボットが提案されている。また、特許文献2には、移動開始地点から移動終了地点に至る複数の移動ルートから最適な移動ルートを決定して自律的に移動するロボットが提案されている。
特開2003−340764号公報
特開2004−98233号公報
ところで、特許文献1に記載された従来の自律移動型ロボットにおいては、特定の被案内者の歩行状態に応じて自立的に移動することはできても、前方を歩行する不特定の歩行者と衝突しないようにその歩行者の進路を予測することはできない。特許文献2に記載された自律移動型ロボットにおいても同様の問題がある。
そこで、本発明は、特定人物に随伴して移動する際、前方を歩行する不特定の歩行者の進路を予測することができる自律移動型ロボットを提供することを課題とする。
本発明に係る自律移動型ロボットは、特定人物を含む周辺状況を観測しつつその観測情報に基づき特定人物に随伴して移動可能な自律移動型ロボットにおいて、自律移動型ロボットの前方を歩行する歩行者の足先の画像を生成する歩行者足先画像生成手段と、歩行者足先画像生成手段により足先画像が生成された特定の歩行者の進路を検出する歩行者進路検出手段と、歩行者足先画像生成手段により生成された特定の歩行者の足先画像の情報と歩行者進路検出手段により検出された特定の歩行者の進路情報とを組み合わせて一般の歩行者の進路モデルを予め構築する歩行者進路モデル構築手段と、歩行者進路モデル構築手段により予め構築された歩行者進路モデルの情報を記憶する歩行者進路モデル記憶手段と、歩行者足先画像生成手段により生成される不特定の歩行者の足先画像の情報を歩行者進路モデル記憶手段に記憶されている歩行者進路モデルの情報と照合することにより、不特定の歩行者の進路を予測する歩行者進路予測手段とを備えていることを特徴とする。
本発明に係る自律移動型ロボットでは、特定人物に随伴して移動する際、自律移動型ロボットの前方を歩行する歩行者の足先の画像を歩行者足先画像生成手段が生成し、その足先画像が生成された特定の歩行者の進路を歩行者進路検出手段が検出する。そして、歩行者足先画像生成手段により生成された特定の歩行者の足先画像の情報と歩行者進路検出手段により検出された特定の歩行者の進路情報とを組み合わせることで、歩行者進路モデル構築手段が一般の歩行者の進路モデルを予め構築し、その歩行者進路モデルの情報を歩行者進路モデル記憶手段が記憶する。その後、歩行者足先画像生成手段により生成される不特定の歩行者の足先画像の情報を歩行者進路モデル記憶手段に記憶されている一般の歩行者進路モデルの情報と照合することにより、歩行者進路予測手段が不特定の歩行者の進路を予測する。
本発明の自律移動型ロボットには、歩行者進路予測手段により予測される不特定の歩行者の進路が自律移動型ロボットへ向かう進路である場合に自律移動型ロボットを不特定の歩行者の進路から退避移動させる退避移動手段を備えることができる。この退避移動手段を備えた本発明の自律移動型ロボットでは、その前方を歩行する不特定の歩行者と自律移動型ロボットとの衝突が未然に回避される。
また、本発明の自律移動型ロボットには、歩行者進路予測手段により予測される不特定の歩行者の進路が特定人物へ向かう進路である場合に特定人物を不特定の歩行者の進路から退避させるように案内する歩行案内手段を備えることができる。この歩行案内手段を備えた本発明の自律移動型ロボットでは、特定人物が案内に従って歩行することにより、前方を歩行する不特定の歩行者と特定人物との衝突が未然に回避される。
本発明に係る自律移動型ロボットでは、特定人物に随伴して移動する際、自律移動型ロボットの前方を歩行する歩行者の足先の画像を歩行者足先画像生成手段が生成し、その足先画像が生成された特定の歩行者の進路を歩行者進路検出手段が検出することにより、歩行者進路モデル構築手段が歩行者進路モデルを予め構築し、その歩行者進路モデルの情報を歩行者進路モデル記憶手段が記憶する。その後、歩行者足先画像生成手段により生成される不特定の歩行者の足先画像の情報を歩行者進路モデル記憶手段に記憶されている歩行者進路モデルの情報と照合することにより、不特定の歩行者の進路を歩行者進路予測手段が予測する。すなわち、本発明に係る自律移動型ロボットによれば、特定人物に随伴して移動する際、前方を歩行する不特定の歩行者の進路を予測することができる。
ここで、退避移動手段を備えた本発明の自律移動型ロボットによれば、その前方を歩行する不特定の歩行者と自律移動型ロボットとの衝突を未然に回避することができる。また、歩行案内手段を備えた本発明の自律移動型ロボットによれば、特定人物が案内に従って歩行することにより、前方を歩行する不特定の歩行者と特定人物との衝突を未然に回避することができる。
以下、図面を参照して本発明に係る自律移動型ロボットの実施形態を説明する。参照する図面において、図1は一実施形態に係る自律移動型ロボットとしてのモビルロボットおよびその主人としての特定人物を模式的に示す平面図、図2は図1に示したモビルロボットの構造を示す側面図、図3は図2に示した制御装置の構成を示すブロック図である。
一実施形態に係る自律移動型ロボットは、図1に示すように、主人としての特定人物Mに随伴して移動可能なモビルロボットRとして構成されている。このモビルロボットRは、特定人物Mの近傍において、特定人物Mおよびその周辺状況を観測しつつその観測情報に基づいて特定人物Mを先導し、あるいは特定人物Mに追従する。
図2に示すように、モビルロボットRは、走行装置1により移動可能なボディR1と、このボディR1に対して回転可能に接続されたヘッドR2とを備えており、ボディR1には、各種のメッセージを画像や文字により表示可能なディスプレイ2が設置されている。そして、このボディR1には、電源としてのバッテリ3、ヘッドR2を回転駆動するためのヘッド駆動モータ4の他、走行装置1、ディスプレイ2、ヘッド駆動モータ4などを制御するための制御装置5が内蔵されている。
一方、モビルロボットRのヘッドR2の顔面に相当する部分には、特定人物Mおよびその周辺に存在する障害物(他の人物や動物、構造物、設置物、車両等)などを含む周辺状況をステレオ画像として観測するための左右一対のCCDカメラ(または赤外線カメラ)6A,6Bと、警報音や案内メッセージなどの各種の音声を発声可能なスピーカ7とが設置されている。
図1および図2に示すように、走行装置1は、例えば、ホイールインモータ1A,1Bにより回転方向および回転速度が左右独立に制御される左右一対の駆動車輪1C,1Dと、360度の旋回が可能なキャスタ車輪1Eとを有する。
この走行装置1は、左右一対の駆動車輪1C,1Dが同方向に前転駆動または後転駆動されることでモビルロボットRを前進または後退させる。その際、左右一対の駆動車輪1C,1Dの回転速度が同速度であればモビルロボットRを直進させ、左右一対の駆動車輪1C,1Dの回転速度に差があれば駆動車輪1C,1Dのうち回転速度の遅い側にモビルロボットRを旋回させる。そして、この走行装置1は、左右一対の駆動車輪1C,1Dが同速度で相互に逆方向に回転駆動されると、モビルロボットRをその場で左右の何れかに回転させる。
ここで、制御装置5は、ECU(Electric Control Unit)等のマイクロコンピュータのハードウェアおよびソフトウェアを利用して構成されている。この制御装置5は、ホイールインモータ1A,1Bやヘッド駆動モータ4の駆動回路、ディスプレイ2、CCDカメラ6A,6B、スピーカ7等との間の入出力インターフェースI/OおよびA/Dコンバータの他、プログラムおよびデータを記憶したROM(ReadOnly Memory)、入力データ等を一時記憶するRAM(Random Access Memory)、プログラムを実行するCPU(CentralProcessing Unit)等をハードウェアとして備えている。
そして、この制御装置5には、図3に示すように、画像生成部5A、特定人物検出部5B、ヘッド駆動モータ制御部5C、障害物検出部5D、ホイールインモータ制御部5E、歩行者足先画像生成部5F、歩行者進路検出部5G、歩行者進路モデル構築部5H、歩行者進路モデル記憶部5J、歩行者進路予測部5K、特定人物歩行案内部5Lがソフトウェアとして構成されている。
画像生成部5Aには、CCDカメラ6A,6Bから左右の撮影データが所定時間毎に計測時刻情報と共に入力される。この画像生成部5Aは、所定時間毎に入力された左右の撮影データに基づいて各計測時刻におけるステレオ画像を順次生成し、その画像データを計測時刻情報と共に特定人物検出部5B、障害物検出部5D、歩行者足先画像生成部5Fおよび歩行者進路検出部5Gへ所定時間毎に繰り返して出力する。
特定人物検出部5Bは、画像生成部5Aから所定時間毎に順次入力される画像データに基づいて撮影画像のエッジ処理を行い、予め記憶されている特定人物Mの輪郭モデルとのマッチング処理により特定人物Mを検出する。そして、この特定人物検出部5Bは、検出された特定人物Mのステレオ画像をステレオマッチング処理することにより、特定人物Mの3次元位置を三角測量の原理で所定時間毎に推測する。
ヘッド駆動モータ制御部5Cには、特定人物検出部5Bから特定人物Mの3次元位置データが所定時間毎に入力される。このヘッド駆動モータ制御部5Cは、入力された特定人物Mの3次元位置データに基づき、特定人物Mが例えば画像中央に位置するようにヘッド駆動モータ4の回転を制御してモビルロボットRのヘッドR2を回転させる。
障害物検出部5Dは、画像生成部5Aから所定時間毎に順次入力された画像データに基づいて撮影画像のエッジ処理を行うことにより、撮影画像中に存在する障害物(モビルロボットRの走行の障害となる他の人物や動物、構造物、設置物、車両等の)を検出する。そして、この障害物検出部5Dは、検出された障害物のステレオ画像をステレオマッチング処理することにより、障害物の3次元位置を三角測量の原理で所定時間毎に推測する。
ホイールインモータ制御部5Eには、特定人物検出部5Bから特定人物Mの3次元位置データが所定時間毎に入力されると共に、障害物検出部5Dから障害物の3次元位置データが所定時間毎に入力される。このホイールインモータ制御部5Eは、入力された特定人物Mおよび障害物の3次元位置データに基づき、モビルロボットRが特定人物Mの近傍において障害物を避けつつ特定人物Mを先導し、あるいは特定人物Mに追従するように、ホイールインモータ1A,1Bの回転を個別に制御して走行装置1の駆動車輪1C,1Dの回転方向および回転速度を個別に制御する。
歩行者足先画像生成部(本発明の歩行者足先画像生成手段)5Fは、画像生成部5Aから所定時間毎に順次入力される画像データに基づいて撮影画像のエッジ処理を行う。そして、エッジ処理された撮影画像中にモビルロボットRの前方を歩行する特定の歩行者Ps(図1参照)または不特定の歩行者Pu(図4参照)が存在する場合には、その特定の歩行者Psまたは不特定の歩行者Puの足先の画像を撮影画像中から抽出して生成する。その際、歩行者足先画像生成部5Fは、撮影画像中の足先画像のうち、テクスチャの類似する左右一対の足先画像を特定の歩行者Psまたは不特定の歩行者Puの足先画像として抽出する。
歩行者進路検出部(本発明の歩行者進路検出手段)5Gは、画像生成部5Aから所定時間毎に順次入力される画像データに基づいて撮影画像のエッジ処理を行うことにより、歩行者足先画像生成部5Fが生成した左右一対の足先画像に対応する特定の歩行者Ps(図1参照)の全身画像をする。そして、この歩行者進路検出部5Gは、抽出した特定の歩行者Psのステレオ画像をステレオマッチング処理することにより、特定の歩行者Psの3次元位置を三角測量の原理で所定時間毎に順次検出し、その3次元位置の時間的変化から特定の歩行者Psの進路を検出する。
歩行者進路モデル構築部(本発明の歩行者進路モデル構築手段)5Hには、歩行者足先画像生成部5Fから特定の歩行者Psの左右一対の足先画像のデータが入力されると共に、歩行者進路検出部5Gから特定の歩行者Psの進路のデータが入力される。そして、この歩行者進路モデル構築部5Hは、歩行者足先画像生成部5Fから入力された特定の歩行者Psの左右一対の足先画像のデータと、歩行者進路検出部5Gから入力された特定の歩行者Psの進路のデータとを統計的学習処理により組み合わせることにより、左右一対の足先の向きに応じた各種の進路モデルを一般の歩行者の進路モデルとして予め構築する。
歩行者進路モデル記憶部(本発明の歩行者進路モデル記憶手段)5Jには、歩行者進路モデル構築部5Hにより一般の歩行者の進路モデルとして予め構築された各種の進路モデルが入力される。そして、この歩行者進路モデル記憶部5Jは、左右一対の足先の向きに応じた各種の進路モデルのデータを一般の歩行者の進路モデルのデータとして記憶する。
歩行者進路予測部(本発明の歩行者進路予測手段)5Kには、モビルロボットRの前方を歩行する不特定の歩行者Pu(図4参照)の左右一対の足先画像のデータが歩行者足先画像生成部5Fから入力される。この歩行者進路予測部5Kは、歩行者足先画像生成部5Fから入力される不特定の歩行者Puの足先画像のデータを歩行者進路モデル記憶部5Jに記憶されている一般の歩行者進路モデルのデータと照合することにより、不特定の歩行者Puの進路を予測する。
そして、この歩行者進路予測部5Kは、予測した不特定の歩行者Puの進路がモビルロボットRおよび特定人物Mの進路から外れる進路であるか、モビルロボットRへ向かう進路であるか、あるいは特定人物Mへ向かう進路であるかどうかを判定し、その判定信号をホイールインモータ制御部5Eおよび特定人物歩行案内部5Lに出力する。
ホイールインモータ制御部5Eは、不特定の歩行者Puの予測進路がモビルロボットRへ向かう進路であるとする判定信号を歩行者進路予測部5Kから受けると、本発明の退避移動手段として機能する。すなわち、ホイールインモータ制御部5Eは、ホイールインモータ1A,1Bを適宜制御することにより、モビルロボットRへ向かう不特定の歩行者Puの進路からモビルロボットRを退避移動させるようにモビルロボットRの走行進路を変更する。
一方、特定人物歩行案内部(本発明の歩行案内手段)5Lは、不特定の歩行者Puの予測進路が特定人物Mへ向かう進路であるとする判定信号を歩行者進路予測部5Kから受けると、不特定の歩行者Puの進路から特定人物Mを退避させるための歩行案内の音声信号をスピーカ7に出力して特定人物Mに歩行案内のメッセージを伝達する。
ここで、図3に示した制御装置5を構成する画像生成部5A、ホイールインモータ制御部5E、歩行者足先画像生成部5F、歩行者進路検出部5G、歩行者進路モデル構築部5H、歩行者進路モデル記憶部5J、歩行者進路予測部5Kおよび特定人物歩行案内部5Lによる処理手順を図5〜図7に示すフローチャートに沿って説明する。
まず、図5に示すように、制御装置5はステップS1〜S2のメインルーチンで歩行者進路学習処理および歩行者進路予測処理を順次実行する。
ステップS1の歩行者進路学習処理は、図1に示したように、モビルロボットRの前方を歩行する特定の歩行者Psの進路を学習して一般の歩行者の進路モデルを構築するための処理であり、図6に示すサブルーチンのフローチャートに沿って実行される。
まず、ステップS10では、CCDカメラ6A,6Bから所定時間毎に計測時刻情報と共に入力される左右の撮影データに基づき、各計測時刻における特定人物Mを含む周辺状況のステレオ画像を画像生成部5Aが順次生成する。
つぎのステップS11では、画像生成部5Aから所定時間毎に順次入力される画像データに基づき、モビルロボットRの前方に特定の歩行者Ps(図1参照)が存在するか否かを歩行者足先画像生成部5Fが判定する。
ここで、ステップS11の判定結果がNOであって特定の歩行者Psが存在しない場合にはステップS10に戻るが、判定結果がYESであって特定の歩行者Psが存在する場合には、続くステップS12で特定の歩行者Ps(図1参照)の足先の画像を歩行者足先画像生成部5Fが撮影画像中から抽出して生成する。
つぎのステップS13では、画像生成部5Aから所定時間毎に順次入力される画像データに基づき、特定の歩行者Ps(図1参照)の全身画像を歩行者進路検出部5Gが撮影画像中から順次抽出する。そして、抽出した特定の歩行者Psの3次元位置の時間的変化から特定の歩行者Psの進路を歩行者進路検出部5Gが検出する。
続くステップS14では、歩行者足先画像生成部5Fから入力された特定の歩行者Psの左右一対の足先画像のデータと、歩行者進路検出部5Gから入力された特定の歩行者Psの進路のデータとを組み合わせることにより、歩行者進路モデル構築部5Hが左右一対の足先の向きに応じた各種の進路モデルを一般の歩行者の進路モデルとして予め構築する。
そして、次のステップS15では、一般の歩行者の進路モデルとして歩行者進路モデル構築部5Hにより予め構築された左右一対の足先の向きに応じた各種の進路モデルのデータを歩行者進路モデル記憶部5Jが記憶する。
図6に示した歩行者進路学習処理のサブルーチンが終了すると、図5のメインルーチンへ戻り、制御装置5がステップS2の歩行者進路予測処理を実行する。この歩行者進路予測処理は、モビルロボットRまたは特定人物Mが前方の不特定の歩行者Pu(図4参照)と衝突しないように歩行者Pの進路を予測することを主とした処理であり、図7に示すサブルーチンのフローチャートに沿って実行する。
まず、ステップS20では、CCDカメラ6A,6Bから所定時間毎に計測時刻情報と共に入力される左右の撮影データに基づき、各計測時刻における特定人物Mを含む周辺状況のステレオ画像を画像生成部5Aが順次生成する。
つぎのステップS21では、画像生成部5Aから所定時間毎に順次入力される画像データに基づき、モビルロボットRの前方に不特定の歩行者Pu(図4参照)が存在するか否かを歩行者足先画像生成部5Fが判定する。
ここで、ステップS21の判定結果がNOであって不特定の歩行者Puが存在しない場合にはステップS20に戻るが、判定結果がYESであって不特定の歩行者Puが存在する場合には、続くステップS22で不特定の歩行者Pu(図4参照)の足先の画像を歩行者足先画像生成部5Fが撮影画像中から抽出して生成する。
つぎのステップS23では、歩行者足先画像生成部5Fから入力される不特定の歩行者Puの足先画像のデータを歩行者進路モデル記憶部5Jに記憶されている一般の歩行者進路モデルのデータと照合することにより、歩行者進路予測部5Kが不特定の歩行者Puの進路を予測する。
続くステップS24では、ステップS23における予測結果に応じて歩行者進路予測部5Kが不特定の歩行者Puの進路を判定する。すなわち、不特定の歩行者Puの進路がモビルロボットRおよび特定人物Mの進路から外れる進路である場合には「J1」と判定し、モビルロボットRへ向かう進路(図4参照)である場合には「J2」と判定し、特定人物Mへ向かう進路(図1参照)である場合には「J3」と判定する。
ここで、ステップS24の判定結果が「J1」であれば一連の処理を終了するが、「J2」であればステップS25に進み、「J3」であればステップS26に進む。
ステップS25では、歩行者進路予測部5Kから「J2」の判定信号を受けたホイールインモータ制御部5Eがホイールインモータ1A,1Bを適宜制御することにより、モビルロボットRへ向かって進む不特定の歩行者Puの進路(図4の白抜き矢印参照)からモビルロボットRを退避移動(図4の曲線矢印参照)させるようにモビルロボットRの走行進路を変更する。
一方、ステップS26では、歩行者進路予測部5Kから「J3」の判定信号を受けた特定人物歩行案内部5Lが特定人物Mへ向かって進む不特定の歩行者Puの進路(図1の白抜き矢印参照)から特定人物Mを退避させるための歩行案内(例えば「ストップ」など)の音声信号をスピーカ7に出力して特定人物Mに歩行案内のメッセージを伝達する。
以上のように一実施形態の自律移動型ロボットとして構成されたモビルロボットR(図1、図2参照)は、特定人物Mを含む周辺状況をCCDカメラ6A,6Bにより撮影しつつ、その撮影画像のデータに基づき、制御装置5のホイールインモータ制御部5Eによりホイールインモータ1A,1Bを制御して走行装置1の左右一対の駆動車輪1C,1Dの回転方向および回転速度を左右独立に制御することにより、特定人物Mの近傍に随伴して障害物を避けつつ特定人物Mを先導し、あるいは特定人物Mに追従する。
その際、制御装置5では、モビルロボットRの前方を歩行する特定の歩行者Psの足先の画像を歩行者足先画像生成部5Fが生成し、その足先画像が生成された特定の歩行者Psの進路を歩行者進路検出部5Gが検出する。そして、歩行者足先画像生成部5Fにより生成された特定の歩行者Psの足先画像のデータと歩行者進路検出部5Gにより検出された特定の歩行者Psの進路のデータとを組み合わせることで、歩行者進路モデル構築部5Hが一般の歩行者の進路モデルを予め構築し、その歩行者進路モデルのデータを歩行者進路モデル記憶部5Jが記憶する。
その後、歩行者足先画像生成部5Fにより生成される不特定の歩行者Puの足先画像のデータを歩行者進路モデル記憶部5Jに記憶されている一般の歩行者進路モデルのデータと照合することにより、歩行者進路予測部5Kが不特定の歩行者Puの進路を予測する。そして、不特定の歩行者Puの進路がモビルロボットRへ向かう進路の場合には、ホイールインモータ制御部5Eによりホイールインモータ1A,1Bを制御することで、モビルロボットRを不特定の歩行者Puの進路から退避移動させ、不特定の歩行者Puの進路が特定人物Mへ向かう進路の場合には、特定人物Mを不特定の歩行者Puの進路から退避させるための歩行案内のメッセージを歩行者進路検出部5Gがスピーカ7に出力して特定人物Mに伝達する。
従って、一実施形態の自律移動型ロボットとして構成されたモビルロボットRによれば、特定人物Mに随伴して移動する際、モビルロボットRの前方を歩行する不特定の歩行者Puの進路を予測することができ、その不特定の歩行者Pと衝突しないように、モビルロボットR自身を不特定の歩行者Puの進路から退避移動させ、あるいは特定人物Mを不特定の歩行者Puの進路から退避させるように特定人物Mの歩行を案内することができる。
本発明に係る自律移動型ロボットは、前述した一実施形態に限定されるものではない。例えば、図2に示したモビルロボットRの走行装置1は、例えば2足歩行が可能な歩行装置に変更することができる。
また、モビルロボットRのヘッドR2には、前方を歩行する歩行者Pを検出するための赤外線センサや、歩行者Pまでの距離およびその表面の凹凸状態を検出可能なミリ波レーダ(またはレーザレーダ)を設置してもよい。
1…走行装置、2…ディスプレイ、3…バッテリ、4…ヘッド駆動モータ、5…制御装置、5A…画像生成部、5B…特定人物検出部、5C…ヘッド駆動モータ制御部、5D…障害物検出部、5E…ホイールインモータ制御部、5F…歩行者足先画像生成部、5G…歩行者進路検出部、5H…歩行者進路モデル構築部、5J…歩行者進路モデル記憶部、5K…歩行者進路予測部、5L…特定人物歩行案内部、6A,6B…CCDカメラ、7…スピーカ、R…モビルロボット、M…特定人物、Ps…特定の歩行者、Pu…不特定の歩行者。
Claims (3)
- 特定人物を含む周辺状況を観測しつつその観測情報に基づき特定人物に随伴して移動可能な自律移動型ロボットにおいて、
自律移動型ロボットの前方を歩行する歩行者の足先の画像を生成する歩行者足先画像生成手段と、
歩行者足先画像生成手段により足先画像が生成された特定の歩行者の進路を検出する歩行者進路検出手段と、
歩行者足先画像生成手段により生成された特定の歩行者の足先画像の情報と歩行者進路検出手段により検出された特定の歩行者の進路情報とを組み合わせて一般の歩行者の進路モデルを予め構築する歩行者進路モデル構築手段と、
歩行者進路モデル構築手段により予め構築された歩行者進路モデルの情報を記憶する歩行者進路モデル記憶手段と、
歩行者足先画像生成手段により生成される不特定の歩行者の足先画像の情報を歩行者進路モデル記憶手段に記憶されている歩行者進路モデルの情報と照合することにより、不特定の歩行者の進路を予測する歩行者進路予測手段とを備えていることを特徴とする自律移動型ロボット。 - 請求項1に記載の自律移動型ロボットであって、前記歩行者進路予測手段により予測される不特定の歩行者の進路が自律移動型ロボットへ向かう進路である場合には、自律移動型ロボットを不特定の歩行者の進路から退避移動させる退避移動手段を備えていることを特徴とする自律移動型ロボット。
- 請求項1または2に記載の自律移動型ロボットであって、前記歩行者進路予測手段により予測される不特定の歩行者の進路が特定人物へ向かう進路である場合には、特定人物を不特定の歩行者の進路から退避させるように案内する歩行案内手段を備えていることを特徴とする自律移動型ロボット。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006050868A JP2007229816A (ja) | 2006-02-27 | 2006-02-27 | 自律移動型ロボット |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006050868A JP2007229816A (ja) | 2006-02-27 | 2006-02-27 | 自律移動型ロボット |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007229816A true JP2007229816A (ja) | 2007-09-13 |
Family
ID=38550928
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006050868A Pending JP2007229816A (ja) | 2006-02-27 | 2006-02-27 | 自律移動型ロボット |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007229816A (ja) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009183538A (ja) * | 2008-02-07 | 2009-08-20 | Saitama Univ | 自律移動車椅子 |
JP2010264585A (ja) * | 2009-05-15 | 2010-11-25 | Honda Research Inst Europe Gmbh | 予測不可能で動的な複雑な環境において計画することを伴う自律型ロボット |
JP2012200818A (ja) * | 2011-03-25 | 2012-10-22 | Advanced Telecommunication Research Institute International | 歩行者の軌跡を予測して自己の回避行動を決定するロボット |
JP2013214258A (ja) * | 2012-04-04 | 2013-10-17 | Denso It Laboratory Inc | 歩行者検出装置及び方法、並びに車両用衝突判定装置 |
US9235895B2 (en) | 2011-12-13 | 2016-01-12 | Hitachi, Ltd. | Method for estimating direction of person standing still |
WO2016039158A1 (ja) * | 2014-09-08 | 2016-03-17 | 日本電産株式会社 | 移動体制御装置及び移動体 |
KR102471234B1 (ko) * | 2022-07-15 | 2022-11-29 | 서울시립대학교 산학협력단 | 횡단보도에서 보행자를 도와주는 안전 동행 로봇 및 방법 |
-
2006
- 2006-02-27 JP JP2006050868A patent/JP2007229816A/ja active Pending
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009183538A (ja) * | 2008-02-07 | 2009-08-20 | Saitama Univ | 自律移動車椅子 |
JP2010264585A (ja) * | 2009-05-15 | 2010-11-25 | Honda Research Inst Europe Gmbh | 予測不可能で動的な複雑な環境において計画することを伴う自律型ロボット |
JP2012200818A (ja) * | 2011-03-25 | 2012-10-22 | Advanced Telecommunication Research Institute International | 歩行者の軌跡を予測して自己の回避行動を決定するロボット |
US9235895B2 (en) | 2011-12-13 | 2016-01-12 | Hitachi, Ltd. | Method for estimating direction of person standing still |
JP2013214258A (ja) * | 2012-04-04 | 2013-10-17 | Denso It Laboratory Inc | 歩行者検出装置及び方法、並びに車両用衝突判定装置 |
WO2016039158A1 (ja) * | 2014-09-08 | 2016-03-17 | 日本電産株式会社 | 移動体制御装置及び移動体 |
JP2016057720A (ja) * | 2014-09-08 | 2016-04-21 | 日本電産株式会社 | 移動体制御装置及び移動体 |
CN107077138A (zh) * | 2014-09-08 | 2017-08-18 | 日本电产株式会社 | 移动体控制装置和移动体 |
US10379541B2 (en) | 2014-09-08 | 2019-08-13 | Nidec Corporation | Mobile unit control device and mobile unit |
KR102471234B1 (ko) * | 2022-07-15 | 2022-11-29 | 서울시립대학교 산학협력단 | 횡단보도에서 보행자를 도와주는 안전 동행 로봇 및 방법 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2007229816A (ja) | 自律移動型ロボット | |
JP4266211B2 (ja) | ロボット装置、ロボット装置の移動方法、および、プログラム | |
JP4940698B2 (ja) | 自律移動型ロボット | |
US9020682B2 (en) | Autonomous mobile body | |
US9079307B2 (en) | Autonomous locomotion apparatus, autonomous locomotion method, and program for autonomous locomotion apparatus | |
JP2009025898A (ja) | 経路計画装置、経路計画方法及び移動体 | |
JP5768273B2 (ja) | 歩行者の軌跡を予測して自己の回避行動を決定するロボット | |
WO2018074069A1 (ja) | 移動体追尾制御装置 | |
JP2006134221A (ja) | 追従移動装置 | |
JP6569342B2 (ja) | 移動ロボット | |
JP2008174000A (ja) | 駐車支援装置、駐車支援装置部品、駐車支援方法及び駐車支援プログラム | |
US9607230B2 (en) | Mobile object control apparatus and target object detecting apparatus | |
JP2018045397A (ja) | 自動運転車両 | |
WO2017056334A1 (ja) | 追従移動システム | |
JP2007229817A (ja) | 自律移動型ロボット | |
JP2015084129A (ja) | 案内用ロボット | |
JP2007286740A (ja) | 自律移動体 | |
JP6638348B2 (ja) | 移動ロボットシステム | |
JP2018120524A (ja) | 案内用ロボット | |
JP5761152B2 (ja) | 走行装置 | |
JP2012153324A (ja) | 軌道算出装置 | |
JP5024896B2 (ja) | 移動ロボットの操縦システム | |
JP2007229854A (ja) | 自律移動型ロボット | |
JP6559864B1 (ja) | 走行制御装置及び走行制御方法、並びに自動走行車 | |
JP4702154B2 (ja) | 自律移動体および情報表示システム |