JP2010127849A - 移動体検知装置および移動体検知方法 - Google Patents

移動体検知装置および移動体検知方法 Download PDF

Info

Publication number
JP2010127849A
JP2010127849A JP2008305082A JP2008305082A JP2010127849A JP 2010127849 A JP2010127849 A JP 2010127849A JP 2008305082 A JP2008305082 A JP 2008305082A JP 2008305082 A JP2008305082 A JP 2008305082A JP 2010127849 A JP2010127849 A JP 2010127849A
Authority
JP
Japan
Prior art keywords
blind spot
moving body
spot area
obstacle
measurement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008305082A
Other languages
English (en)
Other versions
JP5448429B2 (ja
Inventor
Akira Horiguchi
彰 堀口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sohgo Security Services Co Ltd
Original Assignee
Sohgo Security Services Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sohgo Security Services Co Ltd filed Critical Sohgo Security Services Co Ltd
Priority to JP2008305082A priority Critical patent/JP5448429B2/ja
Publication of JP2010127849A publication Critical patent/JP2010127849A/ja
Application granted granted Critical
Publication of JP5448429B2 publication Critical patent/JP5448429B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Optical Radar Systems And Details Thereof (AREA)

Abstract

【課題】より正確に移動体の判定を行うこと。
【解決手段】移動ロボット100であって、移動ロボット100の第1の位置、および第1の位置から移動後の第2の位置のそれぞれにおいて、障害物の位置を検知するLRS101と、第1の位置および第2の位置のそれぞれにおいて、移動ロボット100の現在位置を取得する現在位置取得部109と、第1の位置および第2の位置のそれぞれにおいて、障害物の位置と移動ロボット100の現在位置とに基づいて死角領域を認識する死角領域認識部110と、第2の位置において認識された死角領域に基づいて、第1の位置において検知された障害物の位置から第1計測位置を選択し、第1の位置において認識された死角領域に基づいて、第2の位置において検知された障害物の位置から第2計測位置を選択する計測点選択部111と、第1計測位置と第2計測位置とに基づいて、障害物が移動体であるか否かを判定する移動体判定部115とを備えた。
【選択図】 図1

Description

本発明は、障害物を検知し、検知した障害物が移動体であるか否かを判定する移動体検知装置および移動体検知方法に関する。
移動ロボット等において、障害物を検知し、検知した障害物が移動体であるか否かを判定する移動体検知装置としては従来から以下のような技術が知られている。例えば、レーザレンジセンサ(以下、「LRS」という。)で一定時間毎に障害物を検知し、一回前にLRSにより検知した障害物の位置データから移動ロボットの移動量を差し引いた位置と現在LRSにより検知した障害物とを比較して、障害物の位置の変化の有無を判定し、変化している場合には、この障害物は移動していると判定する技術が知られている(特許文献1等参照)。
特開2006−158690号公報
しかしながら、このような従来技術では、検知する側の移動ロボットも移動しているため、移動した位置によってLRSにより検知不可能な領域、すなわち死角領域も変化していく。このため、このような死角領域の変化により静止物である障害物も移動体と誤って判定されてしまう場合がある。
本発明は、上記に鑑みてなされたものであって、より正確に移動体の判定を行うことができる移動体検知装置および移動体検知方法を提供することを主な目的とする。
上述した課題を解決し、目的を達成するために、本発明にかかる移動体検知装置は、所定の移動領域を移動可能な移動体検知装置であって、前記移動体検知装置の第1の位置、および前記第1の位置から前記移動体検知装置の移動後の第2の位置のそれぞれにおいて、障害物の位置を検知する検知手段と、前記第1の位置および前記第2の位置のそれぞれにおいて、前記移動体検知装置の現在位置を取得する現在位置取得手段と、前記第1の位置および前記第2の位置のそれぞれにおいて、前記障害物の位置と前記移動体の現在位置とに基づいて死角領域を認識する死角領域認識手段と、前記第2の位置において認識された前記死角領域に基づいて、前記第1の位置において検知された前記障害物の位置から第1計測位置を選択し、前記第1の位置において認識された前記死角領域に基づいて、前記第2の位置において検知された前記障害物の位置から第2計測位置を選択する計測位置選択手段と、前記第1計測位置と前記第2計測位置とに基づいて、前記障害物が移動体であるか否かを判定する移動体判定手段と、を備えたことを特徴とする。
また、本発明にかかる移動体検知方法は、所定の移動領域を移動可能な移動体検知装置で実行される移動体検知方法であって、検知手段が、前記移動体検知装置の第1の位置において、障害物の位置を検知する第1検知ステップと、現在位置取得手段が、前記第1の位置において、前記移動体検知装置の現在位置を取得する第1現在位置取得ステップと、死角領域認識手段が、前記第1の位置において、前記第1の位置における前記障害物の位置と前記移動体の現在位置とに基づいて死角領域を認識する第1死角領域認識ステップと、前記検知手段が、前記第1の位置から前記移動体検知装置の移動後の第2の位置において、前記障害物の位置を検知する第2検知ステップと、前記現在位置取得手段が、前記第2の位置において、前記移動体検知装置の現在位置を取得する第2現在位置取得ステップと、前記死角領域認識手段が、前記第2の位置において、前記第2の位置における前記障害物の位置と前記移動体の現在位置とに基づいて死角領域を認識する第2死角領域認識ステップと、計測位置選択手段が、前記第2の位置において認識された前記死角領域に基づいて、前記第1の位置において検知された前記障害物の位置から第1計測位置を選択し、前記第1の位置において認識された前記死角領域に基づいて、前記第2の位置において検知された前記障害物の位置から第2計測位置を選択する計測位置選択ステップと、移動体判定手段が、前記第1計測位置と前記第2計測位置とに基づいて、前記障害物が移動体であるか否かを判定する移動体判定ステップと、を含むことを特徴とする。
本発明によれば、移動体検知装置が第1の位置から第2の位置に移動する場合に、第2の位置において認識された死角領域に基づいて、第1の位置において検知された障害物の位置から第1計測位置を選択し、第1の位置において認識された死角領域に基づいて、第2の位置において検知された障害物の位置から第2計測位置を選択し、第1計測位置と第2計測位置とに基づいて障害物が移動体であるか否かを判定することで、第1の位置における死角領域と第2の位置における死角領域の変化を考慮して、より正確な移動体の判定を行うことができるという効果を奏する。
以下に添付図面を参照して、この発明にかかる移動体検知装置および移動体検知方法の最良な実施の形態を詳細に説明する。
なお、以下の実施の形態では、本発明にかかる移動体検知装置を自律移動可能な移動ロボットに適用した例をあげて説明するが、これに限定されるものではない。自律移動可能でなく、外部からの操作等により移動可能なものであれば本発明を適用することができる。また、移動ロボット以外であっても移動可能な装置であればいずれの装置にも本発明を適用することができる。
図1は、本実施の形態にかかる移動ロボットの機能的構成を示すブロック図である。図2は、本実施の形態にかかる移動ロボットの外観の一例を示す模式図である。本実施の形態にかかる移動ロボット100は、図1に示すように、レーザレンジセンサ(LRS)101と、検知情報受信部102と、監視カメラ103と、画像情報受信部104と、操作パネル部105と、操作パネル制御部106と、スピーカ107と、音声出力制御部108と、現在位置取得部109と、死角領域認識部110と、計測点選択部111と、移動体判定部115と、走行制御部112と、駆動部114と、通信部113とを主に備えている。
LRS101は、検知領域における障害物を検知し、障害物との距離を計測する距離センサである。LRS101は、移動ロボット100が走行中に一定時間ごとに検知動作を行い、障害物の位置である計測点を逐次検出している。ここで、本実施の形態では、移動体判定のために、第1の位置(位置a)と第2の位置(位置b)を考え、移動ロボット100が移動中、第1の位置から第2の位置を移動し、この第1の位置および第2の位置のそれぞれで、LRS101が障害物の位置を検知するものとする。LRS101は、図2に示すように移動ロボット100の足元に設置されている。
検知情報受信部102は、LRS101が障害物を検知した際の検知情報を受信する。
監視カメラ103は、監視領域を撮像する。監視カメラ103は、図2に示すように移動ロボット100の頭部に設置されている。画像情報受信部104は、監視カメラ103が撮像した画像情報を受信する。操作パネル部105は、移動ロボット100に対する操作のメニューや種々の情報を表示し、メニューからの指示を受け付ける。操作パネル制御部106は、操作パネル105に対する入出力制御を行う。
現在位置取得部109は、移動ロボット100の現在位置を取得する。この現在位置の取得の手法については、任意の手法を用いることができる。例えば、GPSからの位置情報を利用したり、出発地点からの走行距離を用いることにより現在位置を取得する等公知技術を用いればよい。また、本実施の形態では、移動ロボット100が移動する第1の位置および第2の位置のそれぞれで、現在位置取得部109が移動ロボット100の現在位置を取得するものとする。
死角領域認識部110は、第1の位置および第2の位置のそれぞれにおいて、障害物の位置と移動体の現在位置とに基づいて死角領域を認識する。具体的には、死角領域認識部110は、移動ロボットが走行中監視する監視領域のマップを第1の位置、第2の位置ごとに記憶部(不図示)に生成する。第1の位置におけるマップを第1マップ、第2の位置におけるマップを第2マップと呼ぶ。そして、死角領域認識部110は、第1の位置、第2の位置のそれぞれで検知した障害物の位置座標を求め、その位置座標を計測点として第1の位置における第1マップ、第2の位置における第2マップ上にそれぞれ登録する。また、死角領域認識部110は、第1の位置、第2の位置における移動ロボット100の現在位置(すなわち、LRS101の現在位置)のそれぞれを第1マップ、第2マップ上に登録する。そして、死角領域認識部110は、第1マップおよび第2マップ上のそれぞれにおいて、移動ロボット100の現在位置と障害物の各計測点を結び、この直線により描かれる領域を空領域として求め、第1マップ、第2マップの領域でこの空領域以外の領域を死角領域と認識する。上記処理は、第1の位置、第2の位置でそれぞれ別個に行われる。
計測点選択部111は、第1マップ上で、第1の位置において検知された障害物の位置の計測点から、第2の位置において認識された死角領域に含まれる位置の計測点を除外し、これにより第1マップ上に残った計測点を第1計測点として選択する。ここで、第1計測点とは、第1マップ上の計測点のうち、第2マップの死角領域に含まれない計測点である。
また、計測点選択部111は、第2マップ上において、第2の位置において検知された障害物の位置の計測点から第1の位置において認識された死角領域に含まれる位置の計測点を除外し、これにより第2マップ上に残った計測点を第2計測点として選択する。ここで、第2計測点とは、第2マップ上の計測点のうち、第1マップの死角領域に含まれない計測点である。
移動体判定部115は、第1マップ上における第1計測点と第2マップ上における第2計測点を比較し、差分の有無を判断する。そして、移動体判定部115は、両者に差分がある場合には、その差分の計測点を示す障害物は移動体であると判定し、差分がない場合には移動体は存在しないと判定する。
駆動部114は、移動ロボット100の車輪(不図示)を駆動する車輪モータ等である。走行制御部112は、記憶部(不図示)に記憶された巡回経路に従って、移動ロボット100の走行(移動および回転)を制御する。具体的には、移動ロボット100の駆動部114(車輪モータ)を駆動するものであり、例えば、モータドライバおよび制御モジュール等が該当する。
通信部113は、ネットワークで接続された監視装置(不図示)と各種情報の送受信を行う。具体的には、監視装置から巡回経路の巡回の開始、停止などの指示を受信する。また、監視カメラ103で撮像した画像情報や、LRS101が検知した検知情報を監視装置に送信してもよい。
スピーカ107は、音声メッセージを出力する。スピーカ107は、図2に示すように移動ロボット100の前面に配置されている。音声出力制御部108は、音声メッセージのスピーカ107による出力を制御する。
次に、以上のように構成された本実施の形態の移動ロボット100による移動体検知処理について説明する。図3は、移動体検知処理の手順を示すフローチャートである。
まず、現在位置取得部109により移動ロボット100の現在位置を取得する(ステップS11)。LRS101は、一定時間ごとに障害物を検知しているが、移動ロボットが第1の位置(位置a)にいる時点で、LRS101により障害物を検出する(ステップS12)。次いで、死角領域認識部110により第1の位置(位置a)において死角領域の認識処理を行う(ステップS13)。
図4は、死角領域認識処理の手順を示すフローチャートである。死角領域認識部110は、まず、上述した第1マップを生成する。図5は、第1マップの状態を示す説明図である。図5の例では、第1マップはグリッドが設けられている。グリッドのサイズは任意に定めることができ、例えば、1辺5cmのように定めておく。なお、第2マップも同様である。図5に示すように、第1マップの初期状態は、まだLRS101による検知が行われていないため、全ての領域が死角領域となる。
そして、死角領域認識部110は、ステップS11で取得した移動ロボットの現在位置(LRS101の現在位置)を第1マップ上に記録し、また、ステップS12でLRS101により検知した障害物の位置座標を求め、その移動ロボットの現在位置からの相対座標を計測点として第1マップに記録する(ステップS31)。
図6は、計測点及び現在位置が記録された状態の第1マップの状態を示す説明図である。図6に示しように、第1マップのグリッド上に、計測点と現在位置が記録される。ここで、第1マップへの計測点の位置は、移動ロボット100の現在位置、すなわちLRS101の位置からの相対位置として記録される。第2マップへの記録についても同様である。
次に、死角領域認識部110は、この第1マップ上で、移動ロボット100の現在位置と各計測点とを直線で結び、かかる直線で形成される領域を空領域として求める(ステップS32)。そして、死角領域認識部110は、第1マップ上の領域でこの空領域以外の領域を死角領域と認識する(ステップS33)。
すなわち、LRS101の位置(移動ロボット100の現在位置)から各障害物の位置の間は、LRS101から出射されたレーザ光が遮断されずに通過できたことから、他の障害物は存在しない空間である。このため、死角領域認識部110は、マップ上で移動ロボット100の現在位置(LRS101の位置)と各計測点とを直線で結び、かかる直線で形成される領域を障害物が存在しない空領域としている。
図7は、空領域と死角領域を認識した状態の第1マップの説明図である。図7に示すように、計測点と現在位置とで囲まれる領域が空領域701として求められ、空領域701以外の領域が死角領域702として認識される。
なお、マップのグリッドが細かい場合には、現在位置と各計測点間の直線状のグリッドのみでは、殆どが空領域とならないため、このような場合には、隣接する障害物と現在位置とで形成される三角形状の領域を空領域として求めるように構成してもよい。
また、LRS101から出射されるレーザ光の広がりを考慮して、現在位置から遠距離の計測点ほど空領域とする範囲を大きくするように構成してもよい。
さらに、本実施の形態では、第1マップ、第2マップにグリッドを設け、死角領域もグリッド上の領域として認識しているが、これに限定されるものではなく、多角形状で死角領域や空領域を表すように構成してもよい。
図3に戻り、このように第1マップ上の死角領域が認識された後、移動ロボット100が第2の位置まで移動したとする。このとき、移動ロボット100が第2の位置(位置b)にいる時点において、現在位置取得部109により移動ロボット100の現在位置を取得する(ステップS14)。そして、移動ロボット100がこの第2の位置(位置b)にいる時点で、LRS101により障害物を検出する(ステップS15)。そして、死角領域認識部110により第2の位置(位置b)において死角領域の認識処理を行う(ステップS16)。第2の位置における死角領域の認識処理は、第2マップを用いる以外は、図4を用いて説明した上述の処理と同様に行われる。ここで、計測点や現在位置の登録、死角領域の認識は、第1の位置における計測点や現在位置の登録、死角領域の認識における座標系と同じ座標系を用いる。
次に、計測点選択部111は、1回目(ステップS12)に検出された障害物の位置の第1マップ上の計測点から第1計測点の選択処理を行う(ステップS17)。
この第1マップ上での第1計測点の選択処理については、以下のように行われる。図8は、移動ロボット100の走行経路の一部を示す模式図である。ここでは、図8に示すように、L字状の壁が障害物として存在し、移動ロボット100が走行経路中の位置a(第1の位置)から位置b(第2の位置)まで移動した場合を考える。
図9は、ステップS13の死角領域認識処理において、位置a(第1の位置)における計測点、現在位置が第1マップ上に登録され、第1マップ上で死角領域が認識された状態を示す模式図である。
図10は、ステップS16の死角領域認識処理において、位置b(第2の位置)における計測点、現在位置が第2マップ上に登録され、第2マップ上で死角領域が認識された状態を示す模式図である。
計測点選択部111は、まず、図9に示す第1マップ上の第1の位置(位置a)における計測点を、図10に示す第2マップ上の死角領域に重畳する。図11−1は、第1マップ上の第1の位置(位置a)における計測点を、第2マップ上の死角領域に重畳した状態を示す模式図である。計測点選択部111は、第1マップ上の計測点のうち、第2マップ上の死角領域に含まれる計測点を除去し、これにより残存した計測点を第1計測点として選択する。
図11−1において、楕円部分で囲まれた第1マップ上の計測点が第2マップ上の死角領域に含まれるので、これらが除去されることになる。図11−2は、第1マップ上で選択された計測点(第1計測点)を示す模式図である。図11−2に示すように、図11−1で楕円部分に囲まれた計測点が除去されている。
このように、第1マップ上の計測点のうち、第2マップ上の死角領域に含まれる計測点を除外するのは、第2の位置に移動した状態で第2マップの死角領域に含まれる計測点は、第2の位置において検知できなかっただけであって、この時点においてもその場所に障害物がある可能性があるため、これを除外しないと移動体の判定を行うことができないからである。
第1計測点の選択処理が終了したら、計測点選択部111は、引き続き、2回目(ステップS15)に検出された障害物の位置の第2マップ上の計測点から第2計測点の選択処理を行う(ステップS18)。
この第2マップ上での第2計測点の選択処理については、以下のように行われる。計測点選択部111は、図10に示した第2マップ上の第2の位置(位置b)における計測点を、図9に示した第1マップ上の死角領域に重畳する。図12−1は、第2マップ上の第2の位置(位置b)における計測点を、第1マップ上の死角領域に重畳した状態を示す模式図である。計測点選択部111は、第2マップ上の計測点のうち、第1マップ上の死角領域に含まれる計測点を除去し、これにより残存した計測点を第2計測点として選択する。図12−1において、楕円部分で囲まれた第2マップ上の計測点が第1マップ上の死角領域に含まれるので、これらが除去されることになる。図12−2は、第2マップ上で選択された計測点(第2計測点)を示す模式図である。図12−2に示すように、図12−1で楕円部分に囲まれた計測点が除去されている。
第2計測点の選択処理が終了したら、移動体判定部115は、第1計測点と第2計測点の差分を取得し(ステップS19)差分の有無を判断する(ステップS20)。そして、差分がない場合には(ステップS20:No)、移動体判定部115は、検知された障害物の中に移動体はないと判断する(ステップS22)。
一方、第1計測点と第2計測点の差分がある場合には(ステップS20:Yes)、移動体判定部115は、差分の計測点に対応する障害物を移動体であると判定する(ステップS21)。これにより、移動体判定の処理は完了する。
例えば、第1計測点が図11−2に示す例であり、第2計測点が図12−2に示す例である場合には、両者の計測点の差分をとると、図13に示すようになる。すなわち、図13では、差分となる計測点は存在しない。このような場合には、移動体判定部115は、検知された障害物は全て静止物であり、移動体は存在しないと判定する。この例では、図8に示した走行経路において、第1の位置(位置a)から第2の位置(位置b)に移動ロボット100が移動すると、曲がり角の先がLRS101で検知できるようになり、一方、手前側が移動ロボット100の進行によりLRS101による検知が不可能になっただけであるため、移動体は存在しないことがわかる。従来の技術では、このような場合にも、移動体であると判定してしまうおそれがあるが、本実施の形態では、このように正確に移動体の有無の判定を行うことができる。
この例では、図8に示す走行経路を例として説明したが、図14や図15に示す走行経路の例でも同様に、移動体がないと判定されることになる。
これに対し、図16に示すように、走行経路中に移動体である障害物(例えば人間)があり、移動ロボット100に向かって移動している場合を例にあげて説明する。図16の例では、移動ロボットは、位置a(第1の位置)から位置b(第2の位置)に移動する場合を考える。また、図16に示すように、移動ロボット100が位置aにいる時点で移動体が位置a’に存在し、移動ロボット100が位置bまで移動した時点で移動体が位置b’に移動したものとする。
図17は、ステップS13の死角領域認識処理において、位置a(第1の位置)における計測点、現在位置が第1マップ上に登録され、第1マップ上で死角領域が認識された状態を示す模式図である。
図18は、ステップS16の死角領域認識処理において、位置b(第2の位置)における計測点、現在位置が第2マップ上に登録され、第2マップ上で死角領域が認識された状態を示す模式図である。
計測点選択部111は、図17に示す第1マップ上の第1の位置(位置a)における計測点を、図18に示す第2マップ上の死角領域に重畳する。図19−1は、第1マップ上の第1の位置(位置a)における計測点を、第2マップ上の死角領域に重畳した状態を示す模式図である。計測点選択部111は、第1マップ上の計測点のうち、第2マップ上の死角領域に含まれる計測点を除去し、これにより残存した計測点を第1計測点として選択する。図19−1において、楕円部分で囲まれた第1マップ上の計測点が第2マップ上の死角領域に含まれるので、これらが除去されることになる。図19−2は、第1マップ上で選択された計測点(第1計測点)を示す模式図である。図19−2に示すように、図19−1で楕円部分に囲まれた計測点が除去されている。
1回目の計測点の選択処理が終了後、第2マップ上での計測点の選択処理(ステップS18)では、計測点選択部111は、図18に示した第2マップ上の第2の位置(位置b)における計測点を、図17に示した第1マップ上の死角領域に重畳する。図20−1は、第2マップ上の第2の位置(位置b)における計測点を、第1マップ上の死角領域に重畳した状態を示す模式図である。計測点選択部111は、第2マップ上の計測点のうち、第1マップ上の死角領域に含まれる計測点を除去し、これにより残存した計測点を第2計測点として選択する。図20−1において、楕円部分で囲まれた第2マップ上の計測点が第1マップ上の死角領域に含まれるので、これらが除去されることになる。図20−2は、第2マップ上で選択された計測点(第2計測点)を示す模式図である。図20−2に示すように、図20−1で楕円部分に囲まれた計測点が除去されている。
そして、ステップS19の処理で、移動体判定部115により、図19−2に示す第1計測点と図20−2に示す第2計測点の差分をとると、図21に示すようになる。すなわち、図21では、差分となる計測点が2つ存在している。このような場合には、移動体判定部115は、ステップS20の処理により、検知された障害物のうち、図21に示される二つの計測点に対応する障害物が移動体であると判断する。
このように本実施の形態では、移動ロボット100の移動に伴う死角領域の変化を考慮にいれて計測点の除去をおこない、除去により残存した計測点により移動体の判定を行っている。このため、本実施の形態によれば、移動ロボット100の移動により死角領域に変化が生じる場合でも、より正確な移動体の判定を行うことができる。
なお、本発明は、上記実施の形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化することができる。また、上記実施の形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成することができる。例えば、実施の形態に示される全構成要素からいくつかの構成要素を削除してもよい。さらに、異なる実施の形態にわたる構成要素を適宜組み合わせても良い。
本実施の形態にかかる移動ロボットの機能的構成を示すブロック図である。 本実施の形態にかかる移動ロボットの外観の一例を示す模式図である。 移動体検知処理の手順を示すフローチャートである。 死角領域認識処理の手順を示すフローチャートである。 第1マップの状態を示す説明図である。 計測点及び現在位置が記録された状態の第1マップの説明図である。 空領域と死角領域を認識した状態の第1マップの説明図である。 移動ロボット100の走行経路の一部を示す模式図である。 位置a(第1の位置)における計測点、現在位置が第1マップ上に登録され、第1マップ上で死角領域が認識された状態を示す模式図である。 位置b(第2の位置)における計測点、現在位置が第2マップ上に登録され、第2マップ上で死角領域が認識された状態を示す模式図である。 第1マップ上の第1の位置(位置a)における計測点を、第2マップ上の死角領域に重畳した状態を示す模式図である。 第1マップ上で選択された計測点(第1計測点)を示す模式図である。 第2マップ上の第2の位置(位置b)における計測点を、第1マップ上の死角領域に重畳した状態を示す模式図である。 第2マップ上で選択された計測点(第2計測点)を示す模式図である。 第1計測点と第2計測点の差分を示す説明図である。 走行経路の他の例を示す模式図である。 走行経路の他の例を示す模式図である。 走行経路中に移動体である障害物がある場合の走行経路の例を示す模式図である。 図16の走行経路の場合において、位置a(第1の位置)における計測点、現在位置が第1マップ上に登録され、第1マップ上で死角領域が認識された状態を示す模式図である。 図16の走行経路の場合において、位置b(第2の位置)における計測点、現在位置が第2マップ上に登録され、第2マップ上で死角領域が認識された状態を示す模式図である。 図16の走行経路の場合において、第1マップ上の第1の位置(位置a)における計測点を、第2マップ上の死角領域に重畳した状態を示す模式図である。 図16の走行経路の場合において、第1マップ上で選択された計測点(第1計測点)を示す模式図である。 図16の走行経路の場合において、第2マップ上の第2の位置(位置b)における計測点を、第1マップ上の死角領域に重畳した状態を示す模式図である。 図16の走行経路の場合において、第2マップ上で選択された計測点(第2計測点)を示す模式図である。 図16の走行経路の場合における第1計測点と第2計測点の差分を示す模式図である。
符号の説明
100 移動ロボット
101 レーザレンジセンサ(LRS)
102 検知情報受信部
103 監視カメラ
104 画像情報受信部
105 操作パネル
106 操作パネル制御部
107 スピーカ
108 音声出力制御部
109 現在位置取得部
110 死角領域認識部
111 計測点選択部
112 走行制御部
113 通信部
114 駆動部
115 移動体判定部
701 空領域
702 死角領域

Claims (5)

  1. 所定の移動領域を移動可能な移動体検知装置であって、
    前記移動体検知装置の第1の位置、および前記第1の位置から前記移動体検知装置の移動後の第2の位置のそれぞれにおいて、障害物の位置を検知する検知手段と、
    前記第1の位置および前記第2の位置のそれぞれにおいて、前記移動体検知装置の現在位置を取得する現在位置取得手段と、
    前記第1の位置および前記第2の位置のそれぞれにおいて、前記障害物の位置と前記移動体の現在位置とに基づいて死角領域を認識する死角領域認識手段と、
    前記第2の位置において認識された前記死角領域に基づいて、前記第1の位置において検知された前記障害物の位置から第1計測位置を選択し、前記第1の位置において認識された前記死角領域に基づいて、前記第2の位置において検知された前記障害物の位置から第2計測位置を選択する計測位置選択手段と、
    前記第1計測位置と前記第2計測位置とに基づいて、前記障害物が移動体であるか否かを判定する移動体判定手段と、
    を備えたことを特徴とする移動体検知装置。
  2. 前記計測位置選択手段は、前記第1の位置において検知された前記障害物の位置から前記第2の位置において認識された前記死角領域に含まれる位置を除外することにより前記第1計測位置を選択し、記第2の位置において検知された前記障害物の位置から前記第1の位置において認識された前記死角領域に含まれる位置を除外することにより前記第2計測位置を選択することを特徴とする請求項1または記載の移動体検知装置。
  3. 前記移動体判定手段は、前記第1計測位置と前記第2計測位置とに差分があるか否かを判断し、前記差分がある場合に前記差分の位置の障害物が移動体であると判定する請求項1または2に記載の移動体検知装置。
  4. 前記死角領域認識手段は、前記移動領域において、前記現在位置と検知された複数の障害物の各位置を直線で結び、前記直線で描かれる領域である空領域以外の領域を前記死角領域と認識することを特徴とする請求項1〜3のいずれか一つに記載の移動体検知装置。
  5. 所定の移動領域を移動可能な移動体検知装置で実行される移動体検知方法あって、
    検知手段が、前記移動体検知装置の第1の位置において、障害物の位置を検知する第1検知ステップと、
    現在位置取得手段が、前記第1の位置において、前記移動体検知装置の現在位置を取得する第1現在位置取得ステップと、
    死角領域認識手段が、前記第1の位置において、前記第1の位置における前記障害物の位置と前記移動体の現在位置とに基づいて死角領域を認識する第1死角領域認識ステップと、
    前記検知手段が、前記第1の位置から前記移動体検知装置の移動後の第2の位置において、前記障害物の位置を検知する第2検知ステップと、
    前記現在位置取得手段が、前記第2の位置において、前記移動体検知装置の現在位置を取得する第2現在位置取得ステップと、
    前記死角領域認識手段が、前記第2の位置において、前記第2の位置における前記障害物の位置と前記移動体の現在位置とに基づいて死角領域を認識する第2死角領域認識ステップと、
    計測位置選択手段が、前記第2の位置において認識された前記死角領域に基づいて、前記第1の位置において検知された前記障害物の位置から第1計測位置を選択し、前記第1の位置において認識された前記死角領域に基づいて、前記第2の位置において検知された前記障害物の位置から第2計測位置を選択する計測位置選択ステップと、
    移動体判定手段が、前記第1計測位置と前記第2計測位置とに基づいて、前記障害物が移動体であるか否かを判定する移動体判定ステップと、
    を含むことを特徴とする移動体検知方法。
JP2008305082A 2008-11-28 2008-11-28 移動体検知装置および移動体検知方法 Active JP5448429B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008305082A JP5448429B2 (ja) 2008-11-28 2008-11-28 移動体検知装置および移動体検知方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008305082A JP5448429B2 (ja) 2008-11-28 2008-11-28 移動体検知装置および移動体検知方法

Publications (2)

Publication Number Publication Date
JP2010127849A true JP2010127849A (ja) 2010-06-10
JP5448429B2 JP5448429B2 (ja) 2014-03-19

Family

ID=42328348

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008305082A Active JP5448429B2 (ja) 2008-11-28 2008-11-28 移動体検知装置および移動体検知方法

Country Status (1)

Country Link
JP (1) JP5448429B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012185776A (ja) * 2011-03-08 2012-09-27 Sogo Keibi Hosho Co Ltd 自律移動体、自律移動体の向き補正方法及び自律移動体の向き補正プログラム
CN105074600A (zh) * 2013-02-27 2015-11-18 夏普株式会社 周围环境识别装置、使用其的自主移动系统以及周围环境识别方法
CN105115490A (zh) * 2015-07-16 2015-12-02 深圳前海达闼科技有限公司 一种确定室内可活动区域的方法及装置
WO2018179649A1 (ja) * 2017-03-28 2018-10-04 株式会社日立産機システム 地図作成システム及びロボットシステム

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63124114A (ja) * 1986-11-14 1988-05-27 Hitachi Ltd 移動体用環境認識装置
JPH1153690A (ja) * 1997-07-31 1999-02-26 Toyota Motor Corp 交差点警報装置
JP2006160116A (ja) * 2004-12-08 2006-06-22 Toyota Central Res & Dev Lab Inc 車両運動推定装置及び移動体検出装置
JP2006227811A (ja) * 2005-02-16 2006-08-31 Denso Corp 運転支援装置
JP2007122508A (ja) * 2005-10-28 2007-05-17 Secom Co Ltd 侵入検知装置
JP2008026997A (ja) * 2006-07-18 2008-02-07 Denso Corp 歩行者認識装置及び歩行者認識方法
JP2008158690A (ja) * 2006-12-21 2008-07-10 Sogo Keibi Hosho Co Ltd 移動体検知装置、警備ロボット、移動体検知方法および移動体検知プログラム
WO2008099915A1 (ja) * 2007-02-16 2008-08-21 Mitsubishi Electric Corporation 道路地物計測装置、地物識別装置、道路地物計測方法、道路地物計測プログラム、計測装置、計測方法、計測プログラム、計測位置データ、計測端末装置、計測サーバ装置、作図装置、作図方法、作図プログラムおよび作図データ
JP2008252348A (ja) * 2007-03-29 2008-10-16 Fujifilm Corp デジタルカメラ及びデジタルカメラの制御方法
JP2008250905A (ja) * 2007-03-30 2008-10-16 Sogo Keibi Hosho Co Ltd 移動ロボット、自己位置補正方法および自己位置補正プログラム
JP2008250906A (ja) * 2007-03-30 2008-10-16 Sogo Keibi Hosho Co Ltd 移動ロボット、自己位置補正方法および自己位置補正プログラム
JP2009086788A (ja) * 2007-09-28 2009-04-23 Hitachi Ltd 車両周辺監視装置

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63124114A (ja) * 1986-11-14 1988-05-27 Hitachi Ltd 移動体用環境認識装置
JPH1153690A (ja) * 1997-07-31 1999-02-26 Toyota Motor Corp 交差点警報装置
JP2006160116A (ja) * 2004-12-08 2006-06-22 Toyota Central Res & Dev Lab Inc 車両運動推定装置及び移動体検出装置
JP2006227811A (ja) * 2005-02-16 2006-08-31 Denso Corp 運転支援装置
JP2007122508A (ja) * 2005-10-28 2007-05-17 Secom Co Ltd 侵入検知装置
JP2008026997A (ja) * 2006-07-18 2008-02-07 Denso Corp 歩行者認識装置及び歩行者認識方法
JP2008158690A (ja) * 2006-12-21 2008-07-10 Sogo Keibi Hosho Co Ltd 移動体検知装置、警備ロボット、移動体検知方法および移動体検知プログラム
WO2008099915A1 (ja) * 2007-02-16 2008-08-21 Mitsubishi Electric Corporation 道路地物計測装置、地物識別装置、道路地物計測方法、道路地物計測プログラム、計測装置、計測方法、計測プログラム、計測位置データ、計測端末装置、計測サーバ装置、作図装置、作図方法、作図プログラムおよび作図データ
JP2008252348A (ja) * 2007-03-29 2008-10-16 Fujifilm Corp デジタルカメラ及びデジタルカメラの制御方法
JP2008250905A (ja) * 2007-03-30 2008-10-16 Sogo Keibi Hosho Co Ltd 移動ロボット、自己位置補正方法および自己位置補正プログラム
JP2008250906A (ja) * 2007-03-30 2008-10-16 Sogo Keibi Hosho Co Ltd 移動ロボット、自己位置補正方法および自己位置補正プログラム
JP2009086788A (ja) * 2007-09-28 2009-04-23 Hitachi Ltd 車両周辺監視装置

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012185776A (ja) * 2011-03-08 2012-09-27 Sogo Keibi Hosho Co Ltd 自律移動体、自律移動体の向き補正方法及び自律移動体の向き補正プログラム
CN105074600A (zh) * 2013-02-27 2015-11-18 夏普株式会社 周围环境识别装置、使用其的自主移动系统以及周围环境识别方法
CN105074600B (zh) * 2013-02-27 2017-09-19 夏普株式会社 周围环境识别装置、使用其的自主移动系统以及周围环境识别方法
CN105115490A (zh) * 2015-07-16 2015-12-02 深圳前海达闼科技有限公司 一种确定室内可活动区域的方法及装置
WO2017008742A1 (en) * 2015-07-16 2017-01-19 Cloudminds (Shenzhen) Robotics Systems Co., Ltd. Method and device for determining indoor approachable area
WO2018179649A1 (ja) * 2017-03-28 2018-10-04 株式会社日立産機システム 地図作成システム及びロボットシステム
CN110100215A (zh) * 2017-03-28 2019-08-06 株式会社日立产机系统 地图生成系统和机器人系统
JPWO2018179649A1 (ja) * 2017-03-28 2019-11-07 株式会社日立産機システム 地図作成システム及びロボットシステム
CN110100215B (zh) * 2017-03-28 2022-05-06 株式会社日立产机系统 地图生成系统和机器人系统

Also Published As

Publication number Publication date
JP5448429B2 (ja) 2014-03-19

Similar Documents

Publication Publication Date Title
US9081384B2 (en) Autonomous electronic apparatus and navigation method thereof
KR101438941B1 (ko) 주차 지원 제어 장치 및 방법
KR101152720B1 (ko) 이동 로봇의 슬립 감지 장치 및 방법
JP5319255B2 (ja) 自律移動体および速度制御方法
JP2005202678A (ja) 走行支援装置
US11801602B2 (en) Mobile robot and driving method thereof
JP2017054475A (ja) 遠隔操作装置、方法及びプログラム
JP2012118909A (ja) 走行支援装置
KR20150135007A (ko) 장애물 회피가 가능한 차량 무인 주행장치 및 그 방법
JP2008026253A (ja) 車両周辺撮影送信装置および車両周辺撮影送信プログラム
JP6997880B2 (ja) 駐車支援装置
Kuribayashi et al. Linechaser: a smartphone-based navigation system for blind people to stand in lines
JP5448429B2 (ja) 移動体検知装置および移動体検知方法
CN116069033A (zh) 信息采集方法、设备及存储介质
JP2019145039A (ja) 自走式ロボットおよび自走式ロボットの制御方法
JPWO2012131947A1 (ja) 画像処理装置、及び画像表示装置
KR20150028492A (ko) 조향 휠 제어 방법 및 이를 위한 시스템
KR20180124713A (ko) 도로의 형상을 추정하는 전자 장치 및 그 동작 방법
JP2018083480A (ja) 駐車支援方法及び駐車支援装置
JP4997604B2 (ja) 個人用移動車両運転支援装置
WO2016009585A1 (ja) 自律移動体とその制御方法
WO2021246170A1 (ja) 情報処理装置、情報処理システム、および方法、並びにプログラム
JP6099845B1 (ja) 情報機器、ナビゲーション装置、作業手順の案内装置、および、負荷状況判定方法
KR101566964B1 (ko) 이동 물체를 추적할 수 있는 어라운드 뷰 모니터링 방법, 이를 수행하는 어라운드 뷰 모니터링 장치 및 이를 저장하는 기록매체
JP2010238182A (ja) 自律移動体及び不審者検知方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110621

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130308

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131210

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131224

R150 Certificate of patent or registration of utility model

Ref document number: 5448429

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250