JP2006155195A - 移動体の自己位置同定装置および移動体の自己位置同定方法 - Google Patents
移動体の自己位置同定装置および移動体の自己位置同定方法 Download PDFInfo
- Publication number
- JP2006155195A JP2006155195A JP2004344266A JP2004344266A JP2006155195A JP 2006155195 A JP2006155195 A JP 2006155195A JP 2004344266 A JP2004344266 A JP 2004344266A JP 2004344266 A JP2004344266 A JP 2004344266A JP 2006155195 A JP2006155195 A JP 2006155195A
- Authority
- JP
- Japan
- Prior art keywords
- edge
- self
- moving body
- vertical component
- identifying
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 22
- 238000003708 edge detection Methods 0.000 claims abstract description 7
- 230000000007 visual effect Effects 0.000 claims abstract description 4
- 238000005259 measurement Methods 0.000 claims description 11
- 230000002093 peripheral effect Effects 0.000 claims description 7
- 239000003550 marker Substances 0.000 abstract description 7
- 238000001514 detection method Methods 0.000 abstract 1
- 238000010586 diagram Methods 0.000 description 6
- 238000002360 preparation method Methods 0.000 description 6
- 238000006243 chemical reaction Methods 0.000 description 4
- 238000000605 extraction Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
Images
Landscapes
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
【解決手段】移動体1に備えた全方位カメラ2と、周囲のエッジ位置情報を入力するデータ入力部3と、データ入力部3を介してエッジ位置情報を入力するコンピュータ4を備え、コンピュータ4は、エッジ位置情報を記憶するエッジマップ記憶部5と、全方位カメラ2からの視覚情報をもとにエッジを検出するエッジ検出部6と、エッジ検出部6からのエッジ情報をもとに移動体1の位置、姿勢を同定する演算部7を備え、撮像画像から周囲の柱や壁などの垂直成分エッジ8の方向を算出し、記憶したエッジマップ上から算出された方向でエッジが観測される位置及び姿勢を探索することで、移動体1の自己位置同定を行う。
【選択図】図1
Description
図1において、1は移動体、2は全方位カメラ、3はデータ入力部、4はコンピュータ、5はエッジマップ記憶部、6はエッジ検出部、7は演算部である。
また、図2は本発明の第1実施例を示す自己位置同定装置の説明図である。なお、図2の構成要素が図1と同じものについてはその説明を省略し、異なる点のみ説明する。 図2において、8は垂直成分エッジ、9は柱、10は壁である。
以下、図1および図2を用いて本発明の自己位置同定装置の構成について説明する。
移動体1の走行経路の周囲には通常、柱9、壁10などが存在し、柱9や壁10には垂直方向に長いエッジ8が存在する場合が多い。また室内においては、柱9や壁10以外にも机や棚などが走行経路の近くに存在する場合も多く、やはりこれらにも垂直方向に長いエッジが存在する場合が多い。移動体1上には、移動体1の周囲360°の画像が撮像できるようカメラおよび円錐状のミラーで構成される全方位カメラ2が搭載されている。また、移動体1にはデータ入力部3とコンピュータ4を備えている。データ入力部3から入力される周囲のエッジ位置情報はコンピュータ4へ送られる。コンピュータ4は、エッジ位置情報を記憶するエッジマップ記憶部5と、全方位カメラ2からの視覚情報をもとにエッジを検出するエッジ検出部6と、移動体1の位置、姿勢を同定する演算部7から構成されている。
また、図4は、本発明の第1実施例を示すエッジマップの説明図である。
また、図5は、本発明の第1実施例を示すパノラマ変換後の画像データの説明図である。
以下、図3、4、5を用いて本実施例の処理手順について説明する。
事前準備時においては、エッジマップの有無を判断し(ステップST1)、エッジマップが無い場合は、予め移動体の経路の周囲にある柱9、壁10などの垂直成分エッジ8が存在する位置を求めておき、垂直成分エッジ8の位置をコンピュータ4に入力する(ステップST11)ことで図4に示すようなエッジマップを作成し記憶させておく(ステップST12)。尚、図4では、判り易いよう柱9、壁10を一点差線で記してあるが、実際には垂直成分エッジ8の位置だけが記録されたマップとなる。
実作業時においては、全方位カメラ2により移動体1の周囲を撮像し(ステップST21)、その画像をパノラマ変換した画像を生成する(ステップST22)。図5に示すように、パノラマ変換画像では横軸は移動体からみた水平方向の角度を表し、縦軸は垂直方向の角度を示す。したがってパノラマ変換画像を横軸方向に微分を施すことにより、柱9、壁10などの垂直成分エッジ8を抽出することができる(ステップST23)。このときエッジの直線性、傾き、長さを判別条件とすることで、柱9、壁10などの垂直成分エッジ8を正確に抽出することができる。抽出された垂直成分エッジ8が移動体1に対してどの方向に存在するかをパノラマ変換画像の横軸から方向θを算出する(ステップST24)。
算出された複数の垂直成分エッジ8の方向θに実際の垂直成分エッジ8が観測されうる移動体1の位置、姿勢を、事前に作成、記憶したエッジマップから探索する(ステップST25)ことにより移動体1の現在位置及び姿勢を認識する(ステップST26)ことができる。
第1実施例と第2実施例の相違する点は以下のとおりである。
すなわち、第1実施例の事前準備のステップ(図3のBの部分)では、エッジマップを作成するための柱9、壁10などの垂直成分エッジ8の位置情報を求めコンピュータ4に入力していた。そのため、予め移動体1の走行経路周辺の柱9、壁10などの垂直成分エッジ8の位置を実際に測るか、或いは建物の図面から算出する必要があったのに対し、本実施例の事前準備のステップ(図6のCの部分)では、エッジマップを自動的に作成するようにしている点である。なお、実作業時Aのステップは第1実施例と同じである。
以下、図6を用いて本発明の第2実施例の処理手順について説明する。
事前準備時においては、予め複数の測定点Anを走行経路上に設定し、各測定点An上での移動体1の位置及び姿勢が既知となるよう移動体1を順次誘導する。移動体1が測定点Anに到達したとき移動体1に搭載された全方位カメラ2の画像を取り込み(ステップST2)、パノラマ変換画像を生成する(ステップST3)。パノラマ変換画像から垂直成分エッジ8を抽出し(ステップST4)、その方向θを算出する(ステップST5)。XY平面上において移動体1の位置から算出された垂直成分エッジ8の方向θへ向かって直線状に投票する(ステップST6)。これを各測定点Anに移動体1が到達する度に繰り返し行う(ステップST7、8)。
図7は、本発明の第2実施例を示すXY平面への投票の説明図である。
以下、図7を用いてステップST6のXY平面への投票について説明する。すなわち、XY平面上で移動体1は現在、測定点A1にあるとする。測定点A1では垂直成分エッジ5が6本抽出され、抽出された各垂直成分エッジ5に対応する方向θを算出する。XY平面上で移動体1の位置A1から算出された垂直成分エッジ5の方向θへ直線状に投票したものを実線で記す。同様にして測定点A2からA3まで移動体1を誘導し、各測定点Anで垂直成分エッジ5の方向θを算出しXY平面上に投票を行うと点線のようになる。このように移動体1が測定点Anを順次移動し、垂直成分エッジ5の方向を算出し投票動作を繰り返し行うと、XY平面上では丸で示したP1からP5のような場所に投票が集中する。これらの場所は図7において一点差線で示すように、実際には柱3、壁4などの垂直成分エッジ5が存在する位置に相当するため、XY平面上から投票が集中する位置Pnを求める(ステップST9)ことで、エッジマップを自動的に作成する(ステップST10)ことが可能となる。
実作業時においては、第1実施例と同様に、移動体1上の全方位カメラ2で撮像し(ステップST21)、その画像をパノラマ変換(ステップST22)後、垂直成分エッジ5抽出(ステップST23)、垂直成分エッジ5の方向算出の処理(ステップST24)を経て、算出した複数の垂直成分エッジ5の方向で実際の垂直成分エッジが観測されうる移動体1の位置、姿勢を、事前に作成、記憶したエッジマップから探索する(ステップST25)ことで移動体1の現在位置及び姿勢を認識する(ステップST26)ことができる。
2 全方位カメラ
3 データ入力部
4 コンピュータ
5 エッジマップ記憶部
6 エッジ検出部
7 演算部
8 垂直成分エッジ
9 柱
10 壁
Claims (3)
- 移動体(1)の位置および姿勢を同定する自己位置同定装置において、
前記移動体(1)に備えた全方位カメラ(2)と、
周囲のエッジ位置情報を入力するデータ入力部(3)と、
前記データ入力部(3)を介して前記エッジ位置情報を入力するコンピュータ(4)を備え、
前記コンピュータ(4)は、前記エッジ位置情報を記憶するエッジマップ記憶部(5)と、
前記全方位カメラ(2)からの視覚情報に基づきエッジを検出するエッジ検出部(6)と、
前記エッジ検出部(6)からのエッジ情報に基づき移動体(1)の位置、姿勢を同定する演算部(7)と、から構成されたことを特徴とする移動体の自己位置同定装置。 - 移動体(1)の位置および姿勢を同定する自己位置同定装置において、
前記移動体(1)に備えた全方位カメラ(2)と、
周囲のエッジ位置情報を入力するデータ入力部(3)と、
前記データ入力部(3)を介して前記エッジ位置情報を入力するコンピュータ(4)を備える構成とし、
コンピュータ(4)に入力されている柱、壁などの垂直成分エッジ(8)のある位置情報に基づきエッジマップを作成記憶するステップ(ST11、12)と、
前記移動体(1)に搭載された前記全方位カメラ(2)からの画像に基づき、前記柱、壁などの垂直成分エッジ(8)のある方向を抽出するステップ(ST21〜24)と、
前記抽出された方向に垂直成分エッジ(8)が観測される前記移動体(1)の位置及び姿勢を、前記エッジマップから探索することで自己位置を同定するステップ(ST25、26)と、を備えたことを特徴とする移動体の自己位置同定方法。 - 移動体(1)の位置および姿勢を同定する自己位置同定装置において、
前記移動体(1)に備えた全方位カメラ(2)と、
周囲のエッジ位置情報を処理するコンピュータ(4)を備える構成とし、
移動体(1)の位置姿勢が既知となる複数箇所の測定ポイントにおいて前記移動体(1)に搭載された前記全方位カメラ(2)からの画像に基づき、柱、壁などの垂直成分エッジ(8)のある方向を順次抽出することで得られるエッジマップを自動的に作成記憶するステップ(ST2〜10)と、
前記移動体(1)に搭載された前記全方位カメラ(2)からの画像に基づき、前記柱、壁などの垂直成分エッジ(8)のある方向を抽出するステップ(ST21〜24)と、
前記抽出された方向に垂直成分エッジ(8)が観測される前記移動体(1)の位置及び姿勢を、前記エッジマップから探索することで自己位置を同定するステップ(ST25、26)と、を備えたことを特徴とする移動体の自己位置同定方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004344266A JP2006155195A (ja) | 2004-11-29 | 2004-11-29 | 移動体の自己位置同定装置および移動体の自己位置同定方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004344266A JP2006155195A (ja) | 2004-11-29 | 2004-11-29 | 移動体の自己位置同定装置および移動体の自己位置同定方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006155195A true JP2006155195A (ja) | 2006-06-15 |
Family
ID=36633424
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004344266A Pending JP2006155195A (ja) | 2004-11-29 | 2004-11-29 | 移動体の自己位置同定装置および移動体の自己位置同定方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006155195A (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008305255A (ja) * | 2007-06-08 | 2008-12-18 | Panasonic Electric Works Co Ltd | 地図情報作成装置及びそれを備えた自律移動装置 |
JP2010204922A (ja) * | 2009-03-03 | 2010-09-16 | Yaskawa Electric Corp | 移動体 |
JP2012507011A (ja) * | 2008-10-28 | 2012-03-22 | ザ・ボーイング・カンパニー | 空間照会のための手持ち型位置決めインタフェース |
US8738179B2 (en) | 2008-12-01 | 2014-05-27 | Kabushiki Kaisha Yaskawa Denki | Robot system |
-
2004
- 2004-11-29 JP JP2004344266A patent/JP2006155195A/ja active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008305255A (ja) * | 2007-06-08 | 2008-12-18 | Panasonic Electric Works Co Ltd | 地図情報作成装置及びそれを備えた自律移動装置 |
JP2012507011A (ja) * | 2008-10-28 | 2012-03-22 | ザ・ボーイング・カンパニー | 空間照会のための手持ち型位置決めインタフェース |
US8738179B2 (en) | 2008-12-01 | 2014-05-27 | Kabushiki Kaisha Yaskawa Denki | Robot system |
JP2010204922A (ja) * | 2009-03-03 | 2010-09-16 | Yaskawa Electric Corp | 移動体 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4533659B2 (ja) | レーザー計測により地図画像を生成する装置及び方法 | |
EP2144131B1 (en) | Apparatus and method of building map for mobile robot | |
KR101776823B1 (ko) | 외부 감시카메라를 이용한 모바일 로봇의 위치인식 방법 및 시스템 | |
EP2495632B1 (en) | Map generating and updating method for mobile robot position recognition | |
EP2518663A2 (en) | Object recognition method and recognition apparatus | |
CN109712428A (zh) | 一种停车位置定位方法及装置、系统 | |
JP2006148745A (ja) | カメラの校正方法及びカメラの校正装置 | |
WO2017057053A1 (ja) | 情報処理装置、情報処理方法 | |
JPH10177414A (ja) | 天井画像による走行状態認識装置 | |
US10275663B2 (en) | Indoor navigation method and system | |
JP3043925B2 (ja) | 移動物体検出判定装置 | |
CN112621765B (zh) | 一种基于机械手的设备自动组装控制方法及装置 | |
JP2019175015A (ja) | 被災情報処理装置、及び被災情報処理モデル学習装置 | |
US11430199B2 (en) | Feature recognition assisted super-resolution method | |
JP2021103283A (ja) | カメラベースの自動化された高精度道路地図の生成システム及び方法 | |
US8712625B2 (en) | Automatic search system and method | |
CN109732601A (zh) | 一种自动标定机器人位姿与相机光轴垂直的方法和装置 | |
CN113280209B (zh) | 检测管道多余物的系统以及系统的使用方法、检测方法 | |
JP2006155195A (ja) | 移動体の自己位置同定装置および移動体の自己位置同定方法 | |
JP2009260564A (ja) | 移動体画像追尾装置 | |
US20110264367A1 (en) | Navigation Apparatus Capable of Providing Real-Time Navigation Images | |
JPWO2019030820A1 (ja) | 飛行体、飛行体制御装置、飛行体制御方法および飛行体制御プログラム | |
JP2010098550A (ja) | カメラ管理装置およびカメラ管理方法 | |
WO2022097426A1 (ja) | 状態判定装置、状態判定システム及び状態判定方法 | |
JPH0820253B2 (ja) | 移動ロボツトにおける位置検出方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20071009 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20080908 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080911 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20081104 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20081212 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20090831 |