JP2006155195A - 移動体の自己位置同定装置および移動体の自己位置同定方法 - Google Patents

移動体の自己位置同定装置および移動体の自己位置同定方法 Download PDF

Info

Publication number
JP2006155195A
JP2006155195A JP2004344266A JP2004344266A JP2006155195A JP 2006155195 A JP2006155195 A JP 2006155195A JP 2004344266 A JP2004344266 A JP 2004344266A JP 2004344266 A JP2004344266 A JP 2004344266A JP 2006155195 A JP2006155195 A JP 2006155195A
Authority
JP
Japan
Prior art keywords
edge
self
moving body
vertical component
identifying
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004344266A
Other languages
English (en)
Inventor
Kazunari Shiraishi
一成 白石
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yaskawa Electric Corp
Original Assignee
Yaskawa Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yaskawa Electric Corp filed Critical Yaskawa Electric Corp
Priority to JP2004344266A priority Critical patent/JP2006155195A/ja
Publication of JP2006155195A publication Critical patent/JP2006155195A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

【課題】特別な構造体やマーカを設置することなく移動体の自己位置を同定することが出来、そのための作業の負荷を軽減できる自己位置同定装置およびその同定方法を提供する。
【解決手段】移動体1に備えた全方位カメラ2と、周囲のエッジ位置情報を入力するデータ入力部3と、データ入力部3を介してエッジ位置情報を入力するコンピュータ4を備え、コンピュータ4は、エッジ位置情報を記憶するエッジマップ記憶部5と、全方位カメラ2からの視覚情報をもとにエッジを検出するエッジ検出部6と、エッジ検出部6からのエッジ情報をもとに移動体1の位置、姿勢を同定する演算部7を備え、撮像画像から周囲の柱や壁などの垂直成分エッジ8の方向を算出し、記憶したエッジマップ上から算出された方向でエッジが観測される位置及び姿勢を探索することで、移動体1の自己位置同定を行う。
【選択図】図1

Description

本発明は、自律走行が可能な移動体の自己位置同定装置および移動体の自己位置同定方法に関する。
従来、自律走行が可能な移動体は床に反射テープ、マグネットテープなどをガイドレールとして走行するものが主流であった。この方法では、移動体はガイドレールに沿って確実に誘導されるが、ガイドレールの破損や設置時の煩雑さ、或いは走行の自由度が制限されるなどの問題も生じていた。そのため最近ではガイドレスの移動体が開発され実用化されつつある。
例えば、特許文献1には、予め、壁に接していない形状、位置情報がともに既知である柱を3本以上設置することで、移動体からレーザ光を水平方向に回転させながら走査し、その反射光を移動体上のセンサで受光することで柱を検出し自己位置を同定する手法が開示されている。
更に、特許文献2には、移動体に搭載され天井方向に向けられたカメラによって撮像された画像から、天井に設置された蛍光灯の位置を算出し、算出された蛍光灯の位置をもとに自己位置を同定する手法が開示されている。
このように従来技術では、形状、位置情報が既知である特別な構造体やマーカを予め設置し、移動体からの構造体やマーカまでの相対位置を算出することで自己位置を同定する手法がとられていた。
特開平4−42014号公報(第3頁、第1図) 特開平6−4127号公報(第2頁、第1図)
しかしながら、従来の移動体の自己位置同定装置およびその方法では、形状、位置情報が既知である特別な構造体やマーカを予め設置する必要があるため、構造体やマーカの設置あるいは保守管理に膨大な費用、労力を要するという問題があった。
本発明はこのような問題点に鑑みてなされたものであり、特別な構造体やマーカを設置することなく移動体の自己位置を同定することが可能であり、さらにそのための作業の負荷を軽減できる移動体の自己位置同定装置および移動体の自己位置同定方法を提供することを目的とする。
上記問題を解決するため、本発明は、次のようにしたのである。
請求項1に記載の発明は、移動体の位置および姿勢を同定する自己位置同定装置において、前記移動体に備えた全方位カメラと、周囲のエッジ位置情報を入力するデータ入力部と、前記データ入力部を介して前記エッジ位置情報を入力するコンピュータを備え、前記コンピュータは、前記エッジ位置情報を記憶するエッジマップ記憶部と、前記全方位カメラからの視覚情報に基づきエッジを検出するエッジ検出部と、前記エッジ検出部からのエッジ情報に基づき移動体の位置、姿勢を同定する演算部と、から構成されたことを特徴としている。
請求項2に記載の発明は、移動体の位置および姿勢を同定する自己位置同定装置において、前記移動体に備えた全方位カメラと、周囲のエッジ位置情報を入力するデータ入力部と、前記データ入力部を介して前記エッジ位置情報を入力するコンピュータを備える構成とし、コンピュータに入力されている柱、壁などの垂直成分エッジのある位置情報に基づきエッジマップを作成記憶するステップと、前記移動体に搭載された前記全方位カメラからの画像に基づき、前記柱、壁などの垂直成分エッジのある方向を抽出するステップと、前記抽出された方向に垂直成分エッジが観測される前記移動体の位置及び姿勢を、前記エッジマップから探索することで自己位置を同定するステップと、を備えたことを特徴としている。
請求項3に記載の発明は、移動体の位置および姿勢を同定する自己位置同定装置において、前記移動体に備えた全方位カメラと、周囲のエッジ位置情報を処理するコンピュータを備える構成とし、移動体の位置姿勢が既知となる複数箇所の測定ポイントにおいて前記移動体に搭載された前記全方位カメラからの画像に基づき、柱、壁などの垂直成分エッジのある方向を順次抽出することで得られるエッジマップを自動的に作成記憶するステップと、前記移動体に搭載された前記全方位カメラからの画像に基づき、前記柱、壁などの垂直成分エッジのある方向を抽出するステップと、前記抽出された方向に垂直成分エッジが観測される前記移動体の位置及び姿勢を、前記エッジマップから探索することで自己位置を同定するステップと、を備えたことを特徴としている。
請求項1に記載の発明によると、特別な構造体やマーカを設置することなく自己位置を同定可能な移動体の自己位置同定装置を提供できる。
請求項2に記載の発明によると、周囲の柱や壁などの垂直成分のエッジ情報から移動体の自己位置を求めるため、特別な構造体やマーカを設置することなく自己位置の同定ができる。
請求項3に記載の発明によると、自動的にエッジマップが作成されるため、エッジ情報を入力する作業の負荷を軽減できる。
以下、本発明の方法の具体的実施例について、図に基づいて説明する。
図1は、本発明の第1実施例を示す自己位置同定装置の構成図である。
図1において、1は移動体、2は全方位カメラ、3はデータ入力部、4はコンピュータ、5はエッジマップ記憶部、6はエッジ検出部、7は演算部である。
また、図2は本発明の第1実施例を示す自己位置同定装置の説明図である。なお、図2の構成要素が図1と同じものについてはその説明を省略し、異なる点のみ説明する。 図2において、8は垂直成分エッジ、9は柱、10は壁である。
以下、図1および図2を用いて本発明の自己位置同定装置の構成について説明する。
移動体1の走行経路の周囲には通常、柱9、壁10などが存在し、柱9や壁10には垂直方向に長いエッジ8が存在する場合が多い。また室内においては、柱9や壁10以外にも机や棚などが走行経路の近くに存在する場合も多く、やはりこれらにも垂直方向に長いエッジが存在する場合が多い。移動体1上には、移動体1の周囲360°の画像が撮像できるようカメラおよび円錐状のミラーで構成される全方位カメラ2が搭載されている。また、移動体1にはデータ入力部3とコンピュータ4を備えている。データ入力部3から入力される周囲のエッジ位置情報はコンピュータ4へ送られる。コンピュータ4は、エッジ位置情報を記憶するエッジマップ記憶部5と、全方位カメラ2からの視覚情報をもとにエッジを検出するエッジ検出部6と、移動体1の位置、姿勢を同定する演算部7から構成されている。
図3は、本発明の第1実施例を示す自己位置同定装置の処理手順のフローチャートである。なお、図3においてAの部分のステップは実作業時におけるステップを、Bの部分のステップは事前準備におけるステップを示している。
また、図4は、本発明の第1実施例を示すエッジマップの説明図である。
また、図5は、本発明の第1実施例を示すパノラマ変換後の画像データの説明図である。
以下、図3、4、5を用いて本実施例の処理手順について説明する。
事前準備時においては、エッジマップの有無を判断し(ステップST1)、エッジマップが無い場合は、予め移動体の経路の周囲にある柱9、壁10などの垂直成分エッジ8が存在する位置を求めておき、垂直成分エッジ8の位置をコンピュータ4に入力する(ステップST11)ことで図4に示すようなエッジマップを作成し記憶させておく(ステップST12)。尚、図4では、判り易いよう柱9、壁10を一点差線で記してあるが、実際には垂直成分エッジ8の位置だけが記録されたマップとなる。
実作業時においては、全方位カメラ2により移動体1の周囲を撮像し(ステップST21)、その画像をパノラマ変換した画像を生成する(ステップST22)。図5に示すように、パノラマ変換画像では横軸は移動体からみた水平方向の角度を表し、縦軸は垂直方向の角度を示す。したがってパノラマ変換画像を横軸方向に微分を施すことにより、柱9、壁10などの垂直成分エッジ8を抽出することができる(ステップST23)。このときエッジの直線性、傾き、長さを判別条件とすることで、柱9、壁10などの垂直成分エッジ8を正確に抽出することができる。抽出された垂直成分エッジ8が移動体1に対してどの方向に存在するかをパノラマ変換画像の横軸から方向θを算出する(ステップST24)。
算出された複数の垂直成分エッジ8の方向θに実際の垂直成分エッジ8が観測されうる移動体1の位置、姿勢を、事前に作成、記憶したエッジマップから探索する(ステップST25)ことにより移動体1の現在位置及び姿勢を認識する(ステップST26)ことができる。
本実施例では、全方位カメラ2としてカメラおよび円錐状のミラーで構成した例を挙げたが、移動体1の周囲に複数台のカメラを配置することで周囲画像を撮像する全方位カメラであっても構わない。この場合においても、複数台のカメラからの画像を簡単な座標変換と張り合わせによりパノラマ変換画像を作成することにより、移動体1の自己位置の同定が可能となる。
図6は、本発明の第2実施例を示す自己位置同定装置の処理手順のフローチャートである。なお、図6において、Aの部分のステップは実作業時におけるステップを、Cの部分のステップは事前準備におけるステップを示している。また、第1実施例と同じステップST番号は第1実施例と同じステップを示している。
第1実施例と第2実施例の相違する点は以下のとおりである。
すなわち、第1実施例の事前準備のステップ(図3のBの部分)では、エッジマップを作成するための柱9、壁10などの垂直成分エッジ8の位置情報を求めコンピュータ4に入力していた。そのため、予め移動体1の走行経路周辺の柱9、壁10などの垂直成分エッジ8の位置を実際に測るか、或いは建物の図面から算出する必要があったのに対し、本実施例の事前準備のステップ(図6のCの部分)では、エッジマップを自動的に作成するようにしている点である。なお、実作業時Aのステップは第1実施例と同じである。
以下、図6を用いて本発明の第2実施例の処理手順について説明する。
事前準備時においては、予め複数の測定点Anを走行経路上に設定し、各測定点An上での移動体1の位置及び姿勢が既知となるよう移動体1を順次誘導する。移動体1が測定点Anに到達したとき移動体1に搭載された全方位カメラ2の画像を取り込み(ステップST2)、パノラマ変換画像を生成する(ステップST3)。パノラマ変換画像から垂直成分エッジ8を抽出し(ステップST4)、その方向θを算出する(ステップST5)。XY平面上において移動体1の位置から算出された垂直成分エッジ8の方向θへ向かって直線状に投票する(ステップST6)。これを各測定点Anに移動体1が到達する度に繰り返し行う(ステップST7、8)。
図7は、本発明の第2実施例を示すXY平面への投票の説明図である。
以下、図7を用いてステップST6のXY平面への投票について説明する。すなわち、XY平面上で移動体1は現在、測定点A1にあるとする。測定点A1では垂直成分エッジ5が6本抽出され、抽出された各垂直成分エッジ5に対応する方向θを算出する。XY平面上で移動体1の位置A1から算出された垂直成分エッジ5の方向θへ直線状に投票したものを実線で記す。同様にして測定点A2からA3まで移動体1を誘導し、各測定点Anで垂直成分エッジ5の方向θを算出しXY平面上に投票を行うと点線のようになる。このように移動体1が測定点Anを順次移動し、垂直成分エッジ5の方向を算出し投票動作を繰り返し行うと、XY平面上では丸で示したP1からP5のような場所に投票が集中する。これらの場所は図7において一点差線で示すように、実際には柱3、壁4などの垂直成分エッジ5が存在する位置に相当するため、XY平面上から投票が集中する位置Pnを求める(ステップST9)ことで、エッジマップを自動的に作成する(ステップST10)ことが可能となる。
実作業時においては、第1実施例と同様に、移動体1上の全方位カメラ2で撮像し(ステップST21)、その画像をパノラマ変換(ステップST22)後、垂直成分エッジ5抽出(ステップST23)、垂直成分エッジ5の方向算出の処理(ステップST24)を経て、算出した複数の垂直成分エッジ5の方向で実際の垂直成分エッジが観測されうる移動体1の位置、姿勢を、事前に作成、記憶したエッジマップから探索する(ステップST25)ことで移動体1の現在位置及び姿勢を認識する(ステップST26)ことができる。
以上述べたように、本発明の第1実施例、第2実施例に係る移動体の自己位置同定装置および移動体の自己位置同定方法は、移動体1に備えた全方位カメラ2による撮像画像から周囲の柱や壁などの垂直成分エッジ8の方向を算出し、記憶したエッジマップ上から算出された方向でエッジが観測される位置及び姿勢を探索することで、移動体1の自己位置同定を行う構成としているので、特別な構造体、マーカ等を設置しなくても走行経路周辺の壁や柱などの垂直成分のエッジを検出することで移動体1の自己位置の同定ができ、移動体1を自動走行させるために必要となる設備や保守の費用、労力を大きく節減することができる。
本発明は、自律走行が可能なロボット装置などあらゆる移動体に適用が可能である。
本発明の第1実施例を示す自己位置同定装置の構成図 本発明の第1実施例を示す自己位置同定装置の説明図 本発明の第1実施例を示す自己位置同定装置の処理手順のフローチャート 本発明の第1実施例を示すエッジマップの説明図 本発明の第1実施例を示すパノラマ変換後の画像データの説明図 本発明の第2実施例を示す自己位置同定装置の処理手順のフローチャート 本発明の第2実施例を示すXY平面への投票の説明図
符号の説明
1 移動体
2 全方位カメラ
3 データ入力部
4 コンピュータ
5 エッジマップ記憶部
6 エッジ検出部
7 演算部
8 垂直成分エッジ
9 柱
10 壁

Claims (3)

  1. 移動体(1)の位置および姿勢を同定する自己位置同定装置において、
    前記移動体(1)に備えた全方位カメラ(2)と、
    周囲のエッジ位置情報を入力するデータ入力部(3)と、
    前記データ入力部(3)を介して前記エッジ位置情報を入力するコンピュータ(4)を備え、
    前記コンピュータ(4)は、前記エッジ位置情報を記憶するエッジマップ記憶部(5)と、
    前記全方位カメラ(2)からの視覚情報に基づきエッジを検出するエッジ検出部(6)と、
    前記エッジ検出部(6)からのエッジ情報に基づき移動体(1)の位置、姿勢を同定する演算部(7)と、から構成されたことを特徴とする移動体の自己位置同定装置。
  2. 移動体(1)の位置および姿勢を同定する自己位置同定装置において、
    前記移動体(1)に備えた全方位カメラ(2)と、
    周囲のエッジ位置情報を入力するデータ入力部(3)と、
    前記データ入力部(3)を介して前記エッジ位置情報を入力するコンピュータ(4)を備える構成とし、
    コンピュータ(4)に入力されている柱、壁などの垂直成分エッジ(8)のある位置情報に基づきエッジマップを作成記憶するステップ(ST11、12)と、
    前記移動体(1)に搭載された前記全方位カメラ(2)からの画像に基づき、前記柱、壁などの垂直成分エッジ(8)のある方向を抽出するステップ(ST21〜24)と、
    前記抽出された方向に垂直成分エッジ(8)が観測される前記移動体(1)の位置及び姿勢を、前記エッジマップから探索することで自己位置を同定するステップ(ST25、26)と、を備えたことを特徴とする移動体の自己位置同定方法。
  3. 移動体(1)の位置および姿勢を同定する自己位置同定装置において、
    前記移動体(1)に備えた全方位カメラ(2)と、
    周囲のエッジ位置情報を処理するコンピュータ(4)を備える構成とし、
    移動体(1)の位置姿勢が既知となる複数箇所の測定ポイントにおいて前記移動体(1)に搭載された前記全方位カメラ(2)からの画像に基づき、柱、壁などの垂直成分エッジ(8)のある方向を順次抽出することで得られるエッジマップを自動的に作成記憶するステップ(ST2〜10)と、
    前記移動体(1)に搭載された前記全方位カメラ(2)からの画像に基づき、前記柱、壁などの垂直成分エッジ(8)のある方向を抽出するステップ(ST21〜24)と、
    前記抽出された方向に垂直成分エッジ(8)が観測される前記移動体(1)の位置及び姿勢を、前記エッジマップから探索することで自己位置を同定するステップ(ST25、26)と、を備えたことを特徴とする移動体の自己位置同定方法。
JP2004344266A 2004-11-29 2004-11-29 移動体の自己位置同定装置および移動体の自己位置同定方法 Pending JP2006155195A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004344266A JP2006155195A (ja) 2004-11-29 2004-11-29 移動体の自己位置同定装置および移動体の自己位置同定方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004344266A JP2006155195A (ja) 2004-11-29 2004-11-29 移動体の自己位置同定装置および移動体の自己位置同定方法

Publications (1)

Publication Number Publication Date
JP2006155195A true JP2006155195A (ja) 2006-06-15

Family

ID=36633424

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004344266A Pending JP2006155195A (ja) 2004-11-29 2004-11-29 移動体の自己位置同定装置および移動体の自己位置同定方法

Country Status (1)

Country Link
JP (1) JP2006155195A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008305255A (ja) * 2007-06-08 2008-12-18 Panasonic Electric Works Co Ltd 地図情報作成装置及びそれを備えた自律移動装置
JP2010204922A (ja) * 2009-03-03 2010-09-16 Yaskawa Electric Corp 移動体
JP2012507011A (ja) * 2008-10-28 2012-03-22 ザ・ボーイング・カンパニー 空間照会のための手持ち型位置決めインタフェース
US8738179B2 (en) 2008-12-01 2014-05-27 Kabushiki Kaisha Yaskawa Denki Robot system

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008305255A (ja) * 2007-06-08 2008-12-18 Panasonic Electric Works Co Ltd 地図情報作成装置及びそれを備えた自律移動装置
JP2012507011A (ja) * 2008-10-28 2012-03-22 ザ・ボーイング・カンパニー 空間照会のための手持ち型位置決めインタフェース
US8738179B2 (en) 2008-12-01 2014-05-27 Kabushiki Kaisha Yaskawa Denki Robot system
JP2010204922A (ja) * 2009-03-03 2010-09-16 Yaskawa Electric Corp 移動体

Similar Documents

Publication Publication Date Title
JP4533659B2 (ja) レーザー計測により地図画像を生成する装置及び方法
EP2144131B1 (en) Apparatus and method of building map for mobile robot
KR101776823B1 (ko) 외부 감시카메라를 이용한 모바일 로봇의 위치인식 방법 및 시스템
EP2495632B1 (en) Map generating and updating method for mobile robot position recognition
EP2518663A2 (en) Object recognition method and recognition apparatus
CN109712428A (zh) 一种停车位置定位方法及装置、系统
JP2006148745A (ja) カメラの校正方法及びカメラの校正装置
WO2017057053A1 (ja) 情報処理装置、情報処理方法
JPH10177414A (ja) 天井画像による走行状態認識装置
US10275663B2 (en) Indoor navigation method and system
JP3043925B2 (ja) 移動物体検出判定装置
CN112621765B (zh) 一种基于机械手的设备自动组装控制方法及装置
JP2019175015A (ja) 被災情報処理装置、及び被災情報処理モデル学習装置
US11430199B2 (en) Feature recognition assisted super-resolution method
JP2021103283A (ja) カメラベースの自動化された高精度道路地図の生成システム及び方法
US8712625B2 (en) Automatic search system and method
CN109732601A (zh) 一种自动标定机器人位姿与相机光轴垂直的方法和装置
CN113280209B (zh) 检测管道多余物的系统以及系统的使用方法、检测方法
JP2006155195A (ja) 移動体の自己位置同定装置および移動体の自己位置同定方法
JP2009260564A (ja) 移動体画像追尾装置
US20110264367A1 (en) Navigation Apparatus Capable of Providing Real-Time Navigation Images
JPWO2019030820A1 (ja) 飛行体、飛行体制御装置、飛行体制御方法および飛行体制御プログラム
JP2010098550A (ja) カメラ管理装置およびカメラ管理方法
WO2022097426A1 (ja) 状態判定装置、状態判定システム及び状態判定方法
JPH0820253B2 (ja) 移動ロボツトにおける位置検出方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071009

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080908

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080911

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081104

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081212

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090831