JP2021103421A - Moving body and navigation system for the same - Google Patents
Moving body and navigation system for the same Download PDFInfo
- Publication number
- JP2021103421A JP2021103421A JP2019234249A JP2019234249A JP2021103421A JP 2021103421 A JP2021103421 A JP 2021103421A JP 2019234249 A JP2019234249 A JP 2019234249A JP 2019234249 A JP2019234249 A JP 2019234249A JP 2021103421 A JP2021103421 A JP 2021103421A
- Authority
- JP
- Japan
- Prior art keywords
- image
- target position
- movement
- moving body
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000013459 approach Methods 0.000 claims abstract description 89
- 230000007246 mechanism Effects 0.000 claims abstract description 13
- 238000013480 data collection Methods 0.000 claims description 22
- 238000012545 processing Methods 0.000 claims description 13
- 238000004364 calculation method Methods 0.000 claims description 12
- 238000003384 imaging method Methods 0.000 claims description 8
- 230000007613 environmental effect Effects 0.000 abstract description 9
- 230000008859 change Effects 0.000 abstract description 6
- 238000000034 method Methods 0.000 description 76
- 230000008569 process Effects 0.000 description 29
- 238000007781 pre-processing Methods 0.000 description 15
- 238000013500 data storage Methods 0.000 description 12
- 238000012549 training Methods 0.000 description 11
- 239000011159 matrix material Substances 0.000 description 10
- 238000010586 diagram Methods 0.000 description 6
- 238000002360 preparation method Methods 0.000 description 6
- 238000009434 installation Methods 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000012217 deletion Methods 0.000 description 2
- 230000037430 deletion Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000006866 deterioration Effects 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 238000009825 accumulation Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 238000012886 linear function Methods 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Landscapes
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
Description
本発明は、自律移動する移動体、および、そのナビゲーションシステムに関し、特に、データ収集用移動体が収集したデータを用いて、学習装置が接近移動指令式や位置合せ指令式を学習し、学習した接近移動指令式や位置合せ指令式を利用して移動体が目標位置へ接近移動したり位置合せしたりするための指令を生成するシステムに関する。 The present invention relates to an autonomously moving mobile body and its navigation system, and in particular, a learning device learns and learns an approach movement command type and an alignment command type using data collected by a data collection moving body. The present invention relates to a system for generating a command for a moving body to approach or align with a target position by using an approach movement command formula or an alignment command formula.
近年、自律的に移動しながら、運搬、案内、作業などを行う移動体が、工場、病院、公共施設など多くの屋内施設で稼働し始めている。このような移動体のナビゲーションには、環境側にガイドシステム(屋内GPS、マーキング等)を設置する方法や、事前に走行環境を移動させて収集した環境情報(形状や画像等)から作成した地図を用い、現在取得中の環境情報と地図上のランドマーク情報とを照合しながら目標位置まで移動する方法などがある。しかし、環境側の整備作業や高信頼地図の作成作業、地図との照合処理等のソフト開発作業などの事前準備が大きな負荷となっている。 In recent years, mobile bodies that carry, guide, and work while moving autonomously have begun to operate in many indoor facilities such as factories, hospitals, and public facilities. For navigation of such moving objects, a method of installing a guide system (indoor GPS, marking, etc.) on the environment side, or a map created from environmental information (shape, image, etc.) collected by moving the driving environment in advance. There is a method of moving to the target position while collating the environmental information currently being acquired with the landmark information on the map. However, advance preparations such as maintenance work on the environment side, creation work of a highly reliable map, and software development work such as collation processing with a map are a heavy load.
この課題を解決するナビゲーション技術として、例えば、特許文献1の請求項1には、「撮像装置をそなえた移動体の走行経路上で予め撮像された教示画像と、前記撮像装置によって撮像された実画像と、を比較して前記実画像と前記教示画像との一致度が大きくなるように前記移動体の走行を制御する移動体の制御方法であって、前記教示画像と前記実画像とに基づいて前記移動体を定常速度で走行させる定常走行ステップと、前記複数の教示画像の中から予め設定された減速開始位置画像と前記実画像との一致度が予め設定された第1閾値に達すると前記移動体を前記定常速度よりも小さい減速速度で走行させる低速走行ステップと、前記複数の教示画像の中から予め設定された位置決め開始位置画像と前記実画像との一致度が予め設定された第2閾値に達すると前記移動体を前記減速速度よりも小さい位置決め速度で走行させる位置決めステップと、前記複数の教示画像の中から予め設定された目標位置画像と前記実画像との一致度が予め設定された第3閾値に達すると前記駆動装置を停止させる停止ステップと、を有していることを特徴とする移動体の制御方法」が開示されている。特許文献1が開示するナビゲーション技術によれば、事前準備として、目標停止位置までの複数の位置での画像を取得し、特に、進行方向(前後方向)において減速する位置での画像を複数用意するだけで、多段階に減速を行い、停止位置の精度を向上させることができる。
As a navigation technique for solving this problem, for example, claim 1 of
しかしながら、特許文献1のナビゲーション技術は、予め撮像した画像(目標位置画像/教示画像)と走行中に撮像される画像(実画像)の一致度、および教示画像の特徴点の位置と実画像中の対応する特徴点の位置の差異を用いて移動体の左右位置を制御している点において、例えば工場の廊下などの環境変化が比較的小さい環境(物体の多さや配置変化、通行人の有無、照明の明るさなど)かつ停止目標位置近傍の直線的な移動の条件下では目標位置へ高精度に移動できるが、ショッピングモールや公共施設などの環境変化が大きい環境や広い移動環境に適用する場合や、狭い環境での移動体の位置姿勢(向き、方位)の高精度な移動方法に適用する場合、全方位移動可能(ホロノミック)な移動体や自動車のように真横移動ができない移動体(ノンホロノミック)のようなタイプの異なる自律移動体に適応する場合には、移動精度の低下や処理の破綻、パラメータチューニング等の事前準備負荷の増大といった課題が生じ、目標停止位置で正確に停止できない可能性も考えられる。
However, in the navigation technique of
より具体的な例としては、特許文献1記載の技術は、画像の一致度算出や画像間の特徴点の比較により移動体を制御しているので、教示画像取得時と実画像取得時の間の環境変化(人や物の配置、照明条件など)により、一致度の変化や特徴点の特性変化および消失(照明や影、隠れなどに起因)による対応付けの失敗が生じ、結果として、ショッピングモールや公共施設などの動的環境下では移動精度の低下や制御破綻といった課題がある。同課題は特に、移動体と周囲の物との距離がある場合もしくは目標位置まで距離がある場合の広範囲な移動時において、移動体の移動量に対し教示画像と実画像の変化が少ない上に、移動体と周囲の物の間に人や他の物体が撮像されやすいといった状況において顕著となる。
As a more specific example, in the technique described in
また同時に、特許文献1に記載の技術は、画像の一致度算出や画像間の特徴点の比較により逐次的に移動体の速度および左右方向の位置を制御しているので、例えばドアなどの狭い場所を通過する場合(ドア開け通過)のように、位置に加え向きの精度が求められ、かつ目標位置に至る経路での位置姿勢(位置および向き)の計画(自動車の車庫入れのような計画)が必要な場合には対応できず、高精度な位置精度を実現できないという課題がある。同課題は、特にノンホロノミックな移動体において顕著であり、様々な移動方法および移動体に対応できないという課題がある。
At the same time, the technique described in
また同時に、特許文献1に記載の技術は、事前に速度計画(走行計画)を行った上で減速位置(制御位置)での教示画像の取得が必要であり、移動方法や移動体の変更の度に事前準備の負荷が増大するという課題がある。
At the same time, in the technique described in
本発明はこのような背景に鑑みてなされたもので、設備工事や地図作成が不要な事前準備の負荷が小さいナビゲーション装置であり、特に動的環境かつ広い移動環境でのロバストな移動と、位置姿勢の経路計画が必要な狭い場所での高精度移動とを実現し、多様なタイプの移動方法および自律移動体に対しても事前準備の負荷が少ない移動体のナビゲーション装置を提供することを目的とする。 The present invention has been made in view of such a background, and is a navigation device that does not require equipment construction or cartography and has a small load of advance preparation. In particular, robust movement and position in a dynamic environment and a wide mobile environment. The purpose is to realize high-precision movement in narrow places where posture route planning is required, and to provide a moving body navigation device with less preparatory load for various types of moving methods and autonomous moving bodies. And.
前記した課題を解決するため、本発明の移動体は、現在位置画像を撮像する画像取得部と、目標位置で撮像した目標位置画像を記憶した目標位置画像記憶部と、接近移動指令式に基づいて前記目標位置に接近移動する移動指令を生成する接近移動指令部と、位置合せ指令式に基づいて前記目標位置で停止する移動指令または前記目標位置を通過する移動指令を生成する位置合せ指令部と、前記現在位置画像と前記目標位置画像の比較結果に応じて、前記接近移動指令部または前記位置合せ指令部の何れかを選択する移動切替部と、前記移動指令に基づいて移動機構を制御する移動制御部と、を具備する移動体とした。 In order to solve the above-mentioned problems, the moving body of the present invention is based on an image acquisition unit that captures a current position image, a target position image storage unit that stores a target position image captured at a target position, and an approach movement command formula. An approaching movement command unit that generates a movement command that moves closer to the target position, and an alignment command unit that generates a movement command that stops at the target position or a movement command that passes through the target position based on the alignment command formula. The movement switching unit that selects either the approach movement command unit or the alignment command unit according to the comparison result between the current position image and the target position image, and the movement mechanism is controlled based on the movement command. A moving body including a moving control unit and a moving body.
本発明によれば、設備工事や地図作成が不要な事前準備の負荷が小さいナビゲーション装置が提供でき、特に動的環境かつ広い移動環境でのロバストな移動と、位置姿勢の経路計画が必要な狭い場所での高精度移動とを実現し、多様なタイプの移動方法および自律移動体に対しても事前準備の負荷が少ない移動体のナビゲーション装置を提供できる。 According to the present invention, it is possible to provide a navigation device that does not require equipment construction or cartography and has a small load of advance preparation, and particularly requires robust movement in a dynamic environment and a wide mobile environment, and route planning of position and orientation. It is possible to realize high-precision movement in a place, and to provide a moving body navigation device with a small load of preparation for various types of moving methods and autonomous moving bodies.
本発明の実施例について、適宜図面を参照しながら説明する。 Examples of the present invention will be described with reference to the drawings as appropriate.
本発明のナビゲーションシステム100は、目標位置に向けて自律移動する移動体1と、学習用データを収集するデータ収集用移動体2と、収集した学習用データを用いて接近移動指令式や位置合せ指令式を学習する学習装置3と、から構成されるシステムである。そして、移動体1は、学習装置3が学習した接近移動指令式や位置合せ指令式を利用して、自律移動のための移動指令を生成し、所定の経由地点を経由しながら最終的な目標位置まで自律移動する。なお、学習装置3は、移動体1やデータ収集用移動体2と、有線または無線の通信を介して、情報を共有することができる。
The
以下では、移動体1が、真横に移動できないノンホロノミック移動体(車両や台車など)、または、全方位移動可能なホロノミック移動体(ロボットやドローンなど)の何れかであるものとし、また、移動体1の自律移動する環境が、ショッピングモールや公共施設などの、人の交通量や明るさ等の環境変化が大きい環境であるものとする。本システムでは、このような状況においても、移動体1の形態に拘わらず、共通の接近移動指令式や位置合せ指令式を利用して、目標位置までの自律移動(自律走行、自律歩行、自律飛行など)に必要な移動指令を生成できるため、学習装置3では移動体1の形態別に指令式を学習する必要がないという利点がある。以下、本発明のナビゲーションシステム100における、移動体1、データ収集用移動体2、学習装置3の各々の実施例について、図面を用いながら詳細に説明する。
In the following, it is assumed that the moving
<移動体1>
図1は、主に、移動体1の構成例を説明する図であり、データ収集用移動体2と学習装置3の一部構成も併せて表示している。なお、ここでは、移動体1が1台のみ存在するナビゲーションシステム100を例示しているが、図9で後述するように、形態の異なる複数台の移動体1が存在するシステムであってもよい。
<Mobile 1>
FIG. 1 is a diagram mainly for explaining a configuration example of the moving
図1に示すように、移動体1は、画像取得部11、移動機構12、計算ユニット13、記憶ユニット14を有している。各々の詳細を順次説明する。
As shown in FIG. 1, the
画像取得部11は、移動体1の現在位置から周囲を撮像した画像を取得するものであり、例えば、CCDイメージセンサやCMOSイメージセンサ等の撮像素子を備えた、1台以上のカメラから構成されている。画像取得部11が外界を撮像した画像は、後述する移動切替部13a、大域移動指令部13b、接近移動指令部13c、位置合せ指令部13dに出力される。
The image acquisition unit 11 acquires an image of the surroundings from the current position of the moving
なお、画像取得部11は、解像度の高いカメラを使用することが望ましく、移動環境を広く撮像するため、広角レンズを備えたカメラを搭載してもよい。カメラの視野角や解像度は、後述するデータ収集用移動体2に搭載される画像取得部21のカメラの視野角や解像度と同じ条件であることが望ましいが、トリミング処理やリサイズ処理を行うことで条件をそろえてもよい。さらにカメラの取り付け位置は、移動体の進行方向前方を撮像可能な位置および方向に取り付け、カメラの姿勢が動かないよう移動体1に固定するのが望ましいが、カメラの姿勢を常に把握するシステムを搭載している場合、カメラの姿勢は固定されなくてもよい。
It is desirable to use a camera having a high resolution in the image acquisition unit 11, and a camera provided with a wide-angle lens may be mounted in order to take a wide image of the moving environment. It is desirable that the viewing angle and resolution of the camera are the same as the viewing angle and resolution of the camera of the
移動機構12は、移動体1の移動を実現する機構であり、移動体1が車両であれば車輪、ロボットであれば脚または車輪、ドローンであればプロペラ、及び、車輪等を駆動させるアクチュエータである。後述する移動制御部13eでは、後述する位置合せ指令部13d等から出力された移動制御信号に基づいて、移動機構12の形態に応じた所望の移動指令(例えば並進移動速度や回転移動速度など)を生成し、移動体1の前後の移動、旋回あるいは、停止を行う。
The moving
計算ユニット13は、移動切替部13a、大域移動指令部13b、接近移動指令部13c、位置合せ指令部13d、移動制御部13eを有している。なお、移動体1の記憶ユニット14には所定のプログラムが格納されており、このプログラムがメモリにロードされ、CPU(Central Processing Unit)によって実行されることで、移動切替部13a、大域移動指令部13b、接近移動指令部13c、位置合せ指令部13d、移動制御部13eが具現化される。
The
移動切替部13aは、画像取得部11が取得した現在位置画像と、目標位置画像記憶部14aから取得した目標位置画像を比較し、目標位置までの移動方法を、高速移動に適した「大域移動」、目標位置の方向に接近移動するための「接近移動」、目標位置で正確に停止するための、あるいは、目標位置を正確に通過するための「位置合せ」の何れかに切り替える判断を行い、その判断結果を、大域移動指令部13b、接近移動指令部13c、位置合せ指令部13dに出力する。なお、ここでは移動方法が三種類である場合を例示するが、本発明は移動方法の数を限定するものではない。以下、移動切替部13aによる各移動方法の切替判断の一例を説明する。
The
移動方法を「接近移動」へ切り替える場合、移動切替部13aは、例えば、現在位置画像内に、目標位置画像に撮像されている予め指定しておいた物体(ランドマーク)が写っているかを判定し、写っていると判定されたときに「接近移動」への切替えを選択する。なお、接近移動指令部13cで画像に基づく判定を行い、移動切替部13aでは接近移動指令部13cの判定結果に基づいて切り替えを判断するという役割分担としてもよい。このとき、接近移動指令部13cで使用する目標位置画像は、経由地点近傍で切り替わり、目標位置画像を切り替えながら、最終的な目標位置画像が撮像された地点へと移動する。また、複数の目標位置画像において現在位置画像の物体が写っている場合は、最終目標位置に近い目標位置画像を選択する。
When switching the movement method to "approaching movement", the
また、移動方法を「位置合せ」へ切り替える場合、移動切替部13aは、例えば、現在位置画像と位置合せの目標位置画像の類似度が閾値以上になったかを判定し、閾値以上になったときに「位置合せ」への切替えを選択する。なお、画像の類似度の計算方法は、例えば、2枚の画像で同じ位置同士のピクセルの輝度の差分の2乗を集計するMSE(Mean Square Error)を用いる。類似度は、位置合せ指令部13dの処理の一環として、その出力を用いてもよい。また、もし接近移動指令部13cで用いる目標位置画像と位置合せ指令部13dで用いる目標位置画像の中に同じ物体が写っていれば、接近移動指令部13cが出力する物体の大きさが予め設定した閾値以上になれば、移動方法を「位置合せ」へ切り替えてもよいし、さらに、位置合せ指令部13dの相対位置姿勢出力が閾値以下の値に連続して出力している場合も、移動方法を「位置合せ」へ切り替えてもよい。
Further, when the movement method is switched to "alignment", the
上記の何れにも該当しない場合は、移動切替部13aは、移動方法として「大域移動」を選択する。複数の移動方法が重複して対応可能判定をした場合の優先順位は、「位置合せ」、「接近移動」、「大域移動」の順である。各判定は同時並列に行ってもよいが、判定の順番を決めてもよい。このようにすることで、本実施例では、複数の移動手法の中から適切な手法を選択し、適切なタイミングで他の移動方法に切り替えることができる。
If none of the above applies, the
大域移動指令部13bは、移動切替部13aが「大域移動」を行うと判断したときに選択される指令部であり、画像取得部11から取得した現在位置画像を入力とし、目標位置の方向へ移動するための速度指令などの移動指令を移動制御部13eに出力する。大域移動指令部13bによる移動方法は本実施例において特に限定するものではないが、移動ビジュアルオドメトリと呼ばれる現在位置画像の変化から移動体の移動量を推定する方法を用いて目標とする位置まで移動してもよい。この方法は、精度は高くないが、現在位置画像の時系列入力のみから概略の移動情報が得られる。それ以外には、例えば、ビジュアルSLAMと呼ばれる方法を用いてもよい。この方法は、画像取得部11が取得した現在位置画像の時系列データから、画像の特徴点群を立体的に配置した地図を作成しながら、同時に移動体の現在位置を推定する方法で、計算負荷が非常に大きく誤差が蓄積するため常時利用はできない。
The global movement command unit 13b is a command unit that is selected when the
接近移動指令部13cは、移動切替部13aが「接近移動」を行うと判断したときに選択される指令部であり、画像取得部11が取得した現在位置画像と、目標位置画像記憶部14aから取得した目標位置画像とを後述する接近移動指令式に入力して、目標位置の方向を出力する。なお、この接近移動指令式は、学習装置3での事前学習により得られたものを利用する。
The approach
位置合せ指令部13dは、移動切替部13aが「位置合せ」を行うと判断したときに選択される指令部であり、画像取得部11が取得した現在位置画像と、目標位置画像記憶部14aから取得した目標位置画像とを後述する位置合せ指令式に入力して、目標位置姿勢(移動体の向きを含む)までの相対位置姿勢(相対位置および相対角度)を出力する。この位置合せ指令式は、学習装置3での事前学習により得られたものを利用する。
The alignment command unit 13d is a command unit selected when the
移動制御部13eは、大域移動指令部13bで算出した移動指令、接近移動指令部13cで算出した目標位置の方向、位置合せ指令部13dで算出した目標位置姿勢までの相対位置姿勢、の何れかを入力として、入力された指令等を実現する移動計画(もしくは経路計画)を行い、適切な移動制御を実施する。移動制御部13eで、相対位置姿勢から移動計画を行って目標位置姿勢までの移動制御を行うことで、例えば、ドアなどの狭い場所を通過する場合(ドア開け通過)のように高い位置精度に加え、高い方向精度も求められる状況下でも、ドローンのように全方位に移動可能なホロノミック移動体や、自動車のように真横に移動できないノンホロノミック移動体のような、移動機構12のタイプの異なる何れの移動体1にも、共通の指令式で対応することができる。
The
記憶ユニット14は、目標位置画像記憶部14a、接近移動指令式記憶部14b、位置合せ指令式記憶部14cを有する。
The
目標位置画像記憶部14aは、事前に撮像しておいた1つ以上の目標位置画像を保存している。本実施例では、目標位置画像記憶部14aに蓄積された目標位置画像が撮像された位置を、経由地点もしくは最終目標位置として移動体1をナビゲートする。なお、ここに記憶する目標位置画像は、ナビゲーション対象の移動体1や別の移動体を事前に移動させて撮影したものであってもよいし、人が事前に撮影した目標位置画像やWebやクラウド等にある目標位置画像を登録したものであってもよい。但し、移動体1の画像取得部11が複数台のカメラで構成されている場合は、その位置関係が同一の目標位置画像を取得する必要がある。また、本実施例においては、画像取得部11と同じ高さから撮影した画像を用いるのが望ましいが、後述するように高さ方向の設置位置が異なる場合でも対応できる。これにより、本実施例では画像取得部11の設置位置の異なる移動体にも適用することができる。また、目標位置画像記憶部14aには、位置合せ指令部13dで用いる目標位置画像と接近移動司令部13cで用いる目標位置画像の指定情報を記憶してもよいし、接近移動司令部13cで用いる目標位置画像内に撮影されている物体情報を記憶してもよい。
The target position image storage unit 14a stores one or more target position images captured in advance. In this embodiment, the moving
接近移動指令式記憶部14bは、学習装置3で学習処理した「接近移動指令式」を学習装置3の接近移動指令式記憶部33cから適宜取得する。同様に、位置合せ指令式記憶部14cは、学習装置3で学習処理した「位置合せ指令式」を学習装置3の位置合せ指令式記憶部33dから適宜取得する。なお、接近移動指令式や位置合せ指令式の取得は、例えば、学習装置3が再学習を行ったタイミングで実施する。
The approach movement command
次に、データ収集用移動体2、学習装置3の構成例について、図2及び図3を参照して説明する。
Next, a configuration example of the data collecting
<データ収集用移動体2>
図2は、主に、データ収集用移動体2の構成例を説明する図であり、移動体1と学習装置3の一部構成も併せて表示している。データ収集用移動体2は、目標位置の近傍で学習用データを収集する装置であり、図2に示すように、画像取得部21、座標推定用センサ22、計算ユニット23、記憶ユニット24を有している。なお、本実施例では、システムの運用者等がデータ収集用移動体2を移動させながら学習用データを取得する運用を想定しているため、図2のデータ収集用移動体2では移動機構を省略しているが、データ収集用移動体2を自走させたい場合は、移動体1のように移動機構を設けても良い。
<
FIG. 2 is a diagram mainly for explaining a configuration example of the data collecting
画像取得部21は、データ収集用移動体2の現在位置から周囲を撮像した画像を取得するものであり、例えば、CCDイメージセンサやCMOSイメージセンサ等の撮像素子を備えた、1台以上のカメラから構成されている。画像取得部21により外界を撮像して得られた画像データは、後述する位置合せ用学習データ作成部23aと、画像記憶部24aに出力される。なお、移動環境を広く撮像し、多くの学習データを収集するため、設置位置(高さや移動方向に対する位置)や種類の異なる複数のカメラを搭載したり、広角レンズを備えたカメラを搭載したりするのが望ましい。但し、複数カメラの内の1つは、進行方向前方を撮像可能な位置および方向に取り付けることが望ましい。カメラの視野角や解像度は、なるべく大きいものが望ましい。さらに、カメラの高さや取り付け角度(ピッチ角やロール角)を変更できる機構を有することが望ましい。さらに、搭載時において、カメラの姿勢が動かないよう、固定するのが望ましい。しかし、カメラの姿勢を常に把握するシステムを搭載している場合、カメラの姿勢は固定されなくてもよい。このようにして、1台あるいは少数のデータ収集用移動体2を用いて様々な学習用データを収集することで、移動体の種類が異なる様々な条件に対応できる学習結果が得られるところに本実施例の特徴がある。
The
座標推定用センサ22は、データ収集用移動体2の座標を推定するために必要なデータを取得する。例えば、エンコーダなど車輪の回転数を取得するセンサを用いることで、車輪の回転数の累積からデータ収集用移動体2の座標を推定できる。また、モーションキャプチャシステムや電波などを発生するビーコンなど外部のセンサの情報も利用してデータ収集用移動体2の座標を推定してもよい。
The coordinate
計算ユニット23は、位置合せ用学習データ作成部23aと、座標推定部23bを有している。なお、データ収集用移動体2の記憶ユニット24には所定のプログラムが格納されており、このプログラムがメモリにロードされ、CPUによって実行されることで、位置合せ用学習データ作成部23aと、座標推定部23bが具現化される。
The
座標推定部23bは、座標推定用センサ22から入力されたセンサデータを用いて、データ収集用移動体2の位置の座標および向きを推定し、出力する。ここでの座標(および向き)は、ある地点に基準を定めた絶対座標でもよいし、一連の位置合せ用学習データの中での相対座標であってもよい。
The coordinate
位置合せ用学習データ作成部23aは、画像取得部21で取得された画像と、座標推定部23bから入力された座標(および向き)を合わせて位置合せ用学習データとして出力する。位置合せ用学習データとは、2枚の画像(式の入力)と、それぞれの画像が撮像された地点の移動量(相対位置姿勢:式の出力)の関係を位置合せ指令式に学習させるためのデータセットであり、複数の位置で撮像された画像と各画像が撮像された位置の座標がセットとなったデータから構成される。位置合せ用学習データ作成部23aは、入力された画像とその画像が撮像された位置の座標をセットとして関連付けて、位置合せ用学習データ記憶部24bへ出力する。
The alignment learning
記憶ユニット24は、画像記憶部24aと、位置合せ用学習データ記憶部24bと、を有する。
The storage unit 24 includes an
画像記憶部24aは、後述する接近移動指令式を学習するための接近移動用学習データの作成に用いる画像を一時的に保存している。画像記憶部24aに一時的に保存された画像は、定期的あるいは学習を行う際に、学習装置3の画像記憶部33aに転送される。
The
また、位置合せ用学習データ記憶部24bは、位置合せ用学習データ作成部23aから入力された位置合せ用学習データを一時的に保存している。位置合せ用学習データ記憶部22bに一時的に保存された位置合せ用学習データは、定期的あるいは学習を行う際に、学習装置3の位置合せ用学習データ記憶部33bに転送される。
Further, the alignment learning
<学習装置3>
図3は、主に、学習装置3の構成例を説明する図であり、移動体1とデータ収集用移動体2の一部構成も併せて表示している。学習装置3は、データ収集用移動体2から転送された学習用データに基づいて接近移動指令式や位置合せ指令式を学習する装置であり、図3に示すように、物体領域入力部31、計算ユニット32(接近移動用学習データ作成部32a、接近移動学習前処理部32b、接近移動指令式学習部32c、位置合せ学習前処理部32d、位置合せ指令式学習部32e)、記憶ユニット33(画像記憶部33a、位置合せ用学習データ記憶部33b、接近移動指令式記憶部33c、位置合せ指令式記憶部33d)を有している。
<
FIG. 3 is a diagram mainly for explaining a configuration example of the
<位置合せ指令式の学習処理>
まずは、位置合せ用学習データ記憶部33b、位置合せ学習前処理部32d、位置合せ指令式学習部32e、位置合せ指令式記憶部33dによる、位置合せ指令式の学習処理について説明する。
<Alignment command type learning process>
First, the alignment command type learning process by the alignment learning
位置合せ用学習データ記憶部33bは、データ収集用移動体2の位置合せ用学習データ記憶部24bから転送された位置合せ用学習データを適宜蓄積する。また、図示していないが、既に別の装置や別の機会で獲得された学習データがWebやクラウド上にある場合はそこからも位置合せ用学習データを蓄積する。
The alignment learning
次に、位置合せ学習前処理部32dは、位置合せ指令式の推定精度を向上させるために、位置合せ用学習データのバリエーションを増やす。例えば、位置合せ用学習データの各画像に対して、コントラスト調整やガンマ変換などの照明条件に関係する画像処理、ノイズの付加、画像の一部の削除等のロバスト性に関係する処理を行うことで、学習データのバリエーションを増やす。なお、画像を変換しても、対応する座標は変化させない。このようにすることで、広範囲な環境の移動時に、学習データの画像取得時と実画像取得時の間の環境変化(人や物の配置、照明条件など)に対してもロバストな学習結果が得られるところに本実施例の特徴がある。
Next, the alignment
ここで、位置合せ指令式を詳細に説明する。位置合せ指令式は、位置pとqで撮像された画像PとQを入力として、位置pを原点としたときの位置qの座標、つまり移動量を出力する式である。まず、位置合せ指令式の一例として(式1)がある。なお、ここでは説明の簡略化のため、単純な(式1)を用いて説明するが、(式1)は深層ニューラルネットワークの内の1層分を表しており、実際には、出力u1(以下、添え字は層の番号)が入力x2としてさらに(式1)に入力され、その出力u2がさらに入力x3として(式1)に入力されるという繰り返し処理が層数分行われる、より複雑な計算式が用いられる。 Here, the alignment command formula will be described in detail. The alignment command formula is a formula that takes the images P and Q captured at the positions p and q as inputs and outputs the coordinates of the position q when the position p is the origin, that is, the movement amount. First, there is (Equation 1) as an example of the alignment command type. Here, for the sake of simplification of the explanation, a simple (Equation 1) will be used, but (Equation 1) represents one layer of the deep neural network, and the output u 1 is actually used. (Hereinafter, the subscript is the layer number) is further input to (Equation 1) as input x 2 , and the output u 2 is further input to (Equation 1) as input x 3 , which is repeated for the number of layers. , More complicated formulas are used.
(式1)においてxは、画像PとQを表すベクトル(以下、二地点画像データと呼称)である。fは非線形関数、uは、位置pからqへの移動量を表すベクトルで、(X、Y、θ)の三次元からなる。uは、カルテシアン座標系で、位置pを原点としたとき、Xは画像正面方向、Yは画像左手方向、θは画像正面を0として反時計回りを正とする。そして、Wはxの重み係数行列である。そして、bはシフト量を表す係数である。 In (Equation 1), x is a vector (hereinafter referred to as two-point image data) representing images P and Q. f is a non-linear function, u is a vector representing the amount of movement from the position p to q, and consists of three dimensions (X, Y, θ). u is a Cartesian coordinate system, and when the position p is the origin, X is the front direction of the image, Y is the left hand direction of the image, θ is 0 in the front of the image, and counterclockwise is positive. And W is a weighting coefficient matrix of x. And b is a coefficient representing the shift amount.
本実施例における位置合せ指令式の学習処理は、二地点画像データxが入力された際に出力される二地点の移動量uが、より的確な判定結果を出力するように、係数行列Wとシフト量bを調整する処理である。学習の結果、移動体1は、(式1)における学習済みの係数行列Wとシフト量bを用いた位置合せ指令式により、二地点画像データxから二地点の移動量を推定可能になる。
In the learning process of the alignment command formula in this embodiment, the coefficient matrix W and the coefficient matrix W are used so that the movement amount u of the two points output when the two-point image data x is input outputs a more accurate determination result. This is a process for adjusting the shift amount b. As a result of the learning, the moving
ここから、位置合せ指令式学習部32eで行われる位置合せ指令式の学習処理を説明する。まずは、位置合せ学習前処理部32dから入力される位置合せ用学習データ群のうち、ランダムにいくつかの学習データを取り出す。そして、係数行列Wの初期値と、シフト量bの初期値を代入した(式1)に対して、取り出された各データのそれぞれの二地点画像データxを入力し、(式1)によって算出されたuと実際の二地点の移動量u’の誤差eを計算し、誤差の合計値Eを算出する。そして、誤差の合計値Eがより小さくなるように係数行列Wとシフト量bを微小変化させる。ここでの係数行列Wとシフト量bの微小変化のさせ方としては、例えば勾配降下法などが利用できる。この学習処理を、位置合せ用学習データ群のすべてに対して行う。
From here, the learning process of the alignment command type performed by the alignment command
以上の手順が繰り返されることで、誤差の合計値Eは次第に小さくなっていき、学習終了条件を満たすまで、位置合せ指令式を更新し続ける。なお、学習終了条件としては、例えば、位置合せ用学習データ群に対する学習処理を一定回数に達するまで行う条件や誤差の合計値Eが最小の条件などがある。こうして得られた位置合せ指令式によって出力される二地点の移動量が、二地点画像xに対する最適な移動量とみなされる。したがって、移動体1の現在位置画像と目標位置画像をxとして入力することで、目標位置までの距離と方向が算出できる。さらに、多様かつ大量の位置合せ用学習データで学習処理を行うことによって、位置合せ用学習データに含まれていない初めての場所でも、環境変化がある場合でも目標位置までの移動距離を算出可能となる。
By repeating the above procedure, the total error value E gradually becomes smaller, and the alignment command formula is continuously updated until the learning end condition is satisfied. The learning end condition includes, for example, a condition in which the learning process for the alignment learning data group is performed until a certain number of times is reached, and a condition in which the total error value E is the minimum. The movement amount of the two points output by the alignment command formula thus obtained is regarded as the optimum movement amount with respect to the two-point image x. Therefore, the distance and direction to the target position can be calculated by inputting the current position image and the target position image of the moving
このようにして算出された、学習処理終了後の係数行列W、シフト量bを含む位置合せ指令式(式1)は、位置合せ指令式記憶部33dに格納される。そして、移動体1の運用前などのタイミングで、移動体1の位置合せ指令式記憶部14cに位置合せ指令式を転送する。
The alignment command formula (formula 1) including the coefficient matrix W and the shift amount b after the learning process is completed, which is calculated in this way, is stored in the alignment command
<接近移動指令式の学習処理>
次に、物体領域入力部31、画像記憶部33a、接近移動用学習データ作成部32a、接近移動学習前処理部32b、接近移動指令式学習部32c、接近移動指令式記憶部33cによる、接近移動指令式の学習処理について説明する。
<Learning process of approach movement command type>
Next, the approach movement is performed by the object
画像記憶部33aは、データ収集用移動体2の画像記憶部24aから転送された画像を適宜蓄積する。
The
次に、接近移動用学習データ生成部32aは、画像記憶部33aに蓄積された画像から接近移動用学習データを作成する。具体的には、接近移動用学習データ作成部32aは、画像記憶部33aから入力された画像に対して、移動のためのランドマークとなりうる物体(例えば、ドアなど)が画像内のどの範囲に写っているかを判断し、ランドマークの写っている物体領域部分を指定する。物体領域部分の指定は、人間が物体領域入力部31を通して指定しても良い。その場合、物体領域部分の指定方法は、例えば、いわゆるバウンディングボックス(物体を取り囲む長方形)を用いてもよい。物体領域入力部31は、例えば、マウスやキーボード、タッチスクリーンなどを用いてもよい。なお、物体領域部分の指定は、人間が行わなくても、色や形状などから自動的に抽出してもよい。物体領域を用いることで、物体の位置以外に物体の大きさ情報も得ることができる。この物体領域情報と画像のセットが接近移動用学習データとなる。このとき、図示していないが、既に別の装置や別の機会で獲得された学習データがWebやクラウド上にある場合はそこから得た学習データを利用しても良い。
Next, the approach movement learning
次に、接近移動学習前処理部32bは、接近移動指令式の推定精度を向上させるために、接近移動用学習データのバリエーションを増やす。例えば、接近移動用学習データの各画像に対して、コントラスト調整やガンマ変換などの照明条件に関係する画像処理、ノイズの付加、画像の一部の削除等のロバスト性に関係する処理を行うことで、データのバリエーションを増やす。なお、画像を変換しても、対応する物体領域は変化させない。このようにすることで、学習データに含まれていない画像であっても、学習データの画像取得時と実画像取得時の間の環境変化(人や物の配置、照明条件など)に対してもロバストな学習結果が得られるところに本実施例の特徴がある。
Next, the approach movement learning
ここで、接近移動指令式を詳細に説明する。接近移動指令式は、二段階の式によって構成される。まずは、接近移動指令式に入力された現在位置画像と目標位置画像の中からそれぞれランドマークとなる物体を検出する。そして、検出された物体の位置を用いて目標位置の方向を計算する。 Here, the approach movement command formula will be described in detail. The approach movement command formula is composed of a two-step formula. First, a landmark object is detected from the current position image and the target position image input in the approach movement command formula. Then, the direction of the target position is calculated using the detected position of the object.
接近移動指令式の一段階目となる物体の検出は、例えば、位置合せ指令式(式1)と同様に(式2)で表せる。なお、ここでは説明の簡略化のため、前述同様に、単純な(式2)を用いているが、(式2)は深層ニューラルネットワークの内の1層分を表しており、実際には、出力u’1(以下、添え字は層の番号)が入力x’2としてさらに(式2)に入力され、その出力u’2がさらにx’3として(式2)に入力されるという繰り返し処理が層数分行われる、より複雑な計算式が用いられる。 The detection of the object, which is the first stage of the approach movement command formula, can be expressed by (Equation 2) in the same manner as the alignment command formula (Equation 1), for example. Although the simple (Equation 2) is used here for the sake of simplification of the explanation, (Equation 2) represents one layer of the deep neural network, and is actually used. repeating that the output u '1 (hereinafter, subscript numbers of layers) is input x' is input to the addition (equation 2) 2, the output u '2 is further x' is input to the (formula 2) as a 3 A more complicated calculation formula is used in which the processing is performed for the number of layers.
なお、ここでのx’は、1枚の画像のベクトルであり、u’は、検出した物体の種類とその確信度と画像内での位置および大きさを表すベクトルである。検出した物体の確信度は、検出する物体ごとに0から1までの数値として表される、数値が大きいほどその物体である可能性が高い。また、検出した物体の位置および大きさは、例えばバウンディングボックスの幅、高さ、中心点のピクセル位置で表される。 Here, x'is a vector of one image, and u'is a vector representing the type of the detected object, its certainty, and its position and size in the image. The certainty of the detected object is expressed as a numerical value from 0 to 1 for each detected object, and the larger the numerical value, the higher the possibility that the object is. The position and size of the detected object are represented by, for example, the width, height, and pixel position of the center point of the bounding box.
そして、位置合せ指令式の学習処理と同様に、接近移動用学習データを用いて(式2)を学習することで、画像の中からランドマークとなる物体を検出可能になる。このとき、入力画像を複数枚に切り出すことで複数の物体を同時に検出することも可能である。ランドマークとなる物体には、植木、看板(サイネージ)、ドア、照明、ポール、窓などの固定物を用いるが、人等の移動物の影響を避けるために上方に設置されたものを用いる方がよい。 Then, by learning (Equation 2) using the learning data for approach movement as in the learning process of the alignment command type, it becomes possible to detect an object that becomes a landmark from the image. At this time, it is also possible to detect a plurality of objects at the same time by cutting out the input images into a plurality of images. Fixed objects such as plants, signage, doors, lights, poles, and windows are used as landmark objects, but those installed above to avoid the influence of moving objects such as people are used. Is good.
接近移動指令式の二段階目は、例えば、以下の(式3)で表すことができる。 The second stage of the approach movement command type can be represented by, for example, the following (Equation 3).
なお、(式3)において、u1、u2は、それぞれ現在位置画像と目標位置画像から共通に検出された物体(同じ物体の種類)のピクセル位置である。複数の物体を検出する場合は、物体の数に対応した式を用意する必要がある。ここで、高さ方向の検出が不要な場合は画像の幅方向のピクセル位置のみを使用すればよい。この場合、高さの異なる位置で撮像した画像も用いることができ、目標位置画像の撮像方法や移動体の種類が自由に選択できる。yは目標位置の方向、kは係数行列、gは幾何学的な変換を演算する関数である。 In (Equation 3), u 1 and u 2 are pixel positions of an object (same object type) commonly detected from the current position image and the target position image, respectively. When detecting multiple objects, it is necessary to prepare an equation corresponding to the number of objects. Here, when detection in the height direction is not required, only the pixel position in the width direction of the image needs to be used. In this case, images captured at different heights can also be used, and the method of capturing the target position image and the type of moving body can be freely selected. y is the direction of the target position, k is the coefficient matrix, and g is the function that calculates the geometric transformation.
このようにして算出された、学習処理終了後の係数行列W’、シフト量b’を含む接近移動指令式(式2)(式3)は、接近移動指令式記憶部33cに格納される。そして、移動体1の運用前などのタイミングで、移動体1の接近移動指令式記憶部14bに接近移動指令式を転送する。
The approach movement command equations (Equation 2) and (Equation 3) including the coefficient matrix W'and the shift amount b'after the completion of the learning process calculated in this way are stored in the approach movement command
<ナビゲーションシステム100のフローチャート>
図4は、以上で説明してきた、移動体1、データ収集用移動体2、学習装置3からなる、本実施例のナビゲーションシステム100による一連の処理の一例を示すフローチャートである。なお、図4は、説明のために一例を示したものであり、本発明の手順を限定するものではない。
<Flowchart of
FIG. 4 is a flowchart showing an example of a series of processes by the
<ステップS1>
まず、ステップS1では、データ収集用移動体2を用いて、目標位置近傍の画像と座標を収集する。収集した画像は接近移動用学習データ作成部32aで接近移動用学習データを作成するために用いられ、また、画像と座標のデータセットは位置合せ学習前処理部32dに入力される位置合せ用学習データとして用いられる。
<Step S1>
First, in step S1, the image and coordinates in the vicinity of the target position are collected by using the data collecting moving
ここで、図5と図6を用いて、ドアDの前に目標位置Gを設定した状況下での、データ収集用移動体2による各データの収集方法を説明する。
Here, with reference to FIGS. 5 and 6, a method of collecting each data by the data collecting moving
図5は、ドアDの前に目標位置Gを設定した場合に、接近移動用学習データの作成に必要な画像を撮像できるデータ収集範囲A1を例示する図である。この図から明らかなように、データ収集用移動体2は扇形状(図5では三角形状に簡略化)のデータ収集範囲A1内にいるときに、目標位置Gに接近する際のランドマークとなるドアDを撮像できる。従って、学習データ収集用移動体2を、データ収集範囲A1内で様々に移動させながら、接近移動用学習データの作成に必要な、ドアD(ランドマーク)が撮像された様々な画像を収集する。なお、類似画像が多数あっても学習データとしてはあまり有用ではないため、ドアDとの距離や角度あるいは照明の明るさなど様々な位置や条件で満遍なく画像を収集することが望ましい。また、データ収集用移動体2をデータ収集範囲A1内でランダムに移動させた際に動画を撮影しておき、後程、動画から画像を切り出すことで画像の収集作業を簡単にすることもできる。 5, in the case of setting the target position G in front of the door D, a diagram illustrating a data acquisition range A 1 that can capture an image needed to create the approaching moving learning data. As is apparent from this figure, the data collection for mobile 2 when you are in fan shape (simplified in FIG. 5, the triangular shape) data acquisition range A 1 of a landmark when approaching the target position G Door D can be imaged. Therefore, collect learning data acquisition for mobile 2, while variously move data acquisition range A inside 1, required to create approaching moving learning data, a variety of image door D (landmark) is captured To do. Even if there are many similar images, they are not very useful as learning data, so it is desirable to collect the images evenly at various positions and conditions such as the distance and angle to the door D and the brightness of the illumination. Also, the data collection for mobile 2 by the data acquisition range A inside 1 leave record movies when moving randomly, later, it is also possible to simplify the task of collecting image by cutting out the image from the video ..
一方、図6は、ドアDの前に目標位置Gを設定した場合に、位置合せ用学習データである、画像と座標のデータセットを収集するデータ収集範囲A2を例示する図である。ここでは、目標位置Gの周囲(例えば、目標位置Gを囲む1m程度の正方形の範囲)でデータ収集用移動体2を移動させ、高密度に画像と座標のデータセットを収集する。例えば、図右側の吹き出し内に示すように、目標位置Gの周囲に設定した高密度のグリッドの各地点で、データ収集用移動体2の画像取得部21を様々な方向に向けてデータセットを収集するとよい。この際の、各グリッドの距離dや、各グリッドにおけるデータ収集方向の刻み幅Δθは、本実施例を用いた移動体1の目標精度を考慮して設定すればよい。なお、クリッド間の位置における学習データは、学習により補間しても良い。
On the other hand, FIG. 6, in the case of setting the target position G in front of the door D, is for positioning the training data, is a diagram illustrating a data acquisition range A 2 to collect a data set of the image and coordinates. Here, the data
<ステップS2>
ステップS2では、学習装置3を用いて、接近移動指令式と位置合せ指令式を学習する。この学習処理の詳細を図7に示すフローチャートを用いて説明する。
<Step S2>
In step S2, the
まず、ステップS21では、接近移動用学習データ作成部32aは、物体領域入力部31を介して指定されたランドマーク(例えば、ドアD)が撮像された画像を、画像記憶部33aから取得し、接近移動用学習データを作成する。次に、接近移動学習前処理部32bは、接近移動用学習データ作成部32aから接近移動用学習データを読み込み、位置合せ学習前処理部32dは、位置合せ用学習データ記憶部33bから位置合せ用学習データを読み込む。
First, in step S21, the approach movement learning
次に、ステップS22では、接近移動学習前処理部32bと、位置合せ学習前処理部32dで各学習データに対して前処理を実施し、各学習データのバリエーションを増やす。
Next, in step S22, the approaching movement learning
ステップS23では、接近移動指令式学習部32cで接近移動指令式の学習処理を行い、位置合せ指令式学習部32eで位置合せ指令式の学習処理を行う。
In step S23, the approach movement command type learning unit 32c performs the approach movement command type learning process, and the alignment command
最後に、ステップS24では、学習済みの接近移動指令式(例えば、式2、式3)を接近移動指令式記憶部33cに保存し、位置合せ指令式(例えば、式1)を位置合せ指令式記憶部33dに保存する。
Finally, in step S24, the learned approach movement command formula (for example,
<ステップS3>
ステップS3では、移動体1やデータ収集用移動体2の画像取得部、あるいは、システムの運用者が携帯するデジタルカメラなどを用いて、移動体1の実移動環境の目標位置(最終的な目標位置、および、経由地点)としたい地点で、ランドマークとなりうる物体を含む目標位置画像を撮像し、移動体1の目標位置画像記憶部14aに登録する。移動体1の自律移動時には、本ステップで目標位置画像記憶部14aに登録した目標位置画像が目標位置を示すデータとなる。
<Step S3>
In step S3, the target position (final target) of the actual moving environment of the moving
なお、本ステップでの撮像位置は、ステップS1での撮像位置とは異なるが、ステップS2で学習処理した各指令式が有用である程度に、ステップS1と本ステップの撮像位置の周囲環境が類似しているものとする。換言すれば、実移動環境の目標位置に類似する環境に対し、データ収集用移動体2と学習装置3を利用した学習処理を済ませておく必要があり、そのような環境に対する学習処理が完了していない場合は、そのような環境に対してステップS1、S2の処理を実施するよう配慮する必要がある。
Although the imaging position in this step is different from the imaging position in step S1, the surrounding environment of the imaging position in step S1 and this step is similar to some extent that each command formula learned in step S2 is useful. It is assumed that In other words, it is necessary to complete the learning process using the data
<ステップS4>
ステップS4では、移動体1に目標位置までの自律移動を実施させる。環境に変化がなければ、本ステップの処理は繰り返し実行される。
<Step S4>
In step S4, the moving
図8は、本ステップの一例を詳細に示すフローチャートである。ここに示す各処理は並列して実行しても良いが、ここでは簡単のため、その手順をシーケンシャルに説明する。 FIG. 8 is a flowchart showing an example of this step in detail. Each process shown here may be executed in parallel, but for the sake of simplicity, the procedure will be described sequentially.
ステップS41:まず、移動切替部13aが移動体1の移動方法を「位置合せ」に切り替えるかを判断する。例えば、現在位置画像と目標位置画像の類似度が一定値以上になった場合、ランドマークとなる物体が閾値以上の大きさになった場合、相対位置姿勢が閾値以下の値に連続してなっている場合に、「位置合せ」への切り替えを判断する。判断の結果、「位置合せ」へ切替える場合は(Yes)ステップS42へ移る。一方、引き続き「大域移動」や「接近移動」を実行する場合は(No)ステップS44へ移る。
Step S41: First, the
ステップS42:移動体1は、位置合せ指令部11dからの指令により目標位置に向けて移動する。本ステップでの移動は、位置合せ指令式に基づいて目標位置へ移動する。所定の時間移動を行うとステップS43へ移る。
Step S42: The moving
ステップS43:移動切替部13aが「位置合せ」が終了したかどうか、すなわち、移動体1が目標位置に到達したか、を判断する。例えば、位置合せ指令式から算出される目標位置までの相対位置姿勢値が許容値以下であれば目標位置に到達したと判断して走行を終了し、そうでなければ(No)、目標位置への「位置合せ」を継続すべく、ステップS41へ移る。
Step S43: The
ステップS44:移動切替部13aが移動体1の移動方法を「接近移動」に切り替えるかを判断する。例えば、現在位置画像内に、予め取得しておいた目標位置画像に撮像されている物体(ランドマーク)が写っているかを判断し、共通の物体が写っていれば(Yes)、「接近移動」へ切替え、そうでなければならば(No)、ステップS46へ移る。
Step S44: The
ステップS45:移動体1は、接近移動指令部13cにより目標位置に向けて移動する。本ステップでの移動は、接近移動指令式に基づいて目標位置の方向へ向けて移動する。所定時間移動後、ステップS41へ移る。
Step S45: The moving
ステップS46:移動体は、大域移動指令部13bにより移動開始位置から目標位置に向けて移動する。所定時間移動後、ステップS41へ移る。 Step S46: The moving body moves from the movement start position to the target position by the global movement command unit 13b. After moving for a predetermined time, the process proceeds to step S41.
本実施例は、目標位置までの移動を「大域移動」、「接近移動」、「位置合せ」の複数ステップに分けて行う点に1つの特徴がある。特に、「接近移動」における、現在位置画像の中でも目標位置画像内に写っている物体をランドマークとしてその部分のみに着目して移動方向のみを推定して移動する部分と、「位置合せ」における、現在位置画像と目標位置画像の画像全体を利用して目標位置までの相対位置姿勢を推定して移動する部分が、従来技術と異なる特徴である。 One feature of this embodiment is that the movement to the target position is divided into a plurality of steps of "global movement", "approaching movement", and "alignment". In particular, in "approach movement", the part of the current position image that moves by estimating only the movement direction by focusing only on that part with the object shown in the target position image as a landmark, and in "alignment". The part that estimates the relative position and orientation to the target position and moves by using the entire image of the current position image and the target position image is a feature different from the prior art.
この特徴により、移動体1が目標位置の遠方におり現在位置画像に目標位置に関する情報が少ない場合は、目標位置の物体(ランドマーク)のみに着目して大まかに移動し、目標位置付近に近づいて現在位置画像内に目標位置に関する情報が増加してからはじめて現在位置画像と目標位置画像の画像全体を利用して目標位置までの相対位置姿勢を正確に推定する。但し、移動体1の位置と姿勢を正確に推定できる範囲は、図6に例示したような狭い範囲でのみである。これにより、現在位置画像にランドマーク以外の物体が増減するような走行環境の変化(例えば、ショッピングモール内での曜日による通行量の増減)が起きても、目標位置までより正確に移動して停止または通過することが可能となる。
Due to this feature, when the moving
なお、ステップS42で利用する現在位置画像は、過去数回の撮影回数分の画像を撮りためて、その差分を計算することにより通行人などの移動障害物が写っていない画像を選択することでより正確な移動ができる。 As the current position image used in step S42, images corresponding to the number of shots taken several times in the past are taken, and the difference is calculated to select an image in which moving obstacles such as passersby are not shown. You can move more accurately.
<ステップS5>
最後に、ステップS5では、新しい環境での再学習が必要か、すなわち、学習済みの環境と非類似の環境を実走行する必要があるか、を運用者が判断し、必要だと判断したタイミングでステップS1、S2を再度実行する。一方、そのような必要がなければ、ステップS3に戻る。
<Step S5>
Finally, in step S5, the operator determines whether re-learning in the new environment is necessary, that is, whether it is necessary to actually drive in an environment dissimilar to the learned environment, and when it is determined that it is necessary. Steps S1 and S2 are executed again. On the other hand, if there is no such need, the process returns to step S3.
以下、本実施例のナビゲーションシステム100の実装例について述べる。
Hereinafter, an implementation example of the
図9は、移動体1が複数存在するナビゲーションシステム100の例を示す図である。この例のように、ナビゲーションシステムが複数の移動体1A〜1Cを有する場合、データ収集用移動体2は、画像取得部21が移動体1A〜1Cの画像取得部11の高さや取り付け角度に対応できるように、多様なデータを取得できるような機構を装備しておき、移動体1A〜1Cの様々なカメラに合わせた設置条件で接近移動用学習データ、位置合せ用学習データを収集する。そして、蓄積された学習データをもとに接近移動指令式、位置合せ指令式の学習を行う。
FIG. 9 is a diagram showing an example of a
以上のような構成及び手順により、走行環境の変化に対してロバストかつ、精度よく移動体を目標位置まで移動させることができるようにした、移動体のナビゲーション装置及びナビゲーションシステムを提供することができる。 With the above configuration and procedure, it is possible to provide a navigation device and a navigation system for a moving body that can move the moving body to a target position robustly and accurately in response to changes in the traveling environment. ..
100 ナビゲーションシステム
1,1A〜1C 移動体
11 画像取得部
12 移動機構
13 計算ユニット
13a 移動切替部
13b 大域移動指令部
13c 接近移動指令部
13d 位置合せ指令部
13e 移動制御部
14 記憶ユニット
14a 目標位置画像記憶部
14b 接近移動指令式記憶部
14c 位置合せ指令式記憶部
2 データ収集用移動体
21 画像取得部
22 座標推定用センサ
23 計算ユニット
23a 位置合せ用学習データ作成部
23b 座標推定部
24 記憶ユニット
24a 画像記憶部
24b 位置合せ用学習データ記憶部
3 学習装置
31 物体領域入力部
32 計算ユニット
32a 接近移動用学習データ生成部
32b 接近移動学習前処理部
32c 接近移動指令式学習部
32d 位置合せ学習前処理部
32e 位置合せ指令式学習部
33 記憶ユニット
33a 画像記憶部
33b 位置合せ用学習データ記憶部
33c 接近移動指令式記憶部
33d 位置合せ指令式記憶部
100
Claims (11)
現在位置画像を撮像する画像取得部と、
目標位置で撮像した目標位置画像を記憶した目標位置画像記憶部と、
接近移動指令式に基づいて前記目標位置に接近移動する移動指令を生成する接近移動指令部と、
位置合せ指令式に基づいて前記目標位置で停止する移動指令または前記目標位置を通過する移動指令を生成する位置合せ指令部と、
前記現在位置画像と前記目標位置画像の比較結果に応じて、前記接近移動指令部または前記位置合せ指令部の何れかを選択する移動切替部と、
前記移動指令に基づいて移動機構を制御する移動制御部と、
を具備することを特徴とする移動体。 It is a mobile body that moves autonomously
An image acquisition unit that captures the current position image and
A target position image storage unit that stores a target position image captured at the target position,
An approach movement command unit that generates a movement command to move closer to the target position based on the approach movement command formula, and
An alignment command unit that generates a movement command that stops at the target position or a movement command that passes through the target position based on the alignment command formula.
A movement switching unit that selects either the approach movement command unit or the alignment command unit according to the comparison result between the current position image and the target position image.
A movement control unit that controls the movement mechanism based on the movement command,
A moving body characterized by comprising.
自律移動時には、前記移動切替部で使用する前記目標位置画像を前記経由地点の順に切り替えながら、前記最終目標位置へと自律移動することを特徴とする、請求項1に記載の移動体。 The target position image stored in the target position image storage unit is a target position image captured at the final target position and a target position image captured at a waypoint leading to the final target position.
The moving body according to claim 1, wherein at the time of autonomous movement, the target position image used by the movement switching unit is switched in the order of the waypoints and autonomously moved to the final target position.
前記現在位置画像と前記目標位置画像の類似度が所定の閾値以上になった場合、
前記現在位置画像と前記目標位置画像に同一種類の物体が写っており、前記現在位置画像の前記物体の大きさが所定の閾値以上になった場合、もしくは、
前記位置合せ指令式が出力する相対位置姿勢が所定の閾値以下なった場合、
の何れかの場合に、前記位置合わせ指令部を選択することを特徴とする、請求項1に記載の移動体。 The movement switching unit is
When the similarity between the current position image and the target position image exceeds a predetermined threshold value,
When an object of the same type appears in the current position image and the target position image, and the size of the object in the current position image exceeds a predetermined threshold value, or
When the relative position / orientation output by the alignment command formula falls below a predetermined threshold value,
The moving body according to claim 1, wherein the alignment command unit is selected in any of the cases.
前記位置合わせ指令部を選択する条件は満たさないが、
前記目標位置画像と前記現在位置画像に同一種類の物体が映っている場合に、前記接近移動指令部を選択することを特徴とする、請求項5に記載の移動体。 The movement switching unit is
Although the condition for selecting the alignment command unit is not satisfied,
The moving body according to claim 5, wherein the approaching movement command unit is selected when an object of the same type is shown in the target position image and the current position image.
前記位置合せ指令式は、データ収集用移動体が収集した学習データを、学習装置で学習処理することで得たものであることを特徴とするナビゲーションシステム。 A navigation system for navigating a moving object according to any one of claims 1 to 7.
The alignment command type is a navigation system characterized in that the learning data collected by a moving body for data collection is obtained by learning processing with a learning device.
前記接近移動指令式は、データ収集用移動体が収集した学習データを、学習装置で学習処理することで得たものであることを特徴とするナビゲーションシステム。 A navigation system for navigating a moving object according to any one of claims 1 to 7.
The approach movement command type is a navigation system characterized in that the learning data collected by a moving body for data collection is obtained by learning processing with a learning device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019234249A JP7461737B2 (en) | 2019-12-25 | 2019-12-25 | Mobile object and its navigation system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019234249A JP7461737B2 (en) | 2019-12-25 | 2019-12-25 | Mobile object and its navigation system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021103421A true JP2021103421A (en) | 2021-07-15 |
JP7461737B2 JP7461737B2 (en) | 2024-04-04 |
Family
ID=76755170
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019234249A Active JP7461737B2 (en) | 2019-12-25 | 2019-12-25 | Mobile object and its navigation system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7461737B2 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003177821A (en) * | 2001-12-11 | 2003-06-27 | Honda Motor Co Ltd | Device, method and program for guiding traveling object |
JP2010140080A (en) * | 2008-12-09 | 2010-06-24 | Yaskawa Electric Corp | Control method and control device for mobile object, and mobile object system |
JP2012068736A (en) * | 2010-09-21 | 2012-04-05 | Yaskawa Electric Corp | Mobile body |
US20170151883A1 (en) * | 2015-11-30 | 2017-06-01 | Faraday&Future Inc. | Camera-based vehicle position determination with known target |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019197350A (en) | 2018-05-09 | 2019-11-14 | 株式会社日立製作所 | Self-position estimation system, autonomous mobile system and self-position estimation method |
-
2019
- 2019-12-25 JP JP2019234249A patent/JP7461737B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003177821A (en) * | 2001-12-11 | 2003-06-27 | Honda Motor Co Ltd | Device, method and program for guiding traveling object |
JP2010140080A (en) * | 2008-12-09 | 2010-06-24 | Yaskawa Electric Corp | Control method and control device for mobile object, and mobile object system |
JP2012068736A (en) * | 2010-09-21 | 2012-04-05 | Yaskawa Electric Corp | Mobile body |
US20170151883A1 (en) * | 2015-11-30 | 2017-06-01 | Faraday&Future Inc. | Camera-based vehicle position determination with known target |
Also Published As
Publication number | Publication date |
---|---|
JP7461737B2 (en) | 2024-04-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Zhang et al. | Localization and navigation using QR code for mobile robot in indoor environment | |
US11673269B2 (en) | Method of identifying dynamic obstacle and robot implementing same | |
TWI827649B (en) | Apparatuses, systems and methods for vslam scale estimation | |
KR101539270B1 (en) | sensor fusion based hybrid reactive motion planning method for collision avoidance and autonomous navigation, recording medium and mobile robot for performing the method | |
EP2144131B1 (en) | Apparatus and method of building map for mobile robot | |
KR101782057B1 (en) | Apparatus for building map and method thereof | |
JP4798450B2 (en) | Navigation device and control method thereof | |
JP5429901B2 (en) | Robot and information processing apparatus program | |
JP2005070043A (en) | Self-position recognizing device and method of intelligent system using artificial mark, and the intelligent system using the same | |
JPH03201110A (en) | Position azimuth detecting device for autonomous traveling vehicle | |
JP2007316966A (en) | Mobile robot, control method thereof and program | |
JP5068840B2 (en) | Robot program and information processing apparatus program | |
EP4088884A1 (en) | Method of acquiring sensor data on a construction site, construction robot system, computer program product, and training method | |
JP2006234453A (en) | Method of registering landmark position for self-position orientation | |
KR101341204B1 (en) | Device and method for estimating location of mobile robot using raiser scanner and structure | |
CN112652001B (en) | Underwater robot multi-sensor fusion positioning system based on extended Kalman filtering | |
Sujiwo et al. | Localization based on multiple visual-metric maps | |
Launay et al. | A corridors lights based navigation system including path definition using a topologically corrected map for indoor mobile robots | |
CN113741550A (en) | Mobile robot following method and system | |
JP2021103421A (en) | Moving body and navigation system for the same | |
Song et al. | Real-time localization measure and perception detection using multi-sensor fusion for Automated Guided Vehicles | |
Stella et al. | Self-location of a mobile robot by estimation of camera parameters | |
JPS6159507A (en) | Guiding device of selfcontrol running truck | |
Safia et al. | Visual path following by an omnidirectional mobile robot using 2d visual servoing | |
Morales et al. | Object detection in non-stationary video surveillance for an autonomous vehicle |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220902 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230727 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230801 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20230929 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231129 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240220 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240304 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240319 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240325 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7461737 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |