JP7461737B2 - Mobile object and its navigation system - Google Patents
Mobile object and its navigation system Download PDFInfo
- Publication number
- JP7461737B2 JP7461737B2 JP2019234249A JP2019234249A JP7461737B2 JP 7461737 B2 JP7461737 B2 JP 7461737B2 JP 2019234249 A JP2019234249 A JP 2019234249A JP 2019234249 A JP2019234249 A JP 2019234249A JP 7461737 B2 JP7461737 B2 JP 7461737B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- movement
- target position
- unit
- formula
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013459 approach Methods 0.000 claims description 108
- 238000004364 calculation method Methods 0.000 claims description 13
- 230000007246 mechanism Effects 0.000 claims description 12
- 238000012545 processing Methods 0.000 claims description 12
- 238000003384 imaging method Methods 0.000 claims description 9
- 238000000034 method Methods 0.000 description 63
- 238000013480 data collection Methods 0.000 description 33
- 230000008569 process Effects 0.000 description 27
- 238000007781 pre-processing Methods 0.000 description 15
- 238000010586 diagram Methods 0.000 description 12
- 238000013500 data storage Methods 0.000 description 9
- 239000011159 matrix material Substances 0.000 description 9
- 238000005516 engineering process Methods 0.000 description 8
- 230000007613 environmental effect Effects 0.000 description 7
- 238000002360 preparation method Methods 0.000 description 7
- 230000008859 change Effects 0.000 description 5
- 230000007423 decrease Effects 0.000 description 4
- 238000009434 installation Methods 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000009966 trimming Methods 0.000 description 1
Images
Landscapes
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Description
本発明は、自律移動する移動体、および、そのナビゲーションシステムに関し、特に、データ収集用移動体が収集したデータを用いて、学習装置が接近移動指令式や位置合せ指令式を学習し、学習した接近移動指令式や位置合せ指令式を利用して移動体が目標位置へ接近移動したり位置合せしたりするための指令を生成するシステムに関する。 The present invention relates to an autonomously moving vehicle and its navigation system, and in particular to a system in which a learning device learns approach movement command formulas and alignment command formulas using data collected by a data-collecting vehicle, and generates commands for the vehicle to approach and align to a target position using the learned approach movement command formulas and alignment command formulas.
近年、自律的に移動しながら、運搬、案内、作業などを行う移動体が、工場、病院、公共施設など多くの屋内施設で稼働し始めている。このような移動体のナビゲーションには、環境側にガイドシステム(屋内GPS、マーキング等)を設置する方法や、事前に走行環境を移動させて収集した環境情報(形状や画像等)から作成した地図を用い、現在取得中の環境情報と地図上のランドマーク情報とを照合しながら目標位置まで移動する方法などがある。しかし、環境側の整備作業や高信頼地図の作成作業、地図との照合処理等のソフト開発作業などの事前準備が大きな負荷となっている。 In recent years, mobile objects that move autonomously while transporting goods, providing guidance, and carrying out tasks have begun to operate in many indoor facilities, such as factories, hospitals, and public facilities. Navigation for such mobile objects can be achieved in a variety of ways, including installing a guide system (indoor GPS, markings, etc.) in the environment, or using a map created from environmental information (shape, images, etc.) collected in advance by moving around the driving environment, and moving to a target location while matching the currently acquired environmental information with landmark information on the map. However, advance preparations such as the maintenance of the environment, the creation of a highly reliable map, and software development work for map matching, etc., are a heavy burden.
この課題を解決するナビゲーション技術として、例えば、特許文献1の請求項1には、「撮像装置をそなえた移動体の走行経路上で予め撮像された教示画像と、前記撮像装置によって撮像された実画像と、を比較して前記実画像と前記教示画像との一致度が大きくなるように前記移動体の走行を制御する移動体の制御方法であって、前記教示画像と前記実画像とに基づいて前記移動体を定常速度で走行させる定常走行ステップと、前記複数の教示画像の中から予め設定された減速開始位置画像と前記実画像との一致度が予め設定された第1閾値に達すると前記移動体を前記定常速度よりも小さい減速速度で走行させる低速走行ステップと、前記複数の教示画像の中から予め設定された位置決め開始位置画像と前記実画像との一致度が予め設定された第2閾値に達すると前記移動体を前記減速速度よりも小さい位置決め速度で走行させる位置決めステップと、前記複数の教示画像の中から予め設定された目標位置画像と前記実画像との一致度が予め設定された第3閾値に達すると前記駆動装置を停止させる停止ステップと、を有していることを特徴とする移動体の制御方法」が開示されている。特許文献1が開示するナビゲーション技術によれば、事前準備として、目標停止位置までの複数の位置での画像を取得し、特に、進行方向(前後方向)において減速する位置での画像を複数用意するだけで、多段階に減速を行い、停止位置の精度を向上させることができる。
As a navigation technology that solves this problem, for example, claim 1 of
しかしながら、特許文献1のナビゲーション技術は、予め撮像した画像(目標位置画像/教示画像)と走行中に撮像される画像(実画像)の一致度、および教示画像の特徴点の位置と実画像中の対応する特徴点の位置の差異を用いて移動体の左右位置を制御している点において、例えば工場の廊下などの環境変化が比較的小さい環境(物体の多さや配置変化、通行人の有無、照明の明るさなど)かつ停止目標位置近傍の直線的な移動の条件下では目標位置へ高精度に移動できるが、ショッピングモールや公共施設などの環境変化が大きい環境や広い移動環境に適用する場合や、狭い環境での移動体の位置姿勢(向き、方位)の高精度な移動方法に適用する場合、全方位移動可能(ホロノミック)な移動体や自動車のように真横移動ができない移動体(ノンホロノミック)のようなタイプの異なる自律移動体に適応する場合には、移動精度の低下や処理の破綻、パラメータチューニング等の事前準備負荷の増大といった課題が生じ、目標停止位置で正確に停止できない可能性も考えられる。
However, the navigation technology of
より具体的な例としては、特許文献1記載の技術は、画像の一致度算出や画像間の特徴点の比較により移動体を制御しているので、教示画像取得時と実画像取得時の間の環境変化(人や物の配置、照明条件など)により、一致度の変化や特徴点の特性変化および消失(照明や影、隠れなどに起因)による対応付けの失敗が生じ、結果として、ショッピングモールや公共施設などの動的環境下では移動精度の低下や制御破綻といった課題がある。同課題は特に、移動体と周囲の物との距離がある場合もしくは目標位置まで距離がある場合の広範囲な移動時において、移動体の移動量に対し教示画像と実画像の変化が少ない上に、移動体と周囲の物の間に人や他の物体が撮像されやすいといった状況において顕著となる。
As a more specific example, the technology described in
また同時に、特許文献1に記載の技術は、画像の一致度算出や画像間の特徴点の比較により逐次的に移動体の速度および左右方向の位置を制御しているので、例えばドアなどの狭い場所を通過する場合(ドア開け通過)のように、位置に加え向きの精度が求められ、かつ目標位置に至る経路での位置姿勢(位置および向き)の計画(自動車の車庫入れのような計画)が必要な場合には対応できず、高精度な位置精度を実現できないという課題がある。同課題は、特にノンホロノミックな移動体において顕著であり、様々な移動方法および移動体に対応できないという課題がある。
At the same time, the technology described in
また同時に、特許文献1に記載の技術は、事前に速度計画(走行計画)を行った上で減速位置(制御位置)での教示画像の取得が必要であり、移動方法や移動体の変更の度に事前準備の負荷が増大するという課題がある。
At the same time, the technology described in
本発明はこのような背景に鑑みてなされたもので、設備工事や地図作成が不要な事前準備の負荷が小さいナビゲーション装置であり、特に動的環境かつ広い移動環境でのロバストな移動と、位置姿勢の経路計画が必要な狭い場所での高精度移動とを実現し、多様なタイプの移動方法および自律移動体に対しても事前準備の負荷が少ない移動体のナビゲーション装置を提供することを目的とする。 The present invention has been made in light of this background, and aims to provide a navigation device for a moving body that requires little advance preparation, does not require facility construction or map creation, and achieves robust movement in dynamic and wide moving environments, and highly accurate movement in narrow spaces where path planning of position and attitude is required, and requires little advance preparation for various types of movement methods and autonomous moving bodies.
前記した課題を解決するため、本発明の移動体は、現在位置画像を撮像する画像取得部と、目標位置で撮像した目標位置画像を記憶した目標位置画像記憶部と、接近移動指令式に基づいて前記目標位置に接近移動する移動指令を生成する接近移動指令部と、位置合せ指令式に基づいて前記目標位置で停止する移動指令または前記目標位置を通過する移動指令を生成する位置合せ指令部と、前記接近移動指令式もしくは前記位置合わせ指令式の出力結果に応じて、前記接近移動指令部または前記位置合せ指令部の何れかを選択する移動切替部と、前記移動指令に基づいて移動機構を制御する移動制御部と、を具備し、前記接近移動指令式は、一枚の画像を入力すると画像内の物体位置と物体種類を出力する式から構成され、前記位置合わせ指令式は、二か所の位置で撮像された画像を入力すると撮像位置の相対位置と相対姿勢を出力する式から構成される移動体とした。 In order to solve the above-mentioned problems, the moving body of the present invention is a moving body that includes an image acquisition unit that captures a current position image, a target position image storage unit that stores a target position image captured at a target position, an approach movement command unit that generates a movement command to approach and move to the target position based on an approach movement command formula, an alignment command unit that generates a movement command to stop at the target position or a movement command to pass through the target position based on an alignment command formula, a movement switching unit that selects either the approach movement command unit or the alignment command unit depending on the output result of the approach movement command formula or the alignment command formula, and a movement control unit that controls a movement mechanism based on the movement command , wherein the approach movement command formula is composed of an equation that outputs an object position and object type in an image when an image is input, and the alignment command formula is composed of an equation that outputs a relative position and relative attitude of the imaging positions when images captured at two positions are input .
本発明によれば、設備工事や地図作成が不要な事前準備の負荷が小さいナビゲーション装置が提供でき、特に動的環境かつ広い移動環境でのロバストな移動と、位置姿勢の経路計画が必要な狭い場所での高精度移動とを実現し、多様なタイプの移動方法および自律移動体に対しても事前準備の負荷が少ない移動体のナビゲーション装置を提供できる。 The present invention provides a navigation device that requires little advance preparation, as it does not require facility construction or map creation, and that realizes robust movement in dynamic and wide moving environments, and highly accurate movement in narrow spaces where path planning of position and attitude is required, and can provide a navigation device for moving bodies that requires little advance preparation for various types of moving methods and autonomous moving bodies.
本発明の実施例について、適宜図面を参照しながら説明する。 The following describes an embodiment of the present invention with reference to the drawings as appropriate.
本発明のナビゲーションシステム100は、目標位置に向けて自律移動する移動体1と、学習用データを収集するデータ収集用移動体2と、収集した学習用データを用いて接近移動指令式や位置合せ指令式を学習する学習装置3と、から構成されるシステムである。そして、移動体1は、学習装置3が学習した接近移動指令式や位置合せ指令式を利用して、自律移動のための移動指令を生成し、所定の経由地点を経由しながら最終的な目標位置まで自律移動する。なお、学習装置3は、移動体1やデータ収集用移動体2と、有線または無線の通信を介して、情報を共有することができる。
The
以下では、移動体1が、真横に移動できないノンホロノミック移動体(車両や台車など)、または、全方位移動可能なホロノミック移動体(ロボットやドローンなど)の何れかであるものとし、また、移動体1の自律移動する環境が、ショッピングモールや公共施設などの、人の交通量や明るさ等の環境変化が大きい環境であるものとする。本システムでは、このような状況においても、移動体1の形態に拘わらず、共通の接近移動指令式や位置合せ指令式を利用して、目標位置までの自律移動(自律走行、自律歩行、自律飛行など)に必要な移動指令を生成できるため、学習装置3では移動体1の形態別に指令式を学習する必要がないという利点がある。以下、本発明のナビゲーションシステム100における、移動体1、データ収集用移動体2、学習装置3の各々の実施例について、図面を用いながら詳細に説明する。
In the following, it is assumed that the moving
<移動体1>
図1は、主に、移動体1の構成例を説明する図であり、データ収集用移動体2と学習装置3の一部構成も併せて表示している。なお、ここでは、移動体1が1台のみ存在するナビゲーションシステム100を例示しているが、図9で後述するように、形態の異なる複数台の移動体1が存在するシステムであってもよい。
<
1 is a diagram mainly for explaining an example of the configuration of a
図1に示すように、移動体1は、画像取得部11、移動機構12、計算ユニット13、記憶ユニット14を有している。各々の詳細を順次説明する。
As shown in FIG. 1, the
画像取得部11は、移動体1の現在位置から周囲を撮像した画像を取得するものであり、例えば、CCDイメージセンサやCMOSイメージセンサ等の撮像素子を備えた、1台以上のカメラから構成されている。画像取得部11が外界を撮像した画像は、後述する移動切替部13a、大域移動指令部13b、接近移動指令部13c、位置合せ指令部13dに出力される。
The image acquisition unit 11 acquires images of the surroundings from the current position of the moving
なお、画像取得部11は、解像度の高いカメラを使用することが望ましく、移動環境を広く撮像するため、広角レンズを備えたカメラを搭載してもよい。カメラの視野角や解像度は、後述するデータ収集用移動体2に搭載される画像取得部21のカメラの視野角や解像度と同じ条件であることが望ましいが、トリミング処理やリサイズ処理を行うことで条件をそろえてもよい。さらにカメラの取り付け位置は、移動体の進行方向前方を撮像可能な位置および方向に取り付け、カメラの姿勢が動かないよう移動体1に固定するのが望ましいが、カメラの姿勢を常に把握するシステムを搭載している場合、カメラの姿勢は固定されなくてもよい。
The image acquisition unit 11 desirably uses a high-resolution camera, and may be equipped with a camera equipped with a wide-angle lens to capture a wide range of the moving environment. The viewing angle and resolution of the camera desirably have the same conditions as those of the camera of the
移動機構12は、移動体1の移動を実現する機構であり、移動体1が車両であれば車輪、ロボットであれば脚または車輪、ドローンであればプロペラ、及び、車輪等を駆動させるアクチュエータである。後述する移動制御部13eでは、後述する位置合せ指令部13d等から出力された移動制御信号に基づいて、移動機構12の形態に応じた所望の移動指令(例えば並進移動速度や回転移動速度など)を生成し、移動体1の前後の移動、旋回あるいは、停止を行う。
The
計算ユニット13は、移動切替部13a、大域移動指令部13b、接近移動指令部13c、位置合せ指令部13d、移動制御部13eを有している。なお、移動体1の記憶ユニット14には所定のプログラムが格納されており、このプログラムがメモリにロードされ、CPU(Central Processing Unit)によって実行されることで、移動切替部13a、大域移動指令部13b、接近移動指令部13c、位置合せ指令部13d、移動制御部13eが具現化される。
The
移動切替部13aは、画像取得部11が取得した現在位置画像と、目標位置画像記憶部14aから取得した目標位置画像を比較し、目標位置までの移動方法を、高速移動に適した「大域移動」、目標位置の方向に接近移動するための「接近移動」、目標位置で正確に停止するための、あるいは、目標位置を正確に通過するための「位置合せ」の何れかに切り替える判断を行い、その判断結果を、大域移動指令部13b、接近移動指令部13c、位置合せ指令部13dに出力する。なお、ここでは移動方法が三種類である場合を例示するが、本発明は移動方法の数を限定するものではない。以下、移動切替部13aによる各移動方法の切替判断の一例を説明する。
The
移動方法を「接近移動」へ切り替える場合、移動切替部13aは、例えば、現在位置画像内に、目標位置画像に撮像されている予め指定しておいた物体(ランドマーク)が写っているかを判定し、写っていると判定されたときに「接近移動」への切替えを選択する。なお、接近移動指令部13cで画像に基づく判定を行い、移動切替部13aでは接近移動指令部13cの判定結果に基づいて切り替えを判断するという役割分担としてもよい。このとき、接近移動指令部13cで使用する目標位置画像は、経由地点近傍で切り替わり、目標位置画像を切り替えながら、最終的な目標位置画像が撮像された地点へと移動する。また、複数の目標位置画像において現在位置画像の物体が写っている場合は、最終目標位置に近い目標位置画像を選択する。
When switching the movement method to "approach movement", the
また、移動方法を「位置合せ」へ切り替える場合、移動切替部13aは、例えば、現在位置画像と位置合せの目標位置画像の類似度が閾値以上になったかを判定し、閾値以上になったときに「位置合せ」への切替えを選択する。なお、画像の類似度の計算方法は、例えば、2枚の画像で同じ位置同士のピクセルの輝度の差分の2乗を集計するMSE(Mean Square Error)を用いる。類似度は、位置合せ指令部13dの処理の一環として、その出力を用いてもよい。また、もし接近移動指令部13cで用いる目標位置画像と位置合せ指令部13dで用いる目標位置画像の中に同じ物体が写っていれば、接近移動指令部13cが出力する物体の大きさが予め設定した閾値以上になれば、移動方法を「位置合せ」へ切り替えてもよいし、さらに、位置合せ指令部13dの相対位置姿勢出力が閾値以下の値に連続して出力している場合も、移動方法を「位置合せ」へ切り替えてもよい。
When switching the movement method to "alignment", the
上記の何れにも該当しない場合は、移動切替部13aは、移動方法として「大域移動」を選択する。複数の移動方法が重複して対応可能判定をした場合の優先順位は、「位置合せ」、「接近移動」、「大域移動」の順である。各判定は同時並列に行ってもよいが、判定の順番を決めてもよい。このようにすることで、本実施例では、複数の移動手法の中から適切な手法を選択し、適切なタイミングで他の移動方法に切り替えることができる。
If none of the above applies, the
大域移動指令部13bは、移動切替部13aが「大域移動」を行うと判断したときに選択される指令部であり、画像取得部11から取得した現在位置画像を入力とし、目標位置の方向へ移動するための速度指令などの移動指令を移動制御部13eに出力する。大域移動指令部13bによる移動方法は本実施例において特に限定するものではないが、移動ビジュアルオドメトリと呼ばれる現在位置画像の変化から移動体の移動量を推定する方法を用いて目標とする位置まで移動してもよい。この方法は、精度は高くないが、現在位置画像の時系列入力のみから概略の移動情報が得られる。それ以外には、例えば、ビジュアルSLAMと呼ばれる方法を用いてもよい。この方法は、画像取得部11が取得した現在位置画像の時系列データから、画像の特徴点群を立体的に配置した地図を作成しながら、同時に移動体の現在位置を推定する方法で、計算負荷が非常に大きく誤差が蓄積するため常時利用はできない。
The global
接近移動指令部13cは、移動切替部13aが「接近移動」を行うと判断したときに選択される指令部であり、画像取得部11が取得した現在位置画像と、目標位置画像記憶部14aから取得した目標位置画像とを後述する接近移動指令式に入力して、目標位置の方向を出力する。なお、この接近移動指令式は、学習装置3での事前学習により得られたものを利用する。
The approach
位置合せ指令部13dは、移動切替部13aが「位置合せ」を行うと判断したときに選択される指令部であり、画像取得部11が取得した現在位置画像と、目標位置画像記憶部14aから取得した目標位置画像とを後述する位置合せ指令式に入力して、目標位置姿勢(移動体の向きを含む)までの相対位置姿勢(相対位置および相対角度)を出力する。この位置合せ指令式は、学習装置3での事前学習により得られたものを利用する。
The alignment command unit 13d is a command unit that is selected when the
移動制御部13eは、大域移動指令部13bで算出した移動指令、接近移動指令部13cで算出した目標位置の方向、位置合せ指令部13dで算出した目標位置姿勢までの相対位置姿勢、の何れかを入力として、入力された指令等を実現する移動計画(もしくは経路計画)を行い、適切な移動制御を実施する。移動制御部13eで、相対位置姿勢から移動計画を行って目標位置姿勢までの移動制御を行うことで、例えば、ドアなどの狭い場所を通過する場合(ドア開け通過)のように高い位置精度に加え、高い方向精度も求められる状況下でも、ドローンのように全方位に移動可能なホロノミック移動体や、自動車のように真横に移動できないノンホロノミック移動体のような、移動機構12のタイプの異なる何れの移動体1にも、共通の指令式で対応することができる。
The
記憶ユニット14は、目標位置画像記憶部14a、接近移動指令式記憶部14b、位置合せ指令式記憶部14cを有する。
The
目標位置画像記憶部14aは、事前に撮像しておいた1つ以上の目標位置画像を保存している。本実施例では、目標位置画像記憶部14aに蓄積された目標位置画像が撮像された位置を、経由地点もしくは最終目標位置として移動体1をナビゲートする。なお、ここに記憶する目標位置画像は、ナビゲーション対象の移動体1や別の移動体を事前に移動させて撮影したものであってもよいし、人が事前に撮影した目標位置画像やWebやクラウド等にある目標位置画像を登録したものであってもよい。但し、移動体1の画像取得部11が複数台のカメラで構成されている場合は、その位置関係が同一の目標位置画像を取得する必要がある。また、本実施例においては、画像取得部11と同じ高さから撮影した画像を用いるのが望ましいが、後述するように高さ方向の設置位置が異なる場合でも対応できる。これにより、本実施例では画像取得部11の設置位置の異なる移動体にも適用することができる。また、目標位置画像記憶部14aには、位置合せ指令部13dで用いる目標位置画像と接近移動司令部13cで用いる目標位置画像の指定情報を記憶してもよいし、接近移動司令部13cで用いる目標位置画像内に撮影されている物体情報を記憶してもよい。
The target position image storage unit 14a stores one or more target position images captured in advance. In this embodiment, the moving
接近移動指令式記憶部14bは、学習装置3で学習処理した「接近移動指令式」を学習装置3の接近移動指令式記憶部33cから適宜取得する。同様に、位置合せ指令式記憶部14cは、学習装置3で学習処理した「位置合せ指令式」を学習装置3の位置合せ指令式記憶部33dから適宜取得する。なお、接近移動指令式や位置合せ指令式の取得は、例えば、学習装置3が再学習を行ったタイミングで実施する。
The approach movement command
次に、データ収集用移動体2、学習装置3の構成例について、図2及び図3を参照して説明する。
Next, configuration examples of the
<データ収集用移動体2>
図2は、主に、データ収集用移動体2の構成例を説明する図であり、移動体1と学習装置3の一部構成も併せて表示している。データ収集用移動体2は、目標位置の近傍で学習用データを収集する装置であり、図2に示すように、画像取得部21、座標推定用センサ22、計算ユニット23、記憶ユニット24を有している。なお、本実施例では、システムの運用者等がデータ収集用移動体2を移動させながら学習用データを取得する運用を想定しているため、図2のデータ収集用移動体2では移動機構を省略しているが、データ収集用移動体2を自走させたい場合は、移動体1のように移動機構を設けても良い。
<
2 is a diagram mainly for explaining an example of the configuration of the data collection
画像取得部21は、データ収集用移動体2の現在位置から周囲を撮像した画像を取得するものであり、例えば、CCDイメージセンサやCMOSイメージセンサ等の撮像素子を備えた、1台以上のカメラから構成されている。画像取得部21により外界を撮像して得られた画像データは、後述する位置合せ用学習データ作成部23aと、画像記憶部24aに出力される。なお、移動環境を広く撮像し、多くの学習データを収集するため、設置位置(高さや移動方向に対する位置)や種類の異なる複数のカメラを搭載したり、広角レンズを備えたカメラを搭載したりするのが望ましい。但し、複数カメラの内の1つは、進行方向前方を撮像可能な位置および方向に取り付けることが望ましい。カメラの視野角や解像度は、なるべく大きいものが望ましい。さらに、カメラの高さや取り付け角度(ピッチ角やロール角)を変更できる機構を有することが望ましい。さらに、搭載時において、カメラの姿勢が動かないよう、固定するのが望ましい。しかし、カメラの姿勢を常に把握するシステムを搭載している場合、カメラの姿勢は固定されなくてもよい。このようにして、1台あるいは少数のデータ収集用移動体2を用いて様々な学習用データを収集することで、移動体の種類が異なる様々な条件に対応できる学習結果が得られるところに本実施例の特徴がある。
The
座標推定用センサ22は、データ収集用移動体2の座標を推定するために必要なデータを取得する。例えば、エンコーダなど車輪の回転数を取得するセンサを用いることで、車輪の回転数の累積からデータ収集用移動体2の座標を推定できる。また、モーションキャプチャシステムや電波などを発生するビーコンなど外部のセンサの情報も利用してデータ収集用移動体2の座標を推定してもよい。
The coordinate
計算ユニット23は、位置合せ用学習データ作成部23aと、座標推定部23bを有している。なお、データ収集用移動体2の記憶ユニット24には所定のプログラムが格納されており、このプログラムがメモリにロードされ、CPUによって実行されることで、位置合せ用学習データ作成部23aと、座標推定部23bが具現化される。
The
座標推定部23bは、座標推定用センサ22から入力されたセンサデータを用いて、データ収集用移動体2の位置の座標および向きを推定し、出力する。ここでの座標(および向き)は、ある地点に基準を定めた絶対座標でもよいし、一連の位置合せ用学習データの中での相対座標であってもよい。
The coordinate
位置合せ用学習データ作成部23aは、画像取得部21で取得された画像と、座標推定部23bから入力された座標(および向き)を合わせて位置合せ用学習データとして出力する。位置合せ用学習データとは、2枚の画像(式の入力)と、それぞれの画像が撮像された地点の移動量(相対位置姿勢:式の出力)の関係を位置合せ指令式に学習させるためのデータセットであり、複数の位置で撮像された画像と各画像が撮像された位置の座標がセットとなったデータから構成される。位置合せ用学習データ作成部23aは、入力された画像とその画像が撮像された位置の座標をセットとして関連付けて、位置合せ用学習データ記憶部24bへ出力する。
The registration learning
記憶ユニット24は、画像記憶部24aと、位置合せ用学習データ記憶部24bと、を有する。
The
画像記憶部24aは、後述する接近移動指令式を学習するための接近移動用学習データの作成に用いる画像を一時的に保存している。画像記憶部24aに一時的に保存された画像は、定期的あるいは学習を行う際に、学習装置3の画像記憶部33aに転送される。
The
また、位置合せ用学習データ記憶部24bは、位置合せ用学習データ作成部23aから入力された位置合せ用学習データを一時的に保存している。位置合せ用学習データ記憶部22bに一時的に保存された位置合せ用学習データは、定期的あるいは学習を行う際に、学習装置3の位置合せ用学習データ記憶部33bに転送される。
The alignment learning
<学習装置3>
図3は、主に、学習装置3の構成例を説明する図であり、移動体1とデータ収集用移動体2の一部構成も併せて表示している。学習装置3は、データ収集用移動体2から転送された学習用データに基づいて接近移動指令式や位置合せ指令式を学習する装置であり、図3に示すように、物体領域入力部31、計算ユニット32(接近移動用学習データ作成部32a、接近移動学習前処理部32b、接近移動指令式学習部32c、位置合せ学習前処理部32d、位置合せ指令式学習部32e)、記憶ユニット33(画像記憶部33a、位置合せ用学習データ記憶部33b、接近移動指令式記憶部33c、位置合せ指令式記憶部33d)を有している。
<Learning device 3>
3 is a diagram mainly for explaining an example of the configuration of the learning device 3, and also shows some configurations of the moving
<位置合せ指令式の学習処理>
まずは、位置合せ用学習データ記憶部33b、位置合せ学習前処理部32d、位置合せ指令式学習部32e、位置合せ指令式記憶部33dによる、位置合せ指令式の学習処理について説明する。
<Learning process of alignment command formula>
First, the alignment command formula learning process performed by the alignment learning
位置合せ用学習データ記憶部33bは、データ収集用移動体2の位置合せ用学習データ記憶部24bから転送された位置合せ用学習データを適宜蓄積する。また、図示していないが、既に別の装置や別の機会で獲得された学習データがWebやクラウド上にある場合はそこからも位置合せ用学習データを蓄積する。
The positioning learning
次に、位置合せ学習前処理部32dは、位置合せ指令式の推定精度を向上させるために、位置合せ用学習データのバリエーションを増やす。例えば、位置合せ用学習データの各画像に対して、コントラスト調整やガンマ変換などの照明条件に関係する画像処理、ノイズの付加、画像の一部の削除等のロバスト性に関係する処理を行うことで、学習データのバリエーションを増やす。なお、画像を変換しても、対応する座標は変化させない。このようにすることで、広範囲な環境の移動時に、学習データの画像取得時と実画像取得時の間の環境変化(人や物の配置、照明条件など)に対してもロバストな学習結果が得られるところに本実施例の特徴がある。
Next, the alignment
ここで、位置合せ指令式を詳細に説明する。位置合せ指令式は、位置pとqで撮像された画像PとQを入力として、位置pを原点としたときの位置qの座標、つまり移動量を出力する式である。まず、位置合せ指令式の一例として(式1)がある。なお、ここでは説明の簡略化のため、単純な(式1)を用いて説明するが、(式1)は深層ニューラルネットワークの内の1層分を表しており、実際には、出力u1(以下、添え字は層の番号)が入力x2としてさらに(式1)に入力され、その出力u2がさらに入力x3として(式1)に入力されるという繰り返し処理が層数分行われる、より複雑な計算式が用いられる。 Here, the alignment command formula will be described in detail. The alignment command formula is a formula that takes images P and Q captured at positions p and q as inputs, and outputs the coordinates of position q when position p is the origin, that is, the amount of movement. First, there is (Formula 1) as an example of the alignment command formula. Note that, for the sake of simplicity, the explanation will be given using the simple (Formula 1), but (Formula 1) represents one layer of a deep neural network, and in reality, a more complicated calculation formula is used in which the output u 1 (hereinafter, the subscript is the layer number) is further input to (Formula 1) as input x 2 , and the output u 2 is further input to (Formula 1) as input x 3 , and this is repeated for the number of layers.
(式1)においてxは、画像PとQを表すベクトル(以下、二地点画像データと呼称)である。fは非線形関数、uは、位置pからqへの移動量を表すベクトルで、(X、Y、θ)の三次元からなる。uは、カルテシアン座標系で、位置pを原点としたとき、Xは画像正面方向、Yは画像左手方向、θは画像正面を0として反時計回りを正とする。そして、Wはxの重み係数行列である。そして、bはシフト量を表す係数である。 In (Equation 1), x is a vector representing images P and Q (hereafter referred to as two-point image data). f is a nonlinear function, u is a vector representing the amount of movement from position p to q, and is three-dimensional (X, Y, θ). u is a Cartesian coordinate system in which, when position p is the origin, X is the direction toward the front of the image, Y is the direction to the left of the image, and θ is positive with the front of the image being 0. And W is the weighting coefficient matrix for x. And b is a coefficient representing the amount of shift.
本実施例における位置合せ指令式の学習処理は、二地点画像データxが入力された際に出力される二地点の移動量uが、より的確な判定結果を出力するように、係数行列Wとシフト量bを調整する処理である。学習の結果、移動体1は、(式1)における学習済みの係数行列Wとシフト量bを用いた位置合せ指令式により、二地点画像データxから二地点の移動量を推定可能になる。
The learning process of the alignment command formula in this embodiment is a process of adjusting the coefficient matrix W and the shift amount b so that the movement amount u between two points output when two-point image data x is input outputs a more accurate determination result. As a result of learning, the moving
ここから、位置合せ指令式学習部32eで行われる位置合せ指令式の学習処理を説明する。まずは、位置合せ学習前処理部32dから入力される位置合せ用学習データ群のうち、ランダムにいくつかの学習データを取り出す。そして、係数行列Wの初期値と、シフト量bの初期値を代入した(式1)に対して、取り出された各データのそれぞれの二地点画像データxを入力し、(式1)によって算出されたuと実際の二地点の移動量u’の誤差eを計算し、誤差の合計値Eを算出する。そして、誤差の合計値Eがより小さくなるように係数行列Wとシフト量bを微小変化させる。ここでの係数行列Wとシフト量bの微小変化のさせ方としては、例えば勾配降下法などが利用できる。この学習処理を、位置合せ用学習データ群のすべてに対して行う。
Now, the learning process of the alignment command formula performed by the alignment command
以上の手順が繰り返されることで、誤差の合計値Eは次第に小さくなっていき、学習終了条件を満たすまで、位置合せ指令式を更新し続ける。なお、学習終了条件としては、例えば、位置合せ用学習データ群に対する学習処理を一定回数に達するまで行う条件や誤差の合計値Eが最小の条件などがある。こうして得られた位置合せ指令式によって出力される二地点の移動量が、二地点画像xに対する最適な移動量とみなされる。したがって、移動体1の現在位置画像と目標位置画像をxとして入力することで、目標位置までの距離と方向が算出できる。さらに、多様かつ大量の位置合せ用学習データで学習処理を行うことによって、位置合せ用学習データに含まれていない初めての場所でも、環境変化がある場合でも目標位置までの移動距離を算出可能となる。
By repeating the above procedure, the total error value E gradually decreases, and the alignment command formula continues to be updated until the learning end condition is met. The learning end condition may be, for example, a condition in which the learning process for the group of alignment learning data is performed a certain number of times, or a condition in which the total error value E is the smallest. The amount of movement between the two points output by the alignment command formula thus obtained is considered to be the optimal amount of movement for the two-point image x. Therefore, by inputting the current position image and the target position image of the moving
このようにして算出された、学習処理終了後の係数行列W、シフト量bを含む位置合せ指令式(式1)は、位置合せ指令式記憶部33dに格納される。そして、移動体1の運用前などのタイミングで、移動体1の位置合せ指令式記憶部14cに位置合せ指令式を転送する。
The alignment command formula (Formula 1) calculated in this manner, including the coefficient matrix W and shift amount b after the learning process is completed, is stored in the alignment command
<接近移動指令式の学習処理>
次に、物体領域入力部31、画像記憶部33a、接近移動用学習データ作成部32a、接近移動学習前処理部32b、接近移動指令式学習部32c、接近移動指令式記憶部33cによる、接近移動指令式の学習処理について説明する。
<Learning process of approach movement command type>
Next, the learning process of the approach movement command formula by the object
画像記憶部33aは、データ収集用移動体2の画像記憶部24aから転送された画像を適宜蓄積する。
The
次に、接近移動用学習データ生成部32aは、画像記憶部33aに蓄積された画像から接近移動用学習データを作成する。具体的には、接近移動用学習データ作成部32aは、画像記憶部33aから入力された画像に対して、移動のためのランドマークとなりうる物体(例えば、ドアなど)が画像内のどの範囲に写っているかを判断し、ランドマークの写っている物体領域部分を指定する。物体領域部分の指定は、人間が物体領域入力部31を通して指定しても良い。その場合、物体領域部分の指定方法は、例えば、いわゆるバウンディングボックス(物体を取り囲む長方形)を用いてもよい。物体領域入力部31は、例えば、マウスやキーボード、タッチスクリーンなどを用いてもよい。なお、物体領域部分の指定は、人間が行わなくても、色や形状などから自動的に抽出してもよい。物体領域を用いることで、物体の位置以外に物体の大きさ情報も得ることができる。この物体領域情報と画像のセットが接近移動用学習データとなる。このとき、図示していないが、既に別の装置や別の機会で獲得された学習データがWebやクラウド上にある場合はそこから得た学習データを利用しても良い。
Next, the approach movement learning
次に、接近移動学習前処理部32bは、接近移動指令式の推定精度を向上させるために、接近移動用学習データのバリエーションを増やす。例えば、接近移動用学習データの各画像に対して、コントラスト調整やガンマ変換などの照明条件に関係する画像処理、ノイズの付加、画像の一部の削除等のロバスト性に関係する処理を行うことで、データのバリエーションを増やす。なお、画像を変換しても、対応する物体領域は変化させない。このようにすることで、学習データに含まれていない画像であっても、学習データの画像取得時と実画像取得時の間の環境変化(人や物の配置、照明条件など)に対してもロバストな学習結果が得られるところに本実施例の特徴がある。
Next, the approach movement learning
ここで、接近移動指令式を詳細に説明する。接近移動指令式は、二段階の式によって構成される。まずは、接近移動指令式に入力された現在位置画像と目標位置画像の中からそれぞれランドマークとなる物体を検出する。そして、検出された物体の位置を用いて目標位置の方向を計算する。 Here, we will explain the approach movement command formula in detail. The approach movement command formula is composed of a two-stage formula. First, landmark objects are detected from the current position image and the target position image input into the approach movement command formula. Then, the position of the detected objects is used to calculate the direction of the target position.
接近移動指令式の一段階目となる物体の検出は、例えば、位置合せ指令式(式1)と同様に(式2)で表せる。なお、ここでは説明の簡略化のため、前述同様に、単純な(式2)を用いているが、(式2)は深層ニューラルネットワークの内の1層分を表しており、実際には、出力u’1(以下、添え字は層の番号)が入力x’2としてさらに(式2)に入力され、その出力u’2がさらにx’3として(式2)に入力されるという繰り返し処理が層数分行われる、より複雑な計算式が用いられる。 The detection of an object, which is the first stage of the approach movement command formula, can be expressed, for example, by (Formula 2) in the same way as the alignment command formula (Formula 1). Note that, for the sake of simplicity of explanation, the simple (Formula 2) is used here as in the above, but (Formula 2) represents one layer of a deep neural network, and in reality, a more complicated calculation formula is used in which the output u' 1 (hereinafter, the subscript is the layer number) is further input to (Formula 2) as input x' 2 , and the output u' 2 is further input to (Formula 2) as x' 3 , and this repeated processing is performed the number of times equal to the number of layers.
なお、ここでのx’は、1枚の画像のベクトルであり、u’は、検出した物体の種類とその確信度と画像内での位置および大きさを表すベクトルである。検出した物体の確信度は、検出する物体ごとに0から1までの数値として表される、数値が大きいほどその物体である可能性が高い。また、検出した物体の位置および大きさは、例えばバウンディングボックスの幅、高さ、中心点のピクセル位置で表される。 In this case, x' is a vector of one image, and u' is a vector that represents the type of detected object, its certainty, and its position and size within the image. The certainty of a detected object is expressed as a number between 0 and 1 for each object detected; the larger the number, the more likely it is that object. The position and size of a detected object are expressed, for example, by the width, height, and pixel position of the center point of the bounding box.
そして、位置合せ指令式の学習処理と同様に、接近移動用学習データを用いて(式2)を学習することで、画像の中からランドマークとなる物体を検出可能になる。このとき、入力画像を複数枚に切り出すことで複数の物体を同時に検出することも可能である。ランドマークとなる物体には、植木、看板(サイネージ)、ドア、照明、ポール、窓などの固定物を用いるが、人等の移動物の影響を避けるために上方に設置されたものを用いる方がよい。 Then, similar to the learning process for the alignment command formula, by learning (Equation 2) using the approach movement learning data, it becomes possible to detect landmark objects from within the image. At this time, it is also possible to simultaneously detect multiple objects by cutting the input image into multiple images. Fixed objects such as plants, signs, doors, lights, poles, and windows can be used as landmark objects, but it is better to use objects installed above to avoid the influence of moving objects such as people.
接近移動指令式の二段階目は、例えば、以下の(式3)で表すことができる。 The second stage of the approach movement command formula can be expressed, for example, as follows (Formula 3).
なお、(式3)において、u1、u2は、それぞれ現在位置画像と目標位置画像から共通に検出された物体(同じ物体の種類)のピクセル位置である。複数の物体を検出する場合は、物体の数に対応した式を用意する必要がある。ここで、高さ方向の検出が不要な場合は画像の幅方向のピクセル位置のみを使用すればよい。この場合、高さの異なる位置で撮像した画像も用いることができ、目標位置画像の撮像方法や移動体の種類が自由に選択できる。yは目標位置の方向、kは係数行列、gは幾何学的な変換を演算する関数である。 In (Equation 3), u 1 and u 2 are pixel positions of objects (same object type) commonly detected from the current position image and the target position image. When detecting multiple objects, it is necessary to prepare an equation corresponding to the number of objects. Here, if detection in the height direction is not required, only the pixel position in the width direction of the image may be used. In this case, images captured at positions with different heights can also be used, and the imaging method of the target position image and the type of moving object can be freely selected. y is the direction of the target position, k is a coefficient matrix, and g is a function that calculates a geometric transformation.
このようにして算出された、学習処理終了後の係数行列W’、シフト量b’を含む接近移動指令式(式2)(式3)は、接近移動指令式記憶部33cに格納される。そして、移動体1の運用前などのタイミングで、移動体1の接近移動指令式記憶部14bに接近移動指令式を転送する。
The approach movement command formulas (Formula 2) and (Formula 3) calculated in this manner, including the coefficient matrix W' and shift amount b' after the learning process is completed, are stored in the approach movement command
<ナビゲーションシステム100のフローチャート>
図4は、以上で説明してきた、移動体1、データ収集用移動体2、学習装置3からなる、本実施例のナビゲーションシステム100による一連の処理の一例を示すフローチャートである。なお、図4は、説明のために一例を示したものであり、本発明の手順を限定するものではない。
<Flowchart of the
Fig. 4 is a flowchart showing an example of a series of processes performed by the
<ステップS1>
まず、ステップS1では、データ収集用移動体2を用いて、目標位置近傍の画像と座標を収集する。収集した画像は接近移動用学習データ作成部32aで接近移動用学習データを作成するために用いられ、また、画像と座標のデータセットは位置合せ学習前処理部32dに入力される位置合せ用学習データとして用いられる。
<Step S1>
First, in step S1, images and coordinates in the vicinity of the target position are collected using the data collection
ここで、図5と図6を用いて、ドアDの前に目標位置Gを設定した状況下での、データ収集用移動体2による各データの収集方法を説明する。
Here, using Figures 5 and 6, we will explain how the
図5は、ドアDの前に目標位置Gを設定した場合に、接近移動用学習データの作成に必要な画像を撮像できるデータ収集範囲A1を例示する図である。この図から明らかなように、データ収集用移動体2は扇形状(図5では三角形状に簡略化)のデータ収集範囲A1内にいるときに、目標位置Gに接近する際のランドマークとなるドアDを撮像できる。従って、学習データ収集用移動体2を、データ収集範囲A1内で様々に移動させながら、接近移動用学習データの作成に必要な、ドアD(ランドマーク)が撮像された様々な画像を収集する。なお、類似画像が多数あっても学習データとしてはあまり有用ではないため、ドアDとの距離や角度あるいは照明の明るさなど様々な位置や条件で満遍なく画像を収集することが望ましい。また、データ収集用移動体2をデータ収集範囲A1内でランダムに移動させた際に動画を撮影しておき、後程、動画から画像を切り出すことで画像の収集作業を簡単にすることもできる。
FIG. 5 is a diagram illustrating a data collection range A1 in which images necessary for creating learning data for approaching movement can be captured when a target position G is set in front of a door D. As is clear from this figure, when the data
一方、図6は、ドアDの前に目標位置Gを設定した場合に、位置合せ用学習データである、画像と座標のデータセットを収集するデータ収集範囲A2を例示する図である。ここでは、目標位置Gの周囲(例えば、目標位置Gを囲む1m程度の正方形の範囲)でデータ収集用移動体2を移動させ、高密度に画像と座標のデータセットを収集する。例えば、図右側の吹き出し内に示すように、目標位置Gの周囲に設定した高密度のグリッドの各地点で、データ収集用移動体2の画像取得部21を様々な方向に向けてデータセットを収集するとよい。この際の、各グリッドの距離dや、各グリッドにおけるデータ収集方向の刻み幅Δθは、本実施例を用いた移動体1の目標精度を考慮して設定すればよい。なお、クリッド間の位置における学習データは、学習により補間しても良い。
On the other hand, FIG. 6 is a diagram illustrating a data collection range A2 for collecting a data set of images and coordinates, which is learning data for alignment, when a target position G is set in front of a door D. Here, the data collection
<ステップS2>
ステップS2では、学習装置3を用いて、接近移動指令式と位置合せ指令式を学習する。この学習処理の詳細を図7に示すフローチャートを用いて説明する。
<Step S2>
In step S2, the approach movement command formula and the position alignment command formula are learned using the learning device 3. Details of this learning process will be described with reference to the flow chart shown in FIG.
まず、ステップS21では、接近移動用学習データ作成部32aは、物体領域入力部31を介して指定されたランドマーク(例えば、ドアD)が撮像された画像を、画像記憶部33aから取得し、接近移動用学習データを作成する。次に、接近移動学習前処理部32bは、接近移動用学習データ作成部32aから接近移動用学習データを読み込み、位置合せ学習前処理部32dは、位置合せ用学習データ記憶部33bから位置合せ用学習データを読み込む。
First, in step S21, the approach movement learning
次に、ステップS22では、接近移動学習前処理部32bと、位置合せ学習前処理部32dで各学習データに対して前処理を実施し、各学習データのバリエーションを増やす。
Next, in step S22, the approach movement learning
ステップS23では、接近移動指令式学習部32cで接近移動指令式の学習処理を行い、位置合せ指令式学習部32eで位置合せ指令式の学習処理を行う。
In step S23, the approach movement command
最後に、ステップS24では、学習済みの接近移動指令式(例えば、式2、式3)を接近移動指令式記憶部33cに保存し、位置合せ指令式(例えば、式1)を位置合せ指令式記憶部33dに保存する。
Finally, in step S24, the learned approach movement command formula (e.g.,
<ステップS3>
ステップS3では、移動体1やデータ収集用移動体2の画像取得部、あるいは、システムの運用者が携帯するデジタルカメラなどを用いて、移動体1の実移動環境の目標位置(最終的な目標位置、および、経由地点)としたい地点で、ランドマークとなりうる物体を含む目標位置画像を撮像し、移動体1の目標位置画像記憶部14aに登録する。移動体1の自律移動時には、本ステップで目標位置画像記憶部14aに登録した目標位置画像が目標位置を示すデータとなる。
<Step S3>
In step S3, a target position image including an object that can be a landmark is captured at a point that is to be the target position (final target position and waypoint) in the actual moving environment of the
なお、本ステップでの撮像位置は、ステップS1での撮像位置とは異なるが、ステップS2で学習処理した各指令式が有用である程度に、ステップS1と本ステップの撮像位置の周囲環境が類似しているものとする。換言すれば、実移動環境の目標位置に類似する環境に対し、データ収集用移動体2と学習装置3を利用した学習処理を済ませておく必要があり、そのような環境に対する学習処理が完了していない場合は、そのような環境に対してステップS1、S2の処理を実施するよう配慮する必要がある。
Note that the imaging position in this step is different from the imaging position in step S1, but the surrounding environments of the imaging positions in step S1 and this step are similar to the extent that the command formulas learned in step S2 are useful. In other words, it is necessary to complete the learning process using the
<ステップS4>
ステップS4では、移動体1に目標位置までの自律移動を実施させる。環境に変化がなければ、本ステップの処理は繰り返し実行される。
<Step S4>
In step S4, the moving
図8は、本ステップの一例を詳細に示すフローチャートである。ここに示す各処理は並列して実行しても良いが、ここでは簡単のため、その手順をシーケンシャルに説明する。 Figure 8 is a flowchart showing an example of this step in detail. Each process shown here may be executed in parallel, but for simplicity, the procedure is explained sequentially here.
ステップS41:まず、移動切替部13aが移動体1の移動方法を「位置合せ」に切り替えるかを判断する。例えば、現在位置画像と目標位置画像の類似度が一定値以上になった場合、ランドマークとなる物体が閾値以上の大きさになった場合、相対位置姿勢が閾値以下の値に連続してなっている場合に、「位置合せ」への切り替えを判断する。判断の結果、「位置合せ」へ切替える場合は(Yes)ステップS42へ移る。一方、引き続き「大域移動」や「接近移動」を実行する場合は(No)ステップS44へ移る。
Step S41: First, the
ステップS42:移動体1は、位置合せ指令部11dからの指令により目標位置に向けて移動する。本ステップでの移動は、位置合せ指令式に基づいて目標位置へ移動する。所定の時間移動を行うとステップS43へ移る。
Step S42: The moving
ステップS43:移動切替部13aが「位置合せ」が終了したかどうか、すなわち、移動体1が目標位置に到達したか、を判断する。例えば、位置合せ指令式から算出される目標位置までの相対位置姿勢値が許容値以下であれば目標位置に到達したと判断して走行を終了し、そうでなければ(No)、目標位置への「位置合せ」を継続すべく、ステップS41へ移る。
Step S43: The
ステップS44:移動切替部13aが移動体1の移動方法を「接近移動」に切り替えるかを判断する。例えば、現在位置画像内に、予め取得しておいた目標位置画像に撮像されている物体(ランドマーク)が写っているかを判断し、共通の物体が写っていれば(Yes)、「接近移動」へ切替え、そうでなければならば(No)、ステップS46へ移る。
Step S44: The
ステップS45:移動体1は、接近移動指令部13cにより目標位置に向けて移動する。本ステップでの移動は、接近移動指令式に基づいて目標位置の方向へ向けて移動する。所定時間移動後、ステップS41へ移る。
Step S45: The moving
ステップS46:移動体は、大域移動指令部13bにより移動開始位置から目標位置に向けて移動する。所定時間移動後、ステップS41へ移る。
Step S46: The moving body is moved from the movement start position toward the target position by the global
本実施例は、目標位置までの移動を「大域移動」、「接近移動」、「位置合せ」の複数ステップに分けて行う点に1つの特徴がある。特に、「接近移動」における、現在位置画像の中でも目標位置画像内に写っている物体をランドマークとしてその部分のみに着目して移動方向のみを推定して移動する部分と、「位置合せ」における、現在位置画像と目標位置画像の画像全体を利用して目標位置までの相対位置姿勢を推定して移動する部分が、従来技術と異なる特徴である。 One feature of this embodiment is that the movement to the target position is divided into multiple steps: "global movement," "approach movement," and "alignment." In particular, what distinguishes this embodiment from conventional technology is the part in "approach movement" where an object in the target position image is used as a landmark in the current position image, focusing only on that part and estimating only the direction of movement, and the part in "alignment" where the entire current position image and target position image are used to estimate the relative position and orientation to the target position and move.
この特徴により、移動体1が目標位置の遠方におり現在位置画像に目標位置に関する情報が少ない場合は、目標位置の物体(ランドマーク)のみに着目して大まかに移動し、目標位置付近に近づいて現在位置画像内に目標位置に関する情報が増加してからはじめて現在位置画像と目標位置画像の画像全体を利用して目標位置までの相対位置姿勢を正確に推定する。但し、移動体1の位置と姿勢を正確に推定できる範囲は、図6に例示したような狭い範囲でのみである。これにより、現在位置画像にランドマーク以外の物体が増減するような走行環境の変化(例えば、ショッピングモール内での曜日による通行量の増減)が起きても、目標位置までより正確に移動して停止または通過することが可能となる。
Due to this feature, when the
なお、ステップS42で利用する現在位置画像は、過去数回の撮影回数分の画像を撮りためて、その差分を計算することにより通行人などの移動障害物が写っていない画像を選択することでより正確な移動ができる。 The current position image used in step S42 is obtained by storing images from the past few shots and calculating the difference between them to select an image that does not include moving obstacles such as pedestrians, allowing for more accurate movement.
<ステップS5>
最後に、ステップS5では、新しい環境での再学習が必要か、すなわち、学習済みの環境と非類似の環境を実走行する必要があるか、を運用者が判断し、必要だと判断したタイミングでステップS1、S2を再度実行する。一方、そのような必要がなければ、ステップS3に戻る。
<Step S5>
Finally, in step S5, the operator judges whether re-learning in a new environment is necessary, i.e., whether it is necessary to actually drive in an environment dissimilar to the learned environment, and executes steps S1 and S2 again when it is judged necessary. On the other hand, if there is no such need, the process returns to step S3.
以下、本実施例のナビゲーションシステム100の実装例について述べる。
The following describes an example of the implementation of the
図9は、移動体1が複数存在するナビゲーションシステム100の例を示す図である。この例のように、ナビゲーションシステムが複数の移動体1A~1Cを有する場合、データ収集用移動体2は、画像取得部21が移動体1A~1Cの画像取得部11の高さや取り付け角度に対応できるように、多様なデータを取得できるような機構を装備しておき、移動体1A~1Cの様々なカメラに合わせた設置条件で接近移動用学習データ、位置合せ用学習データを収集する。そして、蓄積された学習データをもとに接近移動指令式、位置合せ指令式の学習を行う。
Figure 9 is a diagram showing an example of a
以上のような構成及び手順により、走行環境の変化に対してロバストかつ、精度よく移動体を目標位置まで移動させることができるようにした、移動体のナビゲーション装置及びナビゲーションシステムを提供することができる。 The above-described configuration and procedures make it possible to provide a navigation device and navigation system for a moving object that is robust to changes in the driving environment and can move the moving object to a target position with high accuracy.
100 ナビゲーションシステム
1,1A~1C 移動体
11 画像取得部
12 移動機構
13 計算ユニット
13a 移動切替部
13b 大域移動指令部
13c 接近移動指令部
13d 位置合せ指令部
13e 移動制御部
14 記憶ユニット
14a 目標位置画像記憶部
14b 接近移動指令式記憶部
14c 位置合せ指令式記憶部
2 データ収集用移動体
21 画像取得部
22 座標推定用センサ
23 計算ユニット
23a 位置合せ用学習データ作成部
23b 座標推定部
24 記憶ユニット
24a 画像記憶部
24b 位置合せ用学習データ記憶部
3 学習装置
31 物体領域入力部
32 計算ユニット
32a 接近移動用学習データ生成部
32b 接近移動学習前処理部
32c 接近移動指令式学習部
32d 位置合せ学習前処理部
32e 位置合せ指令式学習部
33 記憶ユニット
33a 画像記憶部
33b 位置合せ用学習データ記憶部
33c 接近移動指令式記憶部
33d 位置合せ指令式記憶部
100
Claims (12)
現在位置画像を撮像する画像取得部と、
目標位置で撮像した目標位置画像を記憶した目標位置画像記憶部と、
接近移動指令式に基づいて前記目標位置に接近移動する移動指令を生成する接近移動指令部と、
位置合せ指令式に基づいて前記目標位置で停止する移動指令または前記目標位置を通過する移動指令を生成する位置合せ指令部と、
前記接近移動指令式もしくは前記位置合せ指令式の出力結果に応じて、前記接近移動指令部または前記位置合せ指令部の何れかを選択する移動切替部と、
前記移動指令に基づいて移動機構を制御する移動制御部と、
を具備しており、
前記接近移動指令式は、一枚の画像を入力すると画像内の物体位置と物体種類を出力する式から構成され、
前記位置合わせ指令式は、二か所の位置で撮像された画像を入力すると撮像位置の相対位置と相対姿勢を出力する式から構成されることを特徴とする移動体。 A moving body that moves autonomously,
an image acquisition unit that captures a current position image;
a target position image storage unit that stores a target position image captured at the target position;
an approach movement command unit that generates a movement command for approaching and moving to the target position based on an approach movement command formula;
a position alignment command unit that generates a movement command to stop at the target position or a movement command to pass through the target position based on a position alignment command formula;
a movement switching unit that selects either the approach movement command unit or the alignment command unit according to an output result of the approach movement command formula or the alignment command formula;
A movement control unit that controls a movement mechanism based on the movement command;
It is equipped with
The approach movement command formula is composed of a formula that outputs an object position and an object type in an image when an image is input,
A moving body, wherein the position alignment command formula is composed of a formula that outputs a relative position and a relative orientation of the imaging positions when images captured at two positions are input.
自律移動時には、前記移動切替部で使用する前記目標位置画像を前記経由地点の順に切り替えながら、前記最終目標位置へと自律移動することを特徴とする、請求項1に記載の移動体。 the target position image stored in the target position image storage unit is a target position image captured at a final target position and a target position image captured at a waypoint on the way to the final target position,
2. The moving body according to claim 1, wherein, during autonomous movement, the moving body autonomously moves to the final target position while switching the target position image used by the movement switching unit in the order of the waypoints.
前記現在位置画像と前記目標位置画像の類似度が所定の閾値以上になった場合、
前記現在位置画像と前記目標位置画像に同一種類の物体が写っており、前記現在位置画像の前記物体の大きさが所定の閾値以上になった場合、もしくは、
前記位置合せ指令式が出力する相対位置姿勢が所定の閾値以下なった場合、
の何れかの場合に、前記位置合わせ指令部を選択することを特徴とする、請求項1に記載の移動体。 The movement switching unit is
When the similarity between the current position image and the target position image is equal to or greater than a predetermined threshold value,
When the same type of object is captured in the current position image and the target position image, and the size of the object in the current position image is equal to or larger than a predetermined threshold, or
When the relative position and orientation output by the position alignment command formula becomes equal to or smaller than a predetermined threshold value,
2. The moving body according to claim 1, wherein the position alignment command unit is selected in any one of the above cases.
前記位置合わせ指令部を選択する条件は満たさないが、
前記目標位置画像と前記現在位置画像に同一種類の物体が映っている場合に、前記接近移動指令部を選択することを特徴とする、請求項5に記載の移動体。 The movement switching unit is
The condition for selecting the alignment command unit is not satisfied,
6. The moving body according to claim 5, wherein the approach movement command unit is selected when the same type of object is captured in the target position image and the current position image.
前記移動切替部は、前記大域移動指令部または前記接近移動指令部または前記位置合せ指令部の何れかを選択し、前記現在位置画像内に、前記目標位置画像に撮像されているランドマークとなる物体が写っているときに前記大域移動指令部による制御から前記接近移動指令部による制御に切り替えることを特徴とする請求項1に記載の移動体。 a global movement command unit that generates a movement command for moving in the direction of a target position when performing global movement;
The moving body according to claim 1, characterized in that the movement switching unit selects either the global movement command unit, the approach movement command unit, or the alignment command unit, and switches from control by the global movement command unit to control by the approach movement command unit when a landmark object captured in the target position image is captured in the current position image.
前記位置合せ指令式は、データ収集用移動体が収集した学習データを、学習装置で学習処理することで得たものであることを特徴とするナビゲーションシステム。 A navigation system for navigating a moving object according to any one of claims 1 to 8, comprising:
A navigation system according to claim 1, wherein the positioning command formula is obtained by subjecting learning data collected by a data-collecting mobile body to learning processing by a learning device.
前記接近移動指令式は、データ収集用移動体が収集した学習データを、学習装置で学習処理することで得たものであることを特徴とするナビゲーションシステム。 A navigation system for navigating a moving object according to any one of claims 1 to 8, comprising:
A navigation system according to claim 1, wherein the approach movement command formula is obtained by subjecting learning data collected by a data-collecting mobile body to learning processing by a learning device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019234249A JP7461737B2 (en) | 2019-12-25 | 2019-12-25 | Mobile object and its navigation system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019234249A JP7461737B2 (en) | 2019-12-25 | 2019-12-25 | Mobile object and its navigation system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021103421A JP2021103421A (en) | 2021-07-15 |
JP7461737B2 true JP7461737B2 (en) | 2024-04-04 |
Family
ID=76755170
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019234249A Active JP7461737B2 (en) | 2019-12-25 | 2019-12-25 | Mobile object and its navigation system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7461737B2 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003177821A (en) | 2001-12-11 | 2003-06-27 | Honda Motor Co Ltd | Device, method and program for guiding traveling object |
JP2010140080A (en) | 2008-12-09 | 2010-06-24 | Yaskawa Electric Corp | Control method and control device for mobile object, and mobile object system |
US20170151883A1 (en) | 2015-11-30 | 2017-06-01 | Faraday&Future Inc. | Camera-based vehicle position determination with known target |
JP2019197350A (en) | 2018-05-09 | 2019-11-14 | 株式会社日立製作所 | Self-position estimation system, autonomous mobile system and self-position estimation method |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5500449B2 (en) * | 2010-09-21 | 2014-05-21 | 株式会社安川電機 | Moving body |
-
2019
- 2019-12-25 JP JP2019234249A patent/JP7461737B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003177821A (en) | 2001-12-11 | 2003-06-27 | Honda Motor Co Ltd | Device, method and program for guiding traveling object |
JP2010140080A (en) | 2008-12-09 | 2010-06-24 | Yaskawa Electric Corp | Control method and control device for mobile object, and mobile object system |
US20170151883A1 (en) | 2015-11-30 | 2017-06-01 | Faraday&Future Inc. | Camera-based vehicle position determination with known target |
JP2019197350A (en) | 2018-05-09 | 2019-11-14 | 株式会社日立製作所 | Self-position estimation system, autonomous mobile system and self-position estimation method |
Also Published As
Publication number | Publication date |
---|---|
JP2021103421A (en) | 2021-07-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Asadi et al. | An integrated UGV-UAV system for construction site data collection | |
Zhang et al. | Localization and navigation using QR code for mobile robot in indoor environment | |
CN110969655B (en) | Method, device, equipment, storage medium and vehicle for detecting parking space | |
US11107230B2 (en) | Systems and methods for depth estimation using monocular images | |
US20210146540A1 (en) | Method of identifying dynamic obstacle and robot implementing same | |
KR101539270B1 (en) | sensor fusion based hybrid reactive motion planning method for collision avoidance and autonomous navigation, recording medium and mobile robot for performing the method | |
KR101372482B1 (en) | Method and apparatus of path planning for a mobile robot | |
Prusak et al. | Pose estimation and map building with a time-of-flight-camera for robot navigation | |
JP4798450B2 (en) | Navigation device and control method thereof | |
JP2019125354A (en) | Information processor, system, method, and program | |
JP5018458B2 (en) | Coordinate correction method, coordinate correction program, and autonomous mobile robot | |
JP2007316966A (en) | Mobile robot, control method thereof and program | |
JPH03201110A (en) | Position azimuth detecting device for autonomous traveling vehicle | |
JP2009193240A (en) | Mobile robot and method for generating environment map | |
US11175664B1 (en) | Navigation directly from perception data without pre-mapping | |
Chatterjee et al. | Mobile robot navigation | |
KR101341204B1 (en) | Device and method for estimating location of mobile robot using raiser scanner and structure | |
CN113661505A (en) | System and method for calibrating attitude of sensor associated with materials handling vehicle | |
CN112652001B (en) | Underwater robot multi-sensor fusion positioning system based on extended Kalman filtering | |
US20220214696A1 (en) | Simultaneous Localization and Mapping | |
Beinschob et al. | Advances in 3d data acquisition, mapping and localization in modern large-scale warehouses | |
WO2022238189A1 (en) | Method of acquiring sensor data on a construction site, construction robot system, computer program product, and training method | |
CN113096190A (en) | Omnidirectional mobile robot navigation method based on visual map building | |
KR100784125B1 (en) | Method for extracting coordinates of landmark of mobile robot with a single camera | |
JP7461737B2 (en) | Mobile object and its navigation system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220902 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230727 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230801 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20230929 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231129 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240220 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240304 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240319 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240325 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7461737 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |