JP7461737B2 - Mobile object and its navigation system - Google Patents

Mobile object and its navigation system Download PDF

Info

Publication number
JP7461737B2
JP7461737B2 JP2019234249A JP2019234249A JP7461737B2 JP 7461737 B2 JP7461737 B2 JP 7461737B2 JP 2019234249 A JP2019234249 A JP 2019234249A JP 2019234249 A JP2019234249 A JP 2019234249A JP 7461737 B2 JP7461737 B2 JP 7461737B2
Authority
JP
Japan
Prior art keywords
image
movement
target position
unit
formula
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019234249A
Other languages
Japanese (ja)
Other versions
JP2021103421A (en
Inventor
祐樹 金山
健次郎 山本
洋 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2019234249A priority Critical patent/JP7461737B2/en
Publication of JP2021103421A publication Critical patent/JP2021103421A/en
Application granted granted Critical
Publication of JP7461737B2 publication Critical patent/JP7461737B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Description

本発明は、自律移動する移動体、および、そのナビゲーションシステムに関し、特に、データ収集用移動体が収集したデータを用いて、学習装置が接近移動指令式や位置合せ指令式を学習し、学習した接近移動指令式や位置合せ指令式を利用して移動体が目標位置へ接近移動したり位置合せしたりするための指令を生成するシステムに関する。 The present invention relates to an autonomously moving vehicle and its navigation system, and in particular to a system in which a learning device learns approach movement command formulas and alignment command formulas using data collected by a data-collecting vehicle, and generates commands for the vehicle to approach and align to a target position using the learned approach movement command formulas and alignment command formulas.

近年、自律的に移動しながら、運搬、案内、作業などを行う移動体が、工場、病院、公共施設など多くの屋内施設で稼働し始めている。このような移動体のナビゲーションには、環境側にガイドシステム(屋内GPS、マーキング等)を設置する方法や、事前に走行環境を移動させて収集した環境情報(形状や画像等)から作成した地図を用い、現在取得中の環境情報と地図上のランドマーク情報とを照合しながら目標位置まで移動する方法などがある。しかし、環境側の整備作業や高信頼地図の作成作業、地図との照合処理等のソフト開発作業などの事前準備が大きな負荷となっている。 In recent years, mobile objects that move autonomously while transporting goods, providing guidance, and carrying out tasks have begun to operate in many indoor facilities, such as factories, hospitals, and public facilities. Navigation for such mobile objects can be achieved in a variety of ways, including installing a guide system (indoor GPS, markings, etc.) in the environment, or using a map created from environmental information (shape, images, etc.) collected in advance by moving around the driving environment, and moving to a target location while matching the currently acquired environmental information with landmark information on the map. However, advance preparations such as the maintenance of the environment, the creation of a highly reliable map, and software development work for map matching, etc., are a heavy burden.

この課題を解決するナビゲーション技術として、例えば、特許文献1の請求項1には、「撮像装置をそなえた移動体の走行経路上で予め撮像された教示画像と、前記撮像装置によって撮像された実画像と、を比較して前記実画像と前記教示画像との一致度が大きくなるように前記移動体の走行を制御する移動体の制御方法であって、前記教示画像と前記実画像とに基づいて前記移動体を定常速度で走行させる定常走行ステップと、前記複数の教示画像の中から予め設定された減速開始位置画像と前記実画像との一致度が予め設定された第1閾値に達すると前記移動体を前記定常速度よりも小さい減速速度で走行させる低速走行ステップと、前記複数の教示画像の中から予め設定された位置決め開始位置画像と前記実画像との一致度が予め設定された第2閾値に達すると前記移動体を前記減速速度よりも小さい位置決め速度で走行させる位置決めステップと、前記複数の教示画像の中から予め設定された目標位置画像と前記実画像との一致度が予め設定された第3閾値に達すると前記駆動装置を停止させる停止ステップと、を有していることを特徴とする移動体の制御方法」が開示されている。特許文献1が開示するナビゲーション技術によれば、事前準備として、目標停止位置までの複数の位置での画像を取得し、特に、進行方向(前後方向)において減速する位置での画像を複数用意するだけで、多段階に減速を行い、停止位置の精度を向上させることができる。 As a navigation technology that solves this problem, for example, claim 1 of Patent Document 1 discloses a method for controlling a moving body, which includes comparing a teaching image captured in advance on a travel path of a moving body equipped with an imaging device with an actual image captured by the imaging device, and controlling the travel of the moving body so that the degree of match between the actual image and the teaching image increases, the method comprising: a steady travel step for causing the moving body to travel at a steady speed based on the teaching image and the actual image; a low-speed travel step for causing the moving body to travel at a deceleration speed lower than the steady speed when the degree of match between a deceleration start position image preset from among the plurality of teaching images and the actual image reaches a preset first threshold; a positioning step for causing the moving body to travel at a positioning speed lower than the deceleration speed when the degree of match between a positioning start position image preset from among the plurality of teaching images and the actual image reaches a preset second threshold; and a stop step for stopping the drive unit when the degree of match between a target position image preset from among the plurality of teaching images and the actual image reaches a preset third threshold. According to the navigation technology disclosed in Patent Document 1, images are acquired at multiple positions up to the target stopping position as a preliminary step, and in particular, by simply preparing multiple images at positions where the vehicle will decelerate in the direction of travel (forward/backward), the vehicle can decelerate in multiple stages, improving the accuracy of the stopping position.

特開2010-140080号公報JP 2010-140080 A

しかしながら、特許文献1のナビゲーション技術は、予め撮像した画像(目標位置画像/教示画像)と走行中に撮像される画像(実画像)の一致度、および教示画像の特徴点の位置と実画像中の対応する特徴点の位置の差異を用いて移動体の左右位置を制御している点において、例えば工場の廊下などの環境変化が比較的小さい環境(物体の多さや配置変化、通行人の有無、照明の明るさなど)かつ停止目標位置近傍の直線的な移動の条件下では目標位置へ高精度に移動できるが、ショッピングモールや公共施設などの環境変化が大きい環境や広い移動環境に適用する場合や、狭い環境での移動体の位置姿勢(向き、方位)の高精度な移動方法に適用する場合、全方位移動可能(ホロノミック)な移動体や自動車のように真横移動ができない移動体(ノンホロノミック)のようなタイプの異なる自律移動体に適応する場合には、移動精度の低下や処理の破綻、パラメータチューニング等の事前準備負荷の増大といった課題が生じ、目標停止位置で正確に停止できない可能性も考えられる。 However, the navigation technology of Patent Document 1 controls the left and right position of a moving object using the degree of agreement between an image captured in advance (target position image/instruction image) and an image captured during driving (actual image) and the difference between the positions of feature points in the instruction image and the positions of corresponding feature points in the actual image. In this respect, the technology can move to a target position with high accuracy in an environment with relatively small environmental changes, such as a factory corridor (the number of objects, changes in their placement, the presence or absence of passersby, the brightness of lighting, etc.) and in linear movement near the target stopping position. However, when applied to an environment with large environmental changes such as a shopping mall or public facility, or a wide moving environment, or when applied to a highly accurate moving method for the position and attitude (direction, orientation) of a moving object in a narrow environment, or when applied to a different type of autonomous moving object such as a moving object that can move in all directions (holonomic) or a moving object that cannot move sideways like a car (nonholonomic), problems such as a decrease in movement accuracy, processing failure, and an increase in the load of advance preparation such as parameter tuning may arise, and it may not be possible to stop accurately at the target stopping position.

より具体的な例としては、特許文献1記載の技術は、画像の一致度算出や画像間の特徴点の比較により移動体を制御しているので、教示画像取得時と実画像取得時の間の環境変化(人や物の配置、照明条件など)により、一致度の変化や特徴点の特性変化および消失(照明や影、隠れなどに起因)による対応付けの失敗が生じ、結果として、ショッピングモールや公共施設などの動的環境下では移動精度の低下や制御破綻といった課題がある。同課題は特に、移動体と周囲の物との距離がある場合もしくは目標位置まで距離がある場合の広範囲な移動時において、移動体の移動量に対し教示画像と実画像の変化が少ない上に、移動体と周囲の物の間に人や他の物体が撮像されやすいといった状況において顕著となる。 As a more specific example, the technology described in Patent Document 1 controls a moving object by calculating the degree of match between images and comparing feature points between images. Therefore, environmental changes (such as the placement of people and objects, lighting conditions, etc.) between when the teaching image is acquired and when the actual image is acquired can cause changes in the degree of match and changes in the characteristics of feature points or their disappearance (due to lighting, shadows, occlusion, etc.), resulting in problems such as reduced movement accuracy and control failure in dynamic environments such as shopping malls and public facilities. This problem is particularly evident in situations where there is a distance between the moving object and surrounding objects, or when moving over a wide area with a distance to the target position, there is little change between the teaching image and the actual image relative to the amount of movement of the moving object, and people and other objects are easily captured between the moving object and surrounding objects.

また同時に、特許文献1に記載の技術は、画像の一致度算出や画像間の特徴点の比較により逐次的に移動体の速度および左右方向の位置を制御しているので、例えばドアなどの狭い場所を通過する場合(ドア開け通過)のように、位置に加え向きの精度が求められ、かつ目標位置に至る経路での位置姿勢(位置および向き)の計画(自動車の車庫入れのような計画)が必要な場合には対応できず、高精度な位置精度を実現できないという課題がある。同課題は、特にノンホロノミックな移動体において顕著であり、様々な移動方法および移動体に対応できないという課題がある。 At the same time, the technology described in Patent Document 1 sequentially controls the speed and lateral position of a moving object by calculating the degree of coincidence of images and comparing feature points between images, and therefore cannot handle cases where precision in orientation as well as position is required, such as when passing through a narrow space such as a door (passing through an open door), and where planning of position and orientation (position and orientation) on the path to a target position is required (such as planning for parking a car in a garage), and there is a problem in that high positional precision cannot be achieved. This problem is particularly noticeable with nonholonomic moving objects, and there is a problem in that it cannot handle various moving methods and moving objects.

また同時に、特許文献1に記載の技術は、事前に速度計画(走行計画)を行った上で減速位置(制御位置)での教示画像の取得が必要であり、移動方法や移動体の変更の度に事前準備の負荷が増大するという課題がある。 At the same time, the technology described in Patent Document 1 requires that a speed plan (travel plan) be made in advance and then teaching images be acquired at the deceleration position (control position), which poses the problem that the burden of advance preparation increases every time the travel method or moving body is changed.

本発明はこのような背景に鑑みてなされたもので、設備工事や地図作成が不要な事前準備の負荷が小さいナビゲーション装置であり、特に動的環境かつ広い移動環境でのロバストな移動と、位置姿勢の経路計画が必要な狭い場所での高精度移動とを実現し、多様なタイプの移動方法および自律移動体に対しても事前準備の負荷が少ない移動体のナビゲーション装置を提供することを目的とする。 The present invention has been made in light of this background, and aims to provide a navigation device for a moving body that requires little advance preparation, does not require facility construction or map creation, and achieves robust movement in dynamic and wide moving environments, and highly accurate movement in narrow spaces where path planning of position and attitude is required, and requires little advance preparation for various types of movement methods and autonomous moving bodies.

前記した課題を解決するため、本発明の移動体は、現在位置画像を撮像する画像取得部と、目標位置で撮像した目標位置画像を記憶した目標位置画像記憶部と、接近移動指令式に基づいて前記目標位置に接近移動する移動指令を生成する接近移動指令部と、位置合せ指令式に基づいて前記目標位置で停止する移動指令または前記目標位置を通過する移動指令を生成する位置合せ指令部と、前記接近移動指令式もしくは前記位置合わせ指令式の出力結果に応じて、前記接近移動指令部または前記位置合せ指令部の何れかを選択する移動切替部と、前記移動指令に基づいて移動機構を制御する移動制御部と、を具備し、前記接近移動指令式は、一枚の画像を入力すると画像内の物体位置と物体種類を出力する式から構成され、前記位置合わせ指令式は、二か所の位置で撮像された画像を入力すると撮像位置の相対位置と相対姿勢を出力する式から構成される移動体とした。 In order to solve the above-mentioned problems, the moving body of the present invention is a moving body that includes an image acquisition unit that captures a current position image, a target position image storage unit that stores a target position image captured at a target position, an approach movement command unit that generates a movement command to approach and move to the target position based on an approach movement command formula, an alignment command unit that generates a movement command to stop at the target position or a movement command to pass through the target position based on an alignment command formula, a movement switching unit that selects either the approach movement command unit or the alignment command unit depending on the output result of the approach movement command formula or the alignment command formula, and a movement control unit that controls a movement mechanism based on the movement command , wherein the approach movement command formula is composed of an equation that outputs an object position and object type in an image when an image is input, and the alignment command formula is composed of an equation that outputs a relative position and relative attitude of the imaging positions when images captured at two positions are input .

本発明によれば、設備工事や地図作成が不要な事前準備の負荷が小さいナビゲーション装置が提供でき、特に動的環境かつ広い移動環境でのロバストな移動と、位置姿勢の経路計画が必要な狭い場所での高精度移動とを実現し、多様なタイプの移動方法および自律移動体に対しても事前準備の負荷が少ない移動体のナビゲーション装置を提供できる。 The present invention provides a navigation device that requires little advance preparation, as it does not require facility construction or map creation, and that realizes robust movement in dynamic and wide moving environments, and highly accurate movement in narrow spaces where path planning of position and attitude is required, and can provide a navigation device for moving bodies that requires little advance preparation for various types of moving methods and autonomous moving bodies.

一実施例のナビゲーションシステムの移動体の構成例を示す図。FIG. 1 is a diagram showing an example of the configuration of a moving body in a navigation system according to an embodiment; 一実施例のナビゲーションシステムのデータ収集用移動体の構成例を示す図。FIG. 2 is a diagram showing a configuration example of a data collecting vehicle in the navigation system according to the embodiment; 一実施例のナビゲーションシステムの学習装置の構成例を示す図。FIG. 2 is a diagram showing an example of the configuration of a learning device of the navigation system according to an embodiment; 一実施例のナビゲーションシステムの全体処理を示すフローチャート。4 is a flowchart showing the overall process of the navigation system according to the embodiment. 接近移動用学習データの生成に用いる画像の収集範囲を例示する図。FIG. 13 is a diagram illustrating an example of a collection range of images used to generate learning data for approach movement. 位置合せ用学習データの収集範囲を例示する図。FIG. 13 is a diagram illustrating an example of a collection range of learning data for alignment. 一実施例の学習装置の学習手順を示すフローチャート。4 is a flowchart showing a learning procedure of the learning device according to the embodiment. 一実施例の移動体の走行手順を示すフローチャート。4 is a flowchart showing a travel procedure of a moving body according to an embodiment. 移動体1が複数存在するナビゲーション装置の例を示す図。FIG. 1 is a diagram showing an example of a navigation device in which a plurality of moving objects 1 exist.

本発明の実施例について、適宜図面を参照しながら説明する。 The following describes an embodiment of the present invention with reference to the drawings as appropriate.

本発明のナビゲーションシステム100は、目標位置に向けて自律移動する移動体1と、学習用データを収集するデータ収集用移動体2と、収集した学習用データを用いて接近移動指令式や位置合せ指令式を学習する学習装置3と、から構成されるシステムである。そして、移動体1は、学習装置3が学習した接近移動指令式や位置合せ指令式を利用して、自律移動のための移動指令を生成し、所定の経由地点を経由しながら最終的な目標位置まで自律移動する。なお、学習装置3は、移動体1やデータ収集用移動体2と、有線または無線の通信を介して、情報を共有することができる。 The navigation system 100 of the present invention is a system composed of a mobile body 1 that moves autonomously toward a target position, a data-collecting mobile body 2 that collects learning data, and a learning device 3 that learns an approach movement command formula and an alignment command formula using the collected learning data. The mobile body 1 generates movement commands for autonomous movement using the approach movement command formula and the alignment command formula learned by the learning device 3, and moves autonomously to the final target position while passing through specified waypoints. The learning device 3 can share information with the mobile body 1 and the data-collecting mobile body 2 via wired or wireless communication.

以下では、移動体1が、真横に移動できないノンホロノミック移動体(車両や台車など)、または、全方位移動可能なホロノミック移動体(ロボットやドローンなど)の何れかであるものとし、また、移動体1の自律移動する環境が、ショッピングモールや公共施設などの、人の交通量や明るさ等の環境変化が大きい環境であるものとする。本システムでは、このような状況においても、移動体1の形態に拘わらず、共通の接近移動指令式や位置合せ指令式を利用して、目標位置までの自律移動(自律走行、自律歩行、自律飛行など)に必要な移動指令を生成できるため、学習装置3では移動体1の形態別に指令式を学習する必要がないという利点がある。以下、本発明のナビゲーションシステム100における、移動体1、データ収集用移動体2、学習装置3の各々の実施例について、図面を用いながら詳細に説明する。 In the following, it is assumed that the moving body 1 is either a nonholonomic moving body (such as a vehicle or a cart) that cannot move sideways, or a holonomic moving body (such as a robot or a drone) that can move in all directions, and that the environment in which the moving body 1 moves autonomously is an environment with large changes in the amount of human traffic and brightness, such as a shopping mall or a public facility. Even in such a situation, the present system can generate the movement commands required for autonomous movement (autonomous driving, autonomous walking, autonomous flying, etc.) to the target position using a common approach movement command formula and positioning command formula regardless of the form of the moving body 1, so that the learning device 3 has the advantage that it is not necessary to learn a command formula for each form of the moving body 1. Below, the embodiments of the moving body 1, the data collection moving body 2, and the learning device 3 in the navigation system 100 of the present invention will be described in detail with reference to the drawings.

<移動体1>
図1は、主に、移動体1の構成例を説明する図であり、データ収集用移動体2と学習装置3の一部構成も併せて表示している。なお、ここでは、移動体1が1台のみ存在するナビゲーションシステム100を例示しているが、図9で後述するように、形態の異なる複数台の移動体1が存在するシステムであってもよい。
<Mobile object 1>
1 is a diagram mainly for explaining an example of the configuration of a mobile body 1, and also shows some configurations of a data-collecting mobile body 2 and a learning device 3. Note that, although a navigation system 100 having only one mobile body 1 is illustrated here, the system may have a plurality of mobile bodies 1 of different configurations, as will be described later with reference to FIG.

図1に示すように、移動体1は、画像取得部11、移動機構12、計算ユニット13、記憶ユニット14を有している。各々の詳細を順次説明する。 As shown in FIG. 1, the moving body 1 has an image acquisition unit 11, a moving mechanism 12, a calculation unit 13, and a memory unit 14. Each of these will be described in detail in turn.

画像取得部11は、移動体1の現在位置から周囲を撮像した画像を取得するものであり、例えば、CCDイメージセンサやCMOSイメージセンサ等の撮像素子を備えた、1台以上のカメラから構成されている。画像取得部11が外界を撮像した画像は、後述する移動切替部13a、大域移動指令部13b、接近移動指令部13c、位置合せ指令部13dに出力される。 The image acquisition unit 11 acquires images of the surroundings from the current position of the moving body 1, and is composed of one or more cameras equipped with imaging elements such as a CCD image sensor or a CMOS image sensor. The images of the outside world captured by the image acquisition unit 11 are output to the movement switching unit 13a, global movement command unit 13b, approach movement command unit 13c, and alignment command unit 13d, which will be described later.

なお、画像取得部11は、解像度の高いカメラを使用することが望ましく、移動環境を広く撮像するため、広角レンズを備えたカメラを搭載してもよい。カメラの視野角や解像度は、後述するデータ収集用移動体2に搭載される画像取得部21のカメラの視野角や解像度と同じ条件であることが望ましいが、トリミング処理やリサイズ処理を行うことで条件をそろえてもよい。さらにカメラの取り付け位置は、移動体の進行方向前方を撮像可能な位置および方向に取り付け、カメラの姿勢が動かないよう移動体1に固定するのが望ましいが、カメラの姿勢を常に把握するシステムを搭載している場合、カメラの姿勢は固定されなくてもよい。 The image acquisition unit 11 desirably uses a high-resolution camera, and may be equipped with a camera equipped with a wide-angle lens to capture a wide range of the moving environment. The viewing angle and resolution of the camera desirably have the same conditions as those of the camera of the image acquisition unit 21 mounted on the data collection moving body 2 described below, but the conditions may be made the same by performing trimming and resizing processes. Furthermore, the camera is desirably attached at a position and in a direction that allows it to capture an image of the area ahead in the moving body's direction of travel, and is desirably fixed to the moving body 1 so that its attitude does not move, but if a system that constantly monitors the camera's attitude is installed, the camera's attitude does not need to be fixed.

移動機構12は、移動体1の移動を実現する機構であり、移動体1が車両であれば車輪、ロボットであれば脚または車輪、ドローンであればプロペラ、及び、車輪等を駆動させるアクチュエータである。後述する移動制御部13eでは、後述する位置合せ指令部13d等から出力された移動制御信号に基づいて、移動機構12の形態に応じた所望の移動指令(例えば並進移動速度や回転移動速度など)を生成し、移動体1の前後の移動、旋回あるいは、停止を行う。 The moving mechanism 12 is a mechanism that realizes the movement of the moving body 1, and is an actuator that drives the wheels if the moving body 1 is a vehicle, the legs or wheels if the moving body 1 is a robot, the propellers if the moving body 1 is a drone, and the wheels. The moving control unit 13e, which will be described later, generates a desired movement command (e.g., translational movement speed, rotational movement speed, etc.) according to the form of the moving mechanism 12 based on a movement control signal output from the alignment command unit 13d, which will be described later, etc., and moves the moving body 1 forward/backward, turns, or stops.

計算ユニット13は、移動切替部13a、大域移動指令部13b、接近移動指令部13c、位置合せ指令部13d、移動制御部13eを有している。なお、移動体1の記憶ユニット14には所定のプログラムが格納されており、このプログラムがメモリにロードされ、CPU(Central Processing Unit)によって実行されることで、移動切替部13a、大域移動指令部13b、接近移動指令部13c、位置合せ指令部13d、移動制御部13eが具現化される。 The calculation unit 13 has a movement switching unit 13a, a global movement command unit 13b, an approach movement command unit 13c, an alignment command unit 13d, and a movement control unit 13e. A predetermined program is stored in the memory unit 14 of the moving body 1, and the movement switching unit 13a, the global movement command unit 13b, the approach movement command unit 13c, the alignment command unit 13d, and the movement control unit 13e are realized by loading this program into memory and executing it by the CPU (Central Processing Unit).

移動切替部13aは、画像取得部11が取得した現在位置画像と、目標位置画像記憶部14aから取得した目標位置画像を比較し、目標位置までの移動方法を、高速移動に適した「大域移動」、目標位置の方向に接近移動するための「接近移動」、目標位置で正確に停止するための、あるいは、目標位置を正確に通過するための「位置合せ」の何れかに切り替える判断を行い、その判断結果を、大域移動指令部13b、接近移動指令部13c、位置合せ指令部13dに出力する。なお、ここでは移動方法が三種類である場合を例示するが、本発明は移動方法の数を限定するものではない。以下、移動切替部13aによる各移動方法の切替判断の一例を説明する。 The movement switching unit 13a compares the current position image acquired by the image acquisition unit 11 with the target position image acquired from the target position image storage unit 14a, and judges whether to switch the movement method to the target position to one of "global movement" suitable for high-speed movement, "approach movement" for approaching and moving in the direction of the target position, or "alignment" for stopping accurately at the target position or for passing through the target position accurately, and outputs the judgment result to the global movement command unit 13b, the approach movement command unit 13c, and the alignment command unit 13d. Note that, although an example is given here of three types of movement methods, the present invention does not limit the number of movement methods. An example of the judgment of switching between each movement method by the movement switching unit 13a is explained below.

移動方法を「接近移動」へ切り替える場合、移動切替部13aは、例えば、現在位置画像内に、目標位置画像に撮像されている予め指定しておいた物体(ランドマーク)が写っているかを判定し、写っていると判定されたときに「接近移動」への切替えを選択する。なお、接近移動指令部13cで画像に基づく判定を行い、移動切替部13aでは接近移動指令部13cの判定結果に基づいて切り替えを判断するという役割分担としてもよい。このとき、接近移動指令部13cで使用する目標位置画像は、経由地点近傍で切り替わり、目標位置画像を切り替えながら、最終的な目標位置画像が撮像された地点へと移動する。また、複数の目標位置画像において現在位置画像の物体が写っている場合は、最終目標位置に近い目標位置画像を選択する。 When switching the movement method to "approach movement", the movement switching unit 13a, for example, judges whether a pre-specified object (landmark) captured in the target position image is captured in the current position image, and selects switching to "approach movement" when it is judged that the object is captured. Note that the role may be divided such that the approach movement command unit 13c performs a judgment based on the image, and the movement switching unit 13a judges the switching based on the judgment result of the approach movement command unit 13c. At this time, the target position image used by the approach movement command unit 13c is switched near the waypoint, and while switching the target position image, the movement moves to the point where the final target position image was captured. Furthermore, if an object in the current position image is captured in multiple target position images, the target position image closest to the final target position is selected.

また、移動方法を「位置合せ」へ切り替える場合、移動切替部13aは、例えば、現在位置画像と位置合せの目標位置画像の類似度が閾値以上になったかを判定し、閾値以上になったときに「位置合せ」への切替えを選択する。なお、画像の類似度の計算方法は、例えば、2枚の画像で同じ位置同士のピクセルの輝度の差分の2乗を集計するMSE(Mean Square Error)を用いる。類似度は、位置合せ指令部13dの処理の一環として、その出力を用いてもよい。また、もし接近移動指令部13cで用いる目標位置画像と位置合せ指令部13dで用いる目標位置画像の中に同じ物体が写っていれば、接近移動指令部13cが出力する物体の大きさが予め設定した閾値以上になれば、移動方法を「位置合せ」へ切り替えてもよいし、さらに、位置合せ指令部13dの相対位置姿勢出力が閾値以下の値に連続して出力している場合も、移動方法を「位置合せ」へ切り替えてもよい。 When switching the movement method to "alignment", the movement switching unit 13a, for example, determines whether the similarity between the current position image and the target position image for alignment is equal to or greater than a threshold, and selects switching to "alignment" when the similarity is equal to or greater than the threshold. The method of calculating the similarity of the images is, for example, MSE (Mean Square Error), which tallies the squares of the differences in luminance of pixels at the same positions in two images. The output of the alignment command unit 13d may be used as part of the processing of the similarity. If the same object is captured in the target position image used by the approach movement command unit 13c and the target position image used by the alignment command unit 13d, the movement method may be switched to "alignment" if the size of the object output by the approach movement command unit 13c is equal to or greater than a preset threshold, or the movement method may be switched to "alignment" if the relative position and orientation output of the alignment command unit 13d is continuously outputting values equal to or less than the threshold.

上記の何れにも該当しない場合は、移動切替部13aは、移動方法として「大域移動」を選択する。複数の移動方法が重複して対応可能判定をした場合の優先順位は、「位置合せ」、「接近移動」、「大域移動」の順である。各判定は同時並列に行ってもよいが、判定の順番を決めてもよい。このようにすることで、本実施例では、複数の移動手法の中から適切な手法を選択し、適切なタイミングで他の移動方法に切り替えることができる。 If none of the above applies, the movement switching unit 13a selects "global movement" as the movement method. When multiple movement methods overlap and it is determined that they are compatible, the order of priority is "alignment," "approach movement," and "global movement." Each determination may be performed simultaneously in parallel, or the order of determination may be determined. In this way, in this embodiment, an appropriate method can be selected from multiple movement methods, and it is possible to switch to another movement method at an appropriate time.

大域移動指令部13bは、移動切替部13aが「大域移動」を行うと判断したときに選択される指令部であり、画像取得部11から取得した現在位置画像を入力とし、目標位置の方向へ移動するための速度指令などの移動指令を移動制御部13eに出力する。大域移動指令部13bによる移動方法は本実施例において特に限定するものではないが、移動ビジュアルオドメトリと呼ばれる現在位置画像の変化から移動体の移動量を推定する方法を用いて目標とする位置まで移動してもよい。この方法は、精度は高くないが、現在位置画像の時系列入力のみから概略の移動情報が得られる。それ以外には、例えば、ビジュアルSLAMと呼ばれる方法を用いてもよい。この方法は、画像取得部11が取得した現在位置画像の時系列データから、画像の特徴点群を立体的に配置した地図を作成しながら、同時に移動体の現在位置を推定する方法で、計算負荷が非常に大きく誤差が蓄積するため常時利用はできない。 The global movement command unit 13b is a command unit that is selected when the movement switching unit 13a judges that "global movement" is to be performed. It receives the current position image acquired from the image acquisition unit 11 as an input, and outputs movement commands such as speed commands for moving in the direction of the target position to the movement control unit 13e. The movement method by the global movement command unit 13b is not particularly limited in this embodiment, but the moving object may move to the target position using a method called moving visual odometry that estimates the amount of movement of the moving object from changes in the current position image. This method is not highly accurate, but rough movement information can be obtained only from the time series input of the current position image. Alternatively, for example, a method called visual SLAM may be used. This method creates a map in which a group of feature points of the image is arranged three-dimensionally from the time series data of the current position image acquired by the image acquisition unit 11, while simultaneously estimating the current position of the moving object. This method cannot be used all the time because it requires a very large calculation load and accumulates errors.

接近移動指令部13cは、移動切替部13aが「接近移動」を行うと判断したときに選択される指令部であり、画像取得部11が取得した現在位置画像と、目標位置画像記憶部14aから取得した目標位置画像とを後述する接近移動指令式に入力して、目標位置の方向を出力する。なお、この接近移動指令式は、学習装置3での事前学習により得られたものを利用する。 The approach movement command unit 13c is a command unit that is selected when the movement switching unit 13a determines that an "approach movement" is to be performed, and inputs the current position image acquired by the image acquisition unit 11 and the target position image acquired from the target position image storage unit 14a into an approach movement command formula described below, and outputs the direction of the target position. Note that this approach movement command formula uses one obtained by prior learning in the learning device 3.

位置合せ指令部13dは、移動切替部13aが「位置合せ」を行うと判断したときに選択される指令部であり、画像取得部11が取得した現在位置画像と、目標位置画像記憶部14aから取得した目標位置画像とを後述する位置合せ指令式に入力して、目標位置姿勢(移動体の向きを含む)までの相対位置姿勢(相対位置および相対角度)を出力する。この位置合せ指令式は、学習装置3での事前学習により得られたものを利用する。 The alignment command unit 13d is a command unit that is selected when the movement switching unit 13a determines that "alignment" is to be performed, and inputs the current position image acquired by the image acquisition unit 11 and the target position image acquired from the target position image storage unit 14a into an alignment command formula described below, and outputs the relative position and orientation (relative position and relative angle) to the target position and orientation (including the orientation of the moving body). This alignment command formula uses one obtained by prior learning in the learning device 3.

移動制御部13eは、大域移動指令部13bで算出した移動指令、接近移動指令部13cで算出した目標位置の方向、位置合せ指令部13dで算出した目標位置姿勢までの相対位置姿勢、の何れかを入力として、入力された指令等を実現する移動計画(もしくは経路計画)を行い、適切な移動制御を実施する。移動制御部13eで、相対位置姿勢から移動計画を行って目標位置姿勢までの移動制御を行うことで、例えば、ドアなどの狭い場所を通過する場合(ドア開け通過)のように高い位置精度に加え、高い方向精度も求められる状況下でも、ドローンのように全方位に移動可能なホロノミック移動体や、自動車のように真横に移動できないノンホロノミック移動体のような、移動機構12のタイプの異なる何れの移動体1にも、共通の指令式で対応することができる。 The movement control unit 13e receives as input the movement command calculated by the global movement command unit 13b, the direction of the target position calculated by the approach movement command unit 13c, or the relative position and attitude to the target position and attitude calculated by the alignment command unit 13d, and performs a movement plan (or route plan) to realize the input command, etc., and performs appropriate movement control. By performing a movement plan from the relative position and attitude in the movement control unit 13e and performing movement control to the target position and attitude, it is possible to use a common command formula to handle any moving body 1 with a different type of moving mechanism 12, such as a holonomic moving body that can move in all directions, such as a drone, or a nonholonomic moving body that cannot move straight sideways, such as a car, even in a situation where high positional accuracy and high directional accuracy are required, such as when passing through a narrow space such as a door (opening a door and passing through).

記憶ユニット14は、目標位置画像記憶部14a、接近移動指令式記憶部14b、位置合せ指令式記憶部14cを有する。 The memory unit 14 has a target position image memory section 14a, an approach movement command type memory section 14b, and an alignment command type memory section 14c.

目標位置画像記憶部14aは、事前に撮像しておいた1つ以上の目標位置画像を保存している。本実施例では、目標位置画像記憶部14aに蓄積された目標位置画像が撮像された位置を、経由地点もしくは最終目標位置として移動体1をナビゲートする。なお、ここに記憶する目標位置画像は、ナビゲーション対象の移動体1や別の移動体を事前に移動させて撮影したものであってもよいし、人が事前に撮影した目標位置画像やWebやクラウド等にある目標位置画像を登録したものであってもよい。但し、移動体1の画像取得部11が複数台のカメラで構成されている場合は、その位置関係が同一の目標位置画像を取得する必要がある。また、本実施例においては、画像取得部11と同じ高さから撮影した画像を用いるのが望ましいが、後述するように高さ方向の設置位置が異なる場合でも対応できる。これにより、本実施例では画像取得部11の設置位置の異なる移動体にも適用することができる。また、目標位置画像記憶部14aには、位置合せ指令部13dで用いる目標位置画像と接近移動司令部13cで用いる目標位置画像の指定情報を記憶してもよいし、接近移動司令部13cで用いる目標位置画像内に撮影されている物体情報を記憶してもよい。 The target position image storage unit 14a stores one or more target position images captured in advance. In this embodiment, the moving body 1 is navigated to a position where the target position image stored in the target position image storage unit 14a was captured as a waypoint or a final target position. The target position image stored here may be captured by moving the moving body 1 or another moving body to be navigated in advance, or may be a target position image captured in advance by a person or a target position image on the Web or cloud. However, if the image acquisition unit 11 of the moving body 1 is composed of multiple cameras, it is necessary to acquire target position images with the same positional relationship. In this embodiment, it is preferable to use an image captured from the same height as the image acquisition unit 11, but it can also be used in cases where the installation position in the vertical direction is different, as described later. As a result, this embodiment can be applied to moving bodies with different installation positions of the image acquisition unit 11. In addition, the target position image storage unit 14a may store designation information for the target position image used by the positioning command unit 13d and the target position image used by the approach movement command unit 13c, and may store object information captured in the target position image used by the approach movement command unit 13c.

接近移動指令式記憶部14bは、学習装置3で学習処理した「接近移動指令式」を学習装置3の接近移動指令式記憶部33cから適宜取得する。同様に、位置合せ指令式記憶部14cは、学習装置3で学習処理した「位置合せ指令式」を学習装置3の位置合せ指令式記憶部33dから適宜取得する。なお、接近移動指令式や位置合せ指令式の取得は、例えば、学習装置3が再学習を行ったタイミングで実施する。 The approach movement command formula storage unit 14b appropriately acquires the "approach movement command formula" learned by the learning device 3 from the approach movement command formula storage unit 33c of the learning device 3. Similarly, the alignment command formula storage unit 14c appropriately acquires the "alignment command formula" learned by the learning device 3 from the alignment command formula storage unit 33d of the learning device 3. Note that the approach movement command formula and the alignment command formula are acquired, for example, when the learning device 3 performs re-learning.

次に、データ収集用移動体2、学習装置3の構成例について、図2及び図3を参照して説明する。 Next, configuration examples of the data collection vehicle 2 and the learning device 3 will be described with reference to Figures 2 and 3.

<データ収集用移動体2>
図2は、主に、データ収集用移動体2の構成例を説明する図であり、移動体1と学習装置3の一部構成も併せて表示している。データ収集用移動体2は、目標位置の近傍で学習用データを収集する装置であり、図2に示すように、画像取得部21、座標推定用センサ22、計算ユニット23、記憶ユニット24を有している。なお、本実施例では、システムの運用者等がデータ収集用移動体2を移動させながら学習用データを取得する運用を想定しているため、図2のデータ収集用移動体2では移動機構を省略しているが、データ収集用移動体2を自走させたい場合は、移動体1のように移動機構を設けても良い。
<Data collection vehicle 2>
2 is a diagram mainly for explaining an example of the configuration of the data collection mobile body 2, and also shows some configurations of the mobile body 1 and the learning device 3. The data collection mobile body 2 is a device that collects learning data in the vicinity of a target position, and as shown in Fig. 2, has an image acquisition unit 21, a coordinate estimation sensor 22, a calculation unit 23, and a storage unit 24. Note that in this embodiment, since it is assumed that a system operator or the like collects learning data while moving the data collection mobile body 2, a moving mechanism is omitted in the data collection mobile body 2 in Fig. 2, but if it is desired to make the data collection mobile body 2 self-propelled, a moving mechanism may be provided as in the mobile body 1.

画像取得部21は、データ収集用移動体2の現在位置から周囲を撮像した画像を取得するものであり、例えば、CCDイメージセンサやCMOSイメージセンサ等の撮像素子を備えた、1台以上のカメラから構成されている。画像取得部21により外界を撮像して得られた画像データは、後述する位置合せ用学習データ作成部23aと、画像記憶部24aに出力される。なお、移動環境を広く撮像し、多くの学習データを収集するため、設置位置(高さや移動方向に対する位置)や種類の異なる複数のカメラを搭載したり、広角レンズを備えたカメラを搭載したりするのが望ましい。但し、複数カメラの内の1つは、進行方向前方を撮像可能な位置および方向に取り付けることが望ましい。カメラの視野角や解像度は、なるべく大きいものが望ましい。さらに、カメラの高さや取り付け角度(ピッチ角やロール角)を変更できる機構を有することが望ましい。さらに、搭載時において、カメラの姿勢が動かないよう、固定するのが望ましい。しかし、カメラの姿勢を常に把握するシステムを搭載している場合、カメラの姿勢は固定されなくてもよい。このようにして、1台あるいは少数のデータ収集用移動体2を用いて様々な学習用データを収集することで、移動体の種類が異なる様々な条件に対応できる学習結果が得られるところに本実施例の特徴がある。 The image acquisition unit 21 acquires an image of the surroundings from the current position of the data collection mobile body 2, and is composed of one or more cameras equipped with an image sensor such as a CCD image sensor or a CMOS image sensor. The image data acquired by capturing the outside world by the image acquisition unit 21 is output to the positioning learning data creation unit 23a and the image storage unit 24a, which will be described later. In order to capture a wide range of the moving environment and collect a large amount of learning data, it is preferable to mount multiple cameras with different installation positions (positions relative to height and moving direction) and types, or to mount a camera equipped with a wide-angle lens. However, it is preferable to mount one of the multiple cameras at a position and direction that allows the camera to capture the image ahead in the traveling direction. It is preferable that the viewing angle and resolution of the camera are as large as possible. Furthermore, it is preferable to have a mechanism that can change the height and mounting angle (pitch angle and roll angle) of the camera. Furthermore, it is preferable to fix the camera so that its attitude does not move when it is mounted. However, if a system that constantly grasps the attitude of the camera is mounted, the attitude of the camera does not need to be fixed. In this way, one or a small number of data-collecting mobile objects 2 are used to collect various learning data, and this embodiment is characterized by the fact that learning results can be obtained that can respond to various conditions for different types of mobile objects.

座標推定用センサ22は、データ収集用移動体2の座標を推定するために必要なデータを取得する。例えば、エンコーダなど車輪の回転数を取得するセンサを用いることで、車輪の回転数の累積からデータ収集用移動体2の座標を推定できる。また、モーションキャプチャシステムや電波などを発生するビーコンなど外部のセンサの情報も利用してデータ収集用移動体2の座標を推定してもよい。 The coordinate estimation sensor 22 acquires data necessary to estimate the coordinates of the data collection mobile body 2. For example, by using a sensor that acquires the number of wheel rotations, such as an encoder, the coordinates of the data collection mobile body 2 can be estimated from the cumulative number of wheel rotations. The coordinates of the data collection mobile body 2 may also be estimated using information from external sensors, such as a motion capture system or a beacon that generates radio waves.

計算ユニット23は、位置合せ用学習データ作成部23aと、座標推定部23bを有している。なお、データ収集用移動体2の記憶ユニット24には所定のプログラムが格納されており、このプログラムがメモリにロードされ、CPUによって実行されることで、位置合せ用学習データ作成部23aと、座標推定部23bが具現化される。 The calculation unit 23 has a positioning learning data creation unit 23a and a coordinate estimation unit 23b. A predetermined program is stored in the memory unit 24 of the data collection vehicle 2, and the positioning learning data creation unit 23a and the coordinate estimation unit 23b are realized by loading this program into the memory and executing it by the CPU.

座標推定部23bは、座標推定用センサ22から入力されたセンサデータを用いて、データ収集用移動体2の位置の座標および向きを推定し、出力する。ここでの座標(および向き)は、ある地点に基準を定めた絶対座標でもよいし、一連の位置合せ用学習データの中での相対座標であってもよい。 The coordinate estimation unit 23b estimates and outputs the coordinates and orientation of the position of the data collection mobile body 2 using the sensor data input from the coordinate estimation sensor 22. The coordinates (and orientation) here may be absolute coordinates based on a certain point, or may be relative coordinates within a series of alignment learning data.

位置合せ用学習データ作成部23aは、画像取得部21で取得された画像と、座標推定部23bから入力された座標(および向き)を合わせて位置合せ用学習データとして出力する。位置合せ用学習データとは、2枚の画像(式の入力)と、それぞれの画像が撮像された地点の移動量(相対位置姿勢:式の出力)の関係を位置合せ指令式に学習させるためのデータセットであり、複数の位置で撮像された画像と各画像が撮像された位置の座標がセットとなったデータから構成される。位置合せ用学習データ作成部23aは、入力された画像とその画像が撮像された位置の座標をセットとして関連付けて、位置合せ用学習データ記憶部24bへ出力する。 The registration learning data creation unit 23a combines the image acquired by the image acquisition unit 21 with the coordinates (and orientation) input from the coordinate estimation unit 23b, and outputs the combined data as registration learning data. The registration learning data is a data set for learning the relationship between two images (input of the equation) and the amount of movement of the points at which each image was captured (relative position and orientation: output of the equation) to the registration command equation, and is composed of data that includes a set of images captured at multiple positions and the coordinates of the positions at which each image was captured. The registration learning data creation unit 23a associates the input image with the coordinates of the positions at which the image was captured as a set, and outputs the set to the registration learning data storage unit 24b.

記憶ユニット24は、画像記憶部24aと、位置合せ用学習データ記憶部24bと、を有する。 The memory unit 24 has an image memory section 24a and a positioning learning data memory section 24b.

画像記憶部24aは、後述する接近移動指令式を学習するための接近移動用学習データの作成に用いる画像を一時的に保存している。画像記憶部24aに一時的に保存された画像は、定期的あるいは学習を行う際に、学習装置3の画像記憶部33aに転送される。 The image storage unit 24a temporarily stores images used to create approach movement learning data for learning the approach movement command formula described below. The images temporarily stored in the image storage unit 24a are transferred to the image storage unit 33a of the learning device 3 periodically or when learning is performed.

また、位置合せ用学習データ記憶部24bは、位置合せ用学習データ作成部23aから入力された位置合せ用学習データを一時的に保存している。位置合せ用学習データ記憶部22bに一時的に保存された位置合せ用学習データは、定期的あるいは学習を行う際に、学習装置3の位置合せ用学習データ記憶部33bに転送される。 The alignment learning data storage unit 24b temporarily stores the alignment learning data input from the alignment learning data creation unit 23a. The alignment learning data temporarily stored in the alignment learning data storage unit 22b is transferred to the alignment learning data storage unit 33b of the learning device 3 periodically or when learning is performed.

<学習装置3>
図3は、主に、学習装置3の構成例を説明する図であり、移動体1とデータ収集用移動体2の一部構成も併せて表示している。学習装置3は、データ収集用移動体2から転送された学習用データに基づいて接近移動指令式や位置合せ指令式を学習する装置であり、図3に示すように、物体領域入力部31、計算ユニット32(接近移動用学習データ作成部32a、接近移動学習前処理部32b、接近移動指令式学習部32c、位置合せ学習前処理部32d、位置合せ指令式学習部32e)、記憶ユニット33(画像記憶部33a、位置合せ用学習データ記憶部33b、接近移動指令式記憶部33c、位置合せ指令式記憶部33d)を有している。
<Learning device 3>
3 is a diagram mainly for explaining an example of the configuration of the learning device 3, and also shows some configurations of the moving body 1 and the data collecting moving body 2. The learning device 3 is a device that learns an approach movement command formula and an alignment command formula based on learning data transferred from the data collecting moving body 2, and as shown in Fig. 3, has an object region input section 31, a calculation unit 32 (approach movement learning data creation section 32a, approach movement learning preprocessing section 32b, approach movement command formula learning section 32c, alignment learning preprocessing section 32d, alignment command formula learning section 32e), and a memory unit 33 (image memory section 33a, alignment learning data memory section 33b, approach movement command formula memory section 33c, alignment command formula memory section 33d).

<位置合せ指令式の学習処理>
まずは、位置合せ用学習データ記憶部33b、位置合せ学習前処理部32d、位置合せ指令式学習部32e、位置合せ指令式記憶部33dによる、位置合せ指令式の学習処理について説明する。
<Learning process of alignment command formula>
First, the alignment command formula learning process performed by the alignment learning data storage unit 33b, the alignment learning preprocessing unit 32d, the alignment command formula learning unit 32e, and the alignment command formula storage unit 33d will be described.

位置合せ用学習データ記憶部33bは、データ収集用移動体2の位置合せ用学習データ記憶部24bから転送された位置合せ用学習データを適宜蓄積する。また、図示していないが、既に別の装置や別の機会で獲得された学習データがWebやクラウド上にある場合はそこからも位置合せ用学習データを蓄積する。 The positioning learning data storage unit 33b appropriately stores the positioning learning data transferred from the positioning learning data storage unit 24b of the data-collecting mobile unit 2. In addition, although not shown, if learning data already acquired by another device or on another occasion is available on the Web or cloud, positioning learning data is also stored from there.

次に、位置合せ学習前処理部32dは、位置合せ指令式の推定精度を向上させるために、位置合せ用学習データのバリエーションを増やす。例えば、位置合せ用学習データの各画像に対して、コントラスト調整やガンマ変換などの照明条件に関係する画像処理、ノイズの付加、画像の一部の削除等のロバスト性に関係する処理を行うことで、学習データのバリエーションを増やす。なお、画像を変換しても、対応する座標は変化させない。このようにすることで、広範囲な環境の移動時に、学習データの画像取得時と実画像取得時の間の環境変化(人や物の配置、照明条件など)に対してもロバストな学習結果が得られるところに本実施例の特徴がある。 Next, the alignment learning pre-processing unit 32d increases the variation of the alignment learning data in order to improve the estimation accuracy of the alignment command formula. For example, the variation of the learning data is increased by performing image processing related to lighting conditions such as contrast adjustment and gamma conversion, and robustness-related processing such as adding noise and deleting parts of the image on each image of the alignment learning data. Note that even if an image is transformed, the corresponding coordinates do not change. In this way, a feature of this embodiment is that when moving through a wide range of environments, learning results can be obtained that are robust to changes in the environment (position of people and objects, lighting conditions, etc.) between when the learning data images are acquired and when the actual images are acquired.

ここで、位置合せ指令式を詳細に説明する。位置合せ指令式は、位置pとqで撮像された画像PとQを入力として、位置pを原点としたときの位置qの座標、つまり移動量を出力する式である。まず、位置合せ指令式の一例として(式1)がある。なお、ここでは説明の簡略化のため、単純な(式1)を用いて説明するが、(式1)は深層ニューラルネットワークの内の1層分を表しており、実際には、出力u(以下、添え字は層の番号)が入力xとしてさらに(式1)に入力され、その出力uがさらに入力xとして(式1)に入力されるという繰り返し処理が層数分行われる、より複雑な計算式が用いられる。 Here, the alignment command formula will be described in detail. The alignment command formula is a formula that takes images P and Q captured at positions p and q as inputs, and outputs the coordinates of position q when position p is the origin, that is, the amount of movement. First, there is (Formula 1) as an example of the alignment command formula. Note that, for the sake of simplicity, the explanation will be given using the simple (Formula 1), but (Formula 1) represents one layer of a deep neural network, and in reality, a more complicated calculation formula is used in which the output u 1 (hereinafter, the subscript is the layer number) is further input to (Formula 1) as input x 2 , and the output u 2 is further input to (Formula 1) as input x 3 , and this is repeated for the number of layers.

Figure 0007461737000001
Figure 0007461737000001

(式1)においてxは、画像PとQを表すベクトル(以下、二地点画像データと呼称)である。fは非線形関数、uは、位置pからqへの移動量を表すベクトルで、(X、Y、θ)の三次元からなる。uは、カルテシアン座標系で、位置pを原点としたとき、Xは画像正面方向、Yは画像左手方向、θは画像正面を0として反時計回りを正とする。そして、Wはxの重み係数行列である。そして、bはシフト量を表す係数である。 In (Equation 1), x is a vector representing images P and Q (hereafter referred to as two-point image data). f is a nonlinear function, u is a vector representing the amount of movement from position p to q, and is three-dimensional (X, Y, θ). u is a Cartesian coordinate system in which, when position p is the origin, X is the direction toward the front of the image, Y is the direction to the left of the image, and θ is positive with the front of the image being 0. And W is the weighting coefficient matrix for x. And b is a coefficient representing the amount of shift.

本実施例における位置合せ指令式の学習処理は、二地点画像データxが入力された際に出力される二地点の移動量uが、より的確な判定結果を出力するように、係数行列Wとシフト量bを調整する処理である。学習の結果、移動体1は、(式1)における学習済みの係数行列Wとシフト量bを用いた位置合せ指令式により、二地点画像データxから二地点の移動量を推定可能になる。 The learning process of the alignment command formula in this embodiment is a process of adjusting the coefficient matrix W and the shift amount b so that the movement amount u between two points output when two-point image data x is input outputs a more accurate determination result. As a result of learning, the moving body 1 becomes able to estimate the movement amount between two points from the two-point image data x by the alignment command formula using the learned coefficient matrix W and shift amount b in (Equation 1).

ここから、位置合せ指令式学習部32eで行われる位置合せ指令式の学習処理を説明する。まずは、位置合せ学習前処理部32dから入力される位置合せ用学習データ群のうち、ランダムにいくつかの学習データを取り出す。そして、係数行列Wの初期値と、シフト量bの初期値を代入した(式1)に対して、取り出された各データのそれぞれの二地点画像データxを入力し、(式1)によって算出されたuと実際の二地点の移動量u’の誤差eを計算し、誤差の合計値Eを算出する。そして、誤差の合計値Eがより小さくなるように係数行列Wとシフト量bを微小変化させる。ここでの係数行列Wとシフト量bの微小変化のさせ方としては、例えば勾配降下法などが利用できる。この学習処理を、位置合せ用学習データ群のすべてに対して行う。 Now, the learning process of the alignment command formula performed by the alignment command formula learning unit 32e will be explained. First, some learning data are randomly extracted from the group of learning data for alignment input from the alignment learning pre-processing unit 32d. Then, the two-point image data x of each extracted data is input to (Equation 1) into which the initial value of the coefficient matrix W and the initial value of the shift amount b are substituted, and the error e between u calculated by (Equation 1) and the actual movement amount u' of the two points is calculated, and the total error value E is calculated. Then, the coefficient matrix W and the shift amount b are slightly changed so that the total error value E becomes smaller. For example, the gradient descent method can be used as a method for slightly changing the coefficient matrix W and the shift amount b here. This learning process is performed for all of the learning data group for alignment.

以上の手順が繰り返されることで、誤差の合計値Eは次第に小さくなっていき、学習終了条件を満たすまで、位置合せ指令式を更新し続ける。なお、学習終了条件としては、例えば、位置合せ用学習データ群に対する学習処理を一定回数に達するまで行う条件や誤差の合計値Eが最小の条件などがある。こうして得られた位置合せ指令式によって出力される二地点の移動量が、二地点画像xに対する最適な移動量とみなされる。したがって、移動体1の現在位置画像と目標位置画像をxとして入力することで、目標位置までの距離と方向が算出できる。さらに、多様かつ大量の位置合せ用学習データで学習処理を行うことによって、位置合せ用学習データに含まれていない初めての場所でも、環境変化がある場合でも目標位置までの移動距離を算出可能となる。 By repeating the above procedure, the total error value E gradually decreases, and the alignment command formula continues to be updated until the learning end condition is met. The learning end condition may be, for example, a condition in which the learning process for the group of alignment learning data is performed a certain number of times, or a condition in which the total error value E is the smallest. The amount of movement between the two points output by the alignment command formula thus obtained is considered to be the optimal amount of movement for the two-point image x. Therefore, by inputting the current position image and the target position image of the moving object 1 as x, the distance and direction to the target position can be calculated. Furthermore, by performing the learning process using a diverse and large amount of alignment learning data, it becomes possible to calculate the movement distance to the target position even in unfamiliar locations not included in the alignment learning data, or when there are environmental changes.

このようにして算出された、学習処理終了後の係数行列W、シフト量bを含む位置合せ指令式(式1)は、位置合せ指令式記憶部33dに格納される。そして、移動体1の運用前などのタイミングで、移動体1の位置合せ指令式記憶部14cに位置合せ指令式を転送する。 The alignment command formula (Formula 1) calculated in this manner, including the coefficient matrix W and shift amount b after the learning process is completed, is stored in the alignment command formula storage unit 33d. Then, at a timing such as before the operation of the mobile body 1, the alignment command formula is transferred to the alignment command formula storage unit 14c of the mobile body 1.

<接近移動指令式の学習処理>
次に、物体領域入力部31、画像記憶部33a、接近移動用学習データ作成部32a、接近移動学習前処理部32b、接近移動指令式学習部32c、接近移動指令式記憶部33cによる、接近移動指令式の学習処理について説明する。
<Learning process of approach movement command type>
Next, the learning process of the approach movement command formula by the object area input unit 31, the image memory unit 33a, the approach movement learning data creation unit 32a, the approach movement learning pre-processing unit 32b, the approach movement command formula learning unit 32c, and the approach movement command formula memory unit 33c will be described.

画像記憶部33aは、データ収集用移動体2の画像記憶部24aから転送された画像を適宜蓄積する。 The image storage unit 33a appropriately stores images transferred from the image storage unit 24a of the data collection vehicle 2.

次に、接近移動用学習データ生成部32aは、画像記憶部33aに蓄積された画像から接近移動用学習データを作成する。具体的には、接近移動用学習データ作成部32aは、画像記憶部33aから入力された画像に対して、移動のためのランドマークとなりうる物体(例えば、ドアなど)が画像内のどの範囲に写っているかを判断し、ランドマークの写っている物体領域部分を指定する。物体領域部分の指定は、人間が物体領域入力部31を通して指定しても良い。その場合、物体領域部分の指定方法は、例えば、いわゆるバウンディングボックス(物体を取り囲む長方形)を用いてもよい。物体領域入力部31は、例えば、マウスやキーボード、タッチスクリーンなどを用いてもよい。なお、物体領域部分の指定は、人間が行わなくても、色や形状などから自動的に抽出してもよい。物体領域を用いることで、物体の位置以外に物体の大きさ情報も得ることができる。この物体領域情報と画像のセットが接近移動用学習データとなる。このとき、図示していないが、既に別の装置や別の機会で獲得された学習データがWebやクラウド上にある場合はそこから得た学習データを利用しても良い。 Next, the approach movement learning data generating unit 32a creates approach movement learning data from the images stored in the image storage unit 33a. Specifically, the approach movement learning data creating unit 32a determines the range of the image input from the image storage unit 33a in which an object (e.g., a door) that can be a landmark for movement is captured, and specifies the object area portion in which the landmark is captured. The object area portion may be specified by a human through the object area input unit 31. In this case, the object area portion may be specified, for example, by using a so-called bounding box (a rectangle surrounding an object). The object area input unit 31 may use, for example, a mouse, a keyboard, a touch screen, or the like. Note that the object area portion may not be specified by a human, but may be automatically extracted from color, shape, or the like. By using the object area, it is possible to obtain size information of the object in addition to the position of the object. This set of object area information and the image becomes the approach movement learning data. At this time, although not shown, if learning data already acquired by another device or on another occasion is on the Web or cloud, the learning data obtained from there may be used.

次に、接近移動学習前処理部32bは、接近移動指令式の推定精度を向上させるために、接近移動用学習データのバリエーションを増やす。例えば、接近移動用学習データの各画像に対して、コントラスト調整やガンマ変換などの照明条件に関係する画像処理、ノイズの付加、画像の一部の削除等のロバスト性に関係する処理を行うことで、データのバリエーションを増やす。なお、画像を変換しても、対応する物体領域は変化させない。このようにすることで、学習データに含まれていない画像であっても、学習データの画像取得時と実画像取得時の間の環境変化(人や物の配置、照明条件など)に対してもロバストな学習結果が得られるところに本実施例の特徴がある。 Next, the approach movement learning pre-processing unit 32b increases the variation of the approach movement learning data in order to improve the estimation accuracy of the approach movement command formula. For example, the variation of the data is increased by performing image processing related to lighting conditions such as contrast adjustment and gamma conversion, and robustness-related processing such as adding noise and deleting part of the image on each image of the approach movement learning data. Note that even if an image is transformed, the corresponding object area is not changed. In this way, even for images that are not included in the learning data, a learning result that is robust to environmental changes (positioning of people and objects, lighting conditions, etc.) between the time the learning data image is acquired and the time the actual image is acquired is a feature of this embodiment.

ここで、接近移動指令式を詳細に説明する。接近移動指令式は、二段階の式によって構成される。まずは、接近移動指令式に入力された現在位置画像と目標位置画像の中からそれぞれランドマークとなる物体を検出する。そして、検出された物体の位置を用いて目標位置の方向を計算する。 Here, we will explain the approach movement command formula in detail. The approach movement command formula is composed of a two-stage formula. First, landmark objects are detected from the current position image and the target position image input into the approach movement command formula. Then, the position of the detected objects is used to calculate the direction of the target position.

接近移動指令式の一段階目となる物体の検出は、例えば、位置合せ指令式(式1)と同様に(式2)で表せる。なお、ここでは説明の簡略化のため、前述同様に、単純な(式2)を用いているが、(式2)は深層ニューラルネットワークの内の1層分を表しており、実際には、出力u’(以下、添え字は層の番号)が入力x’としてさらに(式2)に入力され、その出力u’がさらにx’として(式2)に入力されるという繰り返し処理が層数分行われる、より複雑な計算式が用いられる。 The detection of an object, which is the first stage of the approach movement command formula, can be expressed, for example, by (Formula 2) in the same way as the alignment command formula (Formula 1). Note that, for the sake of simplicity of explanation, the simple (Formula 2) is used here as in the above, but (Formula 2) represents one layer of a deep neural network, and in reality, a more complicated calculation formula is used in which the output u' 1 (hereinafter, the subscript is the layer number) is further input to (Formula 2) as input x' 2 , and the output u' 2 is further input to (Formula 2) as x' 3 , and this repeated processing is performed the number of times equal to the number of layers.

Figure 0007461737000002
Figure 0007461737000002

なお、ここでのx’は、1枚の画像のベクトルであり、u’は、検出した物体の種類とその確信度と画像内での位置および大きさを表すベクトルである。検出した物体の確信度は、検出する物体ごとに0から1までの数値として表される、数値が大きいほどその物体である可能性が高い。また、検出した物体の位置および大きさは、例えばバウンディングボックスの幅、高さ、中心点のピクセル位置で表される。 In this case, x' is a vector of one image, and u' is a vector that represents the type of detected object, its certainty, and its position and size within the image. The certainty of a detected object is expressed as a number between 0 and 1 for each object detected; the larger the number, the more likely it is that object. The position and size of a detected object are expressed, for example, by the width, height, and pixel position of the center point of the bounding box.

そして、位置合せ指令式の学習処理と同様に、接近移動用学習データを用いて(式2)を学習することで、画像の中からランドマークとなる物体を検出可能になる。このとき、入力画像を複数枚に切り出すことで複数の物体を同時に検出することも可能である。ランドマークとなる物体には、植木、看板(サイネージ)、ドア、照明、ポール、窓などの固定物を用いるが、人等の移動物の影響を避けるために上方に設置されたものを用いる方がよい。 Then, similar to the learning process for the alignment command formula, by learning (Equation 2) using the approach movement learning data, it becomes possible to detect landmark objects from within the image. At this time, it is also possible to simultaneously detect multiple objects by cutting the input image into multiple images. Fixed objects such as plants, signs, doors, lights, poles, and windows can be used as landmark objects, but it is better to use objects installed above to avoid the influence of moving objects such as people.

接近移動指令式の二段階目は、例えば、以下の(式3)で表すことができる。 The second stage of the approach movement command formula can be expressed, for example, as follows (Formula 3).

Figure 0007461737000003
Figure 0007461737000003

なお、(式3)において、u、uは、それぞれ現在位置画像と目標位置画像から共通に検出された物体(同じ物体の種類)のピクセル位置である。複数の物体を検出する場合は、物体の数に対応した式を用意する必要がある。ここで、高さ方向の検出が不要な場合は画像の幅方向のピクセル位置のみを使用すればよい。この場合、高さの異なる位置で撮像した画像も用いることができ、目標位置画像の撮像方法や移動体の種類が自由に選択できる。yは目標位置の方向、kは係数行列、gは幾何学的な変換を演算する関数である。 In (Equation 3), u 1 and u 2 are pixel positions of objects (same object type) commonly detected from the current position image and the target position image. When detecting multiple objects, it is necessary to prepare an equation corresponding to the number of objects. Here, if detection in the height direction is not required, only the pixel position in the width direction of the image may be used. In this case, images captured at positions with different heights can also be used, and the imaging method of the target position image and the type of moving object can be freely selected. y is the direction of the target position, k is a coefficient matrix, and g is a function that calculates a geometric transformation.

このようにして算出された、学習処理終了後の係数行列W’、シフト量b’を含む接近移動指令式(式2)(式3)は、接近移動指令式記憶部33cに格納される。そして、移動体1の運用前などのタイミングで、移動体1の接近移動指令式記憶部14bに接近移動指令式を転送する。 The approach movement command formulas (Formula 2) and (Formula 3) calculated in this manner, including the coefficient matrix W' and shift amount b' after the learning process is completed, are stored in the approach movement command formula storage unit 33c. Then, at a timing such as before the operation of the mobile body 1, the approach movement command formulas are transferred to the approach movement command formula storage unit 14b of the mobile body 1.

<ナビゲーションシステム100のフローチャート>
図4は、以上で説明してきた、移動体1、データ収集用移動体2、学習装置3からなる、本実施例のナビゲーションシステム100による一連の処理の一例を示すフローチャートである。なお、図4は、説明のために一例を示したものであり、本発明の手順を限定するものではない。
<Flowchart of the navigation system 100>
Fig. 4 is a flowchart showing an example of a series of processes performed by the navigation system 100 of this embodiment, which is composed of the mobile object 1, the data collection mobile object 2, and the learning device 3. Note that Fig. 4 shows an example for the purpose of explanation, and does not limit the procedure of the present invention.

<ステップS1>
まず、ステップS1では、データ収集用移動体2を用いて、目標位置近傍の画像と座標を収集する。収集した画像は接近移動用学習データ作成部32aで接近移動用学習データを作成するために用いられ、また、画像と座標のデータセットは位置合せ学習前処理部32dに入力される位置合せ用学習データとして用いられる。
<Step S1>
First, in step S1, images and coordinates in the vicinity of the target position are collected using the data collection mobile object 2. The collected images are used to create approach movement learning data in the approach movement learning data creation unit 32a, and the data set of images and coordinates is used as registration learning data to be input to the registration learning preprocessing unit 32d.

ここで、図5と図6を用いて、ドアDの前に目標位置Gを設定した状況下での、データ収集用移動体2による各データの収集方法を説明する。 Here, using Figures 5 and 6, we will explain how the data collection vehicle 2 collects each piece of data when the target position G is set in front of the door D.

図5は、ドアDの前に目標位置Gを設定した場合に、接近移動用学習データの作成に必要な画像を撮像できるデータ収集範囲Aを例示する図である。この図から明らかなように、データ収集用移動体2は扇形状(図5では三角形状に簡略化)のデータ収集範囲A内にいるときに、目標位置Gに接近する際のランドマークとなるドアDを撮像できる。従って、学習データ収集用移動体2を、データ収集範囲A内で様々に移動させながら、接近移動用学習データの作成に必要な、ドアD(ランドマーク)が撮像された様々な画像を収集する。なお、類似画像が多数あっても学習データとしてはあまり有用ではないため、ドアDとの距離や角度あるいは照明の明るさなど様々な位置や条件で満遍なく画像を収集することが望ましい。また、データ収集用移動体2をデータ収集範囲A内でランダムに移動させた際に動画を撮影しておき、後程、動画から画像を切り出すことで画像の収集作業を簡単にすることもできる。 FIG. 5 is a diagram illustrating a data collection range A1 in which images necessary for creating learning data for approaching movement can be captured when a target position G is set in front of a door D. As is clear from this figure, when the data collection moving body 2 is within the sector-shaped (simplified to a triangular shape in FIG. 5) data collection range A1 , it can capture an image of the door D, which serves as a landmark when approaching the target position G. Therefore, while moving the learning data collection moving body 2 in various ways within the data collection range A1 , various images in which the door D (landmark) is captured, which are necessary for creating learning data for approaching movement, are collected. Note that, since a large number of similar images are not very useful as learning data, it is desirable to collect images evenly under various positions and conditions, such as the distance and angle from the door D or the brightness of the lighting. In addition, it is also possible to simplify the image collection work by taking a video when the data collection moving body 2 moves randomly within the data collection range A1 , and later cutting out images from the video.

一方、図6は、ドアDの前に目標位置Gを設定した場合に、位置合せ用学習データである、画像と座標のデータセットを収集するデータ収集範囲Aを例示する図である。ここでは、目標位置Gの周囲(例えば、目標位置Gを囲む1m程度の正方形の範囲)でデータ収集用移動体2を移動させ、高密度に画像と座標のデータセットを収集する。例えば、図右側の吹き出し内に示すように、目標位置Gの周囲に設定した高密度のグリッドの各地点で、データ収集用移動体2の画像取得部21を様々な方向に向けてデータセットを収集するとよい。この際の、各グリッドの距離dや、各グリッドにおけるデータ収集方向の刻み幅Δθは、本実施例を用いた移動体1の目標精度を考慮して設定すればよい。なお、クリッド間の位置における学習データは、学習により補間しても良い。 On the other hand, FIG. 6 is a diagram illustrating a data collection range A2 for collecting a data set of images and coordinates, which is learning data for alignment, when a target position G is set in front of a door D. Here, the data collection mobile body 2 is moved around the target position G (for example, a square range of about 1 m surrounding the target position G) to collect a data set of images and coordinates at high density. For example, as shown in the balloon on the right side of the figure, the image acquisition unit 21 of the data collection mobile body 2 may be directed in various directions at each point of a high-density grid set around the target position G to collect a data set. In this case, the distance d of each grid and the step width Δθ of the data collection direction in each grid may be set in consideration of the target accuracy of the mobile body 1 using this embodiment. The learning data at the position between the grids may be interpolated by learning.

<ステップS2>
ステップS2では、学習装置3を用いて、接近移動指令式と位置合せ指令式を学習する。この学習処理の詳細を図7に示すフローチャートを用いて説明する。
<Step S2>
In step S2, the approach movement command formula and the position alignment command formula are learned using the learning device 3. Details of this learning process will be described with reference to the flow chart shown in FIG.

まず、ステップS21では、接近移動用学習データ作成部32aは、物体領域入力部31を介して指定されたランドマーク(例えば、ドアD)が撮像された画像を、画像記憶部33aから取得し、接近移動用学習データを作成する。次に、接近移動学習前処理部32bは、接近移動用学習データ作成部32aから接近移動用学習データを読み込み、位置合せ学習前処理部32dは、位置合せ用学習データ記憶部33bから位置合せ用学習データを読み込む。 First, in step S21, the approach movement learning data creation unit 32a acquires an image of a landmark (e.g., door D) specified via the object region input unit 31 from the image storage unit 33a, and creates approach movement learning data. Next, the approach movement learning pre-processing unit 32b reads the approach movement learning data from the approach movement learning data creation unit 32a, and the alignment learning pre-processing unit 32d reads the alignment learning data from the alignment learning data storage unit 33b.

次に、ステップS22では、接近移動学習前処理部32bと、位置合せ学習前処理部32dで各学習データに対して前処理を実施し、各学習データのバリエーションを増やす。 Next, in step S22, the approach movement learning preprocessing unit 32b and the alignment learning preprocessing unit 32d perform preprocessing on each learning data to increase the variation of each learning data.

ステップS23では、接近移動指令式学習部32cで接近移動指令式の学習処理を行い、位置合せ指令式学習部32eで位置合せ指令式の学習処理を行う。 In step S23, the approach movement command formula learning unit 32c performs learning processing of the approach movement command formula, and the alignment command formula learning unit 32e performs learning processing of the alignment command formula.

最後に、ステップS24では、学習済みの接近移動指令式(例えば、式2、式3)を接近移動指令式記憶部33cに保存し、位置合せ指令式(例えば、式1)を位置合せ指令式記憶部33dに保存する。 Finally, in step S24, the learned approach movement command formula (e.g., formula 2, formula 3) is stored in the approach movement command formula storage unit 33c, and the alignment command formula (e.g., formula 1) is stored in the alignment command formula storage unit 33d.

<ステップS3>
ステップS3では、移動体1やデータ収集用移動体2の画像取得部、あるいは、システムの運用者が携帯するデジタルカメラなどを用いて、移動体1の実移動環境の目標位置(最終的な目標位置、および、経由地点)としたい地点で、ランドマークとなりうる物体を含む目標位置画像を撮像し、移動体1の目標位置画像記憶部14aに登録する。移動体1の自律移動時には、本ステップで目標位置画像記憶部14aに登録した目標位置画像が目標位置を示すデータとなる。
<Step S3>
In step S3, a target position image including an object that can be a landmark is captured at a point that is to be the target position (final target position and waypoint) in the actual moving environment of the mobile body 1 using the image acquisition unit of the mobile body 1 or the data-collecting mobile body 2, or a digital camera carried by the system operator, and is registered in the target position image storage unit 14a of the mobile body 1. When the mobile body 1 moves autonomously, the target position image registered in the target position image storage unit 14a in this step becomes data indicating the target position.

なお、本ステップでの撮像位置は、ステップS1での撮像位置とは異なるが、ステップS2で学習処理した各指令式が有用である程度に、ステップS1と本ステップの撮像位置の周囲環境が類似しているものとする。換言すれば、実移動環境の目標位置に類似する環境に対し、データ収集用移動体2と学習装置3を利用した学習処理を済ませておく必要があり、そのような環境に対する学習処理が完了していない場合は、そのような環境に対してステップS1、S2の処理を実施するよう配慮する必要がある。 Note that the imaging position in this step is different from the imaging position in step S1, but the surrounding environments of the imaging positions in step S1 and this step are similar to the extent that the command formulas learned in step S2 are useful. In other words, it is necessary to complete the learning process using the data collection vehicle 2 and the learning device 3 for an environment similar to the target position of the actual moving environment, and if the learning process for such an environment has not been completed, it is necessary to consider performing the processes of steps S1 and S2 for such an environment.

<ステップS4>
ステップS4では、移動体1に目標位置までの自律移動を実施させる。環境に変化がなければ、本ステップの処理は繰り返し実行される。
<Step S4>
In step S4, the moving body 1 is caused to autonomously move to the target position. If there is no change in the environment, the process of this step is repeatedly executed.

図8は、本ステップの一例を詳細に示すフローチャートである。ここに示す各処理は並列して実行しても良いが、ここでは簡単のため、その手順をシーケンシャルに説明する。 Figure 8 is a flowchart showing an example of this step in detail. Each process shown here may be executed in parallel, but for simplicity, the procedure is explained sequentially here.

ステップS41:まず、移動切替部13aが移動体1の移動方法を「位置合せ」に切り替えるかを判断する。例えば、現在位置画像と目標位置画像の類似度が一定値以上になった場合、ランドマークとなる物体が閾値以上の大きさになった場合、相対位置姿勢が閾値以下の値に連続してなっている場合に、「位置合せ」への切り替えを判断する。判断の結果、「位置合せ」へ切替える場合は(Yes)ステップS42へ移る。一方、引き続き「大域移動」や「接近移動」を実行する場合は(No)ステップS44へ移る。 Step S41: First, the movement switching unit 13a judges whether to switch the movement method of the moving body 1 to "alignment". For example, when the similarity between the current position image and the target position image reaches a certain value or more, when the landmark object reaches a threshold value or more in size, or when the relative position and orientation are continuously below the threshold value, it judges whether to switch to "alignment". If the result of the judgment is to switch to "alignment" (Yes), proceed to step S42. On the other hand, if "global movement" or "approaching movement" is to be continued (No), proceed to step S44.

ステップS42:移動体1は、位置合せ指令部11dからの指令により目標位置に向けて移動する。本ステップでの移動は、位置合せ指令式に基づいて目標位置へ移動する。所定の時間移動を行うとステップS43へ移る。 Step S42: The moving body 1 moves toward the target position in response to a command from the position alignment command unit 11d. In this step, the moving body 1 moves to the target position based on the position alignment command formula. After moving for a predetermined time, the process proceeds to step S43.

ステップS43:移動切替部13aが「位置合せ」が終了したかどうか、すなわち、移動体1が目標位置に到達したか、を判断する。例えば、位置合せ指令式から算出される目標位置までの相対位置姿勢値が許容値以下であれば目標位置に到達したと判断して走行を終了し、そうでなければ(No)、目標位置への「位置合せ」を継続すべく、ステップS41へ移る。 Step S43: The movement switching unit 13a judges whether "alignment" has been completed, i.e., whether the moving body 1 has reached the target position. For example, if the relative position and orientation value to the target position calculated from the alignment command formula is equal to or less than the allowable value, it is judged that the target position has been reached and travel is terminated, and if not (No), the process proceeds to step S41 to continue "alignment" to the target position.

ステップS44:移動切替部13aが移動体1の移動方法を「接近移動」に切り替えるかを判断する。例えば、現在位置画像内に、予め取得しておいた目標位置画像に撮像されている物体(ランドマーク)が写っているかを判断し、共通の物体が写っていれば(Yes)、「接近移動」へ切替え、そうでなければならば(No)、ステップS46へ移る。 Step S44: The movement switching unit 13a judges whether to switch the movement method of the moving body 1 to "approach movement". For example, it judges whether an object (landmark) captured in a previously acquired target position image is captured in the current position image, and if a common object is captured (Yes), it switches to "approach movement", otherwise (No), it proceeds to step S46.

ステップS45:移動体1は、接近移動指令部13cにより目標位置に向けて移動する。本ステップでの移動は、接近移動指令式に基づいて目標位置の方向へ向けて移動する。所定時間移動後、ステップS41へ移る。 Step S45: The moving body 1 moves toward the target position by the approach movement command unit 13c. In this step, the moving body 1 moves toward the target position based on the approach movement command formula. After moving for a predetermined time, the process proceeds to step S41.

ステップS46:移動体は、大域移動指令部13bにより移動開始位置から目標位置に向けて移動する。所定時間移動後、ステップS41へ移る。 Step S46: The moving body is moved from the movement start position toward the target position by the global movement command unit 13b. After moving for a predetermined time, the process proceeds to step S41.

本実施例は、目標位置までの移動を「大域移動」、「接近移動」、「位置合せ」の複数ステップに分けて行う点に1つの特徴がある。特に、「接近移動」における、現在位置画像の中でも目標位置画像内に写っている物体をランドマークとしてその部分のみに着目して移動方向のみを推定して移動する部分と、「位置合せ」における、現在位置画像と目標位置画像の画像全体を利用して目標位置までの相対位置姿勢を推定して移動する部分が、従来技術と異なる特徴である。 One feature of this embodiment is that the movement to the target position is divided into multiple steps: "global movement," "approach movement," and "alignment." In particular, what distinguishes this embodiment from conventional technology is the part in "approach movement" where an object in the target position image is used as a landmark in the current position image, focusing only on that part and estimating only the direction of movement, and the part in "alignment" where the entire current position image and target position image are used to estimate the relative position and orientation to the target position and move.

この特徴により、移動体1が目標位置の遠方におり現在位置画像に目標位置に関する情報が少ない場合は、目標位置の物体(ランドマーク)のみに着目して大まかに移動し、目標位置付近に近づいて現在位置画像内に目標位置に関する情報が増加してからはじめて現在位置画像と目標位置画像の画像全体を利用して目標位置までの相対位置姿勢を正確に推定する。但し、移動体1の位置と姿勢を正確に推定できる範囲は、図6に例示したような狭い範囲でのみである。これにより、現在位置画像にランドマーク以外の物体が増減するような走行環境の変化(例えば、ショッピングモール内での曜日による通行量の増減)が起きても、目標位置までより正確に移動して停止または通過することが可能となる。 Due to this feature, when the mobile body 1 is far from the target position and there is little information about the target position in the current position image, it moves roughly focusing only on objects (landmarks) at the target position, and only when it approaches the target position and information about the target position increases in the current position image, does it accurately estimate the relative position and orientation to the target position using the entire current position image and the target position image. However, the range in which the position and orientation of the mobile body 1 can be accurately estimated is only a narrow range such as the example shown in Figure 6. This makes it possible to move more accurately to the target position and stop or pass through it even if there is a change in the driving environment that causes the number of objects other than landmarks to increase or decrease in the current position image (for example, an increase or decrease in the amount of traffic in a shopping mall depending on the day of the week).

なお、ステップS42で利用する現在位置画像は、過去数回の撮影回数分の画像を撮りためて、その差分を計算することにより通行人などの移動障害物が写っていない画像を選択することでより正確な移動ができる。 The current position image used in step S42 is obtained by storing images from the past few shots and calculating the difference between them to select an image that does not include moving obstacles such as pedestrians, allowing for more accurate movement.

<ステップS5>
最後に、ステップS5では、新しい環境での再学習が必要か、すなわち、学習済みの環境と非類似の環境を実走行する必要があるか、を運用者が判断し、必要だと判断したタイミングでステップS1、S2を再度実行する。一方、そのような必要がなければ、ステップS3に戻る。
<Step S5>
Finally, in step S5, the operator judges whether re-learning in a new environment is necessary, i.e., whether it is necessary to actually drive in an environment dissimilar to the learned environment, and executes steps S1 and S2 again when it is judged necessary. On the other hand, if there is no such need, the process returns to step S3.

以下、本実施例のナビゲーションシステム100の実装例について述べる。 The following describes an example of the implementation of the navigation system 100 of this embodiment.

図9は、移動体1が複数存在するナビゲーションシステム100の例を示す図である。この例のように、ナビゲーションシステムが複数の移動体1A~1Cを有する場合、データ収集用移動体2は、画像取得部21が移動体1A~1Cの画像取得部11の高さや取り付け角度に対応できるように、多様なデータを取得できるような機構を装備しておき、移動体1A~1Cの様々なカメラに合わせた設置条件で接近移動用学習データ、位置合せ用学習データを収集する。そして、蓄積された学習データをもとに接近移動指令式、位置合せ指令式の学習を行う。 Figure 9 is a diagram showing an example of a navigation system 100 in which multiple moving bodies 1 exist. When the navigation system has multiple moving bodies 1A-1C as in this example, the data collection moving body 2 is equipped with a mechanism that can acquire a variety of data so that the image acquisition unit 21 can respond to the heights and mounting angles of the image acquisition units 11 of the moving bodies 1A-1C, and collects approach movement learning data and alignment learning data under installation conditions that match the various cameras of the moving bodies 1A-1C. Then, learning of the approach movement command formula and alignment command formula is performed based on the accumulated learning data.

以上のような構成及び手順により、走行環境の変化に対してロバストかつ、精度よく移動体を目標位置まで移動させることができるようにした、移動体のナビゲーション装置及びナビゲーションシステムを提供することができる。 The above-described configuration and procedures make it possible to provide a navigation device and navigation system for a moving object that is robust to changes in the driving environment and can move the moving object to a target position with high accuracy.

100 ナビゲーションシステム
1,1A~1C 移動体
11 画像取得部
12 移動機構
13 計算ユニット
13a 移動切替部
13b 大域移動指令部
13c 接近移動指令部
13d 位置合せ指令部
13e 移動制御部
14 記憶ユニット
14a 目標位置画像記憶部
14b 接近移動指令式記憶部
14c 位置合せ指令式記憶部
2 データ収集用移動体
21 画像取得部
22 座標推定用センサ
23 計算ユニット
23a 位置合せ用学習データ作成部
23b 座標推定部
24 記憶ユニット
24a 画像記憶部
24b 位置合せ用学習データ記憶部
3 学習装置
31 物体領域入力部
32 計算ユニット
32a 接近移動用学習データ生成部
32b 接近移動学習前処理部
32c 接近移動指令式学習部
32d 位置合せ学習前処理部
32e 位置合せ指令式学習部
33 記憶ユニット
33a 画像記憶部
33b 位置合せ用学習データ記憶部
33c 接近移動指令式記憶部
33d 位置合せ指令式記憶部
100 Navigation system 1, 1A to 1C Mobile body 11 Image acquisition section 12 Movement mechanism 13 Calculation unit 13a Movement switching section 13b Global movement command section 13c Approach movement command section 13d Alignment command section 13e Movement control section 14 Memory unit 14a Target position image memory section 14b Approach movement command formula memory section 14c Alignment command formula memory section 2 Data collection mobile body 21 Image acquisition section 22 Coordinate estimation sensor 23 Calculation unit 23a Alignment learning data creation section 23b Coordinate estimation section 24 Memory unit 24a Image memory section 24b Alignment learning data memory section 3 Learning device 31 Object area input section 32 Calculation unit 32a Approach movement learning data generation section 32b Approach movement learning pre-processing section 32c Approach movement command formula learning section 32d Alignment learning pre-processing unit 32e Alignment command formula learning unit 33 Storage unit 33a Image storage unit 33b Alignment learning data storage unit 33c Approach movement command formula storage unit 33d Alignment command formula storage unit

Claims (12)

自律移動する移動体であって、
現在位置画像を撮像する画像取得部と、
目標位置で撮像した目標位置画像を記憶した目標位置画像記憶部と、
接近移動指令式に基づいて前記目標位置に接近移動する移動指令を生成する接近移動指令部と、
位置合せ指令式に基づいて前記目標位置で停止する移動指令または前記目標位置を通過する移動指令を生成する位置合せ指令部と、
前記接近移動指令式もしくは前記位置合せ指令式の出力結果に応じて、記接近移動指令部または前記位置合せ指令部の何れかを選択する移動切替部と、
前記移動指令に基づいて移動機構を制御する移動制御部と、
を具備しており、
前記接近移動指令式は、一枚の画像を入力すると画像内の物体位置と物体種類を出力する式から構成され、
前記位置合わせ指令式は、二か所の位置で撮像された画像を入力すると撮像位置の相対位置と相対姿勢を出力する式から構成されることを特徴とする移動体。
A moving body that moves autonomously,
an image acquisition unit that captures a current position image;
a target position image storage unit that stores a target position image captured at the target position;
an approach movement command unit that generates a movement command for approaching and moving to the target position based on an approach movement command formula;
a position alignment command unit that generates a movement command to stop at the target position or a movement command to pass through the target position based on a position alignment command formula;
a movement switching unit that selects either the approach movement command unit or the alignment command unit according to an output result of the approach movement command formula or the alignment command formula;
A movement control unit that controls a movement mechanism based on the movement command;
It is equipped with
The approach movement command formula is composed of a formula that outputs an object position and an object type in an image when an image is input,
A moving body, wherein the position alignment command formula is composed of a formula that outputs a relative position and a relative orientation of the imaging positions when images captured at two positions are input.
前記目標位置画像記憶部に記憶した前記目標位置画像は、最終目標位置で撮像した目標位置画像、および、前記最終目標位置に至る経由地点で撮像した目標位置画像であり、
自律移動時には、前記移動切替部で使用する前記目標位置画像を前記経由地点の順に切り替えながら、前記最終目標位置へと自律移動することを特徴とする、請求項1に記載の移動体。
the target position image stored in the target position image storage unit is a target position image captured at a final target position and a target position image captured at a waypoint on the way to the final target position,
2. The moving body according to claim 1, wherein, during autonomous movement, the moving body autonomously moves to the final target position while switching the target position image used by the movement switching unit in the order of the waypoints.
前記位置合せ指令部は、前記現在位置画像と前記目標位置画像を比較することで、現在位置から目標位置までの相対位置と相対姿勢を演算し、その演算結果に応じた前記移動指令を出力することを特徴とする、請求項1に記載の移動体。 The moving body according to claim 1, characterized in that the positioning command unit calculates the relative position and relative orientation from the current position to the target position by comparing the current position image with the target position image, and outputs the movement command according to the calculation result. 前記接近移動指令部は、前記現在位置画像と前記目標位置画像を比較することで、現在位置から目標位置までの移動方向を演算し、その演算結果に応じた前記移動指令を出力することを特徴とする、請求項1に記載の移動体。 The moving body according to claim 1, characterized in that the approach movement command unit calculates the movement direction from the current position to the target position by comparing the current position image with the target position image, and outputs the movement command according to the calculation result. 前記移動切替部は、
前記現在位置画像と前記目標位置画像の類似度が所定の閾値以上になった場合、
前記現在位置画像と前記目標位置画像に同一種類の物体が写っており、前記現在位置画像の前記物体の大きさが所定の閾値以上になった場合、もしくは、
前記位置合せ指令式が出力する相対位置姿勢が所定の閾値以下なった場合、
の何れかの場合に、前記位置合わせ指令部を選択することを特徴とする、請求項1に記載の移動体。
The movement switching unit is
When the similarity between the current position image and the target position image is equal to or greater than a predetermined threshold value,
When the same type of object is captured in the current position image and the target position image, and the size of the object in the current position image is equal to or larger than a predetermined threshold, or
When the relative position and orientation output by the position alignment command formula becomes equal to or smaller than a predetermined threshold value,
2. The moving body according to claim 1, wherein the position alignment command unit is selected in any one of the above cases.
前記移動切替部は、
前記位置合わせ指令部を選択する条件は満たさないが、
前記目標位置画像と前記現在位置画像に同一種類の物体が映っている場合に、前記接近移動指令部を選択することを特徴とする、請求項5に記載の移動体。
The movement switching unit is
The condition for selecting the alignment command unit is not satisfied,
6. The moving body according to claim 5, wherein the approach movement command unit is selected when the same type of object is captured in the target position image and the current position image.
前記移動切替部は、前記位置合わせ指令部を選択する条件を満たさず、かつ、前記接近移動指令部を選択する条件も満たさない場合は、大域移動指令部を選択することを特徴とする請求項6に記載の移動体。 The moving body according to claim 6, characterized in that the movement switching unit selects the global movement command unit when the conditions for selecting the alignment command unit and the conditions for selecting the approach movement command unit are not met. 大域移動を行う際に、目標位置の方向へ移動する移動指令を生成する大域移動指令部と、を具備し、
前記移動切替部は、前記大域移動指令部または前記接近移動指令部または前記位置合せ指令部の何れかを選択し、前記現在位置画像内に、前記目標位置画像に撮像されているランドマークとなる物体が写っているときに前記大域移動指令部による制御から前記接近移動指令部による制御に切り替えることを特徴とする請求項1に記載の移動体。
a global movement command unit that generates a movement command for moving in the direction of a target position when performing global movement;
The moving body according to claim 1, characterized in that the movement switching unit selects either the global movement command unit, the approach movement command unit, or the alignment command unit, and switches from control by the global movement command unit to control by the approach movement command unit when a landmark object captured in the target position image is captured in the current position image.
請求項1から請求項8の何れか一項に記載の移動体をナビゲーションするナビゲーションシステムであって、
前記位置合せ指令式は、データ収集用移動体が収集した学習データを、学習装置で学習処理することで得たものであることを特徴とするナビゲーションシステム。
A navigation system for navigating a moving object according to any one of claims 1 to 8, comprising:
A navigation system according to claim 1, wherein the positioning command formula is obtained by subjecting learning data collected by a data-collecting mobile body to learning processing by a learning device.
前記学習データは、前記データ収集用移動体が撮像した第一画像および第二画像と、前記第一画像の撮像位置から前記第二画像の撮像位置までの相対位置と相対姿勢であることを特徴とする、請求項9に記載のナビゲーションシステム。 The navigation system of claim 9, characterized in that the learning data is a first image and a second image captured by the data-collecting mobile body, and the relative position and relative attitude from the capture position of the first image to the capture position of the second image. 請求項1から請求項8の何れか一項に記載の移動体をナビゲーションするナビゲーションシステムであって、
前記接近移動指令式は、データ収集用移動体が収集した学習データを、学習装置で学習処理することで得たものであることを特徴とするナビゲーションシステム。
A navigation system for navigating a moving object according to any one of claims 1 to 8, comprising:
A navigation system according to claim 1, wherein the approach movement command formula is obtained by subjecting learning data collected by a data-collecting mobile body to learning processing by a learning device.
前記学習データは、前記データ収集用移動体が撮像した第三画像と、該第三画像に撮像された所定の物体の存在領域であることを特徴とする、請求項11に記載のナビゲーションシステム。 The navigation system according to claim 11, characterized in that the learning data is a third image captured by the data-collecting mobile body and an area in which a specified object is present that is captured in the third image.
JP2019234249A 2019-12-25 2019-12-25 Mobile object and its navigation system Active JP7461737B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019234249A JP7461737B2 (en) 2019-12-25 2019-12-25 Mobile object and its navigation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019234249A JP7461737B2 (en) 2019-12-25 2019-12-25 Mobile object and its navigation system

Publications (2)

Publication Number Publication Date
JP2021103421A JP2021103421A (en) 2021-07-15
JP7461737B2 true JP7461737B2 (en) 2024-04-04

Family

ID=76755170

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019234249A Active JP7461737B2 (en) 2019-12-25 2019-12-25 Mobile object and its navigation system

Country Status (1)

Country Link
JP (1) JP7461737B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003177821A (en) 2001-12-11 2003-06-27 Honda Motor Co Ltd Device, method and program for guiding traveling object
JP2010140080A (en) 2008-12-09 2010-06-24 Yaskawa Electric Corp Control method and control device for mobile object, and mobile object system
US20170151883A1 (en) 2015-11-30 2017-06-01 Faraday&Future Inc. Camera-based vehicle position determination with known target
JP2019197350A (en) 2018-05-09 2019-11-14 株式会社日立製作所 Self-position estimation system, autonomous mobile system and self-position estimation method

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5500449B2 (en) * 2010-09-21 2014-05-21 株式会社安川電機 Moving body

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003177821A (en) 2001-12-11 2003-06-27 Honda Motor Co Ltd Device, method and program for guiding traveling object
JP2010140080A (en) 2008-12-09 2010-06-24 Yaskawa Electric Corp Control method and control device for mobile object, and mobile object system
US20170151883A1 (en) 2015-11-30 2017-06-01 Faraday&Future Inc. Camera-based vehicle position determination with known target
JP2019197350A (en) 2018-05-09 2019-11-14 株式会社日立製作所 Self-position estimation system, autonomous mobile system and self-position estimation method

Also Published As

Publication number Publication date
JP2021103421A (en) 2021-07-15

Similar Documents

Publication Publication Date Title
Asadi et al. An integrated UGV-UAV system for construction site data collection
Zhang et al. Localization and navigation using QR code for mobile robot in indoor environment
CN110969655B (en) Method, device, equipment, storage medium and vehicle for detecting parking space
US11107230B2 (en) Systems and methods for depth estimation using monocular images
US20210146540A1 (en) Method of identifying dynamic obstacle and robot implementing same
KR101539270B1 (en) sensor fusion based hybrid reactive motion planning method for collision avoidance and autonomous navigation, recording medium and mobile robot for performing the method
KR101372482B1 (en) Method and apparatus of path planning for a mobile robot
Prusak et al. Pose estimation and map building with a time-of-flight-camera for robot navigation
JP4798450B2 (en) Navigation device and control method thereof
JP2019125354A (en) Information processor, system, method, and program
JP5018458B2 (en) Coordinate correction method, coordinate correction program, and autonomous mobile robot
JP2007316966A (en) Mobile robot, control method thereof and program
JPH03201110A (en) Position azimuth detecting device for autonomous traveling vehicle
JP2009193240A (en) Mobile robot and method for generating environment map
US11175664B1 (en) Navigation directly from perception data without pre-mapping
Chatterjee et al. Mobile robot navigation
KR101341204B1 (en) Device and method for estimating location of mobile robot using raiser scanner and structure
CN113661505A (en) System and method for calibrating attitude of sensor associated with materials handling vehicle
CN112652001B (en) Underwater robot multi-sensor fusion positioning system based on extended Kalman filtering
US20220214696A1 (en) Simultaneous Localization and Mapping
Beinschob et al. Advances in 3d data acquisition, mapping and localization in modern large-scale warehouses
WO2022238189A1 (en) Method of acquiring sensor data on a construction site, construction robot system, computer program product, and training method
CN113096190A (en) Omnidirectional mobile robot navigation method based on visual map building
KR100784125B1 (en) Method for extracting coordinates of landmark of mobile robot with a single camera
JP7461737B2 (en) Mobile object and its navigation system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220902

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230727

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230801

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230929

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240304

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240319

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240325

R150 Certificate of patent or registration of utility model

Ref document number: 7461737

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150