JP2021103421A - Moving body and navigation system for the same - Google Patents

Moving body and navigation system for the same Download PDF

Info

Publication number
JP2021103421A
JP2021103421A JP2019234249A JP2019234249A JP2021103421A JP 2021103421 A JP2021103421 A JP 2021103421A JP 2019234249 A JP2019234249 A JP 2019234249A JP 2019234249 A JP2019234249 A JP 2019234249A JP 2021103421 A JP2021103421 A JP 2021103421A
Authority
JP
Japan
Prior art keywords
image
target position
movement
moving body
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019234249A
Other languages
Japanese (ja)
Other versions
JP7461737B2 (en
Inventor
祐樹 金山
Yuki Kanayama
祐樹 金山
山本 健次郎
Kenjiro Yamamoto
健次郎 山本
伊藤 洋
Yo Ito
洋 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2019234249A priority Critical patent/JP7461737B2/en
Publication of JP2021103421A publication Critical patent/JP2021103421A/en
Application granted granted Critical
Publication of JP7461737B2 publication Critical patent/JP7461737B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

To provide a navigation system which makes a moving body travel to its destination position accurately and is robust against an environmental change of a traveling condition for the moving body.SOLUTION: A moving body traveling autonomously comprises: an image acquisition part to take a present position image; a destination position image storage part to store a destination position image taken at a destination position; an approaching commanding part to generate a traveling command to approach the destination position based on an approaching commanding formula; an alignment commanding part to generate a traveling command to stop at the destination position or a traveling command to pass through the destination position, based on the alignment commanding formula; a travel switching part to select the approaching commanding part or the alignment commanding part, responding to the result of comparing the present position image or the destination position image; and a traveling control part to control a traveling mechanism based on the traveling command.SELECTED DRAWING: Figure 8

Description

本発明は、自律移動する移動体、および、そのナビゲーションシステムに関し、特に、データ収集用移動体が収集したデータを用いて、学習装置が接近移動指令式や位置合せ指令式を学習し、学習した接近移動指令式や位置合せ指令式を利用して移動体が目標位置へ接近移動したり位置合せしたりするための指令を生成するシステムに関する。 The present invention relates to an autonomously moving mobile body and its navigation system, and in particular, a learning device learns and learns an approach movement command type and an alignment command type using data collected by a data collection moving body. The present invention relates to a system for generating a command for a moving body to approach or align with a target position by using an approach movement command formula or an alignment command formula.

近年、自律的に移動しながら、運搬、案内、作業などを行う移動体が、工場、病院、公共施設など多くの屋内施設で稼働し始めている。このような移動体のナビゲーションには、環境側にガイドシステム(屋内GPS、マーキング等)を設置する方法や、事前に走行環境を移動させて収集した環境情報(形状や画像等)から作成した地図を用い、現在取得中の環境情報と地図上のランドマーク情報とを照合しながら目標位置まで移動する方法などがある。しかし、環境側の整備作業や高信頼地図の作成作業、地図との照合処理等のソフト開発作業などの事前準備が大きな負荷となっている。 In recent years, mobile bodies that carry, guide, and work while moving autonomously have begun to operate in many indoor facilities such as factories, hospitals, and public facilities. For navigation of such moving objects, a method of installing a guide system (indoor GPS, marking, etc.) on the environment side, or a map created from environmental information (shape, image, etc.) collected by moving the driving environment in advance. There is a method of moving to the target position while collating the environmental information currently being acquired with the landmark information on the map. However, advance preparations such as maintenance work on the environment side, creation work of a highly reliable map, and software development work such as collation processing with a map are a heavy load.

この課題を解決するナビゲーション技術として、例えば、特許文献1の請求項1には、「撮像装置をそなえた移動体の走行経路上で予め撮像された教示画像と、前記撮像装置によって撮像された実画像と、を比較して前記実画像と前記教示画像との一致度が大きくなるように前記移動体の走行を制御する移動体の制御方法であって、前記教示画像と前記実画像とに基づいて前記移動体を定常速度で走行させる定常走行ステップと、前記複数の教示画像の中から予め設定された減速開始位置画像と前記実画像との一致度が予め設定された第1閾値に達すると前記移動体を前記定常速度よりも小さい減速速度で走行させる低速走行ステップと、前記複数の教示画像の中から予め設定された位置決め開始位置画像と前記実画像との一致度が予め設定された第2閾値に達すると前記移動体を前記減速速度よりも小さい位置決め速度で走行させる位置決めステップと、前記複数の教示画像の中から予め設定された目標位置画像と前記実画像との一致度が予め設定された第3閾値に達すると前記駆動装置を停止させる停止ステップと、を有していることを特徴とする移動体の制御方法」が開示されている。特許文献1が開示するナビゲーション技術によれば、事前準備として、目標停止位置までの複数の位置での画像を取得し、特に、進行方向(前後方向)において減速する位置での画像を複数用意するだけで、多段階に減速を行い、停止位置の精度を向上させることができる。 As a navigation technique for solving this problem, for example, claim 1 of Patent Document 1 states that "a teaching image captured in advance on a traveling path of a moving body provided with an imaging device and an actual image captured by the imaging device. It is a control method of a moving body that controls the running of the moving body so that the degree of coincidence between the real image and the teaching image becomes larger by comparing with the image, and is based on the teaching image and the real image. When the steady running step of running the moving body at a steady speed and the degree of coincidence between the deceleration start position image preset from the plurality of teaching images and the actual image reach a preset first threshold value. A low-speed traveling step in which the moving body is traveled at a deceleration speed smaller than the steady speed, and a degree of coincidence between a positioning start position image preset from the plurality of teaching images and the actual image are set in advance. When the two thresholds are reached, the positioning step of traveling the moving body at a positioning speed smaller than the deceleration speed, and the degree of coincidence between the target position image preset from the plurality of teaching images and the actual image are set in advance. A method for controlling a moving body, which comprises a stop step for stopping the driving device when the third threshold value is reached, is disclosed. According to the navigation technique disclosed in Patent Document 1, as a preliminary preparation, images at a plurality of positions up to the target stop position are acquired, and in particular, a plurality of images at positions where the vehicle decelerates in the traveling direction (front-back direction) are prepared. It is possible to decelerate in multiple stages and improve the accuracy of the stop position.

特開2010−140080号公報Japanese Unexamined Patent Publication No. 2010-140080

しかしながら、特許文献1のナビゲーション技術は、予め撮像した画像(目標位置画像/教示画像)と走行中に撮像される画像(実画像)の一致度、および教示画像の特徴点の位置と実画像中の対応する特徴点の位置の差異を用いて移動体の左右位置を制御している点において、例えば工場の廊下などの環境変化が比較的小さい環境(物体の多さや配置変化、通行人の有無、照明の明るさなど)かつ停止目標位置近傍の直線的な移動の条件下では目標位置へ高精度に移動できるが、ショッピングモールや公共施設などの環境変化が大きい環境や広い移動環境に適用する場合や、狭い環境での移動体の位置姿勢(向き、方位)の高精度な移動方法に適用する場合、全方位移動可能(ホロノミック)な移動体や自動車のように真横移動ができない移動体(ノンホロノミック)のようなタイプの異なる自律移動体に適応する場合には、移動精度の低下や処理の破綻、パラメータチューニング等の事前準備負荷の増大といった課題が生じ、目標停止位置で正確に停止できない可能性も考えられる。 However, in the navigation technique of Patent Document 1, the degree of coincidence between the image (target position image / teaching image) captured in advance and the image (actual image) captured during traveling, and the position of the feature point of the teaching image and the actual image In that the left and right positions of the moving body are controlled by using the difference in the positions of the corresponding feature points, an environment with relatively small environmental changes (such as a factory corridor, a large number of objects, changes in arrangement, and the presence or absence of passersby) , Illumination brightness, etc.) and under the condition of linear movement near the stop target position, it can move to the target position with high accuracy, but it is applied to environments with large environmental changes such as shopping malls and public facilities and wide moving environments. In some cases, or when applied to a highly accurate movement method of the position and orientation (direction, orientation) of a moving body in a narrow environment, a moving body that can move in all directions (holonomic) or a moving body that cannot move sideways like a car ( When adapting to different types of autonomous moving objects such as non-holonomic), problems such as deterioration of movement accuracy, processing failure, and increase of preparatory load such as parameter tuning occur, and it is not possible to stop accurately at the target stop position. There is a possibility.

より具体的な例としては、特許文献1記載の技術は、画像の一致度算出や画像間の特徴点の比較により移動体を制御しているので、教示画像取得時と実画像取得時の間の環境変化(人や物の配置、照明条件など)により、一致度の変化や特徴点の特性変化および消失(照明や影、隠れなどに起因)による対応付けの失敗が生じ、結果として、ショッピングモールや公共施設などの動的環境下では移動精度の低下や制御破綻といった課題がある。同課題は特に、移動体と周囲の物との距離がある場合もしくは目標位置まで距離がある場合の広範囲な移動時において、移動体の移動量に対し教示画像と実画像の変化が少ない上に、移動体と周囲の物の間に人や他の物体が撮像されやすいといった状況において顕著となる。 As a more specific example, in the technique described in Patent Document 1, since the moving body is controlled by calculating the degree of matching of images and comparing the feature points between images, the environment between the time of acquiring the teaching image and the time of acquiring the actual image Due to changes (arrangement of people and objects, lighting conditions, etc.), matching failures occur due to changes in the degree of matching and characteristic changes and disappearances of feature points (due to lighting, shadows, hiding, etc.), resulting in shopping malls and In a dynamic environment such as a public facility, there are problems such as deterioration of movement accuracy and control failure. In particular, when there is a distance between the moving object and surrounding objects, or when there is a distance to the target position during a wide range of movement, the change between the teaching image and the actual image is small with respect to the amount of movement of the moving object. This is noticeable in situations where a person or other object is likely to be imaged between a moving object and surrounding objects.

また同時に、特許文献1に記載の技術は、画像の一致度算出や画像間の特徴点の比較により逐次的に移動体の速度および左右方向の位置を制御しているので、例えばドアなどの狭い場所を通過する場合(ドア開け通過)のように、位置に加え向きの精度が求められ、かつ目標位置に至る経路での位置姿勢(位置および向き)の計画(自動車の車庫入れのような計画)が必要な場合には対応できず、高精度な位置精度を実現できないという課題がある。同課題は、特にノンホロノミックな移動体において顕著であり、様々な移動方法および移動体に対応できないという課題がある。 At the same time, the technique described in Patent Document 1 sequentially controls the speed of the moving body and the position in the left-right direction by calculating the degree of matching of the images and comparing the feature points between the images. In addition to the position, the accuracy of the orientation is required, such as when passing through a place (passing through the door), and the position and orientation (position and orientation) of the route to the target position are planned (such as a car garage). ) Is not possible, and there is a problem that high-precision position accuracy cannot be achieved. This problem is particularly remarkable in a nonholonomic moving body, and there is a problem that it cannot cope with various moving methods and moving bodies.

また同時に、特許文献1に記載の技術は、事前に速度計画(走行計画)を行った上で減速位置(制御位置)での教示画像の取得が必要であり、移動方法や移動体の変更の度に事前準備の負荷が増大するという課題がある。 At the same time, in the technique described in Patent Document 1, it is necessary to acquire a teaching image at a deceleration position (control position) after performing a speed plan (running plan) in advance, and it is necessary to change the moving method and the moving body. There is a problem that the load of advance preparation increases every time.

本発明はこのような背景に鑑みてなされたもので、設備工事や地図作成が不要な事前準備の負荷が小さいナビゲーション装置であり、特に動的環境かつ広い移動環境でのロバストな移動と、位置姿勢の経路計画が必要な狭い場所での高精度移動とを実現し、多様なタイプの移動方法および自律移動体に対しても事前準備の負荷が少ない移動体のナビゲーション装置を提供することを目的とする。 The present invention has been made in view of such a background, and is a navigation device that does not require equipment construction or cartography and has a small load of advance preparation. In particular, robust movement and position in a dynamic environment and a wide mobile environment. The purpose is to realize high-precision movement in narrow places where posture route planning is required, and to provide a moving body navigation device with less preparatory load for various types of moving methods and autonomous moving bodies. And.

前記した課題を解決するため、本発明の移動体は、現在位置画像を撮像する画像取得部と、目標位置で撮像した目標位置画像を記憶した目標位置画像記憶部と、接近移動指令式に基づいて前記目標位置に接近移動する移動指令を生成する接近移動指令部と、位置合せ指令式に基づいて前記目標位置で停止する移動指令または前記目標位置を通過する移動指令を生成する位置合せ指令部と、前記現在位置画像と前記目標位置画像の比較結果に応じて、前記接近移動指令部または前記位置合せ指令部の何れかを選択する移動切替部と、前記移動指令に基づいて移動機構を制御する移動制御部と、を具備する移動体とした。 In order to solve the above-mentioned problems, the moving body of the present invention is based on an image acquisition unit that captures a current position image, a target position image storage unit that stores a target position image captured at a target position, and an approach movement command formula. An approaching movement command unit that generates a movement command that moves closer to the target position, and an alignment command unit that generates a movement command that stops at the target position or a movement command that passes through the target position based on the alignment command formula. The movement switching unit that selects either the approach movement command unit or the alignment command unit according to the comparison result between the current position image and the target position image, and the movement mechanism is controlled based on the movement command. A moving body including a moving control unit and a moving body.

本発明によれば、設備工事や地図作成が不要な事前準備の負荷が小さいナビゲーション装置が提供でき、特に動的環境かつ広い移動環境でのロバストな移動と、位置姿勢の経路計画が必要な狭い場所での高精度移動とを実現し、多様なタイプの移動方法および自律移動体に対しても事前準備の負荷が少ない移動体のナビゲーション装置を提供できる。 According to the present invention, it is possible to provide a navigation device that does not require equipment construction or cartography and has a small load of advance preparation, and particularly requires robust movement in a dynamic environment and a wide mobile environment, and route planning of position and orientation. It is possible to realize high-precision movement in a place, and to provide a moving body navigation device with a small load of preparation for various types of moving methods and autonomous moving bodies.

一実施例のナビゲーションシステムの移動体の構成例を示す図。The figure which shows the structural example of the moving body of the navigation system of one Example. 一実施例のナビゲーションシステムのデータ収集用移動体の構成例を示す図。The figure which shows the configuration example of the moving body for data collection of the navigation system of one Example. 一実施例のナビゲーションシステムの学習装置の構成例を示す図。The figure which shows the configuration example of the learning apparatus of the navigation system of one Example. 一実施例のナビゲーションシステムの全体処理を示すフローチャート。The flowchart which shows the whole processing of the navigation system of one Example. 接近移動用学習データの生成に用いる画像の収集範囲を例示する図。The figure which illustrates the collection range of the image used for generating the learning data for approach movement. 位置合せ用学習データの収集範囲を例示する図。The figure which illustrates the collection range of the alignment learning data. 一実施例の学習装置の学習手順を示すフローチャート。The flowchart which shows the learning procedure of the learning apparatus of one Example. 一実施例の移動体の走行手順を示すフローチャート。The flowchart which shows the traveling procedure of the moving body of one Example. 移動体1が複数存在するナビゲーション装置の例を示す図。The figure which shows the example of the navigation device which a plurality of moving bodies 1 exist.

本発明の実施例について、適宜図面を参照しながら説明する。 Examples of the present invention will be described with reference to the drawings as appropriate.

本発明のナビゲーションシステム100は、目標位置に向けて自律移動する移動体1と、学習用データを収集するデータ収集用移動体2と、収集した学習用データを用いて接近移動指令式や位置合せ指令式を学習する学習装置3と、から構成されるシステムである。そして、移動体1は、学習装置3が学習した接近移動指令式や位置合せ指令式を利用して、自律移動のための移動指令を生成し、所定の経由地点を経由しながら最終的な目標位置まで自律移動する。なお、学習装置3は、移動体1やデータ収集用移動体2と、有線または無線の通信を介して、情報を共有することができる。 The navigation system 100 of the present invention uses a moving body 1 that autonomously moves toward a target position, a data collecting moving body 2 that collects learning data, and an approach movement command type or alignment using the collected learning data. It is a system including a learning device 3 for learning a command formula and a learning device 3. Then, the moving body 1 generates a movement command for autonomous movement by using the approaching movement command type and the alignment command type learned by the learning device 3, and makes a final target while passing through a predetermined waypoint. Autonomously move to a position. The learning device 3 can share information with the mobile body 1 and the data collecting mobile body 2 via wired or wireless communication.

以下では、移動体1が、真横に移動できないノンホロノミック移動体(車両や台車など)、または、全方位移動可能なホロノミック移動体(ロボットやドローンなど)の何れかであるものとし、また、移動体1の自律移動する環境が、ショッピングモールや公共施設などの、人の交通量や明るさ等の環境変化が大きい環境であるものとする。本システムでは、このような状況においても、移動体1の形態に拘わらず、共通の接近移動指令式や位置合せ指令式を利用して、目標位置までの自律移動(自律走行、自律歩行、自律飛行など)に必要な移動指令を生成できるため、学習装置3では移動体1の形態別に指令式を学習する必要がないという利点がある。以下、本発明のナビゲーションシステム100における、移動体1、データ収集用移動体2、学習装置3の各々の実施例について、図面を用いながら詳細に説明する。 In the following, it is assumed that the moving body 1 is either a non-holonomic moving body (such as a vehicle or a trolley) that cannot move to the side or a holonic moving body (such as a robot or a drone) that can move in all directions. It is assumed that the environment in which the body 1 moves autonomously is an environment such as a shopping mall or a public facility where the environmental changes such as the traffic volume and brightness of people are large. In this system, even in such a situation, regardless of the form of the moving body 1, autonomous movement to the target position (autonomous running, autonomous walking, autonomous) is performed by using the common approach movement command type and alignment command type. Since the movement command required for (flying, etc.) can be generated, the learning device 3 has an advantage that it is not necessary to learn the command formula for each form of the moving body 1. Hereinafter, examples of the moving body 1, the moving body for collecting data 2, and the learning device 3 in the navigation system 100 of the present invention will be described in detail with reference to the drawings.

<移動体1>
図1は、主に、移動体1の構成例を説明する図であり、データ収集用移動体2と学習装置3の一部構成も併せて表示している。なお、ここでは、移動体1が1台のみ存在するナビゲーションシステム100を例示しているが、図9で後述するように、形態の異なる複数台の移動体1が存在するシステムであってもよい。
<Mobile 1>
FIG. 1 is a diagram mainly for explaining a configuration example of the moving body 1, and also displays a partial configuration of the moving body 2 for data collection and the learning device 3. Although the navigation system 100 in which only one mobile body 1 exists is illustrated here, it may be a system in which a plurality of mobile bodies 1 having different forms exist, as will be described later in FIG. ..

図1に示すように、移動体1は、画像取得部11、移動機構12、計算ユニット13、記憶ユニット14を有している。各々の詳細を順次説明する。 As shown in FIG. 1, the moving body 1 has an image acquisition unit 11, a moving mechanism 12, a calculation unit 13, and a storage unit 14. The details of each will be described in sequence.

画像取得部11は、移動体1の現在位置から周囲を撮像した画像を取得するものであり、例えば、CCDイメージセンサやCMOSイメージセンサ等の撮像素子を備えた、1台以上のカメラから構成されている。画像取得部11が外界を撮像した画像は、後述する移動切替部13a、大域移動指令部13b、接近移動指令部13c、位置合せ指令部13dに出力される。 The image acquisition unit 11 acquires an image of the surroundings from the current position of the moving body 1, and is composed of, for example, one or more cameras provided with an image sensor such as a CCD image sensor or a CMOS image sensor. ing. The image obtained by the image acquisition unit 11 capturing the outside world is output to the movement switching unit 13a, the global movement command unit 13b, the approach movement command unit 13c, and the alignment command unit 13d, which will be described later.

なお、画像取得部11は、解像度の高いカメラを使用することが望ましく、移動環境を広く撮像するため、広角レンズを備えたカメラを搭載してもよい。カメラの視野角や解像度は、後述するデータ収集用移動体2に搭載される画像取得部21のカメラの視野角や解像度と同じ条件であることが望ましいが、トリミング処理やリサイズ処理を行うことで条件をそろえてもよい。さらにカメラの取り付け位置は、移動体の進行方向前方を撮像可能な位置および方向に取り付け、カメラの姿勢が動かないよう移動体1に固定するのが望ましいが、カメラの姿勢を常に把握するシステムを搭載している場合、カメラの姿勢は固定されなくてもよい。 It is desirable to use a camera having a high resolution in the image acquisition unit 11, and a camera provided with a wide-angle lens may be mounted in order to take a wide image of the moving environment. It is desirable that the viewing angle and resolution of the camera are the same as the viewing angle and resolution of the camera of the image acquisition unit 21 mounted on the moving body 2 for data collection, which will be described later. The conditions may be met. Furthermore, it is desirable that the camera is mounted at a position and direction in which the front of the moving body can be imaged and fixed to the moving body 1 so that the posture of the camera does not move. When mounted, the posture of the camera does not have to be fixed.

移動機構12は、移動体1の移動を実現する機構であり、移動体1が車両であれば車輪、ロボットであれば脚または車輪、ドローンであればプロペラ、及び、車輪等を駆動させるアクチュエータである。後述する移動制御部13eでは、後述する位置合せ指令部13d等から出力された移動制御信号に基づいて、移動機構12の形態に応じた所望の移動指令(例えば並進移動速度や回転移動速度など)を生成し、移動体1の前後の移動、旋回あるいは、停止を行う。 The moving mechanism 12 is a mechanism that realizes the movement of the moving body 1. If the moving body 1 is a vehicle, it is a wheel, if it is a robot, it is a leg or a wheel, if it is a drone, it is a propeller, and an actuator that drives the wheel or the like. is there. In the movement control unit 13e described later, a desired movement command (for example, translational movement speed, rotational movement speed, etc.) according to the form of the movement mechanism 12 is based on the movement control signal output from the alignment command unit 13d or the like described later. Is generated, and the moving body 1 is moved back and forth, turned, or stopped.

計算ユニット13は、移動切替部13a、大域移動指令部13b、接近移動指令部13c、位置合せ指令部13d、移動制御部13eを有している。なお、移動体1の記憶ユニット14には所定のプログラムが格納されており、このプログラムがメモリにロードされ、CPU(Central Processing Unit)によって実行されることで、移動切替部13a、大域移動指令部13b、接近移動指令部13c、位置合せ指令部13d、移動制御部13eが具現化される。 The calculation unit 13 includes a movement switching unit 13a, a global movement command unit 13b, an approach movement command unit 13c, an alignment command unit 13d, and a movement control unit 13e. A predetermined program is stored in the storage unit 14 of the moving body 1, and this program is loaded into the memory and executed by the CPU (Central Processing Unit), so that the movement switching unit 13a and the global movement command unit are executed. 13b, approach movement command unit 13c, alignment command unit 13d, and movement control unit 13e are embodied.

移動切替部13aは、画像取得部11が取得した現在位置画像と、目標位置画像記憶部14aから取得した目標位置画像を比較し、目標位置までの移動方法を、高速移動に適した「大域移動」、目標位置の方向に接近移動するための「接近移動」、目標位置で正確に停止するための、あるいは、目標位置を正確に通過するための「位置合せ」の何れかに切り替える判断を行い、その判断結果を、大域移動指令部13b、接近移動指令部13c、位置合せ指令部13dに出力する。なお、ここでは移動方法が三種類である場合を例示するが、本発明は移動方法の数を限定するものではない。以下、移動切替部13aによる各移動方法の切替判断の一例を説明する。 The movement switching unit 13a compares the current position image acquired by the image acquisition unit 11 with the target position image acquired from the target position image storage unit 14a, and sets the movement method to the target position as "global movement suitable for high-speed movement". , "Approaching movement" to move closer to the target position, "Alignment" to stop accurately at the target position, or "Alignment" to accurately pass the target position. The determination result is output to the global movement command unit 13b, the approach movement command unit 13c, and the alignment command unit 13d. Although the case where there are three types of moving methods is illustrated here, the present invention does not limit the number of moving methods. Hereinafter, an example of switching determination of each movement method by the movement switching unit 13a will be described.

移動方法を「接近移動」へ切り替える場合、移動切替部13aは、例えば、現在位置画像内に、目標位置画像に撮像されている予め指定しておいた物体(ランドマーク)が写っているかを判定し、写っていると判定されたときに「接近移動」への切替えを選択する。なお、接近移動指令部13cで画像に基づく判定を行い、移動切替部13aでは接近移動指令部13cの判定結果に基づいて切り替えを判断するという役割分担としてもよい。このとき、接近移動指令部13cで使用する目標位置画像は、経由地点近傍で切り替わり、目標位置画像を切り替えながら、最終的な目標位置画像が撮像された地点へと移動する。また、複数の目標位置画像において現在位置画像の物体が写っている場合は、最終目標位置に近い目標位置画像を選択する。 When switching the movement method to "approaching movement", the movement switching unit 13a determines, for example, whether or not a predetermined object (landmark) imaged in the target position image is captured in the current position image. Then, when it is determined that the image is captured, switch to "approach movement" is selected. It should be noted that the approaching movement command unit 13c may make a determination based on the image, and the movement switching unit 13a may divide the role of determining the switching based on the determination result of the approaching movement command unit 13c. At this time, the target position image used by the approaching movement command unit 13c is switched in the vicinity of the waypoint, and while switching the target position image, the target position image is moved to the point where the final target position image is captured. When an object of the current position image is shown in a plurality of target position images, a target position image close to the final target position is selected.

また、移動方法を「位置合せ」へ切り替える場合、移動切替部13aは、例えば、現在位置画像と位置合せの目標位置画像の類似度が閾値以上になったかを判定し、閾値以上になったときに「位置合せ」への切替えを選択する。なお、画像の類似度の計算方法は、例えば、2枚の画像で同じ位置同士のピクセルの輝度の差分の2乗を集計するMSE(Mean Square Error)を用いる。類似度は、位置合せ指令部13dの処理の一環として、その出力を用いてもよい。また、もし接近移動指令部13cで用いる目標位置画像と位置合せ指令部13dで用いる目標位置画像の中に同じ物体が写っていれば、接近移動指令部13cが出力する物体の大きさが予め設定した閾値以上になれば、移動方法を「位置合せ」へ切り替えてもよいし、さらに、位置合せ指令部13dの相対位置姿勢出力が閾値以下の値に連続して出力している場合も、移動方法を「位置合せ」へ切り替えてもよい。 Further, when the movement method is switched to "alignment", the movement switching unit 13a determines, for example, whether the similarity between the current position image and the target position image for alignment is equal to or higher than the threshold value, and when it becomes equal to or higher than the threshold value. Select to switch to "Alignment". As a method for calculating the similarity of images, for example, MSE (Mean Square Error), which aggregates the square of the difference in the brightness of pixels between the same positions in two images, is used. The similarity may be used as part of the processing of the alignment command unit 13d. If the same object appears in the target position image used by the approach command unit 13c and the target position image used by the alignment command unit 13d, the size of the object output by the approach command unit 13c is preset. If it exceeds the threshold value, the movement method may be switched to "alignment", and even if the relative position / orientation output of the alignment command unit 13d is continuously output to a value below the threshold value, the movement may be performed. The method may be switched to "alignment".

上記の何れにも該当しない場合は、移動切替部13aは、移動方法として「大域移動」を選択する。複数の移動方法が重複して対応可能判定をした場合の優先順位は、「位置合せ」、「接近移動」、「大域移動」の順である。各判定は同時並列に行ってもよいが、判定の順番を決めてもよい。このようにすることで、本実施例では、複数の移動手法の中から適切な手法を選択し、適切なタイミングで他の移動方法に切り替えることができる。 If none of the above applies, the movement switching unit 13a selects "global movement" as the movement method. When a plurality of movement methods are duplicated and it is determined that they can be handled, the order of priority is "alignment", "approach movement", and "global movement". Each determination may be performed in parallel at the same time, but the order of determination may be determined. By doing so, in this embodiment, it is possible to select an appropriate method from a plurality of movement methods and switch to another movement method at an appropriate timing.

大域移動指令部13bは、移動切替部13aが「大域移動」を行うと判断したときに選択される指令部であり、画像取得部11から取得した現在位置画像を入力とし、目標位置の方向へ移動するための速度指令などの移動指令を移動制御部13eに出力する。大域移動指令部13bによる移動方法は本実施例において特に限定するものではないが、移動ビジュアルオドメトリと呼ばれる現在位置画像の変化から移動体の移動量を推定する方法を用いて目標とする位置まで移動してもよい。この方法は、精度は高くないが、現在位置画像の時系列入力のみから概略の移動情報が得られる。それ以外には、例えば、ビジュアルSLAMと呼ばれる方法を用いてもよい。この方法は、画像取得部11が取得した現在位置画像の時系列データから、画像の特徴点群を立体的に配置した地図を作成しながら、同時に移動体の現在位置を推定する方法で、計算負荷が非常に大きく誤差が蓄積するため常時利用はできない。 The global movement command unit 13b is a command unit that is selected when the movement switching unit 13a determines that "global movement" is to be performed, and receives the current position image acquired from the image acquisition unit 11 as input and moves in the direction of the target position. A movement command such as a speed command for moving is output to the movement control unit 13e. The movement method by the global movement command unit 13b is not particularly limited in this embodiment, but the movement to the target position is performed by using a method called a movement visual odometry that estimates the movement amount of the moving body from the change of the current position image. You may. Although this method is not highly accurate, approximate movement information can be obtained only from the time-series input of the current position image. Other than that, for example, a method called visual SLAM may be used. This method is a method of estimating the current position of a moving body at the same time while creating a map in which the feature points of the image are three-dimensionally arranged from the time series data of the current position image acquired by the image acquisition unit 11. Since the load is very large and errors accumulate, it cannot be used all the time.

接近移動指令部13cは、移動切替部13aが「接近移動」を行うと判断したときに選択される指令部であり、画像取得部11が取得した現在位置画像と、目標位置画像記憶部14aから取得した目標位置画像とを後述する接近移動指令式に入力して、目標位置の方向を出力する。なお、この接近移動指令式は、学習装置3での事前学習により得られたものを利用する。 The approach movement command unit 13c is a command unit selected when the movement switching unit 13a determines to perform "approach movement", and is obtained from the current position image acquired by the image acquisition unit 11 and the target position image storage unit 14a. The acquired target position image is input to the approach movement command formula described later, and the direction of the target position is output. In addition, as this approach movement command type, the one obtained by the pre-learning by the learning device 3 is used.

位置合せ指令部13dは、移動切替部13aが「位置合せ」を行うと判断したときに選択される指令部であり、画像取得部11が取得した現在位置画像と、目標位置画像記憶部14aから取得した目標位置画像とを後述する位置合せ指令式に入力して、目標位置姿勢(移動体の向きを含む)までの相対位置姿勢(相対位置および相対角度)を出力する。この位置合せ指令式は、学習装置3での事前学習により得られたものを利用する。 The alignment command unit 13d is a command unit selected when the movement switching unit 13a determines that "alignment" is to be performed, and the current position image acquired by the image acquisition unit 11 and the target position image storage unit 14a are used. The acquired target position image is input to the alignment command formula described later, and the relative position / posture (relative position and relative angle) up to the target position / posture (including the direction of the moving body) is output. As this alignment command formula, the one obtained by pre-learning with the learning device 3 is used.

移動制御部13eは、大域移動指令部13bで算出した移動指令、接近移動指令部13cで算出した目標位置の方向、位置合せ指令部13dで算出した目標位置姿勢までの相対位置姿勢、の何れかを入力として、入力された指令等を実現する移動計画(もしくは経路計画)を行い、適切な移動制御を実施する。移動制御部13eで、相対位置姿勢から移動計画を行って目標位置姿勢までの移動制御を行うことで、例えば、ドアなどの狭い場所を通過する場合(ドア開け通過)のように高い位置精度に加え、高い方向精度も求められる状況下でも、ドローンのように全方位に移動可能なホロノミック移動体や、自動車のように真横に移動できないノンホロノミック移動体のような、移動機構12のタイプの異なる何れの移動体1にも、共通の指令式で対応することができる。 The movement control unit 13e is either a movement command calculated by the global movement command unit 13b, a direction of the target position calculated by the approach movement command unit 13c, or a relative position / posture to the target position / posture calculated by the alignment command unit 13d. Is used as an input, a movement plan (or route plan) is performed to realize the input command, etc., and appropriate movement control is performed. The movement control unit 13e performs a movement plan from the relative position / posture and controls the movement to the target position / posture, so that the position accuracy is high, for example, when passing through a narrow place such as a door (passing through opening the door). In addition, even in situations where high directional accuracy is required, the types of movement mechanisms 12 are different, such as a holonomic moving body that can move in all directions like a drone and a non-holonomic moving body that cannot move to the side like a car. Any moving body 1 can be dealt with by a common command formula.

記憶ユニット14は、目標位置画像記憶部14a、接近移動指令式記憶部14b、位置合せ指令式記憶部14cを有する。 The storage unit 14 includes a target position image storage unit 14a, an approach movement command type storage unit 14b, and an alignment command type storage unit 14c.

目標位置画像記憶部14aは、事前に撮像しておいた1つ以上の目標位置画像を保存している。本実施例では、目標位置画像記憶部14aに蓄積された目標位置画像が撮像された位置を、経由地点もしくは最終目標位置として移動体1をナビゲートする。なお、ここに記憶する目標位置画像は、ナビゲーション対象の移動体1や別の移動体を事前に移動させて撮影したものであってもよいし、人が事前に撮影した目標位置画像やWebやクラウド等にある目標位置画像を登録したものであってもよい。但し、移動体1の画像取得部11が複数台のカメラで構成されている場合は、その位置関係が同一の目標位置画像を取得する必要がある。また、本実施例においては、画像取得部11と同じ高さから撮影した画像を用いるのが望ましいが、後述するように高さ方向の設置位置が異なる場合でも対応できる。これにより、本実施例では画像取得部11の設置位置の異なる移動体にも適用することができる。また、目標位置画像記憶部14aには、位置合せ指令部13dで用いる目標位置画像と接近移動司令部13cで用いる目標位置画像の指定情報を記憶してもよいし、接近移動司令部13cで用いる目標位置画像内に撮影されている物体情報を記憶してもよい。 The target position image storage unit 14a stores one or more target position images captured in advance. In this embodiment, the moving body 1 is navigated by using the position where the target position image stored in the target position image storage unit 14a is captured as a waypoint or a final target position. The target position image stored here may be taken by moving the moving body 1 or another moving body to be navigated in advance, or may be a target position image taken by a person in advance, the Web, or the like. The target position image in the cloud or the like may be registered. However, when the image acquisition unit 11 of the moving body 1 is composed of a plurality of cameras, it is necessary to acquire the target position image having the same positional relationship. Further, in this embodiment, it is desirable to use an image taken from the same height as the image acquisition unit 11, but as will be described later, it is possible to deal with cases where the installation position in the height direction is different. Thereby, in this embodiment, it can be applied to a moving body having a different installation position of the image acquisition unit 11. Further, the target position image storage unit 14a may store the target position image used by the alignment command unit 13d and the designated information of the target position image used by the approach movement command unit 13c, or may be used by the approach movement command unit 13c. The object information captured in the target position image may be stored.

接近移動指令式記憶部14bは、学習装置3で学習処理した「接近移動指令式」を学習装置3の接近移動指令式記憶部33cから適宜取得する。同様に、位置合せ指令式記憶部14cは、学習装置3で学習処理した「位置合せ指令式」を学習装置3の位置合せ指令式記憶部33dから適宜取得する。なお、接近移動指令式や位置合せ指令式の取得は、例えば、学習装置3が再学習を行ったタイミングで実施する。 The approach movement command type storage unit 14b appropriately acquires the “approach movement command type” learned by the learning device 3 from the approach movement command type storage unit 33c of the learning device 3. Similarly, the alignment command type storage unit 14c appropriately acquires the “alignment command type” learned by the learning device 3 from the alignment command type storage unit 33d of the learning device 3. The approach movement command type and the alignment command type are acquired, for example, at the timing when the learning device 3 relearns.

次に、データ収集用移動体2、学習装置3の構成例について、図2及び図3を参照して説明する。 Next, a configuration example of the data collecting mobile body 2 and the learning device 3 will be described with reference to FIGS. 2 and 3.

<データ収集用移動体2>
図2は、主に、データ収集用移動体2の構成例を説明する図であり、移動体1と学習装置3の一部構成も併せて表示している。データ収集用移動体2は、目標位置の近傍で学習用データを収集する装置であり、図2に示すように、画像取得部21、座標推定用センサ22、計算ユニット23、記憶ユニット24を有している。なお、本実施例では、システムの運用者等がデータ収集用移動体2を移動させながら学習用データを取得する運用を想定しているため、図2のデータ収集用移動体2では移動機構を省略しているが、データ収集用移動体2を自走させたい場合は、移動体1のように移動機構を設けても良い。
<Mobile 2 for data collection>
FIG. 2 is a diagram mainly for explaining a configuration example of the data collecting mobile body 2, and also displays a partial configuration of the mobile body 1 and the learning device 3. The data collection moving body 2 is a device that collects learning data in the vicinity of the target position, and has an image acquisition unit 21, a coordinate estimation sensor 22, a calculation unit 23, and a storage unit 24, as shown in FIG. doing. In this embodiment, since it is assumed that the system operator or the like acquires the learning data while moving the data collecting mobile body 2, the data collecting mobile body 2 in FIG. 2 uses a moving mechanism. Although omitted, if the data collection moving body 2 is desired to run on its own, a moving mechanism may be provided as in the moving body 1.

画像取得部21は、データ収集用移動体2の現在位置から周囲を撮像した画像を取得するものであり、例えば、CCDイメージセンサやCMOSイメージセンサ等の撮像素子を備えた、1台以上のカメラから構成されている。画像取得部21により外界を撮像して得られた画像データは、後述する位置合せ用学習データ作成部23aと、画像記憶部24aに出力される。なお、移動環境を広く撮像し、多くの学習データを収集するため、設置位置(高さや移動方向に対する位置)や種類の異なる複数のカメラを搭載したり、広角レンズを備えたカメラを搭載したりするのが望ましい。但し、複数カメラの内の1つは、進行方向前方を撮像可能な位置および方向に取り付けることが望ましい。カメラの視野角や解像度は、なるべく大きいものが望ましい。さらに、カメラの高さや取り付け角度(ピッチ角やロール角)を変更できる機構を有することが望ましい。さらに、搭載時において、カメラの姿勢が動かないよう、固定するのが望ましい。しかし、カメラの姿勢を常に把握するシステムを搭載している場合、カメラの姿勢は固定されなくてもよい。このようにして、1台あるいは少数のデータ収集用移動体2を用いて様々な学習用データを収集することで、移動体の種類が異なる様々な条件に対応できる学習結果が得られるところに本実施例の特徴がある。 The image acquisition unit 21 acquires an image of the surroundings taken from the current position of the data collecting moving body 2, and is, for example, one or more cameras equipped with an image sensor such as a CCD image sensor or a CMOS image sensor. It is composed of. The image data obtained by imaging the outside world by the image acquisition unit 21 is output to the alignment learning data creation unit 23a and the image storage unit 24a, which will be described later. In addition, in order to widely image the moving environment and collect a lot of learning data, it is possible to mount multiple cameras with different installation positions (positions with respect to height and moving direction) and types, or mount cameras with wide-angle lenses. It is desirable to do. However, it is desirable that one of the plurality of cameras be mounted at a position and direction in which the front in the traveling direction can be imaged. It is desirable that the viewing angle and resolution of the camera be as large as possible. Further, it is desirable to have a mechanism capable of changing the height and mounting angle (pitch angle and roll angle) of the camera. Further, it is desirable to fix the camera so that the posture of the camera does not move when mounted. However, if a system that constantly grasps the posture of the camera is installed, the posture of the camera does not have to be fixed. In this way, by collecting various learning data using one or a small number of data collecting mobile bodies 2, learning results that can correspond to various conditions with different types of moving bodies can be obtained. There is a feature of the embodiment.

座標推定用センサ22は、データ収集用移動体2の座標を推定するために必要なデータを取得する。例えば、エンコーダなど車輪の回転数を取得するセンサを用いることで、車輪の回転数の累積からデータ収集用移動体2の座標を推定できる。また、モーションキャプチャシステムや電波などを発生するビーコンなど外部のセンサの情報も利用してデータ収集用移動体2の座標を推定してもよい。 The coordinate estimation sensor 22 acquires data necessary for estimating the coordinates of the data collecting moving body 2. For example, by using a sensor such as an encoder that acquires the rotation speed of the wheel, the coordinates of the moving body 2 for data collection can be estimated from the accumulation of the rotation speed of the wheel. Further, the coordinates of the data collecting moving body 2 may be estimated by using the information of an external sensor such as a motion capture system or a beacon that generates radio waves.

計算ユニット23は、位置合せ用学習データ作成部23aと、座標推定部23bを有している。なお、データ収集用移動体2の記憶ユニット24には所定のプログラムが格納されており、このプログラムがメモリにロードされ、CPUによって実行されることで、位置合せ用学習データ作成部23aと、座標推定部23bが具現化される。 The calculation unit 23 has a learning data creation unit 23a for alignment and a coordinate estimation unit 23b. A predetermined program is stored in the storage unit 24 of the moving body 2 for data collection, and when this program is loaded into the memory and executed by the CPU, the alignment learning data creation unit 23a and the coordinates The estimation unit 23b is embodied.

座標推定部23bは、座標推定用センサ22から入力されたセンサデータを用いて、データ収集用移動体2の位置の座標および向きを推定し、出力する。ここでの座標(および向き)は、ある地点に基準を定めた絶対座標でもよいし、一連の位置合せ用学習データの中での相対座標であってもよい。 The coordinate estimation unit 23b estimates the coordinates and orientation of the position of the data collecting moving body 2 using the sensor data input from the coordinate estimation sensor 22, and outputs the coordinates. The coordinates (and orientation) here may be absolute coordinates with a reference set at a certain point, or may be relative coordinates in a series of learning data for alignment.

位置合せ用学習データ作成部23aは、画像取得部21で取得された画像と、座標推定部23bから入力された座標(および向き)を合わせて位置合せ用学習データとして出力する。位置合せ用学習データとは、2枚の画像(式の入力)と、それぞれの画像が撮像された地点の移動量(相対位置姿勢:式の出力)の関係を位置合せ指令式に学習させるためのデータセットであり、複数の位置で撮像された画像と各画像が撮像された位置の座標がセットとなったデータから構成される。位置合せ用学習データ作成部23aは、入力された画像とその画像が撮像された位置の座標をセットとして関連付けて、位置合せ用学習データ記憶部24bへ出力する。 The alignment learning data creation unit 23a combines the image acquired by the image acquisition unit 21 with the coordinates (and orientation) input from the coordinate estimation unit 23b and outputs the alignment learning data. The alignment training data is for learning the relationship between the two images (input of the formula) and the movement amount of the point where each image is captured (relative position / orientation: output of the formula) in the alignment command formula. It is a data set of, and is composed of data in which images captured at a plurality of positions and coordinates of the positions where each image is captured are set. The alignment learning data creation unit 23a associates the input image with the coordinates of the position where the image is captured as a set, and outputs the alignment learning data storage unit 24b.

記憶ユニット24は、画像記憶部24aと、位置合せ用学習データ記憶部24bと、を有する。 The storage unit 24 includes an image storage unit 24a and a alignment learning data storage unit 24b.

画像記憶部24aは、後述する接近移動指令式を学習するための接近移動用学習データの作成に用いる画像を一時的に保存している。画像記憶部24aに一時的に保存された画像は、定期的あるいは学習を行う際に、学習装置3の画像記憶部33aに転送される。 The image storage unit 24a temporarily stores an image used for creating learning data for approach movement for learning the approach movement command formula described later. The image temporarily stored in the image storage unit 24a is transferred to the image storage unit 33a of the learning device 3 at regular intervals or during learning.

また、位置合せ用学習データ記憶部24bは、位置合せ用学習データ作成部23aから入力された位置合せ用学習データを一時的に保存している。位置合せ用学習データ記憶部22bに一時的に保存された位置合せ用学習データは、定期的あるいは学習を行う際に、学習装置3の位置合せ用学習データ記憶部33bに転送される。 Further, the alignment learning data storage unit 24b temporarily stores the alignment learning data input from the alignment learning data creation unit 23a. The alignment learning data temporarily stored in the alignment learning data storage unit 22b is transferred to the alignment learning data storage unit 33b of the learning device 3 at regular intervals or when learning is performed.

<学習装置3>
図3は、主に、学習装置3の構成例を説明する図であり、移動体1とデータ収集用移動体2の一部構成も併せて表示している。学習装置3は、データ収集用移動体2から転送された学習用データに基づいて接近移動指令式や位置合せ指令式を学習する装置であり、図3に示すように、物体領域入力部31、計算ユニット32(接近移動用学習データ作成部32a、接近移動学習前処理部32b、接近移動指令式学習部32c、位置合せ学習前処理部32d、位置合せ指令式学習部32e)、記憶ユニット33(画像記憶部33a、位置合せ用学習データ記憶部33b、接近移動指令式記憶部33c、位置合せ指令式記憶部33d)を有している。
<Learning device 3>
FIG. 3 is a diagram mainly for explaining a configuration example of the learning device 3, and also displays a partial configuration of the moving body 1 and the data collecting moving body 2. The learning device 3 is a device that learns the approach movement command type and the alignment command type based on the learning data transferred from the data collecting moving body 2, and as shown in FIG. 3, the object area input unit 31, Calculation unit 32 (learning data creation unit 32a for approach movement, approach movement learning preprocessing unit 32b, approach movement command type learning unit 32c, alignment learning preprocessing unit 32d, alignment command type learning unit 32e), storage unit 33 ( It has an image storage unit 33a, a learning data storage unit 33b for alignment, an approach movement command type storage unit 33c, and a alignment command type storage unit 33d).

<位置合せ指令式の学習処理>
まずは、位置合せ用学習データ記憶部33b、位置合せ学習前処理部32d、位置合せ指令式学習部32e、位置合せ指令式記憶部33dによる、位置合せ指令式の学習処理について説明する。
<Alignment command type learning process>
First, the alignment command type learning process by the alignment learning data storage unit 33b, the alignment learning pre-processing unit 32d, the alignment command type learning unit 32e, and the alignment command type storage unit 33d will be described.

位置合せ用学習データ記憶部33bは、データ収集用移動体2の位置合せ用学習データ記憶部24bから転送された位置合せ用学習データを適宜蓄積する。また、図示していないが、既に別の装置や別の機会で獲得された学習データがWebやクラウド上にある場合はそこからも位置合せ用学習データを蓄積する。 The alignment learning data storage unit 33b appropriately accumulates the alignment learning data transferred from the alignment learning data storage unit 24b of the data collection moving body 2. Further, although not shown, if the learning data already acquired by another device or another opportunity is on the Web or the cloud, the alignment learning data is also accumulated from there.

次に、位置合せ学習前処理部32dは、位置合せ指令式の推定精度を向上させるために、位置合せ用学習データのバリエーションを増やす。例えば、位置合せ用学習データの各画像に対して、コントラスト調整やガンマ変換などの照明条件に関係する画像処理、ノイズの付加、画像の一部の削除等のロバスト性に関係する処理を行うことで、学習データのバリエーションを増やす。なお、画像を変換しても、対応する座標は変化させない。このようにすることで、広範囲な環境の移動時に、学習データの画像取得時と実画像取得時の間の環境変化(人や物の配置、照明条件など)に対してもロバストな学習結果が得られるところに本実施例の特徴がある。 Next, the alignment learning preprocessing unit 32d increases the variation of the alignment learning data in order to improve the estimation accuracy of the alignment command formula. For example, for each image of the alignment training data, image processing related to lighting conditions such as contrast adjustment and gamma conversion, processing related to robustness such as addition of noise and deletion of a part of the image are performed. Then, increase the variation of training data. Even if the image is converted, the corresponding coordinates are not changed. By doing so, when moving in a wide range of environments, robust learning results can be obtained even for environmental changes (arrangement of people and objects, lighting conditions, etc.) between the time of image acquisition of training data and the time of actual image acquisition. However, there is a feature of this embodiment.

ここで、位置合せ指令式を詳細に説明する。位置合せ指令式は、位置pとqで撮像された画像PとQを入力として、位置pを原点としたときの位置qの座標、つまり移動量を出力する式である。まず、位置合せ指令式の一例として(式1)がある。なお、ここでは説明の簡略化のため、単純な(式1)を用いて説明するが、(式1)は深層ニューラルネットワークの内の1層分を表しており、実際には、出力u(以下、添え字は層の番号)が入力xとしてさらに(式1)に入力され、その出力uがさらに入力xとして(式1)に入力されるという繰り返し処理が層数分行われる、より複雑な計算式が用いられる。 Here, the alignment command formula will be described in detail. The alignment command formula is a formula that takes the images P and Q captured at the positions p and q as inputs and outputs the coordinates of the position q when the position p is the origin, that is, the movement amount. First, there is (Equation 1) as an example of the alignment command type. Here, for the sake of simplification of the explanation, a simple (Equation 1) will be used, but (Equation 1) represents one layer of the deep neural network, and the output u 1 is actually used. (Hereinafter, the subscript is the layer number) is further input to (Equation 1) as input x 2 , and the output u 2 is further input to (Equation 1) as input x 3 , which is repeated for the number of layers. , More complicated formulas are used.

Figure 2021103421
Figure 2021103421

(式1)においてxは、画像PとQを表すベクトル(以下、二地点画像データと呼称)である。fは非線形関数、uは、位置pからqへの移動量を表すベクトルで、(X、Y、θ)の三次元からなる。uは、カルテシアン座標系で、位置pを原点としたとき、Xは画像正面方向、Yは画像左手方向、θは画像正面を0として反時計回りを正とする。そして、Wはxの重み係数行列である。そして、bはシフト量を表す係数である。 In (Equation 1), x is a vector (hereinafter referred to as two-point image data) representing images P and Q. f is a non-linear function, u is a vector representing the amount of movement from the position p to q, and consists of three dimensions (X, Y, θ). u is a Cartesian coordinate system, and when the position p is the origin, X is the front direction of the image, Y is the left hand direction of the image, θ is 0 in the front of the image, and counterclockwise is positive. And W is a weighting coefficient matrix of x. And b is a coefficient representing the shift amount.

本実施例における位置合せ指令式の学習処理は、二地点画像データxが入力された際に出力される二地点の移動量uが、より的確な判定結果を出力するように、係数行列Wとシフト量bを調整する処理である。学習の結果、移動体1は、(式1)における学習済みの係数行列Wとシフト量bを用いた位置合せ指令式により、二地点画像データxから二地点の移動量を推定可能になる。 In the learning process of the alignment command formula in this embodiment, the coefficient matrix W and the coefficient matrix W are used so that the movement amount u of the two points output when the two-point image data x is input outputs a more accurate determination result. This is a process for adjusting the shift amount b. As a result of the learning, the moving body 1 can estimate the moving amount of the two points from the two-point image data x by the alignment command formula using the learned coefficient matrix W and the shift amount b in (Equation 1).

ここから、位置合せ指令式学習部32eで行われる位置合せ指令式の学習処理を説明する。まずは、位置合せ学習前処理部32dから入力される位置合せ用学習データ群のうち、ランダムにいくつかの学習データを取り出す。そして、係数行列Wの初期値と、シフト量bの初期値を代入した(式1)に対して、取り出された各データのそれぞれの二地点画像データxを入力し、(式1)によって算出されたuと実際の二地点の移動量u’の誤差eを計算し、誤差の合計値Eを算出する。そして、誤差の合計値Eがより小さくなるように係数行列Wとシフト量bを微小変化させる。ここでの係数行列Wとシフト量bの微小変化のさせ方としては、例えば勾配降下法などが利用できる。この学習処理を、位置合せ用学習データ群のすべてに対して行う。 From here, the learning process of the alignment command type performed by the alignment command type learning unit 32e will be described. First, some learning data are randomly extracted from the alignment learning data group input from the alignment learning preprocessing unit 32d. Then, for (Equation 1) in which the initial value of the coefficient matrix W and the initial value of the shift amount b are substituted, the two-point image data x of each of the extracted data is input, and the calculation is performed by (Equation 1). The error e between the u and the actual movement amount u'at the two points is calculated, and the total value E of the errors is calculated. Then, the coefficient matrix W and the shift amount b are slightly changed so that the total value E of the errors becomes smaller. As a method of slightly changing the coefficient matrix W and the shift amount b here, for example, a gradient descent method can be used. This learning process is performed on all of the alignment training data groups.

以上の手順が繰り返されることで、誤差の合計値Eは次第に小さくなっていき、学習終了条件を満たすまで、位置合せ指令式を更新し続ける。なお、学習終了条件としては、例えば、位置合せ用学習データ群に対する学習処理を一定回数に達するまで行う条件や誤差の合計値Eが最小の条件などがある。こうして得られた位置合せ指令式によって出力される二地点の移動量が、二地点画像xに対する最適な移動量とみなされる。したがって、移動体1の現在位置画像と目標位置画像をxとして入力することで、目標位置までの距離と方向が算出できる。さらに、多様かつ大量の位置合せ用学習データで学習処理を行うことによって、位置合せ用学習データに含まれていない初めての場所でも、環境変化がある場合でも目標位置までの移動距離を算出可能となる。 By repeating the above procedure, the total error value E gradually becomes smaller, and the alignment command formula is continuously updated until the learning end condition is satisfied. The learning end condition includes, for example, a condition in which the learning process for the alignment learning data group is performed until a certain number of times is reached, and a condition in which the total error value E is the minimum. The movement amount of the two points output by the alignment command formula thus obtained is regarded as the optimum movement amount with respect to the two-point image x. Therefore, the distance and direction to the target position can be calculated by inputting the current position image and the target position image of the moving body 1 as x. Furthermore, by performing learning processing with a large amount of diverse and large amount of alignment training data, it is possible to calculate the movement distance to the target position even in the first place not included in the alignment training data or when there is an environmental change. Become.

このようにして算出された、学習処理終了後の係数行列W、シフト量bを含む位置合せ指令式(式1)は、位置合せ指令式記憶部33dに格納される。そして、移動体1の運用前などのタイミングで、移動体1の位置合せ指令式記憶部14cに位置合せ指令式を転送する。 The alignment command formula (formula 1) including the coefficient matrix W and the shift amount b after the learning process is completed, which is calculated in this way, is stored in the alignment command formula storage unit 33d. Then, the alignment command type is transferred to the alignment command type storage unit 14c of the moving body 1 at a timing such as before the operation of the moving body 1.

<接近移動指令式の学習処理>
次に、物体領域入力部31、画像記憶部33a、接近移動用学習データ作成部32a、接近移動学習前処理部32b、接近移動指令式学習部32c、接近移動指令式記憶部33cによる、接近移動指令式の学習処理について説明する。
<Learning process of approach movement command type>
Next, the approach movement is performed by the object area input unit 31, the image storage unit 33a, the approach movement learning data creation unit 32a, the approach movement learning preprocessing unit 32b, the approach movement command type learning unit 32c, and the approach movement command type storage unit 33c. The command-type learning process will be described.

画像記憶部33aは、データ収集用移動体2の画像記憶部24aから転送された画像を適宜蓄積する。 The image storage unit 33a appropriately stores the images transferred from the image storage unit 24a of the data collection moving body 2.

次に、接近移動用学習データ生成部32aは、画像記憶部33aに蓄積された画像から接近移動用学習データを作成する。具体的には、接近移動用学習データ作成部32aは、画像記憶部33aから入力された画像に対して、移動のためのランドマークとなりうる物体(例えば、ドアなど)が画像内のどの範囲に写っているかを判断し、ランドマークの写っている物体領域部分を指定する。物体領域部分の指定は、人間が物体領域入力部31を通して指定しても良い。その場合、物体領域部分の指定方法は、例えば、いわゆるバウンディングボックス(物体を取り囲む長方形)を用いてもよい。物体領域入力部31は、例えば、マウスやキーボード、タッチスクリーンなどを用いてもよい。なお、物体領域部分の指定は、人間が行わなくても、色や形状などから自動的に抽出してもよい。物体領域を用いることで、物体の位置以外に物体の大きさ情報も得ることができる。この物体領域情報と画像のセットが接近移動用学習データとなる。このとき、図示していないが、既に別の装置や別の機会で獲得された学習データがWebやクラウド上にある場合はそこから得た学習データを利用しても良い。 Next, the approach movement learning data generation unit 32a creates the approach movement learning data from the images stored in the image storage unit 33a. Specifically, the approach movement learning data creation unit 32a has an object (for example, a door) that can be a landmark for movement in any range of the image with respect to the image input from the image storage unit 33a. Judge whether it is reflected and specify the object area part where the landmark is reflected. The object area portion may be designated by a human through the object area input unit 31. In that case, as a method of designating the object region portion, for example, a so-called bounding box (rectangle surrounding the object) may be used. The object area input unit 31 may use, for example, a mouse, a keyboard, a touch screen, or the like. It should be noted that the designation of the object region portion may be automatically extracted from the color, shape, or the like without being performed by a human. By using the object area, it is possible to obtain information on the size of the object in addition to the position of the object. This set of object area information and images becomes learning data for approach movement. At this time, although not shown, if the learning data already acquired by another device or another opportunity is on the Web or the cloud, the learning data obtained from the learning data may be used.

次に、接近移動学習前処理部32bは、接近移動指令式の推定精度を向上させるために、接近移動用学習データのバリエーションを増やす。例えば、接近移動用学習データの各画像に対して、コントラスト調整やガンマ変換などの照明条件に関係する画像処理、ノイズの付加、画像の一部の削除等のロバスト性に関係する処理を行うことで、データのバリエーションを増やす。なお、画像を変換しても、対応する物体領域は変化させない。このようにすることで、学習データに含まれていない画像であっても、学習データの画像取得時と実画像取得時の間の環境変化(人や物の配置、照明条件など)に対してもロバストな学習結果が得られるところに本実施例の特徴がある。 Next, the approach movement learning preprocessing unit 32b increases the variation of the approach movement learning data in order to improve the estimation accuracy of the approach movement command formula. For example, for each image of the learning data for approach movement, image processing related to lighting conditions such as contrast adjustment and gamma conversion, processing related to robustness such as addition of noise and deletion of a part of the image are performed. So, increase the variation of data. Even if the image is converted, the corresponding object area is not changed. By doing so, even if the image is not included in the training data, it is robust against environmental changes (arrangement of people and objects, lighting conditions, etc.) between the time of image acquisition and the time of actual image acquisition of the training data. The feature of this embodiment is that various learning results can be obtained.

ここで、接近移動指令式を詳細に説明する。接近移動指令式は、二段階の式によって構成される。まずは、接近移動指令式に入力された現在位置画像と目標位置画像の中からそれぞれランドマークとなる物体を検出する。そして、検出された物体の位置を用いて目標位置の方向を計算する。 Here, the approach movement command formula will be described in detail. The approach movement command formula is composed of a two-step formula. First, a landmark object is detected from the current position image and the target position image input in the approach movement command formula. Then, the direction of the target position is calculated using the detected position of the object.

接近移動指令式の一段階目となる物体の検出は、例えば、位置合せ指令式(式1)と同様に(式2)で表せる。なお、ここでは説明の簡略化のため、前述同様に、単純な(式2)を用いているが、(式2)は深層ニューラルネットワークの内の1層分を表しており、実際には、出力u’(以下、添え字は層の番号)が入力x’としてさらに(式2)に入力され、その出力u’がさらにx’として(式2)に入力されるという繰り返し処理が層数分行われる、より複雑な計算式が用いられる。 The detection of the object, which is the first stage of the approach movement command formula, can be expressed by (Equation 2) in the same manner as the alignment command formula (Equation 1), for example. Although the simple (Equation 2) is used here for the sake of simplification of the explanation, (Equation 2) represents one layer of the deep neural network, and is actually used. repeating that the output u '1 (hereinafter, subscript numbers of layers) is input x' is input to the addition (equation 2) 2, the output u '2 is further x' is input to the (formula 2) as a 3 A more complicated calculation formula is used in which the processing is performed for the number of layers.

Figure 2021103421
Figure 2021103421

なお、ここでのx’は、1枚の画像のベクトルであり、u’は、検出した物体の種類とその確信度と画像内での位置および大きさを表すベクトルである。検出した物体の確信度は、検出する物体ごとに0から1までの数値として表される、数値が大きいほどその物体である可能性が高い。また、検出した物体の位置および大きさは、例えばバウンディングボックスの幅、高さ、中心点のピクセル位置で表される。 Here, x'is a vector of one image, and u'is a vector representing the type of the detected object, its certainty, and its position and size in the image. The certainty of the detected object is expressed as a numerical value from 0 to 1 for each detected object, and the larger the numerical value, the higher the possibility that the object is. The position and size of the detected object are represented by, for example, the width, height, and pixel position of the center point of the bounding box.

そして、位置合せ指令式の学習処理と同様に、接近移動用学習データを用いて(式2)を学習することで、画像の中からランドマークとなる物体を検出可能になる。このとき、入力画像を複数枚に切り出すことで複数の物体を同時に検出することも可能である。ランドマークとなる物体には、植木、看板(サイネージ)、ドア、照明、ポール、窓などの固定物を用いるが、人等の移動物の影響を避けるために上方に設置されたものを用いる方がよい。 Then, by learning (Equation 2) using the learning data for approach movement as in the learning process of the alignment command type, it becomes possible to detect an object that becomes a landmark from the image. At this time, it is also possible to detect a plurality of objects at the same time by cutting out the input images into a plurality of images. Fixed objects such as plants, signage, doors, lights, poles, and windows are used as landmark objects, but those installed above to avoid the influence of moving objects such as people are used. Is good.

接近移動指令式の二段階目は、例えば、以下の(式3)で表すことができる。 The second stage of the approach movement command type can be represented by, for example, the following (Equation 3).

Figure 2021103421
Figure 2021103421

なお、(式3)において、u、uは、それぞれ現在位置画像と目標位置画像から共通に検出された物体(同じ物体の種類)のピクセル位置である。複数の物体を検出する場合は、物体の数に対応した式を用意する必要がある。ここで、高さ方向の検出が不要な場合は画像の幅方向のピクセル位置のみを使用すればよい。この場合、高さの異なる位置で撮像した画像も用いることができ、目標位置画像の撮像方法や移動体の種類が自由に選択できる。yは目標位置の方向、kは係数行列、gは幾何学的な変換を演算する関数である。 In (Equation 3), u 1 and u 2 are pixel positions of an object (same object type) commonly detected from the current position image and the target position image, respectively. When detecting multiple objects, it is necessary to prepare an equation corresponding to the number of objects. Here, when detection in the height direction is not required, only the pixel position in the width direction of the image needs to be used. In this case, images captured at different heights can also be used, and the method of capturing the target position image and the type of moving body can be freely selected. y is the direction of the target position, k is the coefficient matrix, and g is the function that calculates the geometric transformation.

このようにして算出された、学習処理終了後の係数行列W’、シフト量b’を含む接近移動指令式(式2)(式3)は、接近移動指令式記憶部33cに格納される。そして、移動体1の運用前などのタイミングで、移動体1の接近移動指令式記憶部14bに接近移動指令式を転送する。 The approach movement command equations (Equation 2) and (Equation 3) including the coefficient matrix W'and the shift amount b'after the completion of the learning process calculated in this way are stored in the approach movement command expression storage unit 33c. Then, the approach movement command type is transferred to the approach movement command type storage unit 14b of the moving body 1 at a timing such as before the operation of the moving body 1.

<ナビゲーションシステム100のフローチャート>
図4は、以上で説明してきた、移動体1、データ収集用移動体2、学習装置3からなる、本実施例のナビゲーションシステム100による一連の処理の一例を示すフローチャートである。なお、図4は、説明のために一例を示したものであり、本発明の手順を限定するものではない。
<Flowchart of navigation system 100>
FIG. 4 is a flowchart showing an example of a series of processes by the navigation system 100 of the present embodiment, which includes the mobile body 1, the data collection moving body 2, and the learning device 3 described above. Note that FIG. 4 shows an example for the sake of explanation, and does not limit the procedure of the present invention.

<ステップS1>
まず、ステップS1では、データ収集用移動体2を用いて、目標位置近傍の画像と座標を収集する。収集した画像は接近移動用学習データ作成部32aで接近移動用学習データを作成するために用いられ、また、画像と座標のデータセットは位置合せ学習前処理部32dに入力される位置合せ用学習データとして用いられる。
<Step S1>
First, in step S1, the image and coordinates in the vicinity of the target position are collected by using the data collecting moving body 2. The collected images are used by the approach movement learning data creation unit 32a to create approach movement learning data, and the image and coordinate data sets are input to the alignment learning preprocessing unit 32d for alignment learning. Used as data.

ここで、図5と図6を用いて、ドアDの前に目標位置Gを設定した状況下での、データ収集用移動体2による各データの収集方法を説明する。 Here, with reference to FIGS. 5 and 6, a method of collecting each data by the data collecting moving body 2 under the situation where the target position G is set in front of the door D will be described.

図5は、ドアDの前に目標位置Gを設定した場合に、接近移動用学習データの作成に必要な画像を撮像できるデータ収集範囲Aを例示する図である。この図から明らかなように、データ収集用移動体2は扇形状(図5では三角形状に簡略化)のデータ収集範囲A内にいるときに、目標位置Gに接近する際のランドマークとなるドアDを撮像できる。従って、学習データ収集用移動体2を、データ収集範囲A内で様々に移動させながら、接近移動用学習データの作成に必要な、ドアD(ランドマーク)が撮像された様々な画像を収集する。なお、類似画像が多数あっても学習データとしてはあまり有用ではないため、ドアDとの距離や角度あるいは照明の明るさなど様々な位置や条件で満遍なく画像を収集することが望ましい。また、データ収集用移動体2をデータ収集範囲A内でランダムに移動させた際に動画を撮影しておき、後程、動画から画像を切り出すことで画像の収集作業を簡単にすることもできる。 5, in the case of setting the target position G in front of the door D, a diagram illustrating a data acquisition range A 1 that can capture an image needed to create the approaching moving learning data. As is apparent from this figure, the data collection for mobile 2 when you are in fan shape (simplified in FIG. 5, the triangular shape) data acquisition range A 1 of a landmark when approaching the target position G Door D can be imaged. Therefore, collect learning data acquisition for mobile 2, while variously move data acquisition range A inside 1, required to create approaching moving learning data, a variety of image door D (landmark) is captured To do. Even if there are many similar images, they are not very useful as learning data, so it is desirable to collect the images evenly at various positions and conditions such as the distance and angle to the door D and the brightness of the illumination. Also, the data collection for mobile 2 by the data acquisition range A inside 1 leave record movies when moving randomly, later, it is also possible to simplify the task of collecting image by cutting out the image from the video ..

一方、図6は、ドアDの前に目標位置Gを設定した場合に、位置合せ用学習データである、画像と座標のデータセットを収集するデータ収集範囲Aを例示する図である。ここでは、目標位置Gの周囲(例えば、目標位置Gを囲む1m程度の正方形の範囲)でデータ収集用移動体2を移動させ、高密度に画像と座標のデータセットを収集する。例えば、図右側の吹き出し内に示すように、目標位置Gの周囲に設定した高密度のグリッドの各地点で、データ収集用移動体2の画像取得部21を様々な方向に向けてデータセットを収集するとよい。この際の、各グリッドの距離dや、各グリッドにおけるデータ収集方向の刻み幅Δθは、本実施例を用いた移動体1の目標精度を考慮して設定すればよい。なお、クリッド間の位置における学習データは、学習により補間しても良い。 On the other hand, FIG. 6, in the case of setting the target position G in front of the door D, is for positioning the training data, is a diagram illustrating a data acquisition range A 2 to collect a data set of the image and coordinates. Here, the data collection moving body 2 is moved around the target position G (for example, a square area of about 1 m surrounding the target position G), and the image and coordinate data sets are collected at high density. For example, as shown in the balloon on the right side of the figure, at each point of the high-density grid set around the target position G, the image acquisition unit 21 of the data collection moving body 2 is directed in various directions to set the data set. Good to collect. At this time, the distance d of each grid and the step size Δθ in the data collection direction in each grid may be set in consideration of the target accuracy of the moving body 1 using this embodiment. The learning data at the positions between the crids may be interpolated by learning.

<ステップS2>
ステップS2では、学習装置3を用いて、接近移動指令式と位置合せ指令式を学習する。この学習処理の詳細を図7に示すフローチャートを用いて説明する。
<Step S2>
In step S2, the learning device 3 is used to learn the approach movement command type and the alignment command type. The details of this learning process will be described with reference to the flowchart shown in FIG.

まず、ステップS21では、接近移動用学習データ作成部32aは、物体領域入力部31を介して指定されたランドマーク(例えば、ドアD)が撮像された画像を、画像記憶部33aから取得し、接近移動用学習データを作成する。次に、接近移動学習前処理部32bは、接近移動用学習データ作成部32aから接近移動用学習データを読み込み、位置合せ学習前処理部32dは、位置合せ用学習データ記憶部33bから位置合せ用学習データを読み込む。 First, in step S21, the approach movement learning data creation unit 32a acquires an image in which the designated landmark (for example, the door D) is captured via the object area input unit 31 from the image storage unit 33a. Create learning data for approach movement. Next, the approach movement learning preprocessing unit 32b reads the approach movement learning data from the approach movement learning data creation unit 32a, and the alignment learning preprocessing unit 32d is for alignment from the alignment learning data storage unit 33b. Read the training data.

次に、ステップS22では、接近移動学習前処理部32bと、位置合せ学習前処理部32dで各学習データに対して前処理を実施し、各学習データのバリエーションを増やす。 Next, in step S22, the approaching movement learning preprocessing unit 32b and the alignment learning preprocessing unit 32d perform preprocessing on each learning data to increase the variation of each learning data.

ステップS23では、接近移動指令式学習部32cで接近移動指令式の学習処理を行い、位置合せ指令式学習部32eで位置合せ指令式の学習処理を行う。 In step S23, the approach movement command type learning unit 32c performs the approach movement command type learning process, and the alignment command type learning unit 32e performs the alignment command type learning process.

最後に、ステップS24では、学習済みの接近移動指令式(例えば、式2、式3)を接近移動指令式記憶部33cに保存し、位置合せ指令式(例えば、式1)を位置合せ指令式記憶部33dに保存する。 Finally, in step S24, the learned approach movement command formula (for example, equations 2 and 3) is stored in the approach movement command type storage unit 33c, and the alignment command formula (for example, formula 1) is stored in the alignment command formula. It is stored in the storage unit 33d.

<ステップS3>
ステップS3では、移動体1やデータ収集用移動体2の画像取得部、あるいは、システムの運用者が携帯するデジタルカメラなどを用いて、移動体1の実移動環境の目標位置(最終的な目標位置、および、経由地点)としたい地点で、ランドマークとなりうる物体を含む目標位置画像を撮像し、移動体1の目標位置画像記憶部14aに登録する。移動体1の自律移動時には、本ステップで目標位置画像記憶部14aに登録した目標位置画像が目標位置を示すデータとなる。
<Step S3>
In step S3, the target position (final target) of the actual moving environment of the moving body 1 is used by using the image acquisition unit of the moving body 1 or the moving body 2 for data collection, or a digital camera carried by the system operator. At the desired point (position and waypoint), a target position image including an object that can be a landmark is imaged and registered in the target position image storage unit 14a of the moving body 1. At the time of autonomous movement of the moving body 1, the target position image registered in the target position image storage unit 14a in this step becomes data indicating the target position.

なお、本ステップでの撮像位置は、ステップS1での撮像位置とは異なるが、ステップS2で学習処理した各指令式が有用である程度に、ステップS1と本ステップの撮像位置の周囲環境が類似しているものとする。換言すれば、実移動環境の目標位置に類似する環境に対し、データ収集用移動体2と学習装置3を利用した学習処理を済ませておく必要があり、そのような環境に対する学習処理が完了していない場合は、そのような環境に対してステップS1、S2の処理を実施するよう配慮する必要がある。 Although the imaging position in this step is different from the imaging position in step S1, the surrounding environment of the imaging position in step S1 and this step is similar to some extent that each command formula learned in step S2 is useful. It is assumed that In other words, it is necessary to complete the learning process using the data collection moving body 2 and the learning device 3 for an environment similar to the target position of the actual moving environment, and the learning process for such an environment is completed. If not, care must be taken to carry out the processes of steps S1 and S2 for such an environment.

<ステップS4>
ステップS4では、移動体1に目標位置までの自律移動を実施させる。環境に変化がなければ、本ステップの処理は繰り返し実行される。
<Step S4>
In step S4, the moving body 1 is made to perform autonomous movement to the target position. If there is no change in the environment, the process of this step is executed repeatedly.

図8は、本ステップの一例を詳細に示すフローチャートである。ここに示す各処理は並列して実行しても良いが、ここでは簡単のため、その手順をシーケンシャルに説明する。 FIG. 8 is a flowchart showing an example of this step in detail. Each process shown here may be executed in parallel, but for the sake of simplicity, the procedure will be described sequentially.

ステップS41:まず、移動切替部13aが移動体1の移動方法を「位置合せ」に切り替えるかを判断する。例えば、現在位置画像と目標位置画像の類似度が一定値以上になった場合、ランドマークとなる物体が閾値以上の大きさになった場合、相対位置姿勢が閾値以下の値に連続してなっている場合に、「位置合せ」への切り替えを判断する。判断の結果、「位置合せ」へ切替える場合は(Yes)ステップS42へ移る。一方、引き続き「大域移動」や「接近移動」を実行する場合は(No)ステップS44へ移る。 Step S41: First, the movement switching unit 13a determines whether to switch the moving method of the moving body 1 to "alignment". For example, when the similarity between the current position image and the target position image exceeds a certain value, or when the landmark object becomes larger than the threshold value, the relative position and orientation become continuous with the value below the threshold value. If so, determine the switch to "alignment". As a result of the determination, when switching to "alignment", the process proceeds to (Yes) step S42. On the other hand, when the "global movement" or the "approaching movement" is continuously executed, the process proceeds to (No) step S44.

ステップS42:移動体1は、位置合せ指令部11dからの指令により目標位置に向けて移動する。本ステップでの移動は、位置合せ指令式に基づいて目標位置へ移動する。所定の時間移動を行うとステップS43へ移る。 Step S42: The moving body 1 moves toward the target position by a command from the alignment command unit 11d. The movement in this step moves to the target position based on the alignment command formula. After moving for a predetermined time, the process proceeds to step S43.

ステップS43:移動切替部13aが「位置合せ」が終了したかどうか、すなわち、移動体1が目標位置に到達したか、を判断する。例えば、位置合せ指令式から算出される目標位置までの相対位置姿勢値が許容値以下であれば目標位置に到達したと判断して走行を終了し、そうでなければ(No)、目標位置への「位置合せ」を継続すべく、ステップS41へ移る。 Step S43: The movement switching unit 13a determines whether or not the “alignment” has been completed, that is, whether or not the moving body 1 has reached the target position. For example, if the relative position / posture value to the target position calculated from the alignment command formula is less than the permissible value, it is determined that the target position has been reached and the running is terminated. If not (No), the target position is reached. In order to continue the "alignment" of the above, the process proceeds to step S41.

ステップS44:移動切替部13aが移動体1の移動方法を「接近移動」に切り替えるかを判断する。例えば、現在位置画像内に、予め取得しておいた目標位置画像に撮像されている物体(ランドマーク)が写っているかを判断し、共通の物体が写っていれば(Yes)、「接近移動」へ切替え、そうでなければならば(No)、ステップS46へ移る。 Step S44: The movement switching unit 13a determines whether to switch the moving method of the moving body 1 to "approaching movement". For example, it is determined whether or not an object (landmark) imaged in the target position image acquired in advance is captured in the current position image, and if a common object is captured (Yes), "approach movement". If not (No), the process proceeds to step S46.

ステップS45:移動体1は、接近移動指令部13cにより目標位置に向けて移動する。本ステップでの移動は、接近移動指令式に基づいて目標位置の方向へ向けて移動する。所定時間移動後、ステップS41へ移る。 Step S45: The moving body 1 moves toward the target position by the approaching movement command unit 13c. The movement in this step moves toward the target position based on the approach movement command formula. After moving for a predetermined time, the process proceeds to step S41.

ステップS46:移動体は、大域移動指令部13bにより移動開始位置から目標位置に向けて移動する。所定時間移動後、ステップS41へ移る。 Step S46: The moving body moves from the movement start position to the target position by the global movement command unit 13b. After moving for a predetermined time, the process proceeds to step S41.

本実施例は、目標位置までの移動を「大域移動」、「接近移動」、「位置合せ」の複数ステップに分けて行う点に1つの特徴がある。特に、「接近移動」における、現在位置画像の中でも目標位置画像内に写っている物体をランドマークとしてその部分のみに着目して移動方向のみを推定して移動する部分と、「位置合せ」における、現在位置画像と目標位置画像の画像全体を利用して目標位置までの相対位置姿勢を推定して移動する部分が、従来技術と異なる特徴である。 One feature of this embodiment is that the movement to the target position is divided into a plurality of steps of "global movement", "approaching movement", and "alignment". In particular, in "approach movement", the part of the current position image that moves by estimating only the movement direction by focusing only on that part with the object shown in the target position image as a landmark, and in "alignment". The part that estimates the relative position and orientation to the target position and moves by using the entire image of the current position image and the target position image is a feature different from the prior art.

この特徴により、移動体1が目標位置の遠方におり現在位置画像に目標位置に関する情報が少ない場合は、目標位置の物体(ランドマーク)のみに着目して大まかに移動し、目標位置付近に近づいて現在位置画像内に目標位置に関する情報が増加してからはじめて現在位置画像と目標位置画像の画像全体を利用して目標位置までの相対位置姿勢を正確に推定する。但し、移動体1の位置と姿勢を正確に推定できる範囲は、図6に例示したような狭い範囲でのみである。これにより、現在位置画像にランドマーク以外の物体が増減するような走行環境の変化(例えば、ショッピングモール内での曜日による通行量の増減)が起きても、目標位置までより正確に移動して停止または通過することが可能となる。 Due to this feature, when the moving body 1 is far from the target position and there is little information about the target position in the current position image, the moving body 1 moves roughly focusing only on the object (landmark) at the target position and approaches the target position. Only after the information about the target position increases in the current position image, the relative position and orientation to the target position can be accurately estimated by using the entire image of the current position image and the target position image. However, the range in which the position and posture of the moving body 1 can be accurately estimated is only a narrow range as illustrated in FIG. As a result, even if the driving environment changes such that objects other than landmarks increase or decrease in the current position image (for example, increase or decrease in traffic volume depending on the day of the week in the shopping mall), the vehicle moves more accurately to the target position. It is possible to stop or pass.

なお、ステップS42で利用する現在位置画像は、過去数回の撮影回数分の画像を撮りためて、その差分を計算することにより通行人などの移動障害物が写っていない画像を選択することでより正確な移動ができる。 As the current position image used in step S42, images corresponding to the number of shots taken several times in the past are taken, and the difference is calculated to select an image in which moving obstacles such as passersby are not shown. You can move more accurately.

<ステップS5>
最後に、ステップS5では、新しい環境での再学習が必要か、すなわち、学習済みの環境と非類似の環境を実走行する必要があるか、を運用者が判断し、必要だと判断したタイミングでステップS1、S2を再度実行する。一方、そのような必要がなければ、ステップS3に戻る。
<Step S5>
Finally, in step S5, the operator determines whether re-learning in the new environment is necessary, that is, whether it is necessary to actually drive in an environment dissimilar to the learned environment, and when it is determined that it is necessary. Steps S1 and S2 are executed again. On the other hand, if there is no such need, the process returns to step S3.

以下、本実施例のナビゲーションシステム100の実装例について述べる。 Hereinafter, an implementation example of the navigation system 100 of this embodiment will be described.

図9は、移動体1が複数存在するナビゲーションシステム100の例を示す図である。この例のように、ナビゲーションシステムが複数の移動体1A〜1Cを有する場合、データ収集用移動体2は、画像取得部21が移動体1A〜1Cの画像取得部11の高さや取り付け角度に対応できるように、多様なデータを取得できるような機構を装備しておき、移動体1A〜1Cの様々なカメラに合わせた設置条件で接近移動用学習データ、位置合せ用学習データを収集する。そして、蓄積された学習データをもとに接近移動指令式、位置合せ指令式の学習を行う。 FIG. 9 is a diagram showing an example of a navigation system 100 in which a plurality of mobile bodies 1 exist. When the navigation system has a plurality of moving bodies 1A to 1C as in this example, in the data collecting moving body 2, the image acquisition unit 21 corresponds to the height and mounting angle of the image acquisition part 11 of the moving bodies 1A to 1C. A mechanism that can acquire various data is provided so that various data can be acquired, and learning data for approach movement and learning data for alignment are collected under installation conditions suitable for various cameras of the moving bodies 1A to 1C. Then, based on the accumulated learning data, learning of the approach movement command type and the alignment command type is performed.

以上のような構成及び手順により、走行環境の変化に対してロバストかつ、精度よく移動体を目標位置まで移動させることができるようにした、移動体のナビゲーション装置及びナビゲーションシステムを提供することができる。 With the above configuration and procedure, it is possible to provide a navigation device and a navigation system for a moving body that can move the moving body to a target position robustly and accurately in response to changes in the traveling environment. ..

100 ナビゲーションシステム
1,1A〜1C 移動体
11 画像取得部
12 移動機構
13 計算ユニット
13a 移動切替部
13b 大域移動指令部
13c 接近移動指令部
13d 位置合せ指令部
13e 移動制御部
14 記憶ユニット
14a 目標位置画像記憶部
14b 接近移動指令式記憶部
14c 位置合せ指令式記憶部
2 データ収集用移動体
21 画像取得部
22 座標推定用センサ
23 計算ユニット
23a 位置合せ用学習データ作成部
23b 座標推定部
24 記憶ユニット
24a 画像記憶部
24b 位置合せ用学習データ記憶部
3 学習装置
31 物体領域入力部
32 計算ユニット
32a 接近移動用学習データ生成部
32b 接近移動学習前処理部
32c 接近移動指令式学習部
32d 位置合せ学習前処理部
32e 位置合せ指令式学習部
33 記憶ユニット
33a 画像記憶部
33b 位置合せ用学習データ記憶部
33c 接近移動指令式記憶部
33d 位置合せ指令式記憶部
100 Navigation system 1,1A to 1C Moving object 11 Image acquisition unit 12 Movement mechanism 13 Calculation unit 13a Movement switching unit 13b Global movement command unit 13c Approach movement command unit 13d Alignment command unit 13e Movement control unit 14 Storage unit 14a Target position image Storage unit 14b Approach movement command type storage unit 14c Alignment command type storage unit 2 Data collection moving body 21 Image acquisition unit 22 Coordinate estimation sensor 23 Calculation unit 23a Alignment learning data creation unit 23b Coordinate estimation unit 24 Storage unit 24a Image storage unit 24b Alignment learning data storage unit 3 Learning device 31 Object area input unit 32 Calculation unit 32a Approach movement learning data generation unit 32b Approach movement learning preprocessing unit 32c Approach movement command type learning unit 32d Alignment learning preprocessing Unit 32e Alignment command type learning unit 33 Storage unit 33a Image storage unit 33b Alignment learning data storage unit 33c Approach movement command type storage unit 33d Alignment command type storage unit

Claims (11)

自律移動する移動体であって、
現在位置画像を撮像する画像取得部と、
目標位置で撮像した目標位置画像を記憶した目標位置画像記憶部と、
接近移動指令式に基づいて前記目標位置に接近移動する移動指令を生成する接近移動指令部と、
位置合せ指令式に基づいて前記目標位置で停止する移動指令または前記目標位置を通過する移動指令を生成する位置合せ指令部と、
前記現在位置画像と前記目標位置画像の比較結果に応じて、前記接近移動指令部または前記位置合せ指令部の何れかを選択する移動切替部と、
前記移動指令に基づいて移動機構を制御する移動制御部と、
を具備することを特徴とする移動体。
It is a mobile body that moves autonomously
An image acquisition unit that captures the current position image and
A target position image storage unit that stores a target position image captured at the target position,
An approach movement command unit that generates a movement command to move closer to the target position based on the approach movement command formula, and
An alignment command unit that generates a movement command that stops at the target position or a movement command that passes through the target position based on the alignment command formula.
A movement switching unit that selects either the approach movement command unit or the alignment command unit according to the comparison result between the current position image and the target position image.
A movement control unit that controls the movement mechanism based on the movement command,
A moving body characterized by comprising.
前記目標位置画像記憶部に記憶した前記目標位置画像は、最終目標位置で撮像した目標位置画像、および、前記最終目標位置に至る経由地点で撮像した目標位置画像であり、
自律移動時には、前記移動切替部で使用する前記目標位置画像を前記経由地点の順に切り替えながら、前記最終目標位置へと自律移動することを特徴とする、請求項1に記載の移動体。
The target position image stored in the target position image storage unit is a target position image captured at the final target position and a target position image captured at a waypoint leading to the final target position.
The moving body according to claim 1, wherein at the time of autonomous movement, the target position image used by the movement switching unit is switched in the order of the waypoints and autonomously moved to the final target position.
前記位置合せ指令部は、前記現在位置画像と前記目標位置画像を比較することで、現在位置から目標位置までの相対位置と相対姿勢を演算し、その演算結果に応じた前記移動指令を出力することを特徴とする、請求項1に記載の移動体。 The alignment command unit calculates the relative position and the relative posture from the current position to the target position by comparing the current position image with the target position image, and outputs the movement command according to the calculation result. The moving body according to claim 1, wherein the moving body is characterized in that. 前記接近移動指令部は、前記現在位置画像と前記目標位置画像を比較することで、現在位置から目標位置までの移動方向を演算し、その演算結果に応じた前記移動指令を出力することを特徴とする、請求項1に記載の移動体。 The approaching movement command unit is characterized in that by comparing the current position image with the target position image, the movement direction from the current position to the target position is calculated, and the movement command according to the calculation result is output. The moving body according to claim 1. 前記移動切替部は、
前記現在位置画像と前記目標位置画像の類似度が所定の閾値以上になった場合、
前記現在位置画像と前記目標位置画像に同一種類の物体が写っており、前記現在位置画像の前記物体の大きさが所定の閾値以上になった場合、もしくは、
前記位置合せ指令式が出力する相対位置姿勢が所定の閾値以下なった場合、
の何れかの場合に、前記位置合わせ指令部を選択することを特徴とする、請求項1に記載の移動体。
The movement switching unit is
When the similarity between the current position image and the target position image exceeds a predetermined threshold value,
When an object of the same type appears in the current position image and the target position image, and the size of the object in the current position image exceeds a predetermined threshold value, or
When the relative position / orientation output by the alignment command formula falls below a predetermined threshold value,
The moving body according to claim 1, wherein the alignment command unit is selected in any of the cases.
前記移動切替部は、
前記位置合わせ指令部を選択する条件は満たさないが、
前記目標位置画像と前記現在位置画像に同一種類の物体が映っている場合に、前記接近移動指令部を選択することを特徴とする、請求項5に記載の移動体。
The movement switching unit is
Although the condition for selecting the alignment command unit is not satisfied,
The moving body according to claim 5, wherein the approaching movement command unit is selected when an object of the same type is shown in the target position image and the current position image.
前記移動切替部は、前記位置合わせ指令部を選択する条件を満たさず、かつ、前記接近移動指令部を選択する条件も満たさない場合は、現在位置から目標位置の方向へ移動する大域移動指令部を選択することを特徴とする請求項6に記載の移動体。 If the movement switching unit does not satisfy the condition for selecting the alignment command unit and also does not satisfy the condition for selecting the approach movement command unit, the global movement command unit moves from the current position to the target position. The moving body according to claim 6, wherein the mobile body is selected. 請求項1から請求項7の何れか一項に記載の移動体をナビゲーションするナビゲーションシステムであって、
前記位置合せ指令式は、データ収集用移動体が収集した学習データを、学習装置で学習処理することで得たものであることを特徴とするナビゲーションシステム。
A navigation system for navigating a moving object according to any one of claims 1 to 7.
The alignment command type is a navigation system characterized in that the learning data collected by a moving body for data collection is obtained by learning processing with a learning device.
前記学習データは、前記データ収集用移動体が撮像した第一画像および第二画像と、前記第一画像の撮像位置から前記第二画像の撮像位置までの相対位置と相対姿勢であることを特徴とする、請求項8に記載のナビゲーションシステム。 The learning data is characterized by being a first image and a second image captured by the data collecting moving body, and a relative position and a relative posture from the imaging position of the first image to the imaging position of the second image. The navigation system according to claim 8. 請求項1から請求項7の何れか一項に記載の移動体をナビゲーションするナビゲーションシステムであって、
前記接近移動指令式は、データ収集用移動体が収集した学習データを、学習装置で学習処理することで得たものであることを特徴とするナビゲーションシステム。
A navigation system for navigating a moving object according to any one of claims 1 to 7.
The approach movement command type is a navigation system characterized in that the learning data collected by a moving body for data collection is obtained by learning processing with a learning device.
前記学習データは、前記データ収集用移動体が撮像した第三画像と、該第三画像に撮像された所定の物体の存在領域であることを特徴とする、請求項10に記載のナビゲーションシステム。 The navigation system according to claim 10, wherein the learning data is a third image captured by the data collecting moving body and a region where a predetermined object is captured in the third image.
JP2019234249A 2019-12-25 2019-12-25 Mobile object and its navigation system Active JP7461737B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019234249A JP7461737B2 (en) 2019-12-25 2019-12-25 Mobile object and its navigation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019234249A JP7461737B2 (en) 2019-12-25 2019-12-25 Mobile object and its navigation system

Publications (2)

Publication Number Publication Date
JP2021103421A true JP2021103421A (en) 2021-07-15
JP7461737B2 JP7461737B2 (en) 2024-04-04

Family

ID=76755170

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019234249A Active JP7461737B2 (en) 2019-12-25 2019-12-25 Mobile object and its navigation system

Country Status (1)

Country Link
JP (1) JP7461737B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003177821A (en) * 2001-12-11 2003-06-27 Honda Motor Co Ltd Device, method and program for guiding traveling object
JP2010140080A (en) * 2008-12-09 2010-06-24 Yaskawa Electric Corp Control method and control device for mobile object, and mobile object system
JP2012068736A (en) * 2010-09-21 2012-04-05 Yaskawa Electric Corp Mobile body
US20170151883A1 (en) * 2015-11-30 2017-06-01 Faraday&Future Inc. Camera-based vehicle position determination with known target

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019197350A (en) 2018-05-09 2019-11-14 株式会社日立製作所 Self-position estimation system, autonomous mobile system and self-position estimation method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003177821A (en) * 2001-12-11 2003-06-27 Honda Motor Co Ltd Device, method and program for guiding traveling object
JP2010140080A (en) * 2008-12-09 2010-06-24 Yaskawa Electric Corp Control method and control device for mobile object, and mobile object system
JP2012068736A (en) * 2010-09-21 2012-04-05 Yaskawa Electric Corp Mobile body
US20170151883A1 (en) * 2015-11-30 2017-06-01 Faraday&Future Inc. Camera-based vehicle position determination with known target

Also Published As

Publication number Publication date
JP7461737B2 (en) 2024-04-04

Similar Documents

Publication Publication Date Title
Zhang et al. Localization and navigation using QR code for mobile robot in indoor environment
US11673269B2 (en) Method of identifying dynamic obstacle and robot implementing same
TWI827649B (en) Apparatuses, systems and methods for vslam scale estimation
KR101539270B1 (en) sensor fusion based hybrid reactive motion planning method for collision avoidance and autonomous navigation, recording medium and mobile robot for performing the method
EP2144131B1 (en) Apparatus and method of building map for mobile robot
KR101782057B1 (en) Apparatus for building map and method thereof
JP4798450B2 (en) Navigation device and control method thereof
JP5429901B2 (en) Robot and information processing apparatus program
JP2005070043A (en) Self-position recognizing device and method of intelligent system using artificial mark, and the intelligent system using the same
JPH03201110A (en) Position azimuth detecting device for autonomous traveling vehicle
JP2007316966A (en) Mobile robot, control method thereof and program
JP5068840B2 (en) Robot program and information processing apparatus program
EP4088884A1 (en) Method of acquiring sensor data on a construction site, construction robot system, computer program product, and training method
JP2006234453A (en) Method of registering landmark position for self-position orientation
KR101341204B1 (en) Device and method for estimating location of mobile robot using raiser scanner and structure
CN112652001B (en) Underwater robot multi-sensor fusion positioning system based on extended Kalman filtering
Sujiwo et al. Localization based on multiple visual-metric maps
Launay et al. A corridors lights based navigation system including path definition using a topologically corrected map for indoor mobile robots
CN113741550A (en) Mobile robot following method and system
JP2021103421A (en) Moving body and navigation system for the same
Song et al. Real-time localization measure and perception detection using multi-sensor fusion for Automated Guided Vehicles
Stella et al. Self-location of a mobile robot by estimation of camera parameters
JPS6159507A (en) Guiding device of selfcontrol running truck
Safia et al. Visual path following by an omnidirectional mobile robot using 2d visual servoing
Morales et al. Object detection in non-stationary video surveillance for an autonomous vehicle

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220902

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230727

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230801

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230929

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240304

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240319

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240325

R150 Certificate of patent or registration of utility model

Ref document number: 7461737

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150