JP2020113134A - Unmanned moving object, unmanned moving object control method and unmanned moving program - Google Patents

Unmanned moving object, unmanned moving object control method and unmanned moving program Download PDF

Info

Publication number
JP2020113134A
JP2020113134A JP2019004673A JP2019004673A JP2020113134A JP 2020113134 A JP2020113134 A JP 2020113134A JP 2019004673 A JP2019004673 A JP 2019004673A JP 2019004673 A JP2019004673 A JP 2019004673A JP 2020113134 A JP2020113134 A JP 2020113134A
Authority
JP
Japan
Prior art keywords
change
image
unmanned
feature points
target position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019004673A
Other languages
Japanese (ja)
Inventor
智幸 伊豆
Tomoyuki Izu
智幸 伊豆
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Attraclab Co Ltd
Eams Robotics Co Ltd
Eams Lab Co Ltd
Original Assignee
Attraclab Co Ltd
Eams Robotics Co Ltd
Eams Lab Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Attraclab Co Ltd, Eams Robotics Co Ltd, Eams Lab Co Ltd filed Critical Attraclab Co Ltd
Priority to JP2019004673A priority Critical patent/JP2020113134A/en
Publication of JP2020113134A publication Critical patent/JP2020113134A/en
Pending legal-status Critical Current

Links

Abstract

To provide an unmanned moving object enabling a prompt control on a moving direction without the placement of a marker in advance and without the use of positioning radio waves from a navigation satellite.SOLUTION: An unmanned moving object 1 capable of autonomously moving includes: image obtaining means for picking up the image of an exterior covering a goal position that is a position where the unmanned moving object is to move and reach, and for obtaining the image; feature point extracting means for extracting multiple feature points within the image; relative position defining means for defining the goal position within the image in accordance with the relative relation to the respective positions of the multiple feature points; predicting means for calculating a change in position of each of the multiple feature points in the image as a predicted change when the unmanned moving object moves toward the goal position through a predetermined route; change determining means for determining whether or not the actual change that is the actual change in position of each of the multiple feature points in the image is consistent with the predicted change while the unmanned moving body is moving toward the goal position; and moving direction changing means for changing the moving direction of the unmanned moving object so as to cancel the change when the determination is made that the actual change is inconsistent with the predicted change.SELECTED DRAWING: Figure 1

Description

本発明は、無人移動体、無人移動体の制御方法及び無人移動プログラムに関する。 The present invention relates to an unmanned moving body, a method for controlling the unmanned moving body, and an unmanned moving program.

従来、予め経路の近傍に配置したマーカーを検出しつつ、自動的に無人車両を走行させる技術が提案されている(例えば、特許文献1)。 Conventionally, a technique has been proposed in which an unmanned vehicle is automatically driven while detecting a marker arranged in the vicinity of a route in advance (for example, Patent Document 1).

特許第5046310号公報Japanese Patent No. 5046310

上述の技術においては、無人車両が走行する経路の近傍にマーカーを配置する必要がある。このため、マーカーを準備しなければならず、マーカーの配置にも時間を要する。また、状況によっては、マーカーを配置することが困難、または、不可能である。GPS(Global Positioning System)衛星などの航法衛星からの測位用電波を使用する測位と、電子コンパスや加速度センサーを併用しつつ走行することも可能であるが、測位用電波を使用する測位には相応の時間を要するから、迅速に進行方向を修正することは困難である。 In the above-mentioned technique, it is necessary to arrange the marker near the route along which the unmanned vehicle travels. Therefore, it is necessary to prepare the markers, and it takes time to arrange the markers. Also, it is difficult or impossible to place the marker depending on the situation. It is possible to use positioning radio waves from navigation satellites such as GPS (Global Positioning System) satellites, and to drive while using an electronic compass or acceleration sensor together, but it is suitable for positioning using radio waves for positioning. Therefore, it is difficult to quickly correct the traveling direction.

本発明はかかる問題の解決を試みたものであり、予めマーカーを配置することなく、また、航法衛星からの測位用電波を使用することなく、迅速に移動方向を制御することができる無人移動体、無人移動体の制御方法及び無人移動プログラムを提供することを目的とする。 The present invention has attempted to solve such a problem, and an unmanned vehicle capable of rapidly controlling its moving direction without arranging markers in advance and using positioning radio waves from a navigation satellite. , An unmanned moving body control method and an unmanned moving program are provided.

第一の発明は、自律移動可能な無人移動体であって、前記無人移動体が移動して到達する位置である目標位置の方向を撮影し、画像を取得する画像取得手段と、前記画像中において、複数の特徴点を抽出する特徴点抽出手段と、前記画像中における前記目標位置の方向を複数の前記特徴点の位置との相対関係において規定する相対位置規定手段と、前記無人移動体が予定の経路において前記目標位置へ向かって移動する条件において、複数の前記特徴点の前記画像中における位置の変化を予測変化として算出する予測手段と、前記無人移動体が前記目標位置に向かって移動する間において、前記画像中における複数の前記特徴点の位置の実際の変化である実変化が、前記予測変化と相違するか否かを判断する変化判断手段と、前記変化判断手段によって、前記実変化と前記予測変化に相違があると判断した場合に、前記相違を打ち消すように前記無人移動体の移動方向を変更する移動方向変更手段と、を有する、無人移動体である。 A first aspect of the present invention is an unmanned mobile body capable of autonomous movement, which captures an image of a direction of a target position, which is a position where the unmanned mobile body moves and reaches, and an image capturing unit that captures an image. In the feature point extracting means for extracting a plurality of feature points, a relative position defining means for defining the direction of the target position in the image in a relative relationship with the positions of the plurality of feature points, and the unmanned moving body. Prediction means for calculating a change in the position of the plurality of characteristic points in the image as a predicted change under the condition of moving toward the target position on the planned route, and the unmanned moving body moves toward the target position. In the meantime, the actual change, which is the actual change of the positions of the plurality of feature points in the image, is changed by the change determination means for determining whether or not the actual change is different from the predicted change, and the actual change is performed by the change determination means. When it is determined that there is a difference between the change and the predicted change, the moving direction changing unit that changes the moving direction of the unmanned moving body so as to cancel the difference is an unmanned moving body.

第一の発明の構成によれば、無人移動体は、目標位置の方向を複数の特徴点との相対関係において規定し、予定の経路において目標位置へ向かって移動する条件において、複数の特徴点の位置の変化を予測変化として算出し、実際の移動中における複数の特徴点の変化と同一であるか否かを判断し、相違する場合には、その相違を打ち消すように移動方向を変更することができる。すなわち、複数の特徴点をマーカーとして移動方向を変更することができる。例えば、特徴点が1つだけの場合、無人移動体の方向が変わっても、画像中の位置の変化は生じない場合、あるいは、著しく小さい場合がある。これに対して、特徴点を2つ、あるいは、3つなど、複数使用する場合には、無人移動体の移動方向が変われば必ず少なくとも一つの特徴点の位置が変化する。また、複数の特徴点の画像中の位置の変化は、一つの特徴点の変化よりも、画像中の画素の変化量が大きいから、その検出が容易である。さらに、特徴点が1つだけの場合、何らかの自然現象または人為的な現象によって、その特徴点が画像中に映らなくなる場合もある。すなわち、複数の特徴点を使用することによって、変化判断手段による判断の信頼性が向上する。また、画像処理に要する時間は、測位処理に要する時間よりも、格段に短いから、迅速に移動方向を制御することができる。これにより、予めマーカーを配置することなく、また、航法衛星からの測位用電波を使用することなく、移動方向を制御することができる。 According to the configuration of the first invention, the unmanned moving body defines the direction of the target position in a relative relationship with the plurality of feature points, and sets the plurality of feature points under the condition of moving toward the target position on the planned route. The change in position is calculated as a predicted change, and it is judged whether or not it is the same as the change in a plurality of feature points during the actual movement. If they are different, the moving direction is changed so as to cancel the difference. be able to. That is, the movement direction can be changed using a plurality of feature points as markers. For example, when there is only one feature point, the position in the image may not change even if the direction of the unmanned moving body changes, or it may be extremely small. On the other hand, when a plurality of feature points are used, such as two feature points or three feature points, the position of at least one feature point always changes if the moving direction of the unmanned moving body changes. Further, the change in the positions of the plurality of feature points in the image is easier to detect because the change amount of the pixels in the image is larger than the change in one feature point. Furthermore, when there is only one feature point, the feature point may not be displayed in the image due to some natural phenomenon or artificial phenomenon. That is, by using a plurality of feature points, the reliability of the judgment by the change judging means is improved. Moreover, since the time required for the image processing is significantly shorter than the time required for the positioning processing, it is possible to quickly control the moving direction. Thereby, the moving direction can be controlled without arranging the marker in advance and using the positioning radio wave from the navigation satellite.

第二の発明は、第一の発明の構成において 前記特徴点抽出手段によって抽出した複数の前記特徴点のうち、複数の前記特徴点の動きの全体的な傾向と異なる動きを示す前記特徴点を排除する排除手段を有する、無人移動体である。 A second invention is, in the configuration of the first invention, among the plurality of the feature points extracted by the feature point extracting means, the feature points indicating a movement different from the overall tendency of the movement of the plurality of the feature points, It is an unmanned moving body that has a means for eliminating it.

特徴点をマーカーとして使用するときに、走行中の車両や歩行中の人などの移動中の物(以下、「移動物」という。)についての特徴点を排除し、樹木などの自然物や建物などの構造物(以下、「不動物」という。)についての特徴点を利用するのが望ましい。ところで、画像を取得しようとする範囲には、移動物よりも不動物の方が多いのが一般的である。画像の大部分は不動物で占められるから、画像中の複数の特徴点の動きの全体的な傾向は不動物についての特徴点によって形成される。そして、無人移動体の移動態様に応じた不動物についての特徴点の動きは、全体的な傾向と一致する。例えば、無人移動体が停止しているときには、全体的な動きの傾向は速度ゼロのベクトルを示し、不動物についての各特徴点の動きも速度ゼロのベクトルを示す。これに対して、移動物についての各特徴点の動きは、速度ゼロのベクトルではないから、全体的な傾向とは異なる。このことは、無人移動体が前方に移動しているときにおいても同様であり、例えば、進行方向に対して右側の不動物についての特徴点はより右側に動く全体的な傾向を示し、左側の不動物についての特徴点はより左側に動く全体的な傾向を示すが、移動物についての特徴点の動きは、全体的な傾向とは異なる。この点、第二の発明の構成によれば、排除手段によって、全体的な傾向とは異なる動きを示す特徴点を排除することができるから、不動物についての特徴点のみを利用することができる。 When using feature points as markers, feature points of moving objects such as moving vehicles and people walking (hereinafter referred to as "moving objects") are eliminated, and natural objects such as trees and buildings It is desirable to use the characteristic points of the structure (hereinafter, referred to as "animal"). By the way, it is general that there are more inanimate animals than moving objects in the range in which an image is to be acquired. Since the majority of the image is occupied by inanimate animals, the overall trend of movement of multiple feature points in the image is formed by the inanimate feature points. Then, the movement of the feature points of the inanimate object according to the movement mode of the unmanned moving body matches the overall tendency. For example, when the unmanned moving body is stopped, the tendency of the overall movement shows a zero velocity vector, and the movement of each feature point of the inanimate animal also shows a zero velocity vector. On the other hand, the movement of each feature point of the moving object is not a vector with zero velocity, and is different from the overall tendency. This is the same when the unmanned moving body is moving forward, for example, the feature points for the inanimate animal on the right side with respect to the traveling direction show the overall tendency to move to the right side, and The feature points for inanimate animals show an overall tendency to move to the left, but the movement of feature points for moving objects is different from the overall tendency. In this regard, according to the configuration of the second aspect of the present invention, since the feature point exhibiting a movement different from the overall tendency can be eliminated by the eliminating means, only the feature point regarding the inanimate object can be used. ..

第三の発明は、第一の発明または第二の発明の構成において、前記無人移動体の移動経路が直線である場合には、前記無人移動体は、前記目標位置の方向を前記画像の中心位置に設定し、前記予測手段は、前記複数の特徴点で構成される形状の変化が相似形を維持する態様の変化として前記予測変化を算出する、無人移動体である。 A third aspect of the invention is the configuration of the first aspect or the second aspect of the invention, in the case where the movement path of the unmanned vehicle is a straight line, the unmanned vehicle moves the direction of the target position to the center of the image. The predictive means is an unmanned moving body which is set at a position and which calculates the predicted change as a change in a manner in which a change in the shape formed by the plurality of feature points maintains a similar shape.

第三の発明の構成によれば、無人移動体の移動経路が直線である場合には、目標位置の方向を画像の中心位置に設定し、予測手段によって、複数の特徴点で構成される形状が相似形を維持しつつ拡大する予測変化を算出する。そして、例えば、実際の画像中においてその相似形が左右にずれる場合には、想定外の位置の変化であるから、無人飛行体は、その変化を打ち消すように移動方向を変更する。 According to the configuration of the third invention, when the movement path of the unmanned moving body is a straight line, the direction of the target position is set to the center position of the image, and the predicting means forms a shape composed of a plurality of feature points. Calculates the predicted change that expands while maintaining a similar shape. Then, for example, when the similar shape shifts to the left or right in the actual image, it is an unexpected change in position, and therefore the unmanned air vehicle changes the moving direction so as to cancel the change.

第四の発明は、第一の発明乃至第三の発明のいずれかの構成において、前記無人移動体は、地上を走行する無人車両であって、前記変化判断手段は、前記実変化と前記予測変化との相違が、鉛直方向における相違のみである場合には、前記実変化と前記予測変化は相違しないと判断する、無人移動体である。 A fourth aspect of the present invention is the configuration of any one of the first to third aspects of the invention, wherein the unmanned vehicle is an unmanned vehicle traveling on the ground, and the change determining means includes the actual change and the prediction. When the difference from the change is only the difference in the vertical direction, the unmanned moving body determines that the actual change and the predicted change are not different.

第四の発明の構成によれば、凹凸のある地上を走行する無人車両は、鉛直方向において進行方向が変更したとしても、水平方向の進行方向を維持することができる。 According to the configuration of the fourth invention, the unmanned vehicle traveling on the uneven ground can maintain the horizontal traveling direction even if the traveling direction changes in the vertical direction.

第五の発明は、第一の発明乃至第三の発明のいずれかの構成において、前記無人移動体は、無人飛行体であって、前記移動方向変更手段は、前記無人飛行体の水平方向及び鉛直方向における移動方向を変更するように構成されている、無人移動体である。 A fifth invention is the configuration of any one of the first invention to the third invention, wherein the unmanned vehicle is an unmanned aerial vehicle, and the moving direction changing means is a horizontal direction of the unmanned aerial vehicle and An unmanned vehicle configured to change the moving direction in the vertical direction.

第五の発明の構成によれば、無人移動体は、画像中の複数の特徴点の位置の変化によって、水平方向及び鉛直方向における移動方向を変更することができる。 According to the configuration of the fifth aspect, the unmanned moving body can change the moving direction in the horizontal direction and the vertical direction by changing the positions of the plurality of feature points in the image.

第六の発明は、自律移動可能な無人移動体が、前記無人移動体が移動して到達する位置である目標位置の方向を撮影し、画像を取得する画像取得ステップと、前記画像中において、複数の特徴点を抽出する特徴点抽出ステップと、前記特徴点抽出ステップにおいて抽出した複数の前記特徴点のうち、複数の前記特徴点の動きの全体的な傾向と異なる動きを示す前記特徴点を排除する排除ステップと、前記画像中における前記目標位置の方向を複数の前記特徴点の位置との相対関係において規定する相対位置規定ステップと、前記無人移動体が予定の経路において前記目標位置へ向かって移動する条件において、複数の前記特徴点の前記画像中における位置の変化を予測変化として算出する予測ステップと、前記無人移動体が前記目標位置に向かって移動する間において、前記画像中における複数の前記特徴点の位置の実際の変化である実変化が、前記予測変化と相違するか否かを判断する変化判断ステップと、前記変化判断ステップにおいて、前記実変化が前記予測変化との間に相違があると判断した場合に、前記相違を打ち消すように前記無人移動体の移動方向を変更する移動方向変更ステップと、を実施する無人移動体の制御方法である。 A sixth invention is an autonomously movable unmanned moving body, capturing an image of a direction of a target position, which is a position where the unmanned moving body moves and reaches, and an image acquiring step of acquiring an image, in the image, A characteristic point extraction step of extracting a plurality of characteristic points; and a characteristic point showing a movement different from the overall tendency of movement of the plurality of characteristic points among the plurality of characteristic points extracted in the characteristic point extraction step, An exclusion step of eliminating, a relative position defining step of defining the direction of the target position in the image in a relative relationship with the positions of the plurality of characteristic points, and the unmanned moving body moving toward the target position on a planned route. In the condition of moving the plurality of feature points, a prediction step of calculating a change in the position of the plurality of feature points in the image as a predicted change, and a plurality of the plurality of feature points in the image during the movement of the unmanned moving body toward the target position. Between the change determination step of determining whether the actual change, which is the actual change of the position of the feature point, is different from the predicted change, and the change determination step, between the actual change and the predicted change. When it is determined that there is a difference, the moving direction changing step of changing the moving direction of the unmanned moving body so as to cancel the difference is a control method of the unmanned moving body.

第七の発明は、自律移動可能な無人移動体を制御するコンピュータを、前記無人移動体が移動して到達する位置である目標位置の方向を撮影し、画像を取得する画像取得手段、前記画像中において、複数の特徴点を抽出する特徴点抽出手段、前記特徴点抽出手段によって抽出した複数の前記特徴点のうち、複数の前記特徴点の動きの全体的な傾向と異なる動きを示す前記特徴点を排除する排除手段、前記画像中における前記目標位置の方向を複数の前記特徴点の位置との相対関係において規定する相対位置規定手段、前記無人移動体が予定の経路において前記目標位置へ向かって移動する条件において、複数の前記特徴点の前記画像中における位置の変化を予測変化として算出する予測手段、前記無人移動体が前記目標位置に向かって移動する間において、前記画像中における複数の前記特徴点の位置の実際の変化である実変化が、前記予測変化と同一であるか否かを判断する変化判断手段、及び、前記変化判断手段によって、前記実変化が前記予測変化との間に相違があると判断した場合に、前記相違を打ち消すように前記無人移動体の移動方向を変更する移動方向変更手段、として機能させるための無人移動プログラムである。 A seventh aspect of the invention is an image acquisition unit that captures an image of a computer that controls an autonomously movable unmanned moving body in a direction of a target position, which is a position where the unmanned moving body moves and reaches, and the image. Among the plurality of characteristic points extracted by the characteristic point extracting means for extracting a plurality of characteristic points, the characteristic indicating a movement different from the overall tendency of the movement of the plurality of characteristic points Exclusion means for excluding points, relative position defining means for defining the direction of the target position in the image in relation to the positions of the plurality of characteristic points, and the unmanned vehicle moving toward the target position on a planned route. In a condition of moving the plurality of feature points, a prediction unit that calculates a change in position of the plurality of feature points in the image as a predicted change, and a plurality of the plurality of feature points in the image while the unmanned moving body moves toward the target position. An actual change, which is an actual change in the position of the feature point, is a change determination unit that determines whether or not the predicted change is the same, and the change determination unit determines whether the actual change is between the predicted change and the actual change. When it is determined that there is a difference between the two, it is an unmanned movement program for functioning as movement direction changing means for changing the movement direction of the unmanned moving body so as to cancel the difference.

本発明によれば、予めマーカーを配置することなく、また、航法衛星からの測位用電波を使用することなく、迅速に移動方向を制御することができる。 According to the present invention, it is possible to quickly control the moving direction without arranging markers in advance and using positioning radio waves from navigation satellites.

本発明の第一の実施形態に係る無人移動体の作用を示す概略図である。It is a schematic diagram showing an operation of the unmanned mobile object concerning a first embodiment of the present invention. 無人移動体を示す概略図である。It is a schematic diagram showing an unmanned mobile. 無人移動体の機能構成を示す概略図である。It is a schematic diagram showing the functional composition of an unmanned mobile. 特徴点等を示す概念図である。It is a conceptual diagram which shows a feature point. 特徴点等を示す概念図である。It is a conceptual diagram which shows a feature point. 無人移動体の移動に伴う画像中の特徴点の位置の変化を示す概念図である。It is a conceptual diagram which shows the change of the position of the feature point in an image accompanying the movement of an unmanned mobile body. 無人移動体の移動に伴う画像中の特徴点の位置の変化を示す概念図である。It is a conceptual diagram which shows the change of the position of the feature point in an image accompanying the movement of an unmanned mobile body. 特徴点が一つの場合の問題点を説明するための図である。It is a figure for demonstrating the problem when there is one characteristic point. 特徴点が複数の場合の利点を説明するための明図である。It is a clear diagram for explaining an advantage when there are a plurality of feature points. 無人移動体の動作を示すフローチャートである。It is a flowchart which shows operation|movement of an unmanned mobile body. 本発明の第二の実施形態に係る無人移動体の移動に伴う画像中の特徴点の位置の変化を示す概念図である。It is a conceptual diagram which shows the change of the position of the feature point in an image accompanying the movement of the unmanned mobile body which concerns on 2nd embodiment of this invention. 本発明の第三の実施形態に係る無人飛行体の作用を示す概略図である。It is the schematic which shows the effect|action of the unmanned air vehicle which concerns on 3rd embodiment of this invention. 無人飛行体を示す概略図である。It is a schematic diagram showing an unmanned aerial vehicle. 無人飛行体の機能構成を示す概略図である。It is a schematic diagram showing the functional composition of an unmanned aerial vehicle. 無人飛行体の動作を示すフローチャートである。It is a flowchart which shows operation|movement of an unmanned air vehicle.

以下、本発明を実施するための形態(以下、実施形態)について詳細に説明する。以下の説明においては、同様の構成には同じ符号を付し、その説明を省略又は簡略する。なお、当業者が適宜実施できる構成については説明を省略し、本発明の基本的な構成についてのみ説明する。 Hereinafter, modes for carrying out the present invention (hereinafter, embodiments) will be described in detail. In the following description, the same components are designated by the same reference numerals, and the description thereof will be omitted or simplified. It should be noted that description of configurations that can be appropriately performed by those skilled in the art will be omitted, and only the basic configuration of the present invention will be described.

<第一の実施形態>
図1に示す無人車両1(以下、「無人機1」という。)は、所定の経路を自律移動可能な無人移動体の一例である。無人機1は、地上を走行する無人車両の一例でもある。無人機1は、無人機1を制御する制御装置(「プロポ」とも呼ばれれる)からの無線信号による指示で動作を実施するようになっている。
<First embodiment>
The unmanned vehicle 1 (hereinafter, referred to as "unmanned vehicle 1") illustrated in FIG. 1 is an example of an unmanned vehicle that can autonomously move along a predetermined route. The unmanned aerial vehicle 1 is also an example of an unmanned vehicle traveling on the ground. The unmanned aerial vehicle 1 is designed to operate in response to an instruction by a radio signal from a control device (also called “propo”) that controls the unmanned aerial vehicle 1.

無人機1の任務は、サッカー競技場100(以下、「競技場100」という。)において、自動的に直線のラインを引くことであるとする。具体的には、サッカーフィールドの外郭を示すラインとして、位置P1とP2を結ぶ直線、位置P2とP3を結ぶ直線、位置P3とP4を結ぶ直線、及び、位置P4とP1を結ぶ直線を引く。位置P1等は、サッカーフィールドの角である。位置P1乃至P4の座標(緯度、経度及び高度)は既知であるとする。 It is assumed that the mission of the unmanned aerial vehicle 1 is to automatically draw a straight line in the soccer stadium 100 (hereinafter referred to as "stadium 100"). Specifically, a line connecting the positions P1 and P2, a line connecting the positions P2 and P3, a line connecting the positions P3 and P4, and a line connecting the positions P4 and P1 are drawn as lines showing the outline of the soccer field. The position P1 and the like are corners of the soccer field. It is assumed that the coordinates (latitude, longitude and altitude) of the positions P1 to P4 are known.

競技場100の外部には、建物102A乃至102C、高架式の高速道路104、樹木106A乃至106Cなど、様々な構造物や自然物が存在する。そして、これらの構造物や自然物を撮影し、画像を取得すると、その画像中において、多数の特徴点を抽出することができる。ここで、特徴点とは、物体の点や角など、周囲と比べて特徴的な点であり、画像において、明るさが変わっているなどのため、他の部分と区別し易い部分である。特徴点は、画像を撮影後に周知のアルゴリズムによって特定(抽出)される。このアルゴリズムは、例えば、SIFT(Scale Invariant Feature Transform)と呼ばれるものであり、画像中の各画素に対して回転・スケール・照明環境の変化の中に不変な特徴量を見出す技術である。 Outside the stadium 100, there are various structures and natural objects such as buildings 102A to 102C, elevated expressways 104, and trees 106A to 106C. When these structures and natural objects are photographed and an image is acquired, a large number of feature points can be extracted from the image. Here, a characteristic point is a characteristic point such as a point or a corner of an object compared with the surroundings, and is a portion that is easy to distinguish from other portions because the brightness is changed in the image. The feature point is specified (extracted) by a well-known algorithm after the image is captured. This algorithm is called, for example, SIFT (Scale lnvariant Feature Transform), and is a technique for finding invariant feature quantity in each pixel in an image in rotation, scale, and change in illumination environment.

例えば、樹木106C及び106Bの輪郭における位置SP1、SP2及びSP3や、高速道路104の側部SP4、建物102Cの角部S5が特徴点の一例であるとする。無人機1は、複数の特徴点を、移動方向の制御に使用する。 For example, the positions SP1, SP2, and SP3 on the contours of the trees 106C and 106B, the side portion SP4 of the highway 104, and the corner portion S5 of the building 102C are examples of feature points. The unmanned aerial vehicle 1 uses the plurality of feature points to control the moving direction.

図2に示すように、無人機1は、車両本体10を有する。車両本体10には、タイヤ12A乃至12Dが配置されている。車両本体10にはモーターが配置されており、後輪のタイヤ12C及び12Dがモーターの回転によって回転することによって、無人機1は走行可能になっている。無人機1の進行方向は、前輪のタイヤ12A及び12Bが回動することによって変更可能になっている。 As shown in FIG. 2, the drone 1 has a vehicle body 10. Tires 12A to 12D are arranged in the vehicle body 10. A motor is arranged in the vehicle body 10, and the unmanned aerial vehicle 1 can run by rotating the tires 12C and 12D of the rear wheels by the rotation of the motor. The traveling direction of the unmanned aerial vehicle 1 can be changed by rotating the front tires 12A and 12B.

車両本体10には、無人機1の各部を制御するコンピュータ、自律走行装置、無線通信装置、GPS(Global Positioning System)を利用した測位装置、慣性センサー、気圧センサー等が格納された筐体14が配置されている。また、車両本体10には、無人機1の各部に電力を供給するためのバッテリー16、カメラ18、及び、無線通信用のアンテナ20、及び、航法衛星からの測位用電波を受信するためのアンテナ22が配置されている。カメラ18の光軸の方向は変更可能であるが、無人機1の走行中においては、無人機1が直進する場合の進行方向に固定されている。すなわち、無人機1の進行方向とカメラ18の光軸の方向は一致する。 The vehicle body 10 includes a housing 14 in which a computer that controls each unit of the unmanned aerial vehicle 1, an autonomous traveling device, a wireless communication device, a positioning device using GPS (Global Positioning System), an inertial sensor, an atmospheric pressure sensor, and the like are stored. It is arranged. Further, the vehicle body 10 includes a battery 16 for supplying electric power to each part of the unmanned aerial vehicle 1, a camera 18, an antenna 20 for wireless communication, and an antenna for receiving positioning radio waves from a navigation satellite. 22 are arranged. Although the direction of the optical axis of the camera 18 can be changed, while the unmanned aerial vehicle 1 is traveling, it is fixed to the traveling direction when the unmanned aerial vehicle 1 goes straight. That is, the traveling direction of the drone 1 and the direction of the optical axis of the camera 18 match.

車両本体10において、前輪のタイヤ12A及び12Bが位置する側である前方には、ラインを引くための粉末を吐出するための吐出装置24が配置されている。 In the vehicle body 10, a discharge device 24 for discharging the powder for drawing a line is arranged in front of the front wheels on the side where the tires 12A and 12B are located.

図3は、無人機1の機能構成を示す図である。無人機1は、CPU(Central Processing Unit)50、記憶部52、無線通信部54、衛星測位部56、慣性センサー部58、駆動制御部60、画像処理部62、及び、電源部64を有する。 FIG. 3 is a diagram showing a functional configuration of the unmanned aerial vehicle 1. The unmanned aerial vehicle 1 includes a CPU (Central Processing Unit) 50, a storage unit 52, a wireless communication unit 54, a satellite positioning unit 56, an inertial sensor unit 58, a drive control unit 60, an image processing unit 62, and a power supply unit 64.

無人機1は、無線通信部54によって、外部と通信可能になっている。無人機1は、無線通信部54によって、ユーザーが操作する制御装置(プロポ)70から、発進等の指示を受信する。 The unmanned aerial vehicle 1 can communicate with the outside through the wireless communication unit 54. The wireless communication unit 54 of the unmanned aerial vehicle 1 receives an instruction such as starting from a control device (propo) 70 operated by a user.

無人機1は、衛星測位部56によって、無人機1自体の位置を測定することができる。衛星測位部56は、基本的に、4つ以上の航法衛星からの測位用電波を受信して無人機1の位置を計測する。衛星測位部56は、現在位置を測位する測位手段の一例である。慣性センサー部58は、例えば、加速度センサー及びジャイロセンサーによって、無人機1の動きを検知する。無人機1自体の位置情報は、無人機1の移動経路の決定及び自律移動のために使用するほか、カメラ18によって撮影した画像データと座標(位置)とを紐づけするために使用する。 The unmanned aerial vehicle 1 can measure the position of the unmanned aerial vehicle 1 itself by the satellite positioning unit 56. The satellite positioning unit 56 basically receives positioning radio waves from four or more navigation satellites and measures the position of the unmanned aerial vehicle 1. The satellite positioning unit 56 is an example of a positioning unit that measures the current position. The inertial sensor unit 58 detects the movement of the unmanned aerial vehicle 1 by using, for example, an acceleration sensor and a gyro sensor. The position information of the unmanned aerial vehicle 1 itself is used not only for determining the moving route of the unmanned aerial vehicle 1 and for autonomous movement, but also for associating the image data captured by the camera 18 with the coordinates (position).

駆動制御部60によって、無人機1は後輪のタイヤ12C及び12Dに接続されたモーターの回転や、前輪のタイヤ12A及び12Cの回動を制御し、走行速度や走行方向を制御するようになっている。 The drone 1 controls the rotation of the motor connected to the rear tires 12C and 12D and the rotation of the front tires 12A and 12C by the drive control unit 60 to control the traveling speed and the traveling direction. ing.

画像処理部62によって、無人機1はカメラ18(図2参照)を作動させて外部の画像を取得し、取得した撮影データを処理する。 The drone 1 operates the camera 18 (see FIG. 2) by the image processing unit 62 to acquire an external image, and processes the acquired shooting data.

電源部64は、例えば、交換可能な可充電電池であり、無人機1の各部に電力を供給するようになっている。 The power supply unit 64 is, for example, a replaceable rechargeable battery, and supplies power to each unit of the drone 1.

記憶部52には、出発点から目標位置まで自律移動するための移動計画を示すデータ等の自律移動に必要な各種データ及びプログラムのほか、以下のプログラムが格納されている。 The storage unit 52 stores the following programs in addition to various data and programs necessary for autonomous movement such as data indicating a movement plan for autonomous movement from a starting point to a target position.

記憶部102には、画像撮影プログラム、特徴点抽出プログラム、排除プログラム、相対位置規定プログラム、予測プログラム、変化判断プログラム、及び、移動方向変更プログラムが格納されている。CPU50と画像撮影プログラムは、画像取得手段の一例である。CPU50と特徴点抽出プログラムは、特徴点抽出手段の一例である。CPU50と排除プログラムは、排除手段の一例である。CPU50と相対位置規定プログラムは、相対位置規定手段の一例である。CPU50と予測プログラムは、予測手段の一例である。CPU50と変化判断プログラムは、変化判断手段の一例である。CPU50と移動方向変更プログラムは、移動方向変更手段の一例である。 The storage unit 102 stores an image capturing program, a feature point extraction program, an exclusion program, a relative position defining program, a prediction program, a change determination program, and a moving direction changing program. The CPU 50 and the image capturing program are an example of an image acquisition unit. The CPU 50 and the feature point extraction program are an example of feature point extraction means. The CPU 50 and the exclusion program are examples of exclusion means. The CPU 50 and the relative position defining program are an example of a relative position defining unit. The CPU 50 and the prediction program are examples of prediction means. The CPU 50 and the change determination program are examples of change determining means. The CPU 50 and the moving direction changing program are examples of moving direction changing means.

無人機1は、画像撮影プログラムによって、無人機1が移動して到達する位置である目標位置の方向を撮影し、画像を取得する。上述のように、カメラ18の光軸の方向は直進方向に固定する。例えば、図4(a)に示すように、無人機1は、走行を開始する前に、位置P1において、目標位置である位置P2の方向を撮影し、画像を取得する。その画像には、特徴点SP1乃至SP5が含まれているとする。無人機1は、継続的に画像を撮影し、目標位置P2の方向を複数回撮影し、撮影タイミングが異なる複数の画像を取得する。 The unmanned aerial vehicle 1 captures an image by capturing an image of a direction of a target position, which is a position where the unmanned aerial vehicle 1 moves and reaches, by an image capturing program. As described above, the direction of the optical axis of the camera 18 is fixed in the straight traveling direction. For example, as shown in FIG. 4A, the drone 1 captures an image at the position P1 in the direction of the target position P2 before starting traveling. It is assumed that the image includes feature points SP1 to SP5. The unmanned aerial vehicle 1 continuously captures images, captures multiple images in the direction of the target position P2, and acquires multiple images with different capture timings.

無人機1は、特徴点抽出プログラムによって、カメラ18で取得した画像(以下、「カメラ画像」という。)中の複数の特徴点を抽出する。図4(b)は、取得した画像D1を示す概念図である。無人機1は、画像D1中の特徴点SP1乃至SP5を抽出する。目標位置である位置P2も特徴点となる可能性はあるが、特徴点とならない場合もある。抽出する特徴点の数は、多いほどよく、望ましくは、30以上である。 The unmanned aerial vehicle 1 extracts a plurality of feature points in an image (hereinafter referred to as “camera image”) acquired by the camera 18 by using the feature point extraction program. FIG. 4B is a conceptual diagram showing the acquired image D1. The unmanned aerial vehicle 1 extracts the feature points SP1 to SP5 in the image D1. The position P2, which is the target position, may be a feature point, but may not be a feature point. The larger the number of feature points to be extracted, the better, and it is preferably 30 or more.

無人機1は、上述のように、複数の特徴点を、移動方向の制御のマーカーとして使用する。カメラ18で継続的に撮影した複数の画像に示される特徴点の動きが、無人機1の動きによるものではなくて、特徴点自体が移動することによる動きである場合には、移動方向の制御のマーカーとして使用することは困難である。例えば、歩行中の人間や走行中の自動車の特徴点は、移動方向の制御のマーカーとして使用することは困難である。移動方向の制御のマーカーとしては、静止している物体の特徴点が望ましい。この点、無人機1は、排除プログラムによって、特徴点抽出プログラムによって抽出した複数の特徴点のうち、複数の特徴点の動きの全体的な傾向と異なる動きを示す特徴点を排除する。すなわち、無人機1は、複数の特徴点に基づいて、複数の特徴点の動きの全体的な傾向を判断し、全体的な傾向とは異なる動きを示す特徴点を排除する。これにより、高速道路104を走行中の車両などの移動物についての特徴点を排除し、建物102A乃至102C、高架式の高速道路104、樹木106A乃至106Cなどの不動物についての特徴点のみを利用することができる。画像を取得しようとする範囲には、移動物よりも不動物の方が多いのが一般的である。画像の大部分は不動物で占められるから、画像中の複数の特徴点の動きの全体的な傾向は不動物についての特徴点によって形成される。そして、無人機1の移動態様に応じた不動物についての特徴点の動きは、全体的な傾向と一致する。例えば、無人機1が停止しているときには、全体的な動きの傾向は速度ゼロのベクトルを示し、不動物についての各特徴点の動きも速度ゼロのベクトルを示す。これに対して、移動物についての各特徴点の動きは、速度ゼロのベクトルではないから、全体的な傾向とは異なる。このことは、無人機1が前方に移動しているときにおいても同様であり、例えば、進行方向に対して右側の不動物についての特徴点はより右側に動く全体的な傾向を示し、左側の不動物についての特徴点はより左側に動く全体的な傾向を示すが、移動物についての特徴点の動きは、全体的な傾向とは異なる。無人機1は、全体的な傾向と一致しない特徴点を排除する。特徴点抽出プログラムによって、複数の特徴点を抽出しているから、排除プログラムによって一部の特徴点を排除しても、マーカーとして使用することができる複数の特徴点は残存する。 The unmanned aerial vehicle 1 uses the plurality of feature points as markers for controlling the moving direction, as described above. When the movement of the feature points shown in the plurality of images continuously captured by the camera 18 is not the movement of the drone 1 but the movement of the feature points themselves, the movement direction control is performed. It is difficult to use as a marker of. For example, it is difficult to use a characteristic point of a walking person or a running vehicle as a marker for controlling the moving direction. A characteristic point of a stationary object is desirable as a marker for controlling the moving direction. In this regard, the unmanned aerial vehicle 1 eliminates a feature point showing a movement different from the overall tendency of the movement of the plurality of feature points from the plurality of feature points extracted by the feature point extraction program by the elimination program. That is, the unmanned aerial vehicle 1 determines the overall tendency of the movements of the plurality of characteristic points based on the plurality of characteristic points, and excludes the characteristic points exhibiting a movement different from the overall tendency. As a result, feature points of moving objects such as vehicles running on the highway 104 are eliminated, and only feature points of inanimate objects such as the buildings 102A to 102C, the elevated highway 104, and the trees 106A to 106C are used. can do. Generally, there are more non-animals than moving objects in the range from which images are to be acquired. Since the majority of the image is occupied by inanimate animals, the overall trend of movement of multiple feature points in the image is formed by the inanimate feature points. Then, the movement of the feature points of the inanimate object according to the movement mode of the drone 1 matches the overall tendency. For example, when the unmanned aerial vehicle 1 is stopped, the tendency of the overall movement shows a zero velocity vector, and the movement of each feature point of the inanimate animal also shows a zero velocity vector. On the other hand, the movement of each feature point of the moving object is not a vector with zero velocity, and is different from the overall tendency. This is the same when the drone 1 is moving forward, for example, the feature points for the inanimate object on the right side with respect to the traveling direction show the general tendency to move to the right side, and The feature points for inanimate animals show an overall tendency to move to the left, but the movement of feature points for moving objects is different from the overall tendency. The unmanned aerial vehicle 1 eliminates feature points that do not match the overall tendency. Since a plurality of feature points are extracted by the feature point extraction program, a plurality of feature points that can be used as markers remain even if some feature points are excluded by the exclusion program.

無人機1は、相対位置規定プログラムによって、画像中における目標位置の方向を複数の特徴点の位置との相対関係において規定する。例えば、画像D1において、特徴点SP1乃至SP5との相対関係において、目標位置P2の方向を規定する。位置P1から目標位置P2への移動経路は直線である場合には、無人機1は、目標位置P2が画像D1の中心になるように、姿勢及び方向を調整する。 The unmanned aerial vehicle 1 defines the direction of the target position in the image in the relative relationship with the positions of the plurality of feature points by the relative position defining program. For example, in the image D1, the direction of the target position P2 is defined in relation to the characteristic points SP1 to SP5. When the movement path from the position P1 to the target position P2 is a straight line, the drone 1 adjusts its posture and direction so that the target position P2 is at the center of the image D1.

無人機1は、位置P1から位置P2に至った後は、図5(a)及び(b)に示すように、位置P2において、次の目標位置である位置P3について、上記と同様に、画像を取得し、画像中の複数の特徴点を抽出し、それらの複数の特徴点との相対関係において目標位置P3を規定する。位置P3に至った後は、次の目標位置である位置P4について同様の処理を実施し、位置P4に至った後は、次の目標位置である位置P1について同様の処理を実施する。 After reaching the position P2 from the position P1, the unmanned aerial vehicle 1 displays the image at the position P2 at the position P3, which is the next target position, in the same manner as described above, as shown in FIGS. 5A and 5B. Is obtained, a plurality of characteristic points in the image are extracted, and the target position P3 is defined in the relative relationship with the plurality of characteristic points. After reaching the position P3, similar processing is performed on the position P4 which is the next target position, and after reaching the position P4, similar processing is performed on the position P1 which is the next target position.

無人機1は、走行開始前においてのみならず、走行中(移動中)においても、上述の画像撮影プログラムによって画像を取得する。そして、特徴点抽出プログラムによって、その画像中の複数の特徴点を抽出するように構成されている。さらに、排除プログラムによって、全体的な傾向と一致しない特徴点を排除する。 The unmanned aerial vehicle 1 acquires an image by the above-described image capturing program not only before starting traveling but also during traveling (moving). Then, the feature point extraction program is configured to extract a plurality of feature points in the image. Furthermore, the exclusion program eliminates feature points that do not match the overall tendency.

無人機1は、予測プログラムによって、無人機1が予定の経路において目標位置へ向かって移動する条件において、複数の特徴点の位置の変化を予測変化として算出する。無人機1の予定の経路が直線である場合には、複数の特徴点の位置の変化として、複数の特徴点で構成される形状が相似形を維持しつつ拡大する変化を予測変化として算出する。予測変化は、例えば、図4(b)に示す、特徴点SP1乃至SP5で構成される多角形が相似形を維持しつつ変化する変化態様である。 The unmanned aerial vehicle 1 calculates a change in the positions of a plurality of feature points as a predicted change under the condition that the unmanned aerial vehicle 1 moves toward the target position on the planned route by the prediction program. When the planned route of the unmanned aerial vehicle 1 is a straight line, a change in the positions of the plurality of feature points is calculated as a predicted change, which is a change in which the shape formed by the plurality of feature points expands while maintaining a similar shape. .. The predicted change is, for example, a change mode in which the polygon formed by the feature points SP1 to SP5 shown in FIG. 4B changes while maintaining a similar shape.

図6及び図7を参照して、予測プログラムについて、具体的に説明する。図6及び図7においては、説明の便宜のため、特徴点は、特徴点SP2及びSP4の2つのみを使用するが、実際には、さらに多数の特徴点を使用するのが望ましい。 The prediction program will be specifically described with reference to FIGS. 6 and 7. 6 and 7, only two feature points SP2 and SP4 are used as feature points for convenience of description, but it is actually preferable to use a larger number of feature points.

図6に示すように、現在位置P1と目標位置P2の途中の位置を位置PM2、PM4及びPM6とする。無人機1が、位置P1と位置P2とを結ぶ直線上を移動して位置P2に向かうとすれば、無人機1が位置P2に接近するに連れて、特徴点SP2とSP4を結ぶ線分はその中心位置は維持しつつ、両側へ向かって長くなるはずであるから、無人機1は、複数の特徴点の位置の変化として、そのような変化を予測変化として算出する。 As shown in FIG. 6, positions midway between the current position P1 and the target position P2 are positions PM2, PM4, and PM6. If the unmanned aerial vehicle 1 moves on a straight line connecting the position P1 and the position P2 toward the position P2, a line segment connecting the characteristic points SP2 and SP4 is obtained as the unmanned aerial vehicle 1 approaches the position P2. Since the center position should be long toward both sides while maintaining the center position, the unmanned aerial vehicle 1 calculates such a change as a predicted change as a change in the positions of a plurality of feature points.

例えば、位置P1において取得する画像を画像D10、位置PM2において取得する画像を画像D12、位置PM4において取得する画像を画像D14、位置PM6において取得する画像を画像D16とすれば、予測変化は、無人機1が位置P2へ近づくに連れて、特徴点SP2とSP4を結ぶ線分がその中心位置は維持しつつ、次第に両側へ向かって長くなる変化である。 For example, if the image acquired at position P1 is image D10, the image acquired at position PM2 is image D12, the image acquired at position PM4 is image D14, and the image acquired at position PM6 is image D16, the predicted change is unmanned. As the aircraft 1 approaches the position P2, the line segment connecting the characteristic points SP2 and SP4 gradually changes toward both sides while maintaining its center position.

無人機1は、変化判断プログラムによって、無人機1が目標位置に向かって移動する間において、画像中における複数の特徴点の位置の実際の変化である実変化が、予測変化と相違するか否かを判断する。無人機1は、実変化と予測変化との相違が、鉛直方向における相違のみである場合には、実変化と予測変化に相違はないと判断する。これにより、無人機1が凹凸のある地上を走行する場合において、カメラ18の光軸が鉛直方向にずれて、実変化と予測変化との間に鉛直方向における相違が生じても、無人機1は、目標位置に向かって移動することができる。 According to the change determination program, the unmanned aerial vehicle 1 determines whether the actual change, which is the actual change in the positions of the plurality of feature points in the image, is different from the predicted change while the unmanned aerial vehicle 1 moves toward the target position. To judge. The unmanned aerial vehicle 1 determines that there is no difference between the actual change and the predicted change when the only difference between the actual change and the predicted change is the difference in the vertical direction. Accordingly, when the unmanned aerial vehicle 1 travels on an uneven ground, even if the optical axis of the camera 18 shifts in the vertical direction and a difference in the vertical direction occurs between the actual change and the predicted change, the unmanned aerial vehicle 1 Can move toward the target position.

無人機1が、例えば、図6に示す位置PM2において、前方の画像を取得したときに、画像中の特徴点SP2とSP4を結ぶ線分が、位置P1における線分と比べて、その中心を維持しつつ、両側へ向かって長くなっているのであれば、上述の予測プログラムによって予測した通りである。このため、無人機1は、実変化が予測変化との間に相違はないと判断する。この場合、無人機1は、位置P1と位置P2とを結ぶ直線状を移動して位置P2に向かっていることになる。 When the unmanned aerial vehicle 1 acquires a front image at the position PM2 shown in FIG. 6, for example, the line segment connecting the feature points SP2 and SP4 in the image has its center compared to the line segment at the position P1. If the length is increasing toward both sides while maintaining, it is as predicted by the above-mentioned prediction program. Therefore, the drone 1 determines that the actual change is not different from the predicted change. In this case, the unmanned aerial vehicle 1 moves in a straight line connecting the position P1 and the position P2 toward the position P2.

これに対して、図7に示すように、位置PM3において、無人機1の方向が矢印R1方向に変わり、特徴点SP4側に向いた場合には、位置PM3において取得した画像D13中の特徴点SP2とSP4を結ぶ線分の中心位置が維持されておらず、右方へ動いているから、上述の予測プログラムによって予測した変化とは異なる。このため、無人機1は、実変化が予測変化との間に相違があると判断する。また、位置PM5において、無人機1の方向が矢印R2方向に変わり、特徴点SP2側に向いた場合には、位置PM5において取得した画像D15中の特徴点SP2とSP4を結ぶ線分の中心位置が維持されておらず、左方へ動いているから、上述の予測プログラムによって予測した変化とは異なる。このため、無人機1は、実変化が予測変化と相違すると判断する。 On the other hand, as shown in FIG. 7, at the position PM3, when the direction of the unmanned aerial vehicle 1 changes to the direction of the arrow R1 and faces the characteristic point SP4 side, the characteristic point in the image D13 acquired at the position PM3. The center position of the line segment connecting SP2 and SP4 is not maintained and is moving to the right, which is different from the change predicted by the above prediction program. Therefore, the drone 1 determines that the actual change is different from the predicted change. Further, at the position PM5, when the direction of the drone 1 changes to the direction of the arrow R2 and faces the feature point SP2 side, the central position of the line segment connecting the feature points SP2 and SP4 in the image D15 acquired at the position PM5. Is not maintained and is moving to the left, which is different from the change predicted by the above prediction program. Therefore, the drone 1 determines that the actual change is different from the predicted change.

無人機1は、上述の変化判断プログラムによって、実変化が予測変化との間に相違があると判断した場合に、移動方向変更プログラムによって、その相違を打ち消すように無人機1の移動方向を変更するように構成されている。 When the unmanned aerial vehicle 1 determines that there is a difference between the actual change and the predicted change by the change determination program, the moving direction change program changes the moving direction of the unmanned aerial vehicle 1 so as to cancel the difference. Is configured to.

例えば、図7の位置PM3においては、無人機1の移動方向が矢印R1方向に変化し、その結果、実変化と予測変化に相違が生じたから、矢印R1方向への変化を打ち消すために、矢印R1とは反対方向である矢印R2方向に移動方向を変更する。同様に、図7の位置PM5においては、無人機1の移動方向が矢印R2方向に変化し、その結果、実変化と予測変化に相違が生じたから、矢印R2方向への変化を打ち消すために、矢印R2とは反対方向である矢印R1方向に移動方向を変更する。 For example, at the position PM3 in FIG. 7, the moving direction of the drone 1 changes in the arrow R1 direction, and as a result, a difference between the actual change and the predicted change occurs. Therefore, in order to cancel the change in the arrow R1 direction, the arrow The moving direction is changed to the arrow R2 direction which is the opposite direction to R1. Similarly, at the position PM5 in FIG. 7, the moving direction of the drone 1 changes in the direction of arrow R2, and as a result, a difference between the actual change and the predicted change occurs. Therefore, in order to cancel the change in the direction of arrow R2, The movement direction is changed to the arrow R1 direction which is the opposite direction to the arrow R2.

ここで、複数の特徴点を使用する技術的意義について説明する。例えば、特徴点が1つだけの場合、無人機1の方向が変わっても、画像中の位置の変化は生じない場合、あるいは、著しく小さい場合がある。図8(a)に示すように、特徴点SPaがあって、カメラ18で取得した画像Dx1における当初の位置は位置Da1であるとする。無人機1の方向の変わり方によっては、図8(b)に示すように、無人機1の方向が変わっても、画像Dx2における特徴点SPaの位置は位置Da1が維持される。 Here, the technical significance of using a plurality of feature points will be described. For example, when there is only one feature point, the position in the image may not change even if the direction of the drone 1 changes, or it may be extremely small. As shown in FIG. 8A, it is assumed that there is a feature point SPa and the initial position in the image Dx1 acquired by the camera 18 is the position Da1. Depending on how the direction of the unmanned aerial vehicle 1 changes, as shown in FIG. 8B, even if the direction of the unmanned aerial vehicle 1 changes, the position Da1 is maintained as the position of the feature point SPa in the image Dx2.

これに対して、特徴点を2つ、あるいは、3つなど、複数使用する場合には、無人機1の移動方向が変われば必ず少なくとも一つの特徴点の位置が変化する。図9(a)に示すように、特徴点SPa及びSPbがあって、カメラ18で取得した画像Dx1における当初の位置は、それぞれ、位置Da1及びDb1であるとする。無人機1の方向の変わり方によっては、図9(b)に示すように、無人機1の方向が変わると、画像Dx2における特徴点SPaの位置は位置Da1を維持する場合があっても、徴点SPbの位置は位置Db1を維持せず、位置Db2に変化する。また、複数の特徴点を使用する場合には、一つの特徴点を使用する場合よりも、実変化と予測変化において相違が生じる場合に、相違の量(相違する画素の数)が多いから、相違の検出が容易である。すなわち、複数の特徴点を使用することによって、無人機1の方向変化の判断の信頼性が向上する。 On the other hand, when using a plurality of feature points, such as two feature points or three feature points, the position of at least one feature point always changes if the moving direction of the drone 1 changes. As shown in FIG. 9A, it is assumed that there are characteristic points SPa and SPb and the initial positions in the image Dx1 acquired by the camera 18 are positions Da1 and Db1, respectively. Depending on how the direction of the drone 1 changes, as shown in FIG. 9B, when the direction of the drone 1 changes, the position of the feature point SPa in the image Dx2 may maintain the position Da1. The position of the indication point SPb does not maintain the position Db1 but changes to the position Db2. Further, when using a plurality of feature points, the amount of difference (the number of different pixels) is larger when a difference occurs between the actual change and the predicted change than when using one feature point, Differences are easy to detect. That is, by using a plurality of feature points, the reliability of the determination of the direction change of the drone 1 is improved.

また、特徴点が1つだけの場合、何らかの自然現象または人為的な現象によって、その特徴点が画像中に映らなくなる場合もある。このため、複数の特徴点を使用することによって、やはり、無人機1の方向変化の判断の信頼性が向上する。また、複数の特徴点によって、特徴点の動きの全体的な傾向を判断し、移動物についての特徴点を排除することができ、しかも、マーカーとして使用することができる複数の特徴点が残存する。 In addition, when there is only one feature point, the feature point may not be displayed in the image due to some natural phenomenon or an artificial phenomenon. Therefore, by using the plurality of feature points, the reliability of the determination of the direction change of the drone 1 is also improved. In addition, it is possible to judge the overall tendency of the movement of the feature points by using the plurality of feature points, eliminate the feature points of the moving object, and leave a plurality of feature points that can be used as markers. ..

さらに、無人機1の移動中において、外部の画像取得から実変化と予測変化の同一性の判断までの処理(以下、「判断処理」という。)に要する時間は、航法衛星からの測位用電波を利用する測位に要する時間よりも格段に短いから、迅速に移動方向を制御することができる。例えば、測位用電波を利用する測位に要する時間が10分の1秒(s)であるとすれば、判断処理に要する時間は、1000分の1秒乃至100分の1秒である。 Further, while the unmanned aerial vehicle 1 is moving, the time required for processing (hereinafter, referred to as “judgment processing”) from external image acquisition to determination of the identity of the actual change and the predicted change is the positioning radio wave from the navigation satellite. Since it is much shorter than the time required for positioning using, the direction of movement can be quickly controlled. For example, if the time required for positioning using the positioning radio wave is 1/10 second (s), the time required for the determination process is 1/1000 second to 1/100 second.

以下、無人機1の動作を、図10のフローチャートを参照して説明する。なお、無人機1は、予定の経路を直線経路として、現在位置P1から目標位置P2に向かうものとする。無人機1は、動作を開始すると、走行を開始する前に、現在位置P1において、目標位置P2が画像の中心に位置するように方向(姿勢)を調整する(図10のステップST1)。続いて、無人機1は、目標位置P2の方向の画像を取得し(ステップST2)、位置P2の方向の周囲における複数の特徴点を抽出する(ステップST3)。無人機1は、ステップST2において、複数の画像を取得し、ステップST3において、複数の特徴点の動きの全体的な傾向と異なる動きを示す特徴点を排除する。ステップST3は、特徴点抽出ステップの一例であり、排除ステップの一例でもある。続いて、無人機1は、予定経路の移動中に取得する画像中の複数の特徴点の位置の変化を予測する(ステップST4)。 The operation of the unmanned aerial vehicle 1 will be described below with reference to the flowchart of FIG. It is assumed that the unmanned aerial vehicle 1 travels from the current position P1 to the target position P2 with the planned route as a straight route. When the unmanned aerial vehicle 1 starts its operation, it adjusts the direction (posture) so that the target position P2 is located at the center of the image at the current position P1 before starting traveling (step ST1 in FIG. 10). Subsequently, the unmanned aerial vehicle 1 acquires an image in the direction of the target position P2 (step ST2), and extracts a plurality of feature points around the direction of the position P2 (step ST3). In step ST2, the unmanned aerial vehicle 1 acquires a plurality of images, and in step ST3, excludes feature points that show a movement different from the overall tendency of the movement of the plurality of feature points. Step ST3 is an example of a feature point extraction step, and is also an example of an exclusion step. Subsequently, the unmanned aerial vehicle 1 predicts changes in the positions of a plurality of feature points in the image acquired during the movement of the planned route (step ST4).

続いて、無人機1は、目標位置P2に向かって走行を開始し、外部の画像を取得する(ステップST5)。無人機1は、走行中において、画像中の複数の特徴点の位置の変化(実変化)が、予測変化と相違するか否かを判断し(ステップST6)、相違しないのであれば、現在位置が目標位置P2であるか否かを判断し(ステップST7)、目標位置P2であれば、停止する。現在位置が目標位置P2であるか否かは、衛星測位部56(図3参照)による測位によって、現在位置の座標と目標位置P2の座標が一致するか否かによって判断する。 Subsequently, the unmanned aerial vehicle 1 starts traveling toward the target position P2 and acquires an external image (step ST5). The unmanned aerial vehicle 1 determines whether or not the change (actual change) in the positions of the plurality of feature points in the image is different from the predicted change while traveling (step ST6). Is determined to be the target position P2 (step ST7), and if the target position P2, the process is stopped. Whether or not the current position is the target position P2 is determined by the positioning by the satellite positioning unit 56 (see FIG. 3) depending on whether or not the coordinates of the current position and the coordinates of the target position P2 match.

ステップST6において、無人機1が、実変化が予測変化と相違すると判断した場合には、その相違を打ち消すように移動方向を変更する(ステップST8)。 When the unmanned aerial vehicle 1 determines in step ST6 that the actual change is different from the predicted change, it changes the moving direction so as to cancel the difference (step ST8).

なお、本実施形態とは異なり、吐出装置24の吐出方向を変更可能に構成し、無人機1の姿勢の制御と吐出方向の制御の双方を使用するようにしてもよい。例えば、実変化と予測変化が相違する場合に、無人機1がその相違を打ち消すように吐出方向を変更しつつ、無人機1の姿勢も修正するように構成してもよい。これにより、予定したラインとより近いラインを引くことができる。 Note that, unlike the present embodiment, the ejection direction of the ejection device 24 may be configured to be changeable, and both the posture control of the unmanned aerial vehicle 1 and the ejection direction control may be used. For example, when the actual change and the predicted change are different, the unmanned aerial vehicle 1 may be configured to correct the attitude of the unmanned aerial vehicle 1 while changing the ejection direction so as to cancel the difference. This makes it possible to draw a line that is closer to the planned line.

<第二の実施形態>
次に、図11を参照して、第二の実施形態について説明する。なお、第一の実施形態と共通する事項については説明を省略し、第一の実施形態と異なる部分を中心に説明する。
<Second embodiment>
Next, a second embodiment will be described with reference to FIG. It should be noted that description of items that are common to the first embodiment will be omitted, and the description will focus on the parts that differ from the first embodiment.

第二の実施形態の無人機1の構成は、第一の実施形態と同様であるが、第二の実施形態においては、無人機1の予定の経路が曲線である。 The configuration of the unmanned aerial vehicle 1 of the second embodiment is the same as that of the first embodiment, but in the second embodiment, the planned route of the unmanned aerial vehicle 1 is a curve.

図11に示すように、無人機1は、現在位置P1から目標位置P5まで、曲線状の経路で移動するものとする。無人機1は、現在位置P1から目標位置P5へ至るまでの間、目標位置P5の方向がカメラ18で取得する画像に投影されるように、予定の移動経路に応じて、カメラ18の光軸の方向等の条件を設定する。このため、無人機は、例えば、例えば、地図データにおいて、現在位置P1と目標位置P5とを結ぶ曲線経路を規定し、その幅が幅W1であるとすると、幅W1の中心位置に画像の中心が位置するように、カメラ18の上記条件を設定する。図11の例では、出発位置P1においては、目標位置P5は画像D10の右端近傍に位置するようにする。そうすると、目標位置P5の近傍においては、画像D13の中心部に位置するようになる。 As shown in FIG. 11, it is assumed that the unmanned aerial vehicle 1 moves from the current position P1 to the target position P5 along a curved path. The unmanned aerial vehicle 1 has an optical axis of the camera 18 according to a planned moving route so that the direction of the target position P5 is projected on the image acquired by the camera 18 from the current position P1 to the target position P5. Set conditions such as the direction of. Therefore, for example, the drone defines a curved path connecting the current position P1 and the target position P5 in the map data, and if the width is the width W1, the center of the image is located at the center position of the width W1. The above-mentioned conditions of the camera 18 are set so that is positioned. In the example of FIG. 11, at the starting position P1, the target position P5 is located near the right end of the image D10. Then, in the vicinity of the target position P5, it comes to be located at the center of the image D13.

無人機1が、現在位置P1から位置P11、P12、P13と進行するにつれて、曲線状の経路における無人機1の方向及びカメラ18の光軸の方向は、方向V10、V11、V12、V13というように変化する。無人機1が、右へ曲がる曲線経路を進行するとすれば、無人機1が予定の経路を進行するにつれて、特徴点SP1及びSP2は、次第に左方へ移動するはずである。 As the unmanned aerial vehicle 1 progresses from the current position P1 to the positions P11, P12, P13, the directions of the unmanned aerial vehicle 1 and the optical axis of the camera 18 in the curved path are directions V10, V11, V12, V13. Changes to. If the unmanned aerial vehicle 1 travels along a curved path that turns to the right, the feature points SP1 and SP2 should gradually move to the left as the unmanned aerial vehicle 1 travels along a planned route.

無人機1は、予測プログラムによって、曲線経路の移動中における画像中の特徴点SP1及びSP2の位置の上述の変化を予測する。例えば、地図データにおいて、現在位置P1と目標位置P5とを結ぶ曲線経路を規定し、その曲線経路における接線方向を算出することによって、現在位置P1における画像D10中の特徴点SP1及びSP2について、曲線経路における各位置で取得した画像における変化、すなわち、予測変化を算出することができる。この計算は、周知の技術を利用して実施可能であるから、詳細な説明は省略する。 The unmanned aerial vehicle 1 predicts the above-described change in the positions of the characteristic points SP1 and SP2 in the image during the movement of the curved path by the prediction program. For example, in the map data, by defining a curved path connecting the current position P1 and the target position P5, and calculating the tangential direction in the curved path, the characteristic points SP1 and SP2 in the image D10 at the current position P1 are curved. The change in the image acquired at each position in the route, that is, the predicted change can be calculated. Since this calculation can be performed by using a well-known technique, detailed description will be omitted.

無人機1は、変化判断プログラムによって、無人機1が目標位置に向かって移動する間において、実変化が予測変化と相違するか否かを判断し、相違する場合には、移動方向変更プログラムによって、その相違を打ち消すように無人機1の移動方向を変更する。 The drone 1 uses the change determination program to determine whether the actual change is different from the predicted change while the drone 1 is moving toward the target position. , The moving direction of the drone 1 is changed so as to cancel the difference.

<第三の実施形態>
次に、図12乃至図15参照して、第三の実施形態について説明する。なお、第一の実施形態及び第二の実施形態と共通する事項については説明を省略し、第一の実施形態及び第二の実施形態と異なる部分を中心に説明する。
<Third embodiment>
Next, a third embodiment will be described with reference to FIGS. It should be noted that description of items common to the first embodiment and the second embodiment will be omitted, and the description will focus on parts different from the first embodiment and the second embodiment.

図12に示すように、第三の実施形態の無人機200は、無人飛行体である。無人機200は、畑120の上空において、位置P101乃至位置P107を矢印に示すように結ぶように飛行し、肥料を散布することが任務であるとする。位置P101乃至P107は、畑120の上空における位置である。 As shown in FIG. 12, the unmanned aerial vehicle 200 of the third embodiment is an unmanned aerial vehicle. It is assumed that the unmanned aerial vehicle 200 is to fly over the field 120 so as to connect the positions P101 to P107 as shown by the arrows and spray fertilizer. Positions P101 to P107 are positions above the field 120.

例えば、無人機200は、出発位置P101において、次の目標位置P102の方向の画像を取得し、複数の特徴点SP101、SP102、SP103及びSP104を抽出する。特徴点SP101等は、目標位置P102方向の上空に対して、水平方向及び鉛直方向にばらつきがあるものとする。 For example, the unmanned aerial vehicle 200 acquires an image in the direction of the next target position P102 at the starting position P101 and extracts a plurality of feature points SP101, SP102, SP103, and SP104. It is assumed that the characteristic points SP101 and the like have variations in the horizontal direction and the vertical direction with respect to the sky above the target position P102.

無人機200が、一定の高度で直線経路で位置SP101の上空から位置SP102の上空へ向かって飛行するとすれば、水平方向にばらついている特徴点の画像中の実変化が予測変化と相違する場合には、その相違を打ち消すように水平方向における移動方向を変更する。上下方向にばらついている特徴点の画像中の実変化が予測変化と相違する場合には、その相違を打ち消すように鉛直方向における移動方向を変更する。 If the unmanned aerial vehicle 200 flies from the sky above the position SP101 to the sky above the position SP102 in a straight line at a constant altitude, if the actual change in the image of the feature points that vary in the horizontal direction differs from the predicted change. , The moving direction in the horizontal direction is changed so as to cancel the difference. If the actual change in the image of the characteristic points that are scattered in the vertical direction is different from the predicted change, the moving direction in the vertical direction is changed so as to cancel the difference.

図13に示すように、無人機200は、筐体202を有する。筐体202には、無人機200の各部を制御するコンピュータ、自律飛行装置、無線通信装置、GPSなどの航法衛星システムからの測位用電波を利用する測位装置、バッテリー等が配置されている。自律飛行装置には、慣性センサー、気圧センサーが配置されている。また、筐体202には、固定装置212を介して、カメラ214が配置されている。 As shown in FIG. 13, the drone 200 has a housing 202. A computer that controls each unit of the unmanned aerial vehicle 200, an autonomous flight device, a wireless communication device, a positioning device that uses positioning radio waves from a navigation satellite system such as GPS, and a battery are arranged in the housing 202. An inertial sensor and an atmospheric pressure sensor are arranged in the autonomous flight device. A camera 214 is arranged in the housing 202 via a fixing device 212.

固定装置212は、カメラ214による撮影画像のぶれを最小化し、かつ、カメラ214の光軸を任意の方向に制御することができる3軸の固定装置(いわゆる、ジンバル)である。ただし、無人機200の本実施形態においては、カメラ214の光軸の方向は、進行方向に固定されている。 The fixing device 212 is a triaxial fixing device (so-called gimbal) that can minimize the blurring of the image captured by the camera 214 and control the optical axis of the camera 214 in any direction. However, in this embodiment of the unmanned aerial vehicle 200, the direction of the optical axis of the camera 214 is fixed to the traveling direction.

筐体202には、丸棒状のアーム204が接続されている。各アーム204にはモーター206が接続されており、各モーター206にはプロペラ208が接続されている。各モーター206は、直流モーター(ブラシレスDCモーター)である。各モーター206は、筐体202内の自律飛行装置によってそれぞれ独立して制御され、無人機200を上下水平方向の移動や空中での停止(ホバリング)及び姿勢制御を自在に行うことができるようになっている。 A round bar-shaped arm 204 is connected to the housing 202. A motor 206 is connected to each arm 204, and a propeller 208 is connected to each motor 206. Each motor 206 is a DC motor (brushless DC motor). Each motor 206 is independently controlled by an autonomous flight device in the housing 202, so that the unmanned aerial vehicle 200 can be freely moved in the vertical and horizontal directions, stopped in the air (hovering), and attitude control. Has become.

アーム204には保護枠210が接続され、プロペラ208が外部の物体に直接接触することを防止している。アーム204及び保護枠210は、例えば、炭素繊維強化プラスチックで形成されており、強度を保ちつつ、軽量に構成されている。 A protective frame 210 is connected to the arm 204 to prevent the propeller 208 from directly contacting an external object. The arm 204 and the protective frame 210 are made of, for example, carbon fiber reinforced plastic, and are lightweight while maintaining strength.

図14は、無人機200の機能構成を示す図である。無人機200は、CPU250、記憶部252、無線通信部254、衛星測位部256、慣性センサー部258、駆動制御部260、画像処理部262、及び、電源部264を有する。 FIG. 14 is a diagram showing a functional configuration of the unmanned aerial vehicle 200. The unmanned aerial vehicle 200 includes a CPU 250, a storage unit 252, a wireless communication unit 254, a satellite positioning unit 256, an inertial sensor unit 258, a drive control unit 260, an image processing unit 262, and a power supply unit 264.

無人機200は、無線通信部254によって、外部と通信可能になっている。無人機200は、無線通信部254によって、ユーザーが操作する制御装置(プロポ)270から、発進等の指示を受信する。 The unmanned aerial vehicle 200 can communicate with the outside through the wireless communication unit 254. The unmanned aerial vehicle 200 receives, via the wireless communication unit 254, an instruction such as starting from a control device (propo) 270 operated by the user.

無人機200は、衛星測位部256によって、無人機200自体の位置を測定することができる。衛星測位部256は、基本的に、4つ以上の航法衛星からの測位用電波を受信して無人機200の位置を計測する。衛星測位部256は、現在位置を測位する測位手段の一例である。慣性センサー部258は、例えば、加速度センサー及びジャイロセンサーによって、無人機200の動きを検知する。無人機200自体の位置情報は、無人機200の移動経路の決定及び自律移動のために使用するほか、カメラ214によって撮影した画像データと座標(位置)とを紐づけするために使用する。 The unmanned aerial vehicle 200 can measure the position of the unmanned aerial vehicle 200 itself by the satellite positioning unit 256. The satellite positioning unit 256 basically receives positioning radio waves from four or more navigation satellites and measures the position of the unmanned aerial vehicle 200. The satellite positioning unit 256 is an example of a positioning unit that measures the current position. The inertial sensor unit 258 detects the movement of the unmanned aerial vehicle 200 by using, for example, an acceleration sensor and a gyro sensor. The position information of the unmanned aerial vehicle 200 itself is used not only for determining the movement route of the unmanned aerial vehicle 200 and for autonomous movement, but also for associating the image data captured by the camera 214 with the coordinates (position).

駆動制御部260によって、無人機200はモーター206の回転を制御し、飛行速度や飛行方向を制御するようになっている。 The drive control unit 260 controls the unmanned aerial vehicle 200 to control the rotation of the motor 206 to control the flight speed and the flight direction.

画像処理部262によって、無人機200はカメラ214を作動させて外部の画像を取得し、取得した撮影データを処理する。 The image processing unit 262 causes the unmanned aerial vehicle 200 to operate the camera 214 to acquire an external image and process the acquired shooting data.

電源部264は、例えば、交換可能な可充電電池であり、無人機200の各部に電力を供給するようになっている。 The power supply unit 264 is, for example, a replaceable rechargeable battery and supplies power to each unit of the unmanned aerial vehicle 200.

記憶部252には、出発点から目標位置まで自律移動するための移動計画を示すデータ等の自律移動に必要な各種データ及びプログラムのほか、上述の実施形態1及び2と同様に、画像撮影プログラム、特徴点抽出プログラム、排除プログラム、相対位置規定プログラム、予測プログラム、変化判断プログラム、及び、移動方向変更プログラムが格納されている。 The storage unit 252 stores various data and programs necessary for autonomous movement, such as data indicating a movement plan for autonomous movement from a starting point to a target position, as well as the image capturing program as in the first and second embodiments. , A feature point extraction program, an exclusion program, a relative position definition program, a prediction program, a change determination program, and a moving direction change program are stored.

無人機200においては、水平方向のみならず、鉛直方向においても、進行方向を制御する。すなわち、無人機200は、変化判断手段によって、実変化と予測変化が、水平方向のみならず、鉛直方向においても相違がない場合に、相違がないと判断する。 In the unmanned aerial vehicle 200, the traveling direction is controlled not only in the horizontal direction but also in the vertical direction. That is, the unmanned aerial vehicle 200 determines by the change determination means that there is no difference between the actual change and the predicted change not only in the horizontal direction but also in the vertical direction.

以下、無人機200の動作を、図15のフローチャートを参照して説明する。なお、無人機200は、現在位置P101から直線経路によって目標位置P102に向かうものとする。 The operation of unmanned aerial vehicle 200 will be described below with reference to the flowchart of FIG. It is assumed that the unmanned aerial vehicle 200 heads from the current position P101 to the target position P102 by a straight path.

無人機200は動作を開始すると、現在位置P101に至り、目標位置P102をカメラ214による画像に含むように姿勢を調整し(図15のステップST101)、目標位置102の方向の画像を取得し(ステップST102)、複数の特徴点を抽出する(ステップST103)。無人機200は、ステップST102において、複数の画像を取得し、ステップST103において、複数の特徴点の動きの全体的な傾向と異なる動きを示す特徴点を排除する。続いて、無人機200は、予定経路の移動中で取得する画像中の複数の特徴点の位置の変化を予測して、予測変化を算出する(ステップST104)。 When the unmanned aerial vehicle 200 starts its operation, it reaches the current position P101, adjusts its posture so as to include the target position P102 in the image captured by the camera 214 (step ST101 in FIG. 15), and acquires an image in the direction of the target position 102 ( In step ST102), a plurality of feature points are extracted (step ST103). In step ST102, the unmanned aerial vehicle 200 acquires a plurality of images, and in step ST103, excludes feature points exhibiting a motion different from the overall tendency of the motion of the feature points. Subsequently, the unmanned aerial vehicle 200 predicts changes in the positions of a plurality of feature points in the image acquired while the planned route is moving, and calculates predicted changes (step ST104).

続いて、無人機200は、目標位置P102へに向かって飛行を開始する(ステップST105)。無人機200は、飛行中において、画像中の複数の特徴点の位置の実変化が、予測変化と相違するかを判断し(ステップST106)、相違しないのであれば、現在位置が目標位置P102であるか否かを判断し、目標位置P102であれば、次の目標位置P103へ向かうための準備を行う。現在位置が目標位置P102であるか否かは、衛星測位部256による測位によって、現在位置の座標と目標位置P102の座標が一致するか否かによって判断する。 Subsequently, the unmanned aerial vehicle 200 starts flying toward the target position P102 (step ST105). The unmanned aerial vehicle 200 determines whether or not the actual changes in the positions of the plurality of feature points in the image are different from the predicted changes during the flight (step ST106), and if not, the current position is the target position P102. It is determined whether or not there is, and if the target position is P102, preparation is made for moving to the next target position P103. Whether or not the current position is the target position P102 is determined by whether or not the coordinates of the current position and the coordinates of the target position P102 match by the positioning by the satellite positioning unit 256.

ステップST106において、無人機200が、実変化が予測変化と相違すると判断した場合には、その変化を打ち消すように移動方向を変更する(ステップST108)。 When the unmanned aerial vehicle 200 determines in step ST106 that the actual change is different from the predicted change, it changes the moving direction so as to cancel the change (step ST108).

なお、本発明は上述の各実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良等は本発明に含まれるものである。 It should be noted that the present invention is not limited to the above-described embodiments, and modifications, improvements, etc. within the scope of achieving the object of the present invention are included in the present invention.

1 無人機
10 車両本体
12A〜12D タイヤ
14 筐体
16 バッテリー
18 カメラ
20 アンテナ
22 アンテナ
24 吐出装置
200 無人機
202 筐体
204 アーム
206 モーター
208 プロペラ
210 保護枠
212 固定装置
214 カメラ
1 Unmanned Aerial Vehicle 10 Vehicle Main Body 12A-12D Tire 14 Housing 16 Battery 18 Camera 20 Antenna 22 Antenna 24 Discharge Device 200 Unmanned Aerial Vehicle 202 Housing 204 Arm 206 Motor 208 Propeller 210 Protective Frame 212 Fixing Device 214 Camera

Claims (7)

自律移動可能な無人移動体であって、
前記無人移動体が移動して到達する位置である目標位置の方向を撮影し、画像を取得する画像取得手段と、
前記画像中において、複数の特徴点を抽出する特徴点抽出手段と、
前記画像中における前記目標位置の方向を複数の前記特徴点の位置との相対関係において規定する相対位置規定手段と、
前記無人移動体が予定の経路において前記目標位置へ向かって移動する条件において、複数の前記特徴点の前記画像中における位置の変化を予測変化として算出する予測手段と、
前記無人移動体が前記目標位置に向かって移動する間において、前記画像中における複数の前記特徴点の位置の実際の変化である実変化が、前記予測変化と相違するか否かを判断する変化判断手段と、
前記変化判断手段によって、前記実変化と前記予測変化に相違があると判断した場合に、前記相違を打ち消すように前記無人移動体の移動方向を変更する移動方向変更手段と、
を有する、無人移動体。
An unmanned vehicle capable of autonomous movement,
An image acquisition unit that captures an image by capturing a direction of a target position, which is a position where the unmanned vehicle moves and reaches.
In the image, feature point extraction means for extracting a plurality of feature points,
Relative position defining means for defining the direction of the target position in the image in a relative relationship with the positions of the plurality of characteristic points,
Prediction means for calculating a change in position of the plurality of feature points in the image as a predicted change under the condition that the unmanned moving body moves toward the target position on a planned route,
A change that determines whether the actual change, which is an actual change in the positions of the plurality of feature points in the image, is different from the predicted change while the unmanned moving body moves toward the target position. Judgment means,
When it is determined by the change determination means that there is a difference between the actual change and the predicted change, a moving direction changing means that changes the moving direction of the unmanned moving body so as to cancel the difference,
An unmanned vehicle having
前記特徴点抽出手段によって抽出した複数の前記特徴点のうち、複数の前記特徴点の動きの全体的な傾向と異なる動きを示す前記特徴点を排除する排除手段を有する、
請求項1に記載の無人移動体。
Of the plurality of characteristic points extracted by the characteristic point extracting means, there is an excluding means for excluding the characteristic points exhibiting a movement different from the overall tendency of the movement of the plurality of characteristic points.
The unmanned vehicle according to claim 1.
前記無人移動体の移動経路が直線である場合には、前記無人移動体は、前記目標位置の方向を前記画像の中心位置に設定し、
前記予測手段は、前記複数の特徴点で構成される形状の変化が相似形を維持する態様の変化として前記予測変化を算出する、請求項1または請求項2に記載の無人移動体。
When the movement path of the unmanned moving body is a straight line, the unmanned moving body sets the direction of the target position to the center position of the image,
The unmanned moving body according to claim 1 or 2, wherein the prediction unit calculates the predicted change as a change in a manner in which a change in a shape formed of the plurality of feature points maintains a similar shape.
前記無人移動体は、地上を走行する無人車両であって、
前記変化判断手段は、前記実変化と前記予測変化との相違が、鉛直方向における相違のみである場合には、前記実変化と前記予測変化は相違しないと判断する、
請求項1乃至請求項3のいずれかに記載の無人移動体。
The unmanned vehicle is an unmanned vehicle traveling on the ground,
The change determination means determines that the actual change and the predicted change are not different when the difference between the actual change and the predicted change is only a difference in the vertical direction,
The unmanned vehicle according to any one of claims 1 to 3.
前記無人移動体は、無人飛行体であって、
前記移動方向変更手段は、前記無人飛行体の水平方向及び鉛直方向における移動方向を変更するように構成されている、
請求項1乃至請求項3のいずれかに記載の無人移動体。
The unmanned vehicle is an unmanned aerial vehicle,
The moving direction changing means is configured to change a moving direction of the unmanned aerial vehicle in a horizontal direction and a vertical direction,
The unmanned vehicle according to any one of claims 1 to 3.
自律移動可能な無人移動体が、
前記無人移動体が移動して到達する位置である目標位置の方向を撮影し、画像を取得する画像取得ステップと、
前記画像中において、複数の特徴点を抽出する特徴点抽出ステップと、
前記特徴点抽出ステップにおいて抽出した複数の前記特徴点のうち、複数の前記特徴点の動きの全体的な傾向と異なる動きを示す前記特徴点を排除する排除ステップと、
前記画像中における前記目標位置の方向を複数の前記特徴点の位置との相対関係において規定する相対位置規定ステップと、
前記無人移動体が予定の経路において前記目標位置へ向かって移動する条件において、複数の前記特徴点の前記画像中における位置の変化を予測変化として算出する予測ステップと、
前記無人移動体が前記目標位置に向かって移動する間において、前記画像中における複数の前記特徴点の位置の実際の変化である実変化が、前記予測変化と相違するか否かを判断する変化判断ステップと、
前記変化判断ステップにおいて、前記実変化が前記予測変化との間に相違があると判断した場合に、前記相違を打ち消すように前記無人移動体の移動方向を変更する移動方向変更ステップと、
を実施する無人移動体の制御方法。
An unmanned vehicle that can move autonomously
An image acquisition step of capturing an image by capturing a direction of a target position, which is a position where the unmanned vehicle moves and reaches,
A feature point extracting step of extracting a plurality of feature points in the image;
An exclusion step of excluding the feature points that show a movement different from the overall tendency of the movement of the plurality of feature points among the plurality of the feature points extracted in the feature point extraction step,
A relative position defining step that defines the direction of the target position in the image in a relative relationship with the positions of the plurality of characteristic points;
A predicting step of calculating a change in the position of the plurality of feature points in the image as a predictive change under the condition that the unmanned moving body moves toward the target position in a planned route,
A change that determines whether the actual change, which is an actual change in the positions of the plurality of feature points in the image, is different from the predicted change while the unmanned moving body moves toward the target position. Decision step,
In the change determining step, when it is determined that the actual change is different from the predicted change, a moving direction changing step of changing a moving direction of the unmanned moving body so as to cancel the difference,
A method for controlling an unmanned moving body for carrying out.
自律移動可能な無人移動体を制御するコンピュータを、
前記無人移動体が移動して到達する位置である目標位置の方向を撮影し、画像を取得する画像取得手段、
前記画像中において、複数の特徴点を抽出する特徴点抽出手段、
前記特徴点抽出手段によって抽出した複数の前記特徴点のうち、複数の前記特徴点の動きの全体的な傾向と異なる動きを示す前記特徴点を排除する排除手段、
前記画像中における前記目標位置の方向を複数の前記特徴点の位置との相対関係において規定する相対位置規定手段、
前記無人移動体が予定の経路において前記目標位置へ向かって移動する条件において、複数の前記特徴点の前記画像中における位置の変化を予測変化として算出する予測手段、
前記無人移動体が前記目標位置に向かって移動する間において、前記画像中における複数の前記特徴点の位置の実際の変化である実変化が、前記予測変化と同一であるか否かを判断する変化判断手段、及び、
前記変化判断手段によって、前記実変化が前記予測変化との間に相違があると判断した場合に、前記相違を打ち消すように前記無人移動体の移動方向を変更する移動方向変更手段、
として機能させるための無人移動プログラム。


A computer that controls an unmanned vehicle that can move autonomously,
An image acquisition unit that captures an image by capturing an image of a direction of a target position, which is a position where the unmanned vehicle moves and reaches.
Feature point extracting means for extracting a plurality of feature points in the image,
Exclusion means for excluding the characteristic points showing a movement different from the overall tendency of the movement of the plurality of characteristic points among the plurality of characteristic points extracted by the characteristic point extraction means,
Relative position defining means for defining the direction of the target position in the image in a relative relationship with the positions of the plurality of characteristic points,
Prediction means for calculating a change in the position of the plurality of feature points in the image as a predicted change under the condition that the unmanned moving body moves toward the target position on a planned route,
While the unmanned moving body moves toward the target position, it is determined whether or not an actual change, which is an actual change in the positions of the plurality of feature points in the image, is the same as the predicted change. Change determination means, and
When the change determining unit determines that the actual change is different from the predicted change, a moving direction changing unit that changes the moving direction of the unmanned moving body so as to cancel the difference.
Unmanned traveling program to function as.


JP2019004673A 2019-01-15 2019-01-15 Unmanned moving object, unmanned moving object control method and unmanned moving program Pending JP2020113134A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019004673A JP2020113134A (en) 2019-01-15 2019-01-15 Unmanned moving object, unmanned moving object control method and unmanned moving program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019004673A JP2020113134A (en) 2019-01-15 2019-01-15 Unmanned moving object, unmanned moving object control method and unmanned moving program

Publications (1)

Publication Number Publication Date
JP2020113134A true JP2020113134A (en) 2020-07-27

Family

ID=71667095

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019004673A Pending JP2020113134A (en) 2019-01-15 2019-01-15 Unmanned moving object, unmanned moving object control method and unmanned moving program

Country Status (1)

Country Link
JP (1) JP2020113134A (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03276211A (en) * 1990-03-26 1991-12-06 Mazda Motor Corp Controller for autonomous traveling vehicle
JPH07244519A (en) * 1994-03-04 1995-09-19 Nippon Telegr & Teleph Corp <Ntt> Method for controlling motion of movable target by using picture
JP2016173655A (en) * 2015-03-16 2016-09-29 株式会社東芝 Movable body control system and movable body control method
JP2017021427A (en) * 2015-07-07 2017-01-26 トヨタ自動車株式会社 Self-position estimation apparatus, self-position estimation method and program
JP2018075866A (en) * 2016-11-07 2018-05-17 日産自動車株式会社 Attitude estimation method for parking control apparatus, and attitude estimation apparatus
JP2018163532A (en) * 2017-03-27 2018-10-18 Kddi株式会社 Control device, program, and control method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03276211A (en) * 1990-03-26 1991-12-06 Mazda Motor Corp Controller for autonomous traveling vehicle
JPH07244519A (en) * 1994-03-04 1995-09-19 Nippon Telegr & Teleph Corp <Ntt> Method for controlling motion of movable target by using picture
JP2016173655A (en) * 2015-03-16 2016-09-29 株式会社東芝 Movable body control system and movable body control method
JP2017021427A (en) * 2015-07-07 2017-01-26 トヨタ自動車株式会社 Self-position estimation apparatus, self-position estimation method and program
JP2018075866A (en) * 2016-11-07 2018-05-17 日産自動車株式会社 Attitude estimation method for parking control apparatus, and attitude estimation apparatus
JP2018163532A (en) * 2017-03-27 2018-10-18 Kddi株式会社 Control device, program, and control method

Similar Documents

Publication Publication Date Title
US11879737B2 (en) Systems and methods for auto-return
US11604479B2 (en) Methods and system for vision-based landing
US20200344464A1 (en) Systems and Methods for Improving Performance of a Robotic Vehicle by Managing On-board Camera Defects
US8855846B2 (en) System and method for onboard vision processing
CN110494360B (en) System and method for providing autonomous photography and photography
CN111492326B (en) Image-based positioning for unmanned aerial vehicles and related systems and methods
CN107531322B (en) Aerial capture platform
US20190068829A1 (en) Systems and Methods for Improving Performance of a Robotic Vehicle by Managing On-board Camera Obstructions
WO2018053877A1 (en) Control method, control device, and delivery system
JP6275202B2 (en) Unmanned aerial vehicle, unmanned aircraft control method, and unmanned aircraft control program
JP6913464B2 (en) Flight systems, flight management methods and flight programs
CN102591353A (en) Flight control system for flying object
US11029707B2 (en) Moving object, moving object control method, moving object control system, and moving object control program
US11906639B2 (en) Low-light and no-light aerial navigation
Huang et al. Monocular vision-based autonomous navigation system on a toy quadcopter in unknown environments
US11926038B2 (en) Information processing apparatus and information processing method
JP2020113134A (en) Unmanned moving object, unmanned moving object control method and unmanned moving program
JP2019188965A (en) Unmanned flight body, learning result information, unmanned flight method and unmanned flight program
JP7352908B2 (en) System, method, program, and storage medium storing the program for correcting the estimated position of an unmanned aircraft
KR20180095989A (en) The Apparatus And The Method For Measuring Flight Performance
JP2019159850A (en) Unmanned flying object, unmanned flight method and unmanned flight program
Zhao et al. 2D monocular visual odometry using mobile-phone sensors
Luo et al. An autonomous helicopter with vision based navigation
US20210218879A1 (en) Control device, imaging apparatus, mobile object, control method and program
US20230316741A1 (en) Method for Semantic Localization of an Unmanned Aerial Vehicle

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20200703

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220107

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20220107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220128

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221213

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230425

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20231017