JP6680498B2 - Autonomous flying vehicle, target tracking method - Google Patents

Autonomous flying vehicle, target tracking method Download PDF

Info

Publication number
JP6680498B2
JP6680498B2 JP2015189191A JP2015189191A JP6680498B2 JP 6680498 B2 JP6680498 B2 JP 6680498B2 JP 2015189191 A JP2015189191 A JP 2015189191A JP 2015189191 A JP2015189191 A JP 2015189191A JP 6680498 B2 JP6680498 B2 JP 6680498B2
Authority
JP
Japan
Prior art keywords
target
route
tracking
information
confluence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015189191A
Other languages
Japanese (ja)
Other versions
JP2017068298A (en
Inventor
宏司 山口
宏司 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Systems Ltd
Original Assignee
Hitachi Systems Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Systems Ltd filed Critical Hitachi Systems Ltd
Priority to JP2015189191A priority Critical patent/JP6680498B2/en
Publication of JP2017068298A publication Critical patent/JP2017068298A/en
Application granted granted Critical
Publication of JP6680498B2 publication Critical patent/JP6680498B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Image Analysis (AREA)

Description

本発明は、自律飛行移動体、ターゲット追跡方法に関する。   The present invention relates to an autonomous flying vehicle and a target tracking method.

従来から、ドローンに代表される小型の自律飛行ロボットが存在する。例えば、特許文献1では、目標物が無人航空機のセンサ視野内にとどまるように、移動中の目標物を自律的に追跡するものがある(例えば、特許文献1)。   Conventionally, there are small autonomous flying robots represented by drones. For example, in Patent Document 1, there is one that autonomously tracks a moving target so that the target stays within the sensor field of view of the unmanned aerial vehicle (for example, Patent Document 1).

上記特許文献1では、移動中の目標物をカメラ等で撮像して自律的に追跡することはできる。しかし、追跡時に見失った場合については考慮されていないため、そのような場合には目標物の追跡を続行できなくなる。   In Patent Document 1 described above, it is possible to autonomously track a moving target object by capturing it with a camera or the like. However, since no consideration is given to the case where the target is lost during tracking, in such a case, the target cannot be tracked.

このような点に鑑み、侵入者を見失った場合でも、飛行高度を上げて周囲を俯瞰することにより、見失った侵入者の発見を可能としたものがある(例えば、特許文献2)。   In view of such a point, even if the intruder is lost, there is one that can detect the lost intruder by raising the flight altitude and overlooking the surroundings (for example, Patent Document 2).

特開2009−173263号公報JP, 2009-173263, A 特開2014−149621号公報JP, 2014-149621, A

上記特許文献2では、飛行高度を上げて周囲を俯瞰することにより、見失った侵入者を再発見することができる。しかし、飛行高度を上げて俯瞰することができない状況(例えば、地下道やトンネル内のように、上空に遮蔽物がある状況)の場合には、追跡を続行することができない。   In Patent Document 2 described above, the intruder that has been lost can be rediscovered by raising the flight altitude and looking around. However, in a situation where the flight altitude cannot be raised and the bird's-eye view cannot be obtained (for example, a situation in which there is a shield in the sky such as an underpass or a tunnel), tracking cannot be continued.

本発明は、上記に鑑みてなされたものであって、俯瞰することができない状況においても目標物の追跡が可能な自律飛行移動体、ターゲット追跡方法を提供することを目的とする。   The present invention has been made in view of the above circumstances, and an object of the present invention is to provide an autonomous flying vehicle and a target tracking method capable of tracking a target even in a situation in which a bird's eye view cannot be taken.

上記課題を解決するために、本発明にかかる自律飛行移動体は、自律飛行が可能な自律飛行移動体であって、撮像部と、あらかじめ定められたターゲットを示す第1の画像と前記撮像部が撮像した第2の画像とに基づいて前記ターゲットを認識し、認識した前記ターゲットとの間で所定の距離を保ちながら飛行して前記ターゲットを追跡する飛行制御部と、前記飛行制御部が前記ターゲットを認識できなくなった場合に、地図情報に基づいて前記認識できなくなった位置付近の経路を探索する探索部と、を有し、前記飛行制御部は、前記探索部により探索された経路に基づいて、前記ターゲットの追跡を続行する、ことを特徴とする自律飛行移動体として構成される。   In order to solve the above-mentioned problems, an autonomous flying vehicle according to the present invention is an autonomous flying vehicle capable of autonomous flight, and includes an imaging unit, a first image showing a predetermined target, and the imaging unit. A flight control unit that recognizes the target based on a second image captured by, and that tracks the target by flying while maintaining a predetermined distance between the target and the recognized target; And a search unit that searches for a route near the unrecognizable position based on map information when the target cannot be recognized, wherein the flight control unit is based on the route searched by the search unit. And continues the tracking of the target.

また、本発明は、上記自律飛行移動体で行われるターゲット追跡方法としても把握される。   The present invention can also be understood as a target tracking method performed by the above-mentioned autonomous flying vehicle.

本発明によれば、俯瞰することができない状況においても目標物の追跡が可能となる。   According to the present invention, it is possible to track a target even in a situation where it is not possible to look down.

本発明にかかる自律飛行移動体を適用した自律飛行制御システムの構成例を示す図である。It is a figure showing the example of composition of the autonomous flight control system to which the autonomous flight mobile object concerning the present invention is applied. 自律飛行ロボットが有する本体部の機能的な構成を示すブロック図である。It is a block diagram which shows the functional structure of the main-body part which an autonomous flying robot has. 記憶部が記憶するデータの例を示す図である。It is a figure which shows the example of the data which a memory | storage part memorize | stores. 記憶部が記憶するデータの例を示す図である(サーバ)。It is a figure which shows the example of the data which a memory | storage part memorize | stores (server). 環境情報の例を示す図である。It is a figure which shows the example of environmental information. 追跡飛行処理の処理手順を示すシーケンス図である。It is a sequence diagram which shows the process procedure of a tracking flight process. 最短経路の例を示す図である。It is a figure which shows the example of a shortest path.

以下に添付図面を参照して、本発明にかかる自律飛行移動体、ターゲット追跡方法の実施の形態を詳細に説明する。以下では、自律飛行移動体であるロボットが目標物である歩行者を追跡する場合において、その歩行者を見失った場合でも、あらかじめ記憶されている地図データを参照してその歩行者の移動経路を予測し、先回りしてその歩行者を再発見して追跡を続行する。このような追跡により、俯瞰することができない状況においても目標物の追跡を続行することができる。なお、歩行者に限らず、例えば、自転車や自動車等の車両についても同様に適用することができる。   Embodiments of an autonomous flying vehicle and a target tracking method according to the present invention will be described below in detail with reference to the accompanying drawings. In the following, when a robot, which is an autonomous flying vehicle, tracks a pedestrian, which is a target object, even if the pedestrian loses sight of the pedestrian, the map data stored in advance is used to determine the route of the pedestrian. Predict, proactively rediscover the pedestrian and continue tracking. With such tracking, it is possible to continue tracking the target even in a situation where the bird's eye cannot be overlooked. Not only pedestrians but also vehicles such as bicycles and automobiles can be similarly applied.

図1は、本発明にかかる自律飛行移動体、ターゲット追跡方法を適用した自律飛行システム1000の機能的な構成を示す図である。図1に示すように、自律飛行システム1000は、自律飛行ロボット100と、サーバ200とを有し、これらが無線通信ネットワークN1を介して接続されている。無線通信ネットワークN1は、例えば、自律飛行ロボット100が飛行するために認可された周波数帯を利用した通信ネットワークである。通信ネットワークN2は、例えば、インターネット回線網である。図において、目標物であるターゲットTは地上Gを矢印Aの向きに移動し、その後方上方に自律飛行ロボット100が飛行し、撮像範囲Rを撮像しながらターゲットTを追跡している。   FIG. 1 is a diagram showing a functional configuration of an autonomous flight system 1000 to which an autonomous flying vehicle and a target tracking method according to the present invention are applied. As shown in FIG. 1, the autonomous flight system 1000 includes an autonomous flying robot 100 and a server 200, which are connected via a wireless communication network N1. The wireless communication network N1 is, for example, a communication network using a frequency band licensed for the autonomous flying robot 100 to fly. The communication network N2 is, for example, the Internet line network. In the figure, a target T, which is a target, moves on the ground G in the direction of an arrow A, and an autonomous flying robot 100 flies above and behind the target G, tracking the target T while imaging an imaging range R.

自律飛行ロボット100は、例えば、ドローンのような、自律して飛行可能な小型の移動体である。図1に示すように、自律飛行ロボット100は、複数のロータ101と、モータ102と、本体部103と、スキッド104と、撮像部105とを有している。自律飛行ロボット100は、本体部103からの指示に従って、モータ102による駆動力を受けてロータ101を回転させて飛行する。スキッド104は、自律飛行ロボット100の離着陸時の足として使用される。撮像部105は、ターゲットを撮像する撮像装置であり、例えば、CCD(Charge Coupled Device)カメラによる構成される。   The autonomous flying robot 100 is a small moving body such as a drone that can fly autonomously. As shown in FIG. 1, the autonomous flying robot 100 has a plurality of rotors 101, a motor 102, a main body 103, a skid 104, and an imaging unit 105. In accordance with an instruction from the main body 103, the autonomous flying robot 100 receives the driving force from the motor 102 and rotates the rotor 101 to fly. The skid 104 is used as a foot of the autonomous flying robot 100 during takeoff and landing. The image capturing unit 105 is an image capturing device that captures an image of the target, and is configured by, for example, a CCD (Charge Coupled Device) camera.

図2は、自律飛行ロボット100が有する本体部103の機能的な構成を示すブロック図である。図2に示すように、本体部103は、記憶部1031と、測位部1032と、探索部1033と、飛行制御部1034と、通信部1035と、制御部1036とを有して構成されている。実際には、これらの各部以外にも、例えば、移動速度を認識するための加速度センサ、高度を認識するための超音波センサ、自身の向きを把握するためのコンパス、バッテリ等、自律飛行ロボット100が通常備えている機能を有している。   FIG. 2 is a block diagram showing a functional configuration of the main body 103 of the autonomous flying robot 100. As shown in FIG. 2, the main body 103 includes a storage unit 1031, a positioning unit 1032, a search unit 1033, a flight control unit 1034, a communication unit 1035, and a control unit 1036. . Actually, in addition to these units, for example, the acceleration sensor for recognizing the moving speed, the ultrasonic sensor for recognizing the altitude, the compass for recognizing the direction of itself, the battery, etc., the autonomous flying robot 100. Has the functions that are normally provided.

記憶部1031は、メモリ等の一般的な記憶媒体から構成され、自律飛行ロボット100に関するデータを記憶する。   The storage unit 1031 includes a general storage medium such as a memory, and stores data regarding the autonomous flying robot 100.

図3は、記憶部が記憶するデータの例を示す図である。図3に示すように、記憶部101は、撮像情報10311と、地図情報10312とを記憶する。   FIG. 3 is a diagram illustrating an example of data stored in the storage unit. As illustrated in FIG. 3, the storage unit 101 stores image pickup information 10311 and map information 10312.

撮像情報10311は、上記撮像部105が撮像した画像データである。撮像情報10311には、例えば、自律飛行ロボット100が飛行する前方を俯瞰した、上記ターゲットを撮像した画面イメージの画像である。   Imaging information 10311 is image data captured by the imaging unit 105. The imaging information 10311 is, for example, an image of a screen image of the target, which is a bird's eye view of the front of the autonomous flying robot 100 flying.

地図情報10312は、ナビゲーションシステム等で用いられる一般的な地図データである。   The map information 10312 is general map data used in a navigation system or the like.

測位部1032は、例えば、GPS(Global Positioning System)モジュールであり、自律飛行ロボット100の現在位置を測位し、その日時および位置を含む現在位置情報を出力する。本例では、上記現在位置情報を随時更新する前提で記載しているが、記憶部1031の記憶容量が許容されるのであれば、過去一定期間分のデータを自律飛行ロボット100内に蓄積してもよい。   The positioning unit 1032 is, for example, a GPS (Global Positioning System) module, measures the current position of the autonomous flying robot 100, and outputs current position information including the date and time and the position. This example is described on the assumption that the current position information is updated at any time, but if the storage capacity of the storage unit 1031 is allowed, data for a certain past period is accumulated in the autonomous flying robot 100. Good.

探索部1033は、上記地図情報10312を読み出し、ターゲットまでの経路を探索する。また、探索部1033は、追跡中のターゲットを見失った場合に、上記地図情報10312を読み出し、見失った場所付近の地図上の経路のうち、ターゲットが移動した方向の経路のなかで最短経路を探索する。探索方法については、従来から知られている様々な技術を適用することができる。上記ターゲットの位置は、サーバ200から送信される。   The search unit 1033 reads the map information 10312 and searches for a route to the target. Further, when the tracking target is lost, the search unit 1033 reads the map information 10312 and searches the shortest route among the routes in the direction in which the target has moved among the routes on the map near the lost location. To do. Various conventionally known techniques can be applied to the search method. The position of the target is transmitted from the server 200.

飛行制御部1034は、探索部1033が経路を探索すると、モータ102を駆動してロータ101を回転制御し、ターゲットまでの自律飛行を開始する。飛行制御部1034は、自律飛行を開始すると、超音波センサにより所定の高度(例えば、3メートル)となるように、ロータ101の回転数を制御する。また、飛行制御部1034は、自律飛行を開始すると、撮像部105が撮像した画像データの画面イメージにおけるターゲットの大きさが所定のサイズとなるように、ターゲットとの距離が一定の距離(例えば、ターゲットから2メートル離れた後方位置)を飛行するように、ロータ101の回転数を制御する。このような制御により、自律飛行ロボット100は、飛行開始から飛行終了までの間、地上からある一定の高度でターゲットとの一定の距離を保ちつつ、追跡することができる。   When the search unit 1033 searches for a route, the flight control unit 1034 drives the motor 102 to control the rotation of the rotor 101 and starts autonomous flight to the target. When the autonomous flight starts, the flight control unit 1034 controls the rotation speed of the rotor 101 so that the ultrasonic sensor achieves a predetermined altitude (for example, 3 meters). In addition, when the flight control unit 1034 starts autonomous flight, the distance to the target is a constant distance (for example, the distance between the target and the target is a predetermined size in the screen image of the image data captured by the imaging unit 105) (for example, The number of rotations of the rotor 101 is controlled so as to fly in a rear position (2 meters away from the target). By such control, the autonomous flying robot 100 can perform tracking from the ground to the end of the flight while keeping a certain distance from the ground to the target at a certain altitude.

通信部1035は、所定の規格にしたがって、無線通信ネットワークN1を介してサーバ200との間で無線通信して各種情報を送受信する処理部である。   The communication unit 1035 is a processing unit that wirelessly communicates with the server 200 via the wireless communication network N1 to transmit and receive various types of information according to a predetermined standard.

制御部1036は、自律飛行ロボット100を構成する上記各部の動作を制御する。自律飛行ロボット100の具体的な動作についてはシーケンス図を用いて後述する。続いて、図1に戻って、サーバ200について説明する。   The control unit 1036 controls the operation of each of the above units included in the autonomous flying robot 100. The specific operation of the autonomous flying robot 100 will be described later using a sequence diagram. Subsequently, returning to FIG. 1, the server 200 will be described.

サーバ200は、PC(Personal Computer)等の一般的なコンピュータである。サーバ300は、自律飛行ロボット100によるターゲットの追跡を監視するサーバである。   The server 200 is a general computer such as a PC (Personal Computer). The server 300 is a server that monitors tracking of a target by the autonomous flying robot 100.

図1に示すように、サーバ200は、記憶部201と、監視部202と、第1通信部203と、第2通信部204と、制御部205とを有して構成されている。   As shown in FIG. 1, the server 200 includes a storage unit 201, a monitoring unit 202, a first communication unit 203, a second communication unit 204, and a control unit 205.

記憶部301は、HDD(Hard Disk Drive)等の一般的な記憶装置であり、自律飛行ロボット100による追跡に関する情報を記憶する。   The storage unit 301 is a general storage device such as an HDD (Hard Disk Drive), and stores information related to tracking by the autonomous flying robot 100.

図4は、記憶部201が記憶するデータの例を示す図である。図4に示すように、記憶部301は、自律飛行ロボット100の現在位置情報2011と、自律飛行ロボット100が撮像した撮像情報2012と、追跡している経路周辺の環境情報3013とを記憶する。現在位置情報2011は、自律飛行ロボット100の測位部1032が測位した現在日時および現在位置を示す上記現在位置情報を記憶する。撮像情報2012は、自律飛行ロボット100の撮像部105が撮像した撮像情報10311を記憶する。環境情報2013は、運行情報、道路情報、災害情報等、追跡している経路周辺の環境に関する情報である。   FIG. 4 is a diagram illustrating an example of data stored in the storage unit 201. As illustrated in FIG. 4, the storage unit 301 stores current position information 2011 of the autonomous flying robot 100, imaging information 2012 captured by the autonomous flying robot 100, and environmental information 3013 around the tracked route. The current position information 2011 stores the current position information indicating the current date and time and the current position measured by the positioning unit 1032 of the autonomous flying robot 100. The imaging information 2012 stores the imaging information 10311 imaged by the imaging unit 105 of the autonomous flying robot 100. The environment information 2013 is information about the environment around the tracked route, such as operation information, road information, and disaster information.

図5は、環境情報2013の例を示す図である。図5に示すように、環境情報3013は、環境が変化する事象が発生した日時と、その事象の内容を示す事象情報とが対応付けて記憶されている。図5では、例えば、2015年9月1日の12時30分00秒現在、品川区△△通り××交差点付近は工事のため通行止めとなっていることを示している。このように、環境情報3013には、追跡している経路周辺における道路の工事情報等、ターゲットを追跡している経路での移動に影響を与える事象を示す情報が記憶されている。これらの各情報は、例えば、監視部202が、通信ネットワークN2を介して、道路交通情報を提供するサイト、市区町村のホームページ等にアクセスしてこれらの情報を読み取って、上記環境情報2013として格納したり、格納した情報を所定の間隔で更新することにより、最新の状況を記憶している。   FIG. 5 is a diagram showing an example of the environment information 2013. As shown in FIG. 5, the environment information 3013 stores the date and time when an event that changes the environment occurs and the event information indicating the content of the event in association with each other. FIG. 5 shows that, for example, as of 12:30:00 on September 1, 2015, the vicinity of the ΔΔ street xx intersection in Shinagawa ward is closed due to construction work. As described above, the environment information 3013 stores information indicating an event that affects movement on the route tracking the target, such as road construction information around the route being tracked. For example, the monitoring unit 202 accesses the site providing the road traffic information, the website of the municipality, or the like through the communication network N2, reads the information, and outputs the information as the environmental information 2013. The latest situation is stored by storing or updating the stored information at predetermined intervals.

上記例以外にも、ターゲットが上記車両により移動する場合には、これらの情報に加えて交通渋滞情報(例えば、上記事象が発生した日時と、高速道路名と、上記事象情報とを対応付けた情報)を含めてもよい。続いて、図1に戻って、監視部202について説明する。   In addition to the above examples, when the target is moved by the vehicle, in addition to these pieces of information, traffic congestion information (for example, the date and time when the event occurred, the highway name, and the event information are associated with each other). Information) may be included. Subsequently, returning to FIG. 1, the monitoring unit 202 will be described.

監視部202は、ターゲットを追跡する経路を飛行している自律飛行ロボット100を監視する処理部である。監視部202は、自律飛行ロボット100から受信した現在位置情報および撮像情報10311を読み取り、現時点で自律飛行ロボット100がターゲットを追跡している経路を飛行していることをチェックする。また、監視部302は、上記環境情報2013を取得するため、通信ネットワークN2を介して、道路交通情報を提供するサイト、市区町村のホームページ等にアクセスし、取得した情報を上記環境情報2013に記録する。   The monitoring unit 202 is a processing unit that monitors the autonomous flying robot 100 that is flying on a path that tracks a target. The monitoring unit 202 reads the current position information and the imaging information 10311 received from the autonomous flying robot 100, and checks that the autonomous flying robot 100 is currently flying on the route tracking the target. In addition, the monitoring unit 302 accesses the site providing the road traffic information, the website of the municipality, or the like via the communication network N2 in order to acquire the environmental information 2013, and acquires the acquired information in the environmental information 2013. Record.

第1通信部203は、所定の規格にしたがって、無線通信ネットワークN1を介して自律飛行ロボット100との間で無線通信して各種情報を送受信する処理部である。   The first communication unit 203 is a processing unit that wirelessly communicates with the autonomous flying robot 100 via the wireless communication network N1 to transmit and receive various types of information according to a predetermined standard.

第2通信部204は、所定の規格にしたがって、通信ネットワークN2を介して上記道路交通情報を提供するサイト、市区町村のホームページ等にアクセスする処理部である。   The second communication unit 204 is a processing unit that accesses a site that provides the road traffic information, a homepage of a municipality, or the like via the communication network N2 according to a predetermined standard.

制御部205は、サーバ200を構成する上記各部の動作を制御する。サーバ200の具体的な動作についてはシーケンス図を用いて後述する。続いて、本システムで行われる処理について説明する。   The control unit 205 controls the operation of each of the above units included in the server 200. The specific operation of the server 200 will be described later using a sequence diagram. Next, the processing performed by this system will be described.

図6は、本システムで行われる処理(追跡飛行処理)の処理手順を示すシーケンス図である。図6に示すように、追跡飛行処理では、まず、サーバ200が有する不図示の入力装置(例えば、キーボード)が、本システムの管理者からターゲットの位置およびターゲットを識別するための情報(ターゲット情報)の入力を受け付け(ステップS601)、監視部202が、入力されたターゲット情報を自律飛行ロボット100に送信する(ステップS602)。ターゲット情報としては、例えば、ターゲットの現在位置を示す座標情報、ターゲットの顔画像がある。   FIG. 6 is a sequence diagram showing a processing procedure of processing (tracking flight processing) performed in this system. As shown in FIG. 6, in the tracking flight process, first, an input device (for example, a keyboard) (not shown) included in the server 200 is used by a system administrator to identify the target position and the target (target information). ) Is received (step S601), and the monitoring unit 202 transmits the input target information to the autonomous flying robot 100 (step S602). The target information includes, for example, coordinate information indicating the current position of the target and a face image of the target.

自律飛行ロボット100は、サーバ200から上記ターゲット情報を受信すると、現在位置の測位および撮像部105による撮像を開始し、現在位置情報、撮像情報を出力し(ステップS603)、これらの情報をサーバ200に送信する(ステップS604)。以降、これらの情報は、本処理が終了するまでリアルタイムに行われる。   Upon receiving the target information from the server 200, the autonomous flying robot 100 starts positioning of the current position and imaging by the imaging unit 105, outputs current position information and imaging information (step S603), and outputs these information to the server 200. (Step S604). Thereafter, these pieces of information are performed in real time until the end of this processing.

サーバ200の監視部202は、自律飛行移動ロボット100から上記現在位置情報、撮像情報を受信すると、これらの情報を記憶部201に記録する(ステップS605)。   When the monitoring unit 202 of the server 200 receives the current position information and the imaging information from the autonomous flying mobile robot 100, the monitoring unit 202 records the information in the storage unit 201 (step S605).

自律飛行ロボット100の飛行制御部1034は、モータ102を駆動してロータ101の回転を制御し、上記ターゲット情報に示されたターゲットの位置まで自律飛行を開始する(ステップS606)。例えば、飛行制御部1034は、ターゲット情報として示されているターゲットの現在位置付近まで飛行した後、ターゲット情報に示されているターゲットの顔画像と、撮像部105が撮像する画像の中から上記ターゲットの顔画像に類似する顔画像を認識し、認識した顔画像を含む人物を上記ターゲットとして設定する。以降、自律飛行ロボット100は、上記現在位置情報および撮像情報を、随時サーバ200に送信する。   The flight control unit 1034 of the autonomous flying robot 100 drives the motor 102 to control the rotation of the rotor 101 and starts autonomous flight to the position of the target indicated by the target information (step S606). For example, the flight control unit 1034, after flying to near the current position of the target indicated as the target information, selects the target from the face image of the target indicated in the target information and the image captured by the image capturing unit 105. The face image similar to the face image of is recognized, and the person including the recognized face image is set as the target. After that, the autonomous flying robot 100 transmits the current position information and the imaging information to the server 200 at any time.

飛行制御部1034は、飛行を開始した後、ターゲットに到着すると、その旨をサーバ200に送信する(ステップS607)。サーバ200の上記入力装置は、自律飛行ロボット100からターゲットに到着した旨の情報を受信すると、そのターゲットに対する追跡指示の入力を受け付け(ステップS608)、監視部202は、その追跡指示を自律飛行ロボット100に送信する(ステップS609)。   When the flight control unit 1034 arrives at the target after starting the flight, the flight control unit 1034 transmits a message to that effect to the server 200 (step S607). When the input device of the server 200 receives the information indicating that the target has arrived at the target from the autonomous flying robot 100, the input of the tracking instruction for the target is accepted (step S608), and the monitoring unit 202 sends the tracking instruction to the autonomous flying robot. It is transmitted to 100 (step S609).

自律飛行ロボット100の飛行制御部1034は、サーバ200から上記追跡指示を受信すると、ターゲットの追跡を開始する。飛行制御部1034は、上記ターゲットとの間の距離を保ちながら飛行するように、ロータ101の回転数を制御してポジショニングする(ステップS610、S611)。例えば、飛行制御部1034は、撮像部105が撮像している画像を解析し、その画像の中で占める上記ターゲットの画像の大きさを判定し、その大きさが一定となるように飛行する。   When the flight control unit 1034 of the autonomous flying robot 100 receives the tracking instruction from the server 200, it starts tracking the target. The flight control unit 1034 controls the number of rotations of the rotor 101 so as to fly while keeping the distance to the target (steps S610 and S611). For example, the flight control unit 1034 analyzes the image captured by the image capturing unit 105, determines the size of the target image in the image, and flies so that the size is constant.

このように、上記ターゲットの画像の大きさが一定となるように飛行を制御することにより、実際に移動するターゲットとの間の距離を一定に保ちつつ飛行することができる。なお、本例では、画像解析により飛行制御部1034が飛行する位置をポジショニングしているが、ターゲットが携帯端末を所持している場合には、その携帯端末と自律飛行ロボット100との間の電波強度が一定となるように飛行を制御してもよい。   In this way, by controlling the flight so that the size of the image of the target becomes constant, it is possible to fly while keeping the distance between the target actually moving and constant. In this example, the position where the flight control unit 1034 flies is positioned by image analysis. However, when the target has a mobile terminal, the radio wave between the mobile terminal and the autonomous flying robot 100 is set. The flight may be controlled so that the intensity is constant.

飛行制御部1034は、上記ポジショニングによりターゲットを認識できているか否かを判定し(ステップS612)、ターゲットを認識できていると判定した場合(ステップS612;Yes)、ステップS611に戻り、その距離を保ちつつ飛行を続行する。   The flight control unit 1034 determines whether or not the target is recognized by the positioning (step S612), and when it is determined that the target is recognized (step S612; Yes), the process returns to step S611, and the distance is set. Continue flight while maintaining.

一方、飛行制御部1034が、ターゲットを認識できなくなったと判定した場合(ステップS612;No)、探索部1033は、経路探索を実行する(ステップS613)。そして、飛行制御部1034は、経路が探索できたか否かを判定し(ステップS616)、経路が探索できたと判定した場合(ステップS616;Yes)、ステップS610に戻って、追跡を続行する。   On the other hand, when the flight control unit 1034 determines that the target cannot be recognized (step S612; No), the search unit 1033 executes the route search (step S613). Then, the flight control unit 1034 determines whether or not the route can be searched (step S616), and when determining that the route can be searched (step S616; Yes), returns to step S610 and continues the tracking.

具体的には、探索部1033は、記憶部1031に記憶されている地図情報10312を読み出し、見失った位置付近の地図上の経路のうち、ターゲットの移動方向にある経路のうちの最短経路を探索し、その経路をターゲットが移動する経路であると推定する。上記最短経路は、例えば、図7に示すように、ターゲットTが進行方向Aに移動することを前提に、自律飛行ロボット100が分岐点の直前の地点PでターゲットTを見失った場合、探索部1033が経路の合流地点までの経路R1、R2、R3の中から探索したR1である。このように、飛行制御部1034は、探索部1033により探索された進行方向にある経路が分岐した地点から、分岐した経路が合流する地点までの複数の経路の中で最も移動距離が少ない最短経路を探索する。   Specifically, the search unit 1033 reads the map information 10312 stored in the storage unit 1031 and searches the shortest route of the routes in the moving direction of the target among the routes on the map near the lost position. Then, the route is estimated to be a route along which the target moves. The shortest route is, for example, as shown in FIG. 7, assuming that the target T moves in the traveling direction A, when the autonomous flying robot 100 loses sight of the target T at the point P immediately before the branch point, the search unit. Reference numeral 1033 is R1 searched from the routes R1, R2, and R3 to the confluence of the routes. In this way, the flight control unit 1034 has the shortest route with the smallest travel distance among the plurality of routes from the point where the route in the traveling direction searched by the search unit 1033 branches to the point where the branched route merges. To explore.

そして、飛行制御部1034は、飛行速度を上げて、ターゲットTが合流地点に移動するまでに探索された上記最短経路を移動して先回りし、合流地点付近の位置(例えば、図7に示す自律飛行ロボット100’の位置)で待機して待ち伏せする。そして、飛行制御部1034は、その時点で撮像部105が撮像している画像を解析し、その画像の中で占める上記ターゲットの画像の大きさが一定以上となったか否かを判定する。そして、上記ターゲットの画像の大きさが一定以上となったと判定した場合、合流地点付近までターゲットTが移動してきたと判断し、そのターゲットT(図7では、ターゲットT’)の追跡を続行する。   Then, the flight control unit 1034 increases the flight speed, moves ahead of the shortest route searched until the target T moves to the confluence point, and moves to a position near the confluence point (for example, the autonomous position shown in FIG. 7). Stand by at the position of the flying robot 100 ') and ambush. Then, the flight control unit 1034 analyzes the image captured by the image capturing unit 105 at that time, and determines whether or not the size of the image of the target occupied in the image is equal to or larger than a certain size. Then, when it is determined that the size of the image of the target is equal to or larger than a certain size, it is determined that the target T has moved to the vicinity of the confluence point, and the tracking of the target T (target T ′ in FIG. 7) is continued.

ステップS609において追跡指示が送信されると、サーバ200の監視部202は、通信ネットワークN2を介して、道路交通情報を提供するサイト、市区町村のホームページ等の他のシステムにアクセスし、上記環境情報を取得し、環境情報2013に記録するとともに(ステップS614)、自律飛行ロボット100に送信する(ステップS615)。このとき、監視部202は、取得した環境情報と、記憶部310に記憶した現在位置情報2011および撮像情報2012とを参照し、ユーザの移動に影響を与える事象を示す環境情報(例えば、現在の経路に含まれる交差点名における工事を示す事象)を抽出して上記環境情報2013に記録する。以降、監視部202は、環境情報を取得する都度、環境情報2013を更新するとともに、取得した最新の環境情報を自律飛行ロボット100に送信する。   When the tracking instruction is transmitted in step S609, the monitoring unit 202 of the server 200 accesses another system such as a site providing road traffic information or a homepage of a municipality via the communication network N2, and the environment described above is set. The information is acquired, recorded in the environment information 2013 (step S614), and transmitted to the autonomous flying robot 100 (step S615). At this time, the monitoring unit 202 refers to the acquired environment information and the current position information 2011 and the imaging information 2012 stored in the storage unit 310, and refers to the environment information indicating the event that affects the movement of the user (for example, the current environment information). An event indicating construction at the intersection name included in the route) is extracted and recorded in the environment information 2013. After that, the monitoring unit 202 updates the environment information 2013 each time the environment information is acquired, and also transmits the acquired latest environment information to the autonomous flying robot 100.

自律飛行ロボット100の探索部1033は、サーバ200から上記環境情報を受信すると、環境情報に示された事象を回避するような迂回経路を探索した上で上記最短経路を再探索し、再対策できた場合(ステップS616;Yes)、ステップS610に戻って自律飛行ロボット100による追跡を継続させる。自律飛行ロボット100は、これらのステップを、環境情報を取得する都度、追跡が終了するまで繰り返す。   Upon receiving the environment information from the server 200, the search unit 1033 of the autonomous flying robot 100 searches for a detour route that avoids the event indicated in the environment information, and then re-searches for the shortest route so that the countermeasure can be taken again. If yes (step S616; Yes), the process returns to step S610 to continue the tracking by the autonomous flying robot 100. The autonomous flying robot 100 repeats these steps each time it acquires environment information until the tracking is completed.

一方、飛行制御部1034は、ステップS616において経路が探索できなかったと判定した場合(ステップS616;No)、ターゲットが建物に入る等して見失ったと判断し、追跡不可通知をサーバ200に送信する(ステップS617)。上記のようにターゲットを見失った場合でも、ターゲットを追跡したそれまでの経路やその時点でのターゲットの位置がわかるため、以降、人手によるターゲットの追跡範囲を限定することができる。   On the other hand, when the flight control unit 1034 determines that the route could not be searched in step S616 (step S616; No), it determines that the target has lost sight of the target such as entering a building, and sends a tracking impossibility notification to the server 200 ( Step S617). Even if the target is lost as described above, the route up to which the target has been tracked and the position of the target at that time can be known, and hence the range of manual tracking of the target can be limited thereafter.

サーバ200の上記入力装置は、自律飛行ロボット100から上記追跡不可通知を受信すると、そのターゲットに対する追跡終了指示の入力を受け付け(ステップS618)、監視部202は、その追跡終了指示を自律飛行ロボット100に送信する(ステップS619)。自律飛行ロボット100は、サーバ200から上記追跡終了指示を受信すると、ターゲットの追跡飛行を終了し、追跡を開始したときの位置まで戻る(ステップS620)。   When the input device of the server 200 receives the tracking impossible notification from the autonomous flying robot 100, the input of the tracking end instruction for the target is accepted (step S618), and the monitoring unit 202 issues the tracking end instruction to the autonomous flying robot 100. (Step S619). Upon receiving the tracking end instruction from the server 200, the autonomous flying robot 100 ends the target tracking flight and returns to the position where the tracking was started (step S620).

このように、本システムでは、上記処理を実行することにより、俯瞰することができない状況においても目標物の追跡ができる。   As described above, in the present system, by executing the above processing, the target object can be tracked even in a situation where the bird's eye view cannot be performed.

上記自律飛行ロボット100、サーバ200で行われる各処理は、実際には、自律飛行ロボット100、サーバ200にインストールされたプログラムを実行することにより実現される。上記プログラムは、ROM等に予め組み込まれて提供されたり、インストール可能な形式又は実行可能な形式のファイルで記録媒体に記録して提供したり、配布してもよい。   Each process performed by the autonomous flying robot 100 and the server 200 is actually realized by executing a program installed in the autonomous flying robot 100 and the server 200. The program may be provided by being pre-installed in a ROM or the like, or may be provided by being recorded in a recording medium in a file of an installable format or an executable format, or distributed.

1000 自律飛行システム
100 自律飛行ロボット
101 ロータ
102 モータ
103 本体部
1031 記憶部
10311 撮像情報
10311 地図情報
1032 測位部
1033 探索部
1034 飛行制御部
1035 通信部
1036 制御部
104 スキッド
105 撮像部
200 サーバ
201 記憶部
2011 現在位置情報
2012 撮像情報
2013 環境情報
202 監視部
203 第1通信部
204 第2通信部
205 制御部
N1 無線通信ネットワーク
N2 通信ネットワーク
1000 Autonomous flight system 100 Autonomous flight robot 101 Rotor 102 Motor 103 Main body 1031 Storage unit 10311 Imaging information 10311 Map information 1032 Positioning unit 1033 Searching unit 1034 Flight control unit 1035 Communication unit 1036 Control unit 104 Skid 105 Imaging unit 200 Server 201 Storage unit 2011 current position information 2012 imaging information 2013 environment information 202 monitoring unit 203 first communication unit 204 second communication unit 205 control unit N1 wireless communication network N2 communication network

Claims (4)

自律飛行が可能な自律飛行移動体であって、
撮像部と、
あらかじめ定められたターゲットを示す第1の画像と前記撮像部が撮像した第2の画像とに基づいて前記ターゲットを認識し、認識した前記ターゲットとの間で所定の距離を保ちながら飛行して前記ターゲットを追跡する飛行制御部と、
前記飛行制御部が前記ターゲットを認識できなくなった場合に、地図情報に基づいて前記認識できなくなった位置付近の経路を探索する探索部と、を有し、
前記探索部は、探索した経路の分岐点から合流点までの最短経路を探索し、
前記飛行制御部は、前記最短経路を前記合流点付近まで飛行し、前記第1の画像と前記合流点付近の位置で待機して待ち伏せして撮像した前記第2の画像とに基づいて前記ターゲットが前記合流点付近まで移動したか否かを判定し、前記ターゲットが前記合流点付近まで移動したと判定した場合、前記ターゲットの追跡を続行する、
ことを特徴とする自律飛行移動体。
An autonomous flying vehicle capable of autonomous flight,
An imaging unit,
The target is recognized based on a first image indicating a predetermined target and a second image captured by the image capturing unit, and a flight is performed while maintaining a predetermined distance from the recognized target. A flight controller that tracks the target,
In the case where the flight control unit cannot recognize the target, a search unit that searches for a route near the position that cannot be recognized based on map information,
The search unit searches for the shortest route from the branch point of the searched route to the confluence point,
The flight control unit flies along the shortest route to the vicinity of the confluence, and waits at a position near the confluence to await the target based on the second image captured by ambushing. Determines whether or not it has moved to the vicinity of the confluence, if it is determined that the target has moved to the vicinity of the confluence , continue tracking the target,
An autonomous flying vehicle characterized by the above.
前記探索部は、前記経路周辺についての環境情報を他のシステムから取得して前記環境情報のうち前記経路での移動に影響を与える事象を抽出し、抽出した前記事象を回避して前記経路を探索する、
ことを特徴とする請求項に記載の自律飛行移動体。
The search unit acquires environmental information about the route from another system, extracts an event that affects movement on the route from the environmental information, and avoids the extracted event to avoid the route. To explore,
The autonomous flying vehicle according to claim 1 , wherein:
自律飛行が可能な自律飛行移動体を用いたターゲット追跡方法であって、
あらかじめ定められたターゲットを示す第1の画像と前記自律飛行移動体に備えられた撮像部が撮像した第2の画像とに基づいて前記ターゲットを認識する認識ステップと、
認識した前記ターゲットとの間で所定の距離を保ちながら飛行して前記ターゲットを追跡する追跡ステップと、
前記ターゲットを認識できなくなった場合に、地図情報に基づいて前記認識できなくなった位置付近の経路を探索する探索ステップと、
探索された経路に基づいて、前記ターゲットの追跡を続行する続行ステップと、を含み、
前記探索ステップでは、探索した経路の分岐点から合流点までの最短経路を探索し、
前記続行ステップでは、前記最短経路を前記合流点付近まで飛行し、前記第1の画像と前記合流点付近の位置で待機して待ち伏せして撮像した前記第2の画像とに基づいて前記ターゲットが前記合流点付近まで移動したか否かを判定し、前記ターゲットが前記合流点付近まで移動したと判定した場合、前記ターゲットの追跡を続行する、
ことを特徴とするターゲット追跡方法。
A target tracking method using an autonomously flying mobile body capable of autonomous flight,
A recognition step of recognizing the target based on a first image showing a predetermined target and a second image captured by an image capturing section provided in the autonomous flying vehicle;
A tracking step of flying and tracking the target while maintaining a predetermined distance from the recognized target;
A search step of searching for a route in the vicinity of the unrecognizable position based on map information when the target cannot be recognized;
Continuing the tracking of the target based on the searched route ,
In the search step, the shortest route from the branch point of the searched route to the confluence point is searched,
In the continuation step, the target is flown along the shortest path to the vicinity of the confluence point, and the target is based on the first image and the second image captured by awaiting at a position near the confluence point. It is determined whether or not the target has moved to the vicinity of the confluence, and if it is determined that the target has moved to the vicinity of the confluence, the tracking of the target is continued,
A target tracking method characterized by the above.
前記探索ステップでは、前記経路周辺についての環境情報を他のシステムから取得して前記環境情報のうち前記経路での移動に影響を与える事象を抽出し、抽出した前記事象を回避して前記経路を探索する、
ことを特徴とする請求項に記載のターゲット追跡方法。
In the searching step, environmental information around the route is acquired from another system, an event affecting movement on the route is extracted from the environmental information, and the extracted event is avoided to avoid the route. To explore,
The target tracking method according to claim 3 , wherein:
JP2015189191A 2015-09-28 2015-09-28 Autonomous flying vehicle, target tracking method Active JP6680498B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015189191A JP6680498B2 (en) 2015-09-28 2015-09-28 Autonomous flying vehicle, target tracking method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015189191A JP6680498B2 (en) 2015-09-28 2015-09-28 Autonomous flying vehicle, target tracking method

Publications (2)

Publication Number Publication Date
JP2017068298A JP2017068298A (en) 2017-04-06
JP6680498B2 true JP6680498B2 (en) 2020-04-15

Family

ID=58492506

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015189191A Active JP6680498B2 (en) 2015-09-28 2015-09-28 Autonomous flying vehicle, target tracking method

Country Status (1)

Country Link
JP (1) JP6680498B2 (en)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6912281B2 (en) * 2017-06-20 2021-08-04 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Aircraft, flight control systems, flight control methods, programs and recording media
KR20190009103A (en) 2017-07-18 2019-01-28 삼성전자주식회사 Electronic Device that is moved based on Distance to External Object and the Control Method
CN110402421A (en) * 2017-12-26 2019-11-01 深圳市道通智能航空技术有限公司 A kind of aircraft landing guard method, device and aircraft
WO2019181917A1 (en) * 2018-03-19 2019-09-26 本田技研工業株式会社 Mobile body management system, control method for mobile body management system, and management server for mobile body management system
JP2021144260A (en) 2018-06-15 2021-09-24 ソニーグループ株式会社 Information processing device, information processing method, program, and information processing system
JP7092344B2 (en) * 2018-07-27 2022-06-28 株式会社システック Mobile flight monitoring terminal, monitoring device and monitoring method
US11443640B2 (en) * 2018-10-19 2022-09-13 Anduril Industries, Inc. Ruggedized autonomous helicopter platform
JP2020087074A (en) * 2018-11-28 2020-06-04 株式会社メルカリ Mobile object, program, and control method
WO2021002320A1 (en) * 2019-07-02 2021-01-07 株式会社Nttドコモ Control device
CN110348418B (en) * 2019-07-17 2022-03-11 上海商汤智能科技有限公司 Target tracking method and device, intelligent mobile device and storage medium
WO2022085368A1 (en) * 2020-10-20 2022-04-28 ソニーグループ株式会社 Information processing device, information processing system, method, and program

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6917855B2 (en) * 2002-05-10 2005-07-12 Honda Motor Co., Ltd. Real-time target tracking of an unpredictable target amid unknown obstacles
JP2005199377A (en) * 2004-01-14 2005-07-28 Sharp Corp Tracking robot system and tracking robot using the same
JP2008084135A (en) * 2006-09-28 2008-04-10 Toshiba Corp Movement control method, mobile robot and movement control program
US7970507B2 (en) * 2008-01-23 2011-06-28 Honeywell International Inc. Method and system for autonomous tracking of a mobile target by an unmanned aerial vehicle
JP5160322B2 (en) * 2008-06-30 2013-03-13 株式会社Ihi Autonomous mobile robot apparatus and control method for autonomous mobile robot apparatus
JP6029446B2 (en) * 2012-12-13 2016-11-24 セコム株式会社 Autonomous flying robot
JP5982273B2 (en) * 2012-12-14 2016-08-31 セコム株式会社 Shooting system
JP6195450B2 (en) * 2013-01-31 2017-09-13 セコム株式会社 Autonomous flying robot
JP6155032B2 (en) * 2013-01-31 2017-06-28 セコム株式会社 Shooting system

Also Published As

Publication number Publication date
JP2017068298A (en) 2017-04-06

Similar Documents

Publication Publication Date Title
JP6680498B2 (en) Autonomous flying vehicle, target tracking method
CN111076732B (en) Track marking based on vehicle driving and marking scheme for generating high-definition map
CN110377025B (en) Sensor aggregation frame for an autonomous vehicle
CN111061261B (en) Automatic driving method using standard navigation map and lane configuration determined based on previous track of vehicle
CN108732589B (en) Automatic acquisition of training data for object recognition using 3D LIDAR and localization
EP2920954B1 (en) Automatic image capture
JP2019167091A (en) Real-time sensing adjustment and operation adjustment based on behavior of peripheral vehicle of automatic operation vehicle
US10969237B1 (en) Distributed collection and verification of map information
WO2015129045A1 (en) Image acquisition system, terminal, image acquisition method, and image acquisition program
JP6721308B2 (en) Autonomous flight vehicle, Autonomous flight vehicle system
CN108139884A (en) The method simulated the physical model of automatic driving vehicle movement and combine machine learning
US20180217607A1 (en) Object recognition in autonomous vehicles
JP2020087134A (en) Waste collection management system, waste collection management method and program
CN102951149A (en) Method and device for analysing a route section to be driven by a vehicle
WO2019159420A1 (en) Mobile body operation management system and mobile bodies
CN114080537A (en) Collecting user contribution data relating to a navigable network
JP2013036930A (en) Navigation device and navigation system comprising the same
JP2012137320A (en) Guidance apparatus, guidance method, guidance program and recording medium
JP6956132B2 (en) Shooting system, server, control method and program
US20210357620A1 (en) System, moving object, and information processing apparatus
EP3731053B1 (en) Management device, management system, moving body and program
CN116583714A (en) System and method for scheduling and navigating unmanned aerial vehicles
KR102368082B1 (en) Autonomous driving control method of a Robot and System therefor
US20240118703A1 (en) Display apparatus, communication system, display control method, and recording medium
TWI813077B (en) Driving control system, control method, and control device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180821

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190620

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190730

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190905

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200303

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200319

R150 Certificate of patent or registration of utility model

Ref document number: 6680498

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250