JP2019006154A - Flight vehicle, flight control system, flight control method, program, and recording medium - Google Patents

Flight vehicle, flight control system, flight control method, program, and recording medium Download PDF

Info

Publication number
JP2019006154A
JP2019006154A JP2017120639A JP2017120639A JP2019006154A JP 2019006154 A JP2019006154 A JP 2019006154A JP 2017120639 A JP2017120639 A JP 2017120639A JP 2017120639 A JP2017120639 A JP 2017120639A JP 2019006154 A JP2019006154 A JP 2019006154A
Authority
JP
Japan
Prior art keywords
tracking
tracking target
sound
sound source
source direction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017120639A
Other languages
Japanese (ja)
Other versions
JP6912281B2 (en
Inventor
磊 顧
Lei Gu
磊 顧
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SZ DJI Technology Co Ltd
Original Assignee
SZ DJI Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SZ DJI Technology Co Ltd filed Critical SZ DJI Technology Co Ltd
Priority to JP2017120639A priority Critical patent/JP6912281B2/en
Publication of JP2019006154A publication Critical patent/JP2019006154A/en
Application granted granted Critical
Publication of JP6912281B2 publication Critical patent/JP6912281B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

To enable tracking to be easily continued even when automatic tracking of a tracking object fails.SOLUTION: A flight vehicle includes: an imaging device for taking an image of a predetermined tracking object; a sound pickup device for picking up a sound of the circumference including the tracking object; and a control part for executing processing related to tracking of the tracking object. The control part tracks the tracking object by using the taken image taken by the imaging device. A sound source direction corresponding to the tracking object is estimated by sound information acquired by the sound pickup device. An imaging direction of the imaging device is adjusted on the basis of the result of estimation in the sound source direction.SELECTED DRAWING: Figure 8

Description

本開示は、所定の対象を追跡可能な飛行体、飛行制御システム、飛行体を制御するための飛行制御方法、プログラム及び記録媒体に関する。   The present disclosure relates to an aircraft capable of tracking a predetermined object, a flight control system, a flight control method for controlling the aircraft, a program, and a recording medium.

撮像装置を搭載し、空中を飛行しながら被写体を撮像する空中撮影が可能な飛行体(例えばUAV:Unmanned Aerial Vehicle)が知られている。この種の空中撮影に利用可能な飛行体において、主要な被写体となる人や乗り物等の所定の対象を目標として自動的に追跡する機能を持つものがある。   2. Description of the Related Art A flying body (for example, UAV: Unmanned Aerial Vehicle) that is equipped with an imaging device and is capable of performing aerial shooting that captures an image of a subject while flying in the air is known. Among the flying bodies that can be used for this kind of aerial photography, there is one that has a function of automatically tracking a predetermined target such as a person or a vehicle as a main subject.

飛行体が追跡動作を行っている際に、追跡対象の被写体の向きや距離、位置などの変化が大きい場合、追跡対象が他の被写体に隠れて遮断される場合など、追跡対象を見失って自動追跡に失敗してしまうことがある。このように追跡動作が中断した場合、飛行体を制御するための端末をユーザが操作して追跡対象を再度設定し直すことなどにより、追跡を再開する。   When the flying object is tracking, if there is a large change in the direction, distance, position, etc. of the subject to be tracked, or if the subject is hidden behind another object Sometimes tracking fails. When the tracking operation is interrupted in this way, the tracking is resumed by the user operating the terminal for controlling the flying object to reset the tracking target again.

自動追跡機能を有する飛行体の例として、例えば特許文献1には、俯瞰することができない状況においても目標物の追跡が可能な自律飛行移動体が開示されている。この従来例の自律飛行移動体は、ターゲットを認識できなくなった場合に、地図情報に基づいて認識できなくなった位置付近の経路を探索し、探索された経路に基づいてターゲットの追跡を実行するものである。   As an example of a flying object having an automatic tracking function, for example, Patent Document 1 discloses an autonomous flying moving object capable of tracking a target even in a situation where the bird's-eye view cannot be seen. In this conventional example, when the target cannot be recognized, the autonomous flying vehicle searches for a route near the position where the target cannot be recognized based on the map information, and performs tracking of the target based on the searched route. It is.

特開2017−068298号公報JP 2017-068298 A

従来の追跡機能を有する飛行体では、追跡動作中に追跡対象を見失った場合、ユーザが飛行体を制御するための端末を用いて追跡対象を再度設定する等の操作が必要となる。追跡対象の再設定操作を行う際には、ユーザが端末操作と同時に飛行体の機体の状態を確認することができないため、追跡対象の設定と飛行体の操縦との同時操作は困難である。このように、従来の飛行体では、追跡対象の自動追跡に失敗した場合、追跡を続行するための操作性に課題がある。   In a flying object having a conventional tracking function, when the tracking object is lost during the tracking operation, an operation such as setting the tracking object again by using a terminal for controlling the flying object by the user is required. When performing the resetting operation of the tracking target, the user cannot confirm the state of the aircraft body at the same time as the terminal operation, and therefore it is difficult to simultaneously perform the tracking target setting and the flying vehicle maneuvering. As described above, the conventional aircraft has a problem in operability for continuing the tracking when the tracking of the tracking target fails.

一態様において、所定の追跡対象を撮像する撮像装置と、追跡対象を含む周囲の音を収音する収音装置と、追跡対象の追跡に関する処理を実行する制御部と、を有する飛行体であって、制御部は、撮像装置により撮像した撮像画像を用いて追跡対象を追跡し、収音装置により取得した音情報により追跡対象に該当する音源方向を推定し、音源方向の推定結果に基づいて撮像装置による撮影方向を調整する、飛行体である。   In one aspect, the vehicle includes an imaging device that captures an image of a predetermined tracking target, a sound collection device that collects surrounding sounds including the tracking target, and a control unit that executes processing related to tracking of the tracking target. The control unit tracks the tracking target using the captured image captured by the imaging device, estimates the sound source direction corresponding to the tracking target based on the sound information acquired by the sound collection device, and based on the estimation result of the sound source direction It is a flying body that adjusts the shooting direction of the imaging device.

制御部は、追跡対象の追跡において、撮像画像における追跡対象に関する画像の特徴値を算出し、画像の特徴値を比較して追跡対象を探索してよい。   In tracking the tracking target, the control unit may calculate a feature value of the image related to the tracking target in the captured image and compare the feature values of the images to search for the tracking target.

制御部は、追跡対象の追跡を失敗した場合に、追跡対象が発する音情報を取得して音源方向を推定し、音源方向に応じて撮影方向を調整してよい。   When the tracking of the tracking target fails, the control unit may acquire sound information emitted from the tracking target, estimate the sound source direction, and adjust the shooting direction according to the sound source direction.

制御部は、音情報における追跡対象に関する音の特徴値を算出し、音の特徴値によって追跡対象の音源方向を推定し、音源方向に応じて追跡対象を追跡してよい。   The control unit may calculate a sound feature value related to the tracking target in the sound information, estimate a sound source direction of the tracking target based on the sound feature value, and track the tracking target according to the sound source direction.

制御部は、追跡対象の追跡において、推定した音源方向に応じて撮像画像における追跡対象を探索する領域を限定してよい。   In the tracking of the tracking target, the control unit may limit a region for searching for the tracking target in the captured image according to the estimated sound source direction.

制御部は、音源方向の推定において、収音装置により取得した音情報から追跡対象の音成分を抽出し、追跡対象の音成分について音源方向の推定処理を行ってよい。   In the estimation of the sound source direction, the control unit may extract a sound component to be tracked from sound information acquired by the sound collection device, and perform a sound source direction estimation process for the sound component to be tracked.

制御部は、撮影方向の調整において、飛行体の回転翼機構と、撮像装置を支持する支持機構との少なくとも一方の動きを制御してよい。   The control unit may control at least one movement of the rotating wing mechanism of the flying object and the support mechanism that supports the imaging device in the adjustment of the shooting direction.

一態様において、飛行体と、飛行体と通信を行う端末と、を有する飛行制御システムであって、飛行体は、所定の追跡対象を撮像する撮像装置と、追跡対象を含む周囲の音を収音する収音装置と、追跡対象の候補情報を端末に送信する通信部と、追跡対象の追跡に関する処理を実行するものであって、撮像装置により撮像した撮像画像を用いて追跡対象を追跡し、収音装置により取得した音情報により追跡対象に該当する音源方向を推定し、音源方向の推定結果に基づいて撮像装置による撮影方向を調整する、制御部と、を有し、端末は、追跡対象の候補情報を受信する通信部と、追跡対象の候補を表示する表示部と、追跡対象の設定に関する入力を行う操作部と、を有する、飛行制御システムである。   In one aspect, a flight control system comprising a flying object and a terminal that communicates with the flying object, wherein the flying object collects an imaging device that images a predetermined tracking target and ambient sounds including the tracking target. A sound collection device for sounding, a communication unit for transmitting tracking target candidate information to a terminal, and processing for tracking the tracking target, and tracking the tracking target using a captured image captured by the imaging device A control unit that estimates a sound source direction corresponding to a tracking target based on sound information acquired by the sound collection device, and adjusts a shooting direction by the imaging device based on an estimation result of the sound source direction. The flight control system includes a communication unit that receives target candidate information, a display unit that displays tracking target candidates, and an operation unit that performs input related to setting of the tracking target.

端末の表示部は、追跡対象の追跡を失敗した場合に、追跡失敗表示を行ってよい。   The display unit of the terminal may perform tracking failure display when tracking of the tracking target fails.

一態様において、所定の追跡対象を追跡する飛行体を制御するための飛行制御方法であって、追跡対象を撮像装置により撮像するステップと、追跡対象を含む周囲の音を収音装置により収音するステップと、撮像した撮像画像を用いて追跡対象を追跡するステップと、収音した音情報により追跡対象に該当する音源方向を推定するステップと、音源方向の推定結果に基づいて撮像装置による撮影方向を調整するステップと、を有する、飛行制御方法である。   In one aspect, a flight control method for controlling a flying object that tracks a predetermined tracking target, the step of imaging the tracking target with an imaging device, and the collection of ambient sounds including the tracking target with a sound pickup device A step of tracking a tracking target using the picked-up captured image, a step of estimating a sound source direction corresponding to the tracking target based on collected sound information, and photographing by an imaging device based on the estimation result of the sound source direction Adjusting the direction, and a flight control method.

追跡対象を追跡するステップは、撮像画像における追跡対象に関する画像の特徴値を算出し、画像の特徴値を比較して追跡対象を探索するステップを含んでよい。   The step of tracking the tracking target may include a step of calculating a feature value of the image related to the tracking target in the captured image and searching for the tracking target by comparing the feature values of the image.

音源方向を推定するステップは、追跡対象の追跡を失敗した場合に、追跡対象が発する音情報を取得して音源方向を推定するステップを含み、撮影方向を調整するステップは、推定した音源方向に応じて撮影方向を調整するステップを含んでよい。   The step of estimating the sound source direction includes a step of estimating sound source direction by acquiring sound information emitted from the tracking target when tracking of the tracking target fails, and the step of adjusting the shooting direction is performed on the estimated sound source direction. Accordingly, a step of adjusting the photographing direction may be included.

音情報における追跡対象に関する音の特徴値を算出するステップを有し、追跡対象を追跡するステップは、音の特徴値によって追跡対象の音源方向を推定し、音源方向に応じて追跡対象を追跡するステップを含んでよい。   A step of calculating a sound feature value related to the tracking target in the sound information, and the step of tracking the tracking target estimates a sound source direction of the tracking target based on the sound feature value and tracks the tracking target according to the sound source direction. Steps may be included.

追跡対象を追跡するステップは、推定した音源方向に応じて撮像画像における追跡対象を探索する領域を限定するステップを含んでよい。   The step of tracking the tracking target may include a step of limiting a region for searching the tracking target in the captured image according to the estimated sound source direction.

追跡対象を追跡するステップは、収音装置により取得した音情報から追跡対象の音成分を抽出し、追跡対象の音成分について音源方向の推定処理を行うステップを含んでよい。   The step of tracking the tracking target may include a step of extracting a sound component of the tracking target from the sound information acquired by the sound collecting device and performing a sound source direction estimation process on the tracking target sound component.

撮影方向を調整するステップは、飛行体の回転翼機構と、撮像装置を支持する支持機構との少なくとも一方の動きを制御するステップを含んでよい。   The step of adjusting the shooting direction may include a step of controlling the movement of at least one of the rotating wing mechanism of the flying object and the support mechanism that supports the imaging device.

飛行制御方法において、追跡対象の候補情報を飛行体と通信を行う端末に送信するステップと、追跡対象の候補情報を端末により受信するステップと、追跡対象の候補を表示部により表示するステップと、追跡対象の設定に関する入力を行うステップと、を有してよい。   In the flight control method, the step of transmitting the tracking target candidate information to a terminal that communicates with the flying object, the step of receiving the tracking target candidate information by the terminal, the step of displaying the tracking target candidate by a display unit, And making an input regarding the setting of the tracking target.

飛行制御方法において、追跡対象の追跡を失敗した場合に、表示部により追跡失敗表示を行うステップ、を有してよい。   The flight control method may include a step of displaying a tracking failure on the display unit when the tracking of the tracking target fails.

一態様において、プログラムは、所定の追跡対象を追跡する飛行体を制御するコンピュータに、追跡対象を撮像装置により撮像するステップと、追跡対象を含む周囲の音を収音装置により収音するステップと、撮像した撮像画像を用いて追跡対象を追跡するステップと、収音した音情報により追跡対象に該当する音源方向を推定するステップと、音源方向の推定結果に基づいて撮像装置による撮影方向を調整するステップと、を実行させるための、プログラムである。   In one aspect, the program captures the tracking object with an imaging device on a computer that controls a flying object that tracks the predetermined tracking object, and collects ambient sounds including the tracking object with a sound collection device. , Tracking the tracking target using the captured image, estimating the sound source direction corresponding to the tracking target from the collected sound information, and adjusting the shooting direction by the imaging device based on the estimation result of the sound source direction And a step for executing the program.

一態様において、記録媒体は、所定の追跡対象を追跡する飛行体を制御するコンピュータに、追跡対象を撮像装置により撮像するステップと、追跡対象を含む周囲の音を収音装置により収音するステップと、撮像した撮像画像を用いて追跡対象を追跡するステップと、収音した音情報により追跡対象に該当する音源方向を推定するステップと、音源方向の推定結果に基づいて撮像装置による撮影方向を調整するステップと、を実行させるためのプログラムを記録したコンピュータ読み取り可能な、記録媒体である。   In one aspect, the recording medium includes a step of capturing an image of the tracking target by an imaging device and a step of collecting a surrounding sound including the tracking target by a sound collecting device on a computer that controls a flying object that tracks the predetermined tracking target. Tracking the tracking target using the captured image, estimating the sound source direction corresponding to the tracking target from the collected sound information, and determining the shooting direction by the imaging device based on the estimation result of the sound source direction. A computer-readable recording medium having recorded thereon a program for executing the adjusting step.

なお、上記の発明の概要は、本開示の特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。   Note that the summary of the invention described above does not enumerate all the features of the present disclosure. In addition, a sub-combination of these feature groups can also be an invention.

実施形態における飛行制御システムの構成例を示す模式図である。It is a mimetic diagram showing the example of composition of the flight control system in an embodiment. 無人飛行体の外観の一例を示す図である。It is a figure which shows an example of the external appearance of an unmanned air vehicle. 無人飛行体のハードウェア構成の一例を示すブロック図である。It is a block diagram which shows an example of the hardware constitutions of an unmanned air vehicle. 端末のハードウェア構成の一例を示すブロック図である。It is a block diagram which shows an example of the hardware constitutions of a terminal. 無人飛行体により追跡対象を追跡する第1の実施形態の様子を模式的に示す図である。It is a figure which shows typically the mode of 1st Embodiment which tracks a tracking object with an unmanned air vehicle. 実施形態における追跡動作の初期設定に関する処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the process sequence regarding the initial setting of the tracking operation | movement in embodiment. 実施形態における追跡動作の初期設定を行うための初期設定画面の一例を示す図である。It is a figure which shows an example of the initial setting screen for performing the initial setting of the tracking operation | movement in embodiment. 第1の実施形態における自動追跡動作の処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the process sequence of the automatic tracking operation | movement in 1st Embodiment. 実施形態における追跡失敗時の処理手順の一例を示すシーケンス図である。It is a sequence diagram which shows an example of the process sequence at the time of tracking failure in embodiment. 実施形態における追跡失敗を通知する通知画面の一例を示す図である。It is a figure which shows an example of the notification screen which notifies tracking failure in embodiment. 実施形態における追跡対象の再設定時の確認画面の一例を示す図である。It is a figure which shows an example of the confirmation screen at the time of the reset of the tracking object in embodiment. 無人飛行体により追跡対象を追跡する第2の実施形態の様子を模式的に示す図である。It is a figure which shows typically the mode of 2nd Embodiment which tracks a tracking object with an unmanned air vehicle. 第2の実施形態における自動追跡動作の処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the process sequence of the automatic tracking operation | movement in 2nd Embodiment.

以下、発明の実施の形態を通じて本開示を説明するが、以下の実施の形態は特許請求の範囲に係る発明を限定するものではない。実施の形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須とは限らない。   Hereinafter, although this indication is explained through an embodiment of the invention, the following embodiment does not limit the invention concerning a claim. Not all combinations of features described in the embodiments are essential for the solution of the invention.

特許請求の範囲、明細書、図面、及び要約書には、著作権による保護の対象となる事項が含まれる。著作権者は、これらの書類の何人による複製に対しても、特許庁のファイル又はレコードに表示される通りであれば異議を唱えない。但し、それ以外の場合、一切の著作権を留保する。   The claims, the description, the drawings, and the abstract include matters subject to copyright protection. The copyright owner will not object to any number of copies of these documents as they appear in the JPO file or record. However, in other cases, all copyrights are reserved.

本開示に係る飛行制御方法は、飛行体の飛行を制御するための情報処理装置における各種の処理(ステップ)が規定されたものである。飛行体は、空中を移動する航空機(例えばドローン、ヘリコプター)を含む。飛行体は、無人飛行体(UAV:Unmanned Aerial Vehicle)であってもよい。飛行体は、空中撮影、物の運搬、或いは農薬、肥料、水等の散布作業等の飛行を伴う各種作業を行うためにあらかじめ設定された飛行経路に沿って飛行する。飛行体は、自動追跡動作を行う際、設定された追跡対象を追跡しながら飛行する。   In the flight control method according to the present disclosure, various processes (steps) in the information processing apparatus for controlling the flight of the flying object are defined. The flying object includes an aircraft (eg, drone, helicopter) that moves in the air. The flying vehicle may be an unmanned aerial vehicle (UAV). The flying object flies along a predetermined flight path in order to perform various operations involving flying such as aerial photography, transportation of objects, or spraying work of agricultural chemicals, fertilizers, water and the like. When performing the automatic tracking operation, the flying object flies while tracking the set tracking target.

本開示に係る情報処理装置は、コンピュータであって、例えば飛行体自体に情報処理装置が含まれてよい。本開示に係る情報処理装置は、飛行体の移動を含む各種処理の遠隔制御を指示するための送信機、又は送信機との間で情報やデータの入出力が可能に接続された端末装置、若しくは飛行体との間で情報やデータの入出力が可能に接続された端末装置など、各種の端末(プラットフォーム)を含む。端末は、例えばPC、タブレット端末、携帯端末などであってよい。   The information processing apparatus according to the present disclosure is a computer, and the information processing apparatus may be included in the flying object itself, for example. An information processing apparatus according to the present disclosure includes a transmitter for instructing remote control of various processes including movement of a flying object, or a terminal device connected to be able to input and output information and data with the transmitter, Alternatively, various terminals (platforms) such as a terminal device connected so as to be able to input and output information and data with the flying object are included. The terminal may be a PC, a tablet terminal, a portable terminal, or the like, for example.

本開示に係るプログラムは、情報処理装置に各種の処理(ステップ)を実行させるためのプログラムである。   The program according to the present disclosure is a program for causing an information processing apparatus to execute various processes (steps).

本開示に係る記録媒体は、プログラム(つまり、情報処理装置に各種の処理(ステップ)を実行させるためのプログラム)が記録されたものである。   The recording medium according to the present disclosure stores a program (that is, a program for causing an information processing apparatus to execute various processes (steps)).

本開示に係る飛行制御システムは、移動体の一例としての飛行体と、飛行体の動作又は処理を遠隔で制御するための端末(プラットフォーム)とを含む構成である。本開示に係る飛行制御システムは、飛行体単体で追跡対象を追跡して飛行する構成であってよい。   The flight control system according to the present disclosure includes a flying object as an example of a moving object and a terminal (platform) for remotely controlling the operation or processing of the flying object. The flight control system according to the present disclosure may be configured to track and track a tracking target with a single flying object.

以下に示す本開示に係る各実施形態において、飛行体として、無人飛行体(UAV)を例示する。本明細書に添付する図面では、無人飛行体を「UAV」と表記する。以下に示す各実施形態において、飛行体は、追跡対象を設定し、追跡対象に追従して位置を移動させながら飛行する。   In each embodiment according to the present disclosure described below, an unmanned aerial vehicle (UAV) is illustrated as a flying object. In the drawings attached to this specification, an unmanned air vehicle is denoted as “UAV”. In each embodiment described below, the flying object sets a tracking target and flies while moving the position following the tracking target.

以下に示す各実施形態において、情報処理装置は、飛行体において、追跡対象の特徴値として、画像情報、音情報などを含む特徴値情報を生成、取得、変更が可能である。情報処理装置は、飛行体において、飛行開始位置、飛行終了位置、飛行経路上の所定位置、飛行高度、飛行速度などのうち、少なくとも一つを含む飛行位置の情報を生成、取得、変更が可能である。端末に情報処理装置が含まれる場合、情報処理装置は飛行体と通信可能であり、追跡対象の特徴値情報、飛行体の飛行位置の情報を飛行体に伝送可能である。ここにいう「通信」とは、データ通信全般を含む広い概念であり、ケーブルなどにより有線接続する場合だけでなく、無線通信によって接続する場合も含まれる。また、情報処理装置が飛行体と直接通信する場合だけでなく、送信機又は記憶媒体を介して間接的に通信を行う場合も含まれる。   In each embodiment described below, the information processing apparatus can generate, acquire, and change feature value information including image information, sound information, and the like as a tracking target feature value in the flying object. The information processing device can generate, acquire, and change flight position information including at least one of the flight start position, flight end position, predetermined position on the flight path, flight altitude, flight speed, etc. It is. When the information processing device is included in the terminal, the information processing device can communicate with the flying object, and can transmit the characteristic value information of the tracking target and the flight position information of the flying object to the flying object. Here, “communication” is a broad concept including data communication in general, and includes not only a case where a wired connection is made by a cable or the like but also a case where a connection is made by wireless communication. In addition to the case where the information processing apparatus directly communicates with the flying object, the case where the information processing apparatus communicates indirectly via a transmitter or a storage medium is also included.

図1は、実施形態における飛行制御システム10の構成例を示す模式図である。飛行制御システム10は、無人飛行体100及び端末50を含む。無人飛行体100及び端末50は、有線通信又は無線通信(例えば無線LAN(Local Area Network)、又はBluetooth(登録商標))を用いて、互いに通信することが可能である。端末50は、例えば端末50を使用する人物(以下、「ユーザ」という)の両手で把持された状態で使用される。端末50は、例えば送信機、タブレット端末、携帯端末、PCなどであってよい。端末50は、送信機にタブレット端末又は携帯端末が装着され互いに通信可能に設けられた構成であってよい。   Drawing 1 is a mimetic diagram showing the example of composition of flight control system 10 in an embodiment. The flight control system 10 includes an unmanned air vehicle 100 and a terminal 50. The unmanned air vehicle 100 and the terminal 50 can communicate with each other using wired communication or wireless communication (for example, a wireless local area network (LAN) or Bluetooth (registered trademark)). The terminal 50 is used in a state of being held by both hands of a person who uses the terminal 50 (hereinafter referred to as “user”), for example. The terminal 50 may be a transmitter, a tablet terminal, a portable terminal, a PC, or the like, for example. The terminal 50 may have a configuration in which a tablet terminal or a portable terminal is attached to a transmitter so that they can communicate with each other.

図2は、無人飛行体100の外観の一例を示す図である。無人飛行体100は、撮像部の一例としての撮像装置220を備えて移動する移動体の一例である。移動体とは、無人飛行体100の他、空中を移動する他の航空機、地上を移動する車両、水上を移動する船舶等を含む概念である。ここで、図2に示すように、地面と平行であって移動方向STV0に沿う方向にロール軸(図2のx軸参照)が定義されたとする。この場合、地面と平行であってロール軸に垂直な方向にピッチ軸(図2のy軸参照)が定められ、更に、地面に垂直であってロール軸及びピッチ軸に垂直な方向にヨー軸(図2のz軸)が定められる。   FIG. 2 is a diagram illustrating an example of the appearance of the unmanned air vehicle 100. The unmanned aerial vehicle 100 is an example of a moving body that includes an imaging device 220 as an example of an imaging unit and moves. The moving body is a concept including, in addition to the unmanned air vehicle 100, other aircraft that moves in the air, vehicles that move on the ground, ships that move on the water, and the like. Here, as shown in FIG. 2, it is assumed that a roll axis (see the x-axis in FIG. 2) is defined in a direction parallel to the ground and along the moving direction STV0. In this case, the pitch axis (see the y-axis in FIG. 2) is defined in a direction parallel to the ground and perpendicular to the roll axis, and further, the yaw axis is perpendicular to the ground and perpendicular to the roll axis and the pitch axis. (Z-axis in FIG. 2) is defined.

無人飛行体100は、UAV本体102と、回転翼機構210と、撮像装置220と、ジンバル230と、収音装置180とを含む構成である。無人飛行体100は、例えば端末50から送信される遠隔制御の指示を基に移動することができる。無人飛行体100の移動は、飛行を意味し、少なくとも上昇、降下、左旋回、右旋回、左水平移動、右水平移動の飛行が含まれる。   The unmanned air vehicle 100 includes a UAV main body 102, a rotary wing mechanism 210, an imaging device 220, a gimbal 230, and a sound collection device 180. The unmanned air vehicle 100 can move based on a remote control instruction transmitted from the terminal 50, for example. The movement of the unmanned air vehicle 100 means a flight, and includes at least ascending, descending, left turning, right turning, left horizontal movement, and right horizontal movement.

無人飛行体100は、複数の回転翼機構(プロペラ)210を備える。無人飛行体100は、例えば4つの回転翼機構210を備える。無人飛行体100は、これら回転翼機構210の回転を制御することにより無人飛行体100を移動させる。ただし、回転翼の数は、4つに限定されない。また、無人飛行体100は、回転翼を有さない固定翼機でよい。   The unmanned air vehicle 100 includes a plurality of rotary wing mechanisms (propellers) 210. The unmanned air vehicle 100 includes, for example, four rotary wing mechanisms 210. The unmanned aerial vehicle 100 moves the unmanned aerial vehicle 100 by controlling the rotation of the rotary wing mechanism 210. However, the number of rotor blades is not limited to four. The unmanned air vehicle 100 may be a fixed wing aircraft that does not have rotating wings.

撮像装置220は、所望の撮像範囲に含まれる被写体(例えば人物、車両など)を撮像するカメラである。撮像装置220は、支持機構の一例であるジンバル230に取り付けられ、ジンバル230の動きによって撮像範囲が調節される。   The imaging device 220 is a camera that images a subject (for example, a person, a vehicle, etc.) included in a desired imaging range. The imaging device 220 is attached to a gimbal 230 that is an example of a support mechanism, and the imaging range is adjusted by the movement of the gimbal 230.

収音装置180は、被写体を含む撮像範囲の周辺の音を収音するマイクロホンである。収音装置180は、複数のマイクロホンを有するマイクアレイでよい。   The sound collection device 180 is a microphone that collects sound around the imaging range including the subject. The sound collection device 180 may be a microphone array having a plurality of microphones.

次に、無人飛行体100の構成例について説明する。   Next, a configuration example of the unmanned air vehicle 100 will be described.

図3は、無人飛行体100のハードウェア構成の一例を示すブロック図である。無人飛行体100は、制御部110と、通信インタフェース150と、メモリ160と、ストレージ170と、収音装置180と、バッテリ190と、回転翼機構210と、撮像装置220と、ジンバル230と、GPS受信機240と、慣性計測装置250と、磁気コンパス260と、気圧高度計270と、超音波センサ280とを含む構成である。   FIG. 3 is a block diagram illustrating an example of a hardware configuration of the unmanned air vehicle 100. The unmanned air vehicle 100 includes a control unit 110, a communication interface 150, a memory 160, a storage 170, a sound collection device 180, a battery 190, a rotary wing mechanism 210, an imaging device 220, a gimbal 230, and a GPS. The configuration includes a receiver 240, an inertial measurement device 250, a magnetic compass 260, a barometric altimeter 270, and an ultrasonic sensor 280.

制御部110は、プロセッサ、例えばCPU(Central Processing Unit)、MPU(Micro Processing Unit)又はDSP(Digital Signal Processor)を用いて構成される。制御部110は、無人飛行体100の各部の動作を統括して制御するための信号処理、他の各部との間のデータの入出力処理、データの演算処理及びデータの記憶処理を行う。制御部110は、無人飛行体100において飛行の制御に関する処理を実行する機能を有する。   The control unit 110 is configured using a processor, for example, a CPU (Central Processing Unit), an MPU (Micro Processing Unit), or a DSP (Digital Signal Processor). The control unit 110 performs signal processing for overall control of operations of each unit of the unmanned air vehicle 100, data input / output processing with other units, data calculation processing, and data storage processing. The control unit 110 has a function of executing processing related to flight control in the unmanned air vehicle 100.

制御部110は、メモリ160又はストレージ170に格納されたプログラムに従って無人飛行体100の飛行を制御する。また、制御部110は、通信インタフェース150を介して遠隔の端末50から受信した命令に従って、無人飛行体100の移動(つまり、飛行)を制御する。   The control unit 110 controls the flight of the unmanned air vehicle 100 according to a program stored in the memory 160 or the storage 170. Further, the control unit 110 controls the movement (that is, the flight) of the unmanned air vehicle 100 in accordance with a command received from the remote terminal 50 via the communication interface 150.

制御部110は、回転翼機構210を制御することで、無人飛行体100の飛行を制御する。つまり、制御部110は、回転翼機構210を制御することにより、無人飛行体100の緯度、経度、及び高度を含む位置、並びに向きを制御する。制御部110は、GPS受信機240、慣性計測装置250、磁気コンパス260、気圧高度計270、超音波センサ280のうちの少なくとも一つにより取得される位置情報に基づき、回転翼機構210を制御する。   The control unit 110 controls the flight of the unmanned air vehicle 100 by controlling the rotary wing mechanism 210. That is, the control unit 110 controls the position and direction of the unmanned air vehicle 100 including the latitude, longitude, and altitude by controlling the rotary wing mechanism 210. The control unit 110 controls the rotary wing mechanism 210 based on position information acquired by at least one of the GPS receiver 240, the inertial measurement device 250, the magnetic compass 260, the barometric altimeter 270, and the ultrasonic sensor 280.

制御部110は、例えば撮像装置220の撮像方向を示す情報として、ジンバル230から撮像装置220の姿勢の状態を示す姿勢情報を取得する。撮像装置220の姿勢の状態を示す情報は、ジンバル230のピッチ軸及びヨー軸の基準回転角度からの回転角度を示す。制御部110は、無人飛行体100の向きを示す情報を取得する。   The control unit 110 acquires posture information indicating the posture state of the imaging device 220 from the gimbal 230 as information indicating the imaging direction of the imaging device 220, for example. The information indicating the posture state of the imaging device 220 indicates a rotation angle from the reference rotation angle of the pitch axis and yaw axis of the gimbal 230. The control unit 110 acquires information indicating the direction of the unmanned air vehicle 100.

制御部110は、撮像装置220及びジンバル230を制御する。制御部110は、撮像装置220の撮像方向又は画角を変更することによって、撮像装置220の撮像範囲を制御する。制御部110は、ジンバル230の回転機構を制御することで、ジンバル230に支持されている撮像装置220の撮像範囲を制御する。   The control unit 110 controls the imaging device 220 and the gimbal 230. The control unit 110 controls the imaging range of the imaging device 220 by changing the imaging direction or angle of view of the imaging device 220. The control unit 110 controls the imaging range of the imaging device 220 supported by the gimbal 230 by controlling the rotation mechanism of the gimbal 230.

制御部110は、撮像装置220により撮像された被写体の画像データ(以下、「撮像画像」と称する場合がある)を取得する。   The control unit 110 acquires image data of a subject imaged by the imaging device 220 (hereinafter sometimes referred to as “captured image”).

制御部110は、収音装置180により収音された被写体及び周辺の音情報を取得する。   The control unit 110 acquires sound information of the subject and surroundings collected by the sound collection device 180.

通信インタフェース150は、通信部の一例であり、端末50と通信する。通信インタフェース150は、端末50からの追跡対象、飛行経路等に関する各種の情報を受信する。通信インタフェース150は、端末50からの制御部110に対する各種の命令を受信する。   The communication interface 150 is an example of a communication unit and communicates with the terminal 50. The communication interface 150 receives various types of information regarding the tracking target, the flight path, and the like from the terminal 50. The communication interface 150 receives various commands from the terminal 50 to the control unit 110.

メモリ160は、記憶部の一例である。メモリ160は、制御部110が回転翼機構210、撮像装置220、ジンバル230、GPS受信機240、慣性計測装置250、磁気コンパス260、気圧高度計270、超音波センサ280、通信インタフェース150、ストレージ170、及び収音装置180を制御するのに必要なプログラム等を格納する。メモリ160は、制御部110の処理時に使用される各種の情報やデータを保存する。メモリ160は、コンピュータ読み取り可能な記録媒体でよく、SRAM(Static Random Access Memory)、DRAM(Dynamic Random Access Memory)、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read-Only Memory)、及びUSBメモリ等のフラッシュメモリの少なくとも1つを含んでよい。メモリ160は、無人飛行体100の内部に設けられてよいし、無人飛行体100から取り外し可能に設けられてよい。メモリ160には、追跡対象の特徴値情報などを含む追跡情報を保存してよい。   The memory 160 is an example of a storage unit. In the memory 160, the control unit 110 includes a rotary blade mechanism 210, an imaging device 220, a gimbal 230, a GPS receiver 240, an inertial measurement device 250, a magnetic compass 260, a barometric altimeter 270, an ultrasonic sensor 280, a communication interface 150, a storage 170, And a program necessary for controlling the sound collecting device 180 is stored. The memory 160 stores various types of information and data used during processing by the control unit 110. The memory 160 may be a computer-readable recording medium, such as SRAM (Static Random Access Memory), DRAM (Dynamic Random Access Memory), EPROM (Erasable Programmable Read Only Memory), EEPROM (Electrically Erasable Programmable Read-Only Memory), and It may include at least one flash memory such as a USB memory. The memory 160 may be provided inside the unmanned aerial vehicle 100 or may be detachable from the unmanned aerial vehicle 100. The memory 160 may store tracking information including feature value information of the tracking target.

ストレージ170は、記憶部の一例である。ストレージ170は、各種データ、情報を蓄積し、保持する。ストレージ170は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、メモリカード、USBメモリ、等でよい。ストレージ170は、無人飛行体100の内部に設けられてよいし、無人飛行体100から取り外し可能に設けられてよい。   The storage 170 is an example of a storage unit. The storage 170 accumulates and holds various data and information. The storage 170 may be an HDD (Hard Disk Drive), an SSD (Solid State Drive), a memory card, a USB memory, or the like. The storage 170 may be provided inside the unmanned aerial vehicle 100 or may be detachable from the unmanned aerial vehicle 100.

収音装置180は、複数のマイクロホンが列状に配置されたマイクアレイを含む。収音装置180は、例えば、2つ以上のマイクロホンと、各マイクロホンにて収音した音信号を処理する信号処理回路とを含んでよい。収音装置180は、追跡対象の音源方向の推定のために、追跡対象を含む周囲の音を収音し、複数のマイクロホンにてそれぞれ収音した追跡対象を含む被写体の音信号の情報を取得する。   The sound collection device 180 includes a microphone array in which a plurality of microphones are arranged in a line. The sound collection device 180 may include, for example, two or more microphones and a signal processing circuit that processes a sound signal collected by each microphone. The sound collection device 180 collects surrounding sounds including the tracking target to estimate the sound source direction of the tracking target, and acquires information on the sound signal of the subject including the tracking target collected by a plurality of microphones. To do.

バッテリ190は、無人飛行体100の各部の駆動源としての機能を有し、無人飛行体100の各部に必要な電源を供給する。   The battery 190 has a function as a drive source for each part of the unmanned air vehicle 100 and supplies necessary power to each part of the unmanned air vehicle 100.

回転翼機構210は、複数の回転翼と、複数の回転翼を回転させる複数の駆動モータとを有する。回転翼機構210は、回転翼を回転させることにより、特定の方向の気流を生じさせ、無人飛行体100の飛行(上昇、下降、水平移動、旋回、傾斜等)を制御する。   The rotary blade mechanism 210 includes a plurality of rotary blades and a plurality of drive motors that rotate the plurality of rotary blades. The rotary wing mechanism 210 generates airflow in a specific direction by rotating the rotary wing, and controls the flight (ascending, descending, horizontally moving, turning, tilting, etc.) of the unmanned air vehicle 100.

撮像装置220は、所望の撮像範囲の被写体を撮像して撮像画像のデータを生成する。撮像画像は動画であってもよく、静止画であってよい。撮像装置220の撮像により得られた画像データは、撮像装置220が有するメモリ又はメモリ160、ストレージ170などに格納される。   The imaging device 220 captures a subject within a desired imaging range and generates captured image data. The captured image may be a moving image or a still image. Image data obtained by imaging by the imaging device 220 is stored in the memory or the memory 160, the storage 170, or the like included in the imaging device 220.

ジンバル230は、撮像装置220を支持する支持機構の一例であり、少なくとも1つの軸を中心に撮像装置220を回転可能に支持する。ジンバル230は、ヨー軸、ピッチ軸、及びロール軸を中心に撮像装置220を回転可能に支持してよい。ジンバル230は、ヨー軸、ピッチ軸、及びロール軸の少なくとも1つを中心に撮像装置220を回転させることで、撮像装置220の撮像方向を変更してよい。   The gimbal 230 is an example of a support mechanism that supports the imaging device 220, and supports the imaging device 220 so as to be rotatable about at least one axis. The gimbal 230 may support the imaging device 220 rotatably about the yaw axis, pitch axis, and roll axis. The gimbal 230 may change the imaging direction of the imaging device 220 by rotating the imaging device 220 about at least one of the yaw axis, the pitch axis, and the roll axis.

GPS受信機240は、複数の航法衛星(つまり、GPS衛星)から発信された時刻及び各GPS衛星の位置(座標)を示す複数の信号を受信する。GPS受信機240は、受信された複数の信号に基づいて、GPS受信機240の位置(つまり、無人飛行体100の位置)を算出する。GPS受信機240は、無人飛行体100の位置情報を制御部110に出力する。なお、GPS受信機240の位置情報の算出は、GPS受信機240の代わりに制御部110により行われてよい。この場合、制御部110には、GPS受信機240が受信した複数の信号に含まれる時刻及び各GPS衛星の位置を示す情報が入力される。   The GPS receiver 240 receives a plurality of signals indicating times and positions (coordinates) of each GPS satellite transmitted from a plurality of navigation satellites (that is, GPS satellites). The GPS receiver 240 calculates the position of the GPS receiver 240 (that is, the position of the unmanned air vehicle 100) based on the received signals. The GPS receiver 240 outputs position information of the unmanned air vehicle 100 to the control unit 110. The calculation of the position information of the GPS receiver 240 may be performed by the control unit 110 instead of the GPS receiver 240. In this case, information indicating the time and the position of each GPS satellite included in the plurality of signals received by the GPS receiver 240 is input to the control unit 110.

慣性計測装置(IMU:Inertial Measurement Unit)250は、無人飛行体100の姿勢を検出し、検出結果を制御部110に出力する。慣性計測装置250は、無人飛行体100の姿勢として、無人飛行体100の前後、左右、及び上下の3軸方向の加速度と、ピッチ軸、ロール軸、及びヨー軸の3軸方向の角速度とを検出する。   An inertial measurement unit (IMU) 250 detects the attitude of the unmanned air vehicle 100 and outputs the detection result to the control unit 110. The inertial measurement device 250 uses, as the attitude of the unmanned aerial vehicle 100, accelerations in the three axial directions of the front and rear, left and right, and up and down of the unmanned aerial vehicle 100, and angular velocities in the three axial directions of the pitch axis, roll axis, and yaw axis. To detect.

磁気コンパス260は、無人飛行体100の機首の方位を検出し、検出結果を制御部110に出力する。気圧高度計270は、無人飛行体100が飛行する高度を検出し、検出結果を制御部110に出力する。超音波センサ280は、超音波を照射し、地面や物体により反射された超音波を検出し、検出結果を制御部110に出力する。検出結果は、例えば無人飛行体100から地面までの距離(つまり、高度)を示す。検出結果は、例えば無人飛行体100から物体までの距離を示してよい。   The magnetic compass 260 detects the nose direction of the unmanned air vehicle 100 and outputs the detection result to the control unit 110. Barometric altimeter 270 detects the altitude at which unmanned air vehicle 100 flies, and outputs the detection result to control unit 110. The ultrasonic sensor 280 emits ultrasonic waves, detects ultrasonic waves reflected by the ground or an object, and outputs the detection result to the control unit 110. A detection result shows the distance (namely, altitude) from unmanned air vehicle 100 to the ground, for example. The detection result may indicate a distance from the unmanned air vehicle 100 to the object, for example.

次に、無人飛行体100の制御部110の機能の一例について説明する。
制御部110は、撮像装置220により撮像された撮像画像の画像データ中の被写体において、所定の追跡対象の追跡に関する処理を行う追跡部111と、収音装置180により取得された音情報のデータ(音データ)に基づいて所定の音源方向の推定に関する処理を行う音源方向推定部112とを含む。
Next, an example of the function of the control unit 110 of the unmanned air vehicle 100 will be described.
The control unit 110 includes a tracking unit 111 that performs processing related to tracking of a predetermined tracking target in a subject in the image data of the captured image captured by the imaging device 220, and sound information data ( A sound source direction estimation unit 112 that performs processing related to estimation of a predetermined sound source direction based on sound data.

追跡部111は、設定された追跡対象を追跡するよう無人飛行体100を移動させ、追跡対象を撮像装置220にて撮像可能なように、回転翼機構210、撮像装置220及びジンバル230を制御する。追跡部111は、撮像装置220にて取得した撮像画像を用いて追跡対象を追跡する。追跡部111は、撮像装置220にて撮像した撮像画像において追跡対象の特徴値の算出、比較、更新を行い、追跡対象を探索する。追跡部111は、動画像の撮像画像において、以前のフレームの追跡対象の特徴値と現在のフレームの特徴値とを比較し、特徴値が一致する追跡対象を探索する。   The tracking unit 111 moves the unmanned air vehicle 100 to track the set tracking target, and controls the rotary wing mechanism 210, the imaging device 220, and the gimbal 230 so that the imaging device 220 can capture the tracking target. . The tracking unit 111 tracks the tracking target using the captured image acquired by the imaging device 220. The tracking unit 111 calculates, compares, and updates the characteristic value of the tracking target in the captured image captured by the imaging device 220 and searches for the tracking target. The tracking unit 111 compares the feature value of the tracking target of the previous frame with the feature value of the current frame in the captured image of the moving image, and searches for a tracking target having the same feature value.

音源方向推定部112は、収音装置180にて取得した音データから、追跡対象が発する音と環境音とを分離し、各マイクロホンにて取得した追跡対象の音の位相情報を取得し、追跡対象に該当する音源の方向を推定する。   The sound source direction estimating unit 112 separates the sound emitted from the tracking target and the environmental sound from the sound data acquired by the sound collecting device 180, acquires the phase information of the tracking target sound acquired by each microphone, and tracks it. Estimate the direction of the sound source corresponding to the target.

追跡部111は、推定された音源方向に基づいて、撮像装置220及びジンバル230を制御し、例えば音源方向に応じて追跡対象に向かうように撮像装置220の撮影方向を調整する。   The tracking unit 111 controls the imaging device 220 and the gimbal 230 based on the estimated sound source direction, and adjusts the imaging direction of the imaging device 220 so as to be directed to the tracking target according to the sound source direction, for example.

次に、端末50の構成例について説明する。   Next, a configuration example of the terminal 50 will be described.

図4は、端末50のハードウェア構成の一例を示すブロック図である。端末50は、処理部51と、メモリ52と、無線通信部53と、表示部54と、操作部55と、インタフェース部56と、ストレージ57と、バッテリ58とを含む構成である。端末50は、無人飛行体100を遠隔制御するための指示を送信する操作端末の機能を持つ情報処理装置の一例である。端末50は、無人飛行体100の飛行に関する各種の情報やデータの入出力を行う設定端末の機能を持つ情報処理装置の一例である。なお、端末50は、送信機とタブレット端末又は携帯端末とが互いに接続された別体の構成であってよい。   FIG. 4 is a block diagram illustrating an example of a hardware configuration of the terminal 50. The terminal 50 includes a processing unit 51, a memory 52, a wireless communication unit 53, a display unit 54, an operation unit 55, an interface unit 56, a storage 57, and a battery 58. The terminal 50 is an example of an information processing apparatus having a function of an operation terminal that transmits an instruction for remotely controlling the unmanned air vehicle 100. The terminal 50 is an example of an information processing apparatus having a function of a setting terminal that inputs and outputs various information and data related to the flight of the unmanned air vehicle 100. Note that the terminal 50 may have a separate configuration in which a transmitter and a tablet terminal or a mobile terminal are connected to each other.

処理部51は、プロセッサ(例えばCPU、MPU又はDSP)を用いて構成される。処理部51は、端末50の各部の動作を統括して制御するための信号処理、他の各部との間のデータの入出力処理、データの演算処理及びデータの記憶処理を行う。   The processing unit 51 is configured using a processor (for example, a CPU, MPU, or DSP). The processing unit 51 performs signal processing for overall control of operations of each unit of the terminal 50, data input / output processing with other units, data calculation processing, and data storage processing.

処理部51は、無線通信部53を介して、無人飛行体100からのデータや情報を取得してよい。処理部51は、インタフェース部56を介して、他の装置からのデータや情報を取得してよい。処理部51は、操作部55を介して入力されたデータや情報を取得してよい。処理部51は、メモリ52に保持されたデータや情報を取得してよい。処理部51は、データや情報を表示部54に送り、このデータや情報に基づく表示情報を表示部54に表示させてよい。処理部51は、データや情報をストレージ57に送り、このデータや情報を格納してよい。処理部51は、ストレージ57に格納されたデータや情報を取得してよい。   The processing unit 51 may acquire data and information from the unmanned air vehicle 100 via the wireless communication unit 53. The processing unit 51 may acquire data and information from other devices via the interface unit 56. The processing unit 51 may acquire data and information input via the operation unit 55. The processing unit 51 may acquire data and information held in the memory 52. The processing unit 51 may send data and information to the display unit 54 and cause the display unit 54 to display display information based on the data and information. The processing unit 51 may send data and information to the storage 57 and store the data and information. The processing unit 51 may acquire data and information stored in the storage 57.

処理部51は、操作部55の操作入力に基づき、例えば追跡対象を含む画像領域の設定など、追跡対象の設定に関する設定入力を行ってよい。   Based on the operation input of the operation unit 55, the processing unit 51 may perform setting input related to setting of the tracking target such as setting of an image area including the tracking target.

処理部51は、操作部55の操作入力に基づき、無人飛行体100の移動を遠隔制御するための操作信号を生成してよい。処理部51は、生成した操作信号を移動制御用の命令として、無線通信部53を介して無人飛行体100に送信し、無人飛行体100を遠隔制御してよい。   The processing unit 51 may generate an operation signal for remotely controlling the movement of the unmanned air vehicle 100 based on the operation input of the operation unit 55. The processing unit 51 may transmit the generated operation signal as a movement control command to the unmanned aerial vehicle 100 via the wireless communication unit 53 to remotely control the unmanned aerial vehicle 100.

処理部51は、表示部54に表示する設定画面、操作画面、通知画面、確認画面のうちの少なくとも一つの表示画面を生成してよい。   The processing unit 51 may generate at least one display screen among a setting screen, an operation screen, a notification screen, and a confirmation screen to be displayed on the display unit 54.

メモリ52は、記憶部の一例である。メモリ52は、例えば、処理部51の動作を規定するプログラムや設定値のデータが格納されたROM(Read Only Memory)と、処理部51の処理時に使用される各種の情報やデータを一時的に保存するRAM(Random Access Memory)とを有する。メモリ52のROMに格納されたプログラムや設定値のデータは、所定の記録媒体(例えばCD−ROM、DVD−ROM)にコピーされてよい。   The memory 52 is an example of a storage unit. The memory 52 temporarily stores, for example, a ROM (Read Only Memory) in which a program that defines the operation of the processing unit 51 and data of setting values are stored, and various types of information and data that are used when the processing unit 51 performs processing. RAM (Random Access Memory) to be stored. The program and setting value data stored in the ROM of the memory 52 may be copied to a predetermined recording medium (for example, CD-ROM, DVD-ROM).

無線通信部53は、通信部の一例であり、アンテナを介して、各種の無線通信方式により、無人飛行体100との間で通信し、情報やデータの送受信を行う。無線通信方式は、例えば、無線LAN、Bluetooth(登録商標)、近距離無線通信、又は公衆無線回線を介した通信を含んでよい。無線通信部53は、他の装置との間で通信を行って情報やデータを送受信してよい。   The wireless communication unit 53 is an example of a communication unit, and communicates with the unmanned air vehicle 100 and transmits / receives information and data via various antennas via an antenna. The wireless communication method may include, for example, wireless LAN, Bluetooth (registered trademark), short-range wireless communication, or communication via a public wireless line. The wireless communication unit 53 may transmit and receive information and data by communicating with other devices.

表示部54は、例えばLCD(Liquid Crystal Display)又は有機EL(ElectroLuminescence)ディスプレイを用いて構成され、表示画面において、処理部51から出力された各種の情報やデータを表示する。表示部54は、設定画面、操作画面、通知画面、確認画面のうちの少なくとも一つの表示画面を表示してよい。表示部54は、例えばLED(Light Emission Diode)を用いた表示ランプを有してよい。表示ランプは、例えば、無人飛行体100と端末50との無線の接続状態、無人飛行体100の起動状態、無人飛行体100又は端末50のバッテリの容量の残量のうち、少なくとも一つを表示してよい。   The display unit 54 is configured using, for example, an LCD (Liquid Crystal Display) or an organic EL (ElectroLuminescence) display, and displays various information and data output from the processing unit 51 on the display screen. The display unit 54 may display at least one display screen among a setting screen, an operation screen, a notification screen, and a confirmation screen. The display unit 54 may include a display lamp using, for example, an LED (Light Emission Diode). The display lamp displays at least one of, for example, a wireless connection state between the unmanned air vehicle 100 and the terminal 50, an activated state of the unmanned air vehicle 100, and a remaining capacity of the battery of the unmanned air vehicle 100 or the terminal 50. You can do it.

操作部55は、端末50を保持するユーザにより入力される操作指示、又はデータや情報を受け付ける。操作部55は、ジョイスティック、ボタン、キー、タッチパネル、マイクロホン、等を含んでよい。操作部55は、例えば、ユーザによる無人飛行体100の移動を遠隔で制御(例えば、無人飛行体100の前後移動、左右移動、上下移動、向き変更)するための操作において使用される。操作部55は、例えば、追跡対象に関する設定入力をする操作において使用される。操作部55は、例えば、追跡対象の確認、追跡開始の指示などの操作において使用される。   The operation unit 55 receives an operation instruction, data, or information input by a user holding the terminal 50. The operation unit 55 may include a joystick, a button, a key, a touch panel, a microphone, and the like. The operation unit 55 is used, for example, in an operation for remotely controlling the movement of the unmanned air vehicle 100 by the user (for example, moving the unmanned air vehicle 100 back and forth, moving left and right, moving up and down, and changing the direction). The operation unit 55 is used, for example, in an operation for inputting a setting regarding a tracking target. The operation unit 55 is used in operations such as confirmation of a tracking target and an instruction to start tracking, for example.

インタフェース部56は、端末50と他の装置との間の情報やデータの入出力を行う。インタフェース部56は、例えば端末50に設けられたUSBポート(不図示)でよい。インタフェース部56は、USBポート以外のインタフェースでもよい。   The interface unit 56 inputs and outputs information and data between the terminal 50 and other devices. The interface unit 56 may be a USB port (not shown) provided in the terminal 50, for example. The interface unit 56 may be an interface other than the USB port.

ストレージ57は、記憶部の一例である。ストレージ57は、各種データ、情報を蓄積し、保持する。ストレージ57は、フラッシュメモリ、SSD(Solid State Drive)、メモリカード、USBメモリ、等でよい。ストレージ57は、端末50の本体から取り外し可能に設けられてよい。   The storage 57 is an example of a storage unit. The storage 57 stores and holds various data and information. The storage 57 may be a flash memory, an SSD (Solid State Drive), a memory card, a USB memory, or the like. The storage 57 may be provided so as to be removable from the main body of the terminal 50.

バッテリ58は、端末50の各部の駆動源としての機能を有し、端末50の各部に必要な電源を供給する。   The battery 58 has a function as a drive source for each part of the terminal 50 and supplies necessary power to each part of the terminal 50.

次に、無人飛行体100による追跡動作について説明する。   Next, the tracking operation by the unmanned air vehicle 100 will be described.

(第1の実施形態)
図5は、無人飛行体により追跡対象を追跡する第1の実施形態の様子を模式的に示す図である。第1の実施形態では、人物を追跡対象として追跡して撮像する例を示す。無人飛行体100は、撮像装置220によって人物410を被写体として撮像し、撮像画像中の人物を追跡対象に設定する。無人飛行体100は、設定した追跡対象を継続して撮像するように、ジンバル230によって撮像装置220を回転させ、撮影方向を調整する。このとき、ジンバル230は、例えば、ヨー軸を中心とした水平方向Dh、ピッチ軸を中心とした垂直方向Dvに、それぞれ撮像装置220を回転させる。無人飛行体100は、追跡対象の人物410の移動に応じて、回転翼機構210を制御し、無人飛行体100の位置を追従させる。
(First embodiment)
FIG. 5 is a diagram schematically illustrating a state of the first embodiment in which a tracking target is tracked by an unmanned air vehicle. In the first embodiment, an example in which a person is tracked as a tracking target and captured is shown. The unmanned aerial vehicle 100 images the person 410 as a subject by the imaging device 220, and sets the person in the captured image as a tracking target. The unmanned air vehicle 100 adjusts the shooting direction by rotating the imaging device 220 with the gimbal 230 so as to continuously capture the set tracking target. At this time, the gimbal 230 rotates the imaging device 220 in, for example, a horizontal direction Dh centered on the yaw axis and a vertical direction Dv centered on the pitch axis. The unmanned aerial vehicle 100 controls the rotary wing mechanism 210 in accordance with the movement of the person 410 to be tracked to follow the position of the unmanned aerial vehicle 100.

例えば、追跡対象が大きく移動して撮像装置220の画角から外れるなど、撮像した画像データにおいて追跡対象を探索できず、追跡に失敗した場合、無人飛行体100は、収音装置180によって撮像領域周辺の音を収音し、追跡対象に該当する音源方向SDを推定する。このとき、追跡対象の人物410は、追跡失敗を認識した場合に無人飛行体100に対して呼びかけるなど、無人飛行体100に向けて音声を発する。無人飛行体100は、追跡対象が発する音を取得し、音源方向SDを推定することによって、追跡対象の方向を検知する。無人飛行体100は、推定した音源方向SDに基づき、ジンバル230を制御して撮像装置220の撮影方向を音源方向SDに向かうように、すなわち追跡対象の人物410に向かうように調整する。   For example, if the tracking target cannot be searched for in the captured image data because the tracking target has moved greatly and deviated from the angle of view of the imaging device 220 and the tracking has failed, the unmanned air vehicle 100 is captured by the sound collection device 180. The surrounding sound is collected, and the sound source direction SD corresponding to the tracking target is estimated. At this time, the person 410 to be tracked emits a sound toward the unmanned air vehicle 100, such as calling the unmanned air vehicle 100 when the tracking failure is recognized. The unmanned air vehicle 100 detects the direction of the tracking target by acquiring the sound emitted by the tracking target and estimating the sound source direction SD. The unmanned aerial vehicle 100 controls the gimbal 230 based on the estimated sound source direction SD so as to adjust the shooting direction of the imaging device 220 toward the sound source direction SD, that is, toward the person 410 to be tracked.

図6は、実施形態における追跡動作の初期設定に関する処理手順の一例を示すフローチャートである。図7は、実施形態における追跡動作の初期設定を行うための初期設定画面の一例を示す図である。   FIG. 6 is a flowchart illustrating an example of a processing procedure related to the initial setting of the tracking operation according to the embodiment. FIG. 7 is a diagram illustrating an example of an initial setting screen for performing initial setting of the tracking operation according to the embodiment.

無人飛行体100は、追跡動作の初期設定において、追跡対象を設定する。本例では、端末50を用いて追跡対象の設定を行う手順を示す。端末50は、ユーザによる撮像画像中の追跡対象範囲の操作指示を入力し、追跡対象範囲を設定する(S11)。このとき、端末50は、表示部54において、図7に示す一例のように、複数領域に分割した撮像画像310を有する設定画面300を表示する。ユーザが撮像画像310において追跡対象TG1を含む領域をタッチ操作等により指定すると、追跡対象範囲321を示す画像領域枠が表示され、ユーザが確認後に設定ボタン(SET)322をタッチ操作すると、端末50は、該当する画像領域を追跡対象範囲として設定する。端末50は、追跡対象範囲情報を無人飛行体100に送信し、無人飛行体100は、追跡対象範囲情報を受信入力して撮像画像における追跡対象範囲を設定する。   The unmanned air vehicle 100 sets a tracking target in the initial setting of the tracking operation. In this example, a procedure for setting a tracking target using the terminal 50 is shown. The terminal 50 inputs an operation instruction for the tracking target range in the captured image by the user, and sets the tracking target range (S11). At this time, the terminal 50 displays the setting screen 300 having the captured image 310 divided into a plurality of areas on the display unit 54 as in the example illustrated in FIG. 7. When the user designates an area including the tracking target TG1 in the captured image 310 by a touch operation or the like, an image area frame indicating the tracking target range 321 is displayed. When the user touches the setting button (SET) 322 after confirmation, the terminal 50 Sets the corresponding image area as the tracking target range. The terminal 50 transmits the tracking target range information to the unmanned air vehicle 100, and the unmanned air vehicle 100 receives and inputs the tracking target range information to set the tracking target range in the captured image.

無人飛行体100は、撮像画像中の追跡対象範囲の画像データにおいて、追跡対象の画像の特徴値を算出する(S12)。追跡対象の画像データから算出する特徴値は、例えば、画像特徴量の一例であるSIFT(Scale-Invariant Feature Transform)を用いてよい。追跡対象の画像特徴量は、SIFTの他に、SURF(Speeded Up Robust Features)、GLOH(Gradient Location and Orientation Histogram)、FAST(Features from Accelerated Segment Test)などを用いてよい。追跡対象の特徴値は、追跡対象のみの画像の特徴値を算出してよいし、追跡対象を含む所定領域の画像の特徴値を算出してよい。なお、端末50において追跡対象の特徴値を算出して無人飛行体100に送信し、無人飛行体100が特徴値を取得してよい。   The unmanned air vehicle 100 calculates the feature value of the tracking target image in the image data of the tracking target range in the captured image (S12). For example, SIFT (Scale-Invariant Feature Transform), which is an example of an image feature amount, may be used as the feature value calculated from the image data to be tracked. In addition to SIFT, SURF (Speeded Up Robust Features), GLOH (Gradient Location and Orientation Histogram), FAST (Features from Accelerated Segment Test), and the like may be used as the image feature amount to be tracked. As the feature value of the tracking target, the feature value of the image of only the tracking target may be calculated, or the feature value of the image of a predetermined region including the tracking target may be calculated. Note that the feature value of the tracking target may be calculated in the terminal 50 and transmitted to the unmanned air vehicle 100, and the unmanned air vehicle 100 may acquire the feature value.

図8は、第1の実施形態における自動追跡動作の処理手順の一例を示すフローチャートである。自動追跡動作の処理は、無人飛行体100における制御部110の追跡部111及び音源方向推定部112によって主に実行してよい。無人飛行体100の制御部110は、撮像装置220によって所定の撮像領域を撮影し、撮像画像を取得する(S21)。制御部110は、撮像画像から追跡対象に対応する画像を抽出する(S22)。このとき、制御部110は、設定された追跡対象範囲に基づいて追跡対象を含む領域の画像を抽出する。そして、制御部110は、抽出した所定領域の画像において追跡対象を探索する(S23)。制御部110は、追跡対象の探索処理において、画像の特徴値の比較を行い、抽出した所定領域の画像の特徴値と以前に算出した追跡対象の特徴値とを比較し、一致するかどうか判定する。制御部110は、追跡対象の探索処理において、現在撮像した撮像画像における追跡対象の画像領域を用いて、追跡対象の特徴値を更新してよい。なお、制御部110は、撮像画像の全領域から追跡対象の特徴値と一致する領域を抽出して探索してよい。   FIG. 8 is a flowchart illustrating an example of the processing procedure of the automatic tracking operation according to the first embodiment. The processing of the automatic tracking operation may be mainly executed by the tracking unit 111 and the sound source direction estimating unit 112 of the control unit 110 in the unmanned air vehicle 100. The control unit 110 of the unmanned air vehicle 100 captures a predetermined imaging area by the imaging device 220 and acquires a captured image (S21). The control unit 110 extracts an image corresponding to the tracking target from the captured image (S22). At this time, the control unit 110 extracts an image of an area including the tracking target based on the set tracking target range. Then, the control unit 110 searches for the tracking target in the extracted image of the predetermined area (S23). In the tracking target search process, the control unit 110 compares the feature values of the image, compares the extracted feature value of the image in the predetermined area with the previously calculated feature value of the tracking target, and determines whether or not they match. To do. In the tracking target search process, the control unit 110 may update the characteristic value of the tracking target using the image area of the tracking target in the currently captured image. Note that the control unit 110 may extract and search a region that matches the characteristic value of the tracking target from the entire region of the captured image.

制御部110は、追跡対象の特徴値が一致するか否かによって、追跡に失敗したかどうか判定する(S24)。追跡に成功した場合(S24:No)、制御部110は、撮像画像における追跡対象の探索処理を繰り返し実行する(S21〜S24)。   The control unit 110 determines whether or not the tracking has failed depending on whether or not the feature values of the tracking target match (S24). When the tracking is successful (S24: No), the control unit 110 repeatedly executes a tracking target search process in the captured image (S21 to S24).

追跡に失敗した場合(S24:Yes)、制御部110は、収音装置180によって収音した音声信号を受信し、撮像領域周辺の音データを取得する(S25)。制御部110は、取得した音データについて、複数の音源の音データを分離する(S26)。制御部110は、音源分離処理において、例えば、BSS(Blind Source Separation、ブラインド信号源分離)を用いて複数の音源からの音データを分離してよい。制御部110は、音源分離処理により、ノイズ等の環境音と、追跡対象に該当する被写体が発する音とを分離する。本例では、追跡対象の人物410が発した音声データを環境音から分離する。制御部110は、分離した複数の音データについて、追跡対象の音成分を主成分として抽出する(S27)。制御部110は、主成分の音データに関して、追跡対象の特徴値として音の特徴値を算出する。追跡対象の音データから算出する特徴値は、例えば、周波数特性、指向性の有無、エンベロープなどを用いてよい。   When tracking fails (S24: Yes), the control part 110 receives the audio | voice signal picked up by the sound collection apparatus 180, and acquires the sound data around an imaging area (S25). The controller 110 separates sound data of a plurality of sound sources from the acquired sound data (S26). In the sound source separation process, the control unit 110 may separate sound data from a plurality of sound sources using, for example, BSS (Blind Source Separation). The control unit 110 separates environmental sound such as noise and sound emitted from the subject corresponding to the tracking target by sound source separation processing. In this example, the audio data emitted by the tracking target person 410 is separated from the environmental sound. The control unit 110 extracts the tracked sound component as a main component from the plurality of separated sound data (S27). The control unit 110 calculates the feature value of the sound as the feature value to be tracked for the main component sound data. The characteristic value calculated from the sound data to be tracked may use, for example, frequency characteristics, presence / absence of directivity, envelope, and the like.

制御部110は、追跡対象に対応する主成分の音データについて、例えば音の特徴値によって、音源方向を推定する(S28)。制御部110は、音源方向の推定処理において、例えば、収音装置180のマイクアレイによって各マイクロホンにて取得した音データの位相情報を用いて、音源からの音の到来方向を推定する。音源方向の推定処理は、例えば、ビームフォーミング法などの遅延和アレイによって音響ビームを形成して空間的にスキャンさせることで音源位置を推定する方法、CSP(Cross-power Spectrum Phase analysis)法などの複数のマイクロホンにおける到来時間差を求めて遅延時間を算出することで音源定位を推定する方法、などを用いてよい。   For the main component sound data corresponding to the tracking target, the control unit 110 estimates the sound source direction based on, for example, a sound feature value (S28). In the sound source direction estimation process, the control unit 110 estimates the arrival direction of the sound from the sound source using, for example, the phase information of the sound data acquired by each microphone by the microphone array of the sound collection device 180. The sound source direction estimation processing includes, for example, a method of estimating a sound source position by spatially scanning an acoustic beam by forming a delay sum array such as a beam forming method, a CSP (Cross-power Spectrum Phase analysis) method, and the like. A method of estimating sound source localization by calculating a delay time by obtaining a difference in arrival time in a plurality of microphones may be used.

制御部110は、音源方向の推定結果に基づき、追跡対象の方向を検知し、撮像装置220による撮影方向を調整する(S29)。このとき、制御部110は、撮像装置220とジンバル230の少なくとも一方の動きを制御し、追跡対象に向かうように撮像装置220の撮影方向を調整する。制御部110は、回転翼機構210を制御して無人飛行体100を移動、回転させ、撮影方向を調整してよい。そして、制御部110は、撮像画像における追跡対象の探索処理を繰り返し実行する(S21〜S24)。   The control unit 110 detects the direction of the tracking target based on the estimation result of the sound source direction, and adjusts the shooting direction by the imaging device 220 (S29). At this time, the control unit 110 controls the movement of at least one of the imaging device 220 and the gimbal 230 and adjusts the shooting direction of the imaging device 220 so as to be directed to the tracking target. The control unit 110 may adjust the shooting direction by controlling the rotating wing mechanism 210 to move and rotate the unmanned air vehicle 100. And the control part 110 repeatedly performs the search process of the tracking target in a captured image (S21-S24).

図9は、実施形態における追跡失敗時の処理手順の一例を示すシーケンス図である。図10は、実施形態における追跡失敗を通知する通知画面の一例を示す図である。図11は、実施形態における追跡対象の再設定時の確認画面の一例を示す図である。   FIG. 9 is a sequence diagram illustrating an example of a processing procedure when tracking fails in the embodiment. FIG. 10 is a diagram illustrating an example of a notification screen for notifying tracking failure in the embodiment. FIG. 11 is a diagram illustrating an example of a confirmation screen when the tracking target is reset in the embodiment.

追跡対象の追跡に失敗した場合、無人飛行体100及び端末50は、ユーザへの通知、再設定した追跡対象の確認などの処理を行ってよい。無人飛行体100は、自動追跡動作中に、追跡対象の探索に失敗したことを判定すると(S31)、端末50に対して、追跡状態情報の一例である追跡失敗を示す情報を送信する(S32)。端末50は、追跡失敗を示す追跡状態情報を受信すると、追跡状態表示の一例として、追跡失敗の状況をユーザに通知する追跡失敗表示を行う(S33)。このとき、端末50は、表示部54において、図10に示す一例のように、追跡失敗を通知する通知画面330を表示する。通知画面330には、撮像画像310において追跡失敗表示(MISSED)323が表示され、ユーザが視認可能である。端末50は、通知画面330の表示の他に、アラーム音等の音による通知、LED発光等の光による通知などを行ってよい。   If tracking of the tracking target fails, the unmanned air vehicle 100 and the terminal 50 may perform processing such as notification to the user and confirmation of the reset tracking target. When the unmanned air vehicle 100 determines that the search for the tracking target has failed during the automatic tracking operation (S31), the unmanned air vehicle 100 transmits information indicating tracking failure, which is an example of tracking state information, to the terminal 50 (S32). ). When receiving the tracking state information indicating the tracking failure, the terminal 50 performs a tracking failure display for notifying the user of the tracking failure status as an example of the tracking state display (S33). At this time, the terminal 50 displays, on the display unit 54, a notification screen 330 that notifies the tracking failure as in the example illustrated in FIG. On the notification screen 330, a tracking failure display (MISSED) 323 in the captured image 310 is displayed and is visible to the user. In addition to the display of the notification screen 330, the terminal 50 may perform notification by sound such as an alarm sound, notification by light such as LED light emission, and the like.

無人飛行体100は、図8に示した手順(S25〜S29)のように、音源方向の推定、撮影方向の調整の処理を実行し、追跡対象の再探索を行う(S34)。無人飛行体100は、追跡対象の探索において、推定した音源方向に応じて撮像画像における追跡対象を探索する領域を限定し、追跡対象の候補を抽出してよい。無人飛行体100は、再探索により抽出した追跡対象の候補を示す情報を、追跡対象候補情報として端末50に送信する(S35)。端末50は、追跡対象候補情報を受信すると、追跡対象の確認のために追跡対象候補をユーザに示す追跡対象候補表示を行う(S36)。このとき、端末50は、表示部54において、図11に示す一例のように、追跡対象候補の確認を行う確認画面350を表示する。確認画面350には、撮像画像310において追跡対象TG1を囲む追跡対象枠324が表示され、追跡対象確認表示(TARGET?)325が表示される。ユーザが追跡対象の確認後に確認ボタン(OK)326をタッチ操作すると、端末50は、ユーザによる確認指示を入力し(S37)、確認応答を無人飛行体100に送信する(S38)。   The unmanned air vehicle 100 performs sound source direction estimation and imaging direction adjustment processing as in the procedure (S25 to S29) shown in FIG. 8, and re-searches the tracking target (S34). In the search for the tracking target, the unmanned air vehicle 100 may limit a region for searching the tracking target in the captured image in accordance with the estimated sound source direction, and extract the tracking target candidates. The unmanned air vehicle 100 transmits information indicating the tracking target candidate extracted by the re-search to the terminal 50 as tracking target candidate information (S35). When the terminal 50 receives the tracking target candidate information, the terminal 50 displays a tracking target candidate indicating the tracking target candidate to the user for confirmation of the tracking target (S36). At this time, the terminal 50 displays a confirmation screen 350 for confirming the tracking target candidate on the display unit 54 as in the example shown in FIG. On the confirmation screen 350, a tracking target frame 324 surrounding the tracking target TG1 in the captured image 310 is displayed, and a tracking target confirmation display (TARGET?) 325 is displayed. When the user touches the confirmation button (OK) 326 after confirming the tracking target, the terminal 50 inputs a confirmation instruction by the user (S37) and transmits a confirmation response to the unmanned air vehicle 100 (S38).

無人飛行体100は、端末50からの確認応答を受信すると、該当する追跡対象を含む領域を新たな追跡対象範囲として設定し、追跡対象の特徴値を算出して更新する(S39)。無人飛行体100は、その後、自動追跡動作を継続する(S40)。   Upon receiving the confirmation response from the terminal 50, the unmanned air vehicle 100 sets a region including the corresponding tracking target as a new tracking target range, and calculates and updates the characteristic value of the tracking target (S39). The unmanned air vehicle 100 then continues the automatic tracking operation (S40).

上述した第1の実施形態では、無人飛行体は、追跡対象に該当する音源方向を推定し、音源方向推定結果を利用して、追跡動作の補正を行う。実施形態において、無人飛行体は、追跡対象の追跡に失敗した場合に、追跡対象が発する音情報を取得して音源方向を推定し、音源方向に応じて撮影方向を調整する。これにより、追跡対象に該当する音源方向に撮像装置を向けて、追跡対象を再度追跡可能なように継続して撮像でき、追跡結果を補正することができる。また、追跡動作時のロバスト性を向上できる。この場合、追跡対象を再設定する操作が不要になり、操作性を向上できる。   In the first embodiment described above, the unmanned air vehicle estimates the sound source direction corresponding to the tracking target, and corrects the tracking operation using the sound source direction estimation result. In the embodiment, when the tracking of the tracking target fails, the unmanned air vehicle obtains sound information emitted from the tracking target, estimates the sound source direction, and adjusts the shooting direction according to the sound source direction. Thereby, the imaging device can be directed toward the sound source direction corresponding to the tracking target, and the tracking target can be continuously captured so that the tracking target can be tracked again, and the tracking result can be corrected. In addition, the robustness during the tracking operation can be improved. In this case, an operation for resetting the tracking target becomes unnecessary, and operability can be improved.

無人飛行体は、初期設定において追跡対象を設定する場合、又は追跡失敗後に再度追跡対象を設定する場合、端末に追跡対象候補を表示し、ユーザによる確認後の指示操作を入力する。これにより、ユーザが追跡対象を正確かつ容易に確認して設定でき、操作性を向上できる。   When setting the tracking target in the initial setting or setting the tracking target again after the tracking failure, the unmanned air vehicle displays the tracking target candidate on the terminal and inputs an instruction operation after confirmation by the user. Thereby, the user can confirm and set the tracking target accurately and easily, and the operability can be improved.

(第2の実施形態)
図12は、無人飛行体により追跡対象を追跡する第2の実施形態の様子を模式的に示す図である。第2の実施形態では、車両等の移動体を追跡対象として追跡して撮像する例を示す。無人飛行体100は、撮像装置220によって車両420を被写体として撮像し、撮像画像中の車両を追跡対象に設定する。無人飛行体100は、設定した追跡対象を継続して撮像するように、ジンバル230によって撮像装置220を回転させ、撮影方向を調整する。このとき、ジンバル230は、例えば、ヨー軸を中心とした水平方向Dh、ピッチ軸を中心とした垂直方向Dvに、それぞれ撮像装置220を回転させる。無人飛行体100は、追跡対象の車両420の移動に応じて、回転翼機構210を制御し、無人飛行体100の位置を追従させる。
(Second Embodiment)
FIG. 12 is a diagram schematically illustrating a second embodiment in which a tracking target is tracked by an unmanned air vehicle. In the second embodiment, an example in which a moving body such as a vehicle is tracked as a tracking target and captured is shown. The unmanned air vehicle 100 images the vehicle 420 as a subject by the imaging device 220, and sets the vehicle in the captured image as a tracking target. The unmanned air vehicle 100 adjusts the shooting direction by rotating the imaging device 220 with the gimbal 230 so as to continuously capture the set tracking target. At this time, the gimbal 230 rotates the imaging device 220 in, for example, a horizontal direction Dh centered on the yaw axis and a vertical direction Dv centered on the pitch axis. The unmanned aerial vehicle 100 controls the rotary wing mechanism 210 in accordance with the movement of the tracked vehicle 420 to follow the position of the unmanned aerial vehicle 100.

無人飛行体100は、追跡対象を追跡する際に、収音装置180によって撮像領域周辺の音を収音し、追跡対象に該当する音源方向SDを推定する。車両等の移動体は、移動の際にエンジン音、モータ音、タイヤ音、風切音など、各種の音を発生している。無人飛行体100は、移動体が発する音を取得し、音源方向SDを推定することによって、追跡対象の方向を検知する。無人飛行体100は、推定した音源方向SDに基づき、ジンバル230を制御して撮像装置220の撮影方向を音源方向SDに向かうように、すなわち追跡対象の車両420に向かうように調整する。   When the unmanned air vehicle 100 tracks the tracking target, the sound collecting device 180 collects sound around the imaging region and estimates the sound source direction SD corresponding to the tracking target. A moving body such as a vehicle generates various sounds such as an engine sound, a motor sound, a tire sound, and a wind noise when moving. The unmanned air vehicle 100 detects the direction of the tracking target by acquiring the sound emitted by the moving body and estimating the sound source direction SD. The unmanned aerial vehicle 100 controls the gimbal 230 based on the estimated sound source direction SD so as to adjust the shooting direction of the imaging device 220 toward the sound source direction SD, that is, toward the tracking target vehicle 420.

無人飛行体100は、追跡動作の初期設定を行う際、図6に示した追跡対象の特徴値算出手順(S12)において、追跡対象に関する画像の特徴値と音の特徴値を算出する。画像の特徴値は、例えば画像特徴量の一例であるSIFTを用いてよい。音の特徴値は、例えば周波数特性などを用いてよい。   When performing the initial setting of the tracking operation, the unmanned air vehicle 100 calculates the feature value of the image and the sound feature value regarding the tracking target in the tracking target feature value calculation procedure (S12) shown in FIG. For example, SIFT, which is an example of an image feature amount, may be used as the image feature value. For example, a frequency characteristic may be used as the sound characteristic value.

図13は、第2の実施形態における自動追跡動作の処理手順の一例を示すフローチャートである。自動追跡動作の処理は、無人飛行体100における制御部110の追跡部111及び音源方向推定部112によって主に実行してよい。無人飛行体100の制御部110は、撮像装置220によって所定の撮像領域を撮影し、撮像画像を取得する(S51)。制御部110は、撮像画像から追跡対象に対応する画像を抽出する(S52)。このとき、制御部110は、設定された追跡対象範囲に基づいて追跡対象を含む領域の画像を抽出する。   FIG. 13 is a flowchart illustrating an example of the processing procedure of the automatic tracking operation according to the second embodiment. The processing of the automatic tracking operation may be mainly executed by the tracking unit 111 and the sound source direction estimating unit 112 of the control unit 110 in the unmanned air vehicle 100. The control unit 110 of the unmanned air vehicle 100 captures a predetermined imaging area by the imaging device 220 and acquires a captured image (S51). The control unit 110 extracts an image corresponding to the tracking target from the captured image (S52). At this time, the control unit 110 extracts an image of an area including the tracking target based on the set tracking target range.

また、制御部110は、収音装置180によって収音した音声信号を受信し、撮像領域周辺の音データを取得する(S61)。制御部110は、取得した音データについて、複数の音源の音データを分離する(S62)。制御部110は、音源分離処理により、ノイズ等の環境音と、追跡対象に該当する被写体が発する音とを分離する。本例では、追跡対象の車両420が発した走行音等の音データを環境音から分離する。制御部110は、分離した複数の音データについて、追跡対象の音成分を主成分として抽出する(S63)。制御部110は、主成分の音データに関して、追跡対象の特徴値として音の特徴値を算出する。制御部110は、追跡対象に対応する主成分の音データについて、例えば音の特徴値によって、音源方向を推定する(S64)。制御部110は、音源方向の推定処理において、例えば、収音装置180のマイクアレイによって各マイクロホンにて取得した音データの位相情報を用いて、音源からの音の到来方向を推定する。   Further, the control unit 110 receives the audio signal collected by the sound collection device 180 and acquires sound data around the imaging region (S61). The controller 110 separates sound data of a plurality of sound sources from the acquired sound data (S62). The control unit 110 separates environmental sound such as noise and sound emitted from the subject corresponding to the tracking target by sound source separation processing. In this example, sound data such as running sound generated by the tracked vehicle 420 is separated from the environmental sound. The control unit 110 extracts the tracked sound component as the main component from the plurality of separated sound data (S63). The control unit 110 calculates the feature value of the sound as the feature value to be tracked for the main component sound data. For the main component sound data corresponding to the tracking target, the control unit 110 estimates the sound source direction based on, for example, a sound feature value (S64). In the sound source direction estimation process, the control unit 110 estimates the arrival direction of the sound from the sound source using, for example, the phase information of the sound data acquired by each microphone by the microphone array of the sound collection device 180.

制御部110は、抽出した所定領域の画像において追跡対象を探索する(S53)。制御部110は、追跡対象の探索処理において、画像の特徴値の比較を行い、抽出した所定領域の画像の特徴値と以前に算出した追跡対象の特徴値とを比較し、一致するかどうか判定する。このとき、制御部110は、音源方向の推定結果を用いて、撮像画像中の追跡対象を探索する領域を、音源方向に基づいて限定する。制御部110は、追跡対象の探索処理において、現在撮像した撮像画像における追跡対象の画像領域を用いて、追跡対象の画像の特徴値を更新してよい。なお、制御部110は、撮像画像の全領域から追跡対象の特徴値と一致する領域を抽出して探索してよい。制御部110は、追跡対象の探索処理において、現在取得した追跡対象の音データを用いて、追跡対象の音の特徴値を更新してよい。なお、制御部110は、撮像画像の全領域から音源方向に対応する所定領域を抽出して探索してよい。   The control unit 110 searches for the tracking target in the extracted image of the predetermined area (S53). In the tracking target search process, the control unit 110 compares the feature values of the image, compares the extracted feature value of the image in the predetermined area with the previously calculated feature value of the tracking target, and determines whether or not they match. To do. At this time, the control part 110 limits the area | region which searches the tracking target in a captured image based on a sound source direction using the estimation result of a sound source direction. In the tracking target search process, the control unit 110 may update the feature value of the tracking target image using the tracking target image area in the currently captured image. Note that the control unit 110 may extract and search a region that matches the characteristic value of the tracking target from the entire region of the captured image. The control unit 110 may update the characteristic value of the tracking target sound using the currently acquired tracking target sound data in the tracking target search process. Note that the control unit 110 may extract and search a predetermined area corresponding to the sound source direction from the entire area of the captured image.

制御部110は、追跡対象の特徴値が一致するか否かによって、追跡対象の同一性を判定する。制御部110は、追跡対象の特徴値の判定結果と音源方向の推定結果に基づき、撮影方向の調整が必要かどうか判定する(S54)。撮影方向の調整が必要である場合(S54:Yes)、制御部110は、音源方向の推定結果に基づき、追跡対象の方向を検知し、撮像装置220による撮影方向を調整する(S55)。このとき、制御部110は、撮像装置220とジンバル230の少なくとも一方の動きを制御し、追跡対象に向かうように撮像装置220の撮影方向を調整する。制御部110は、回転翼機構210を制御して無人飛行体100を移動、回転させ、撮影方向を調整してよい。そして、制御部110は、撮像画像における追跡対象の探索処理を繰り返し実行する(S51〜S54、S61〜S64)。   The control unit 110 determines the identity of the tracking target based on whether the feature values of the tracking target match. The control unit 110 determines whether the adjustment of the shooting direction is necessary based on the determination result of the characteristic value to be tracked and the estimation result of the sound source direction (S54). When adjustment of the shooting direction is necessary (S54: Yes), the control unit 110 detects the direction of the tracking target based on the estimation result of the sound source direction, and adjusts the shooting direction by the imaging device 220 (S55). At this time, the control unit 110 controls the movement of at least one of the imaging device 220 and the gimbal 230 and adjusts the shooting direction of the imaging device 220 so as to be directed to the tracking target. The control unit 110 may adjust the shooting direction by controlling the rotating wing mechanism 210 to move and rotate the unmanned air vehicle 100. And the control part 110 repeatedly performs the search process of the tracking target in a captured image (S51-S54, S61-S64).

上述した第2の実施形態では、無人飛行体は、追跡対象に該当する音源方向を推定し、音源方向推定結果を利用して、追跡対象を探索する。実施形態において、音源方向に応じて撮像画像における追跡対象を探索する領域を限定し、追跡対象の特徴値の算出、比較に関する画像処理を行う。これにより、追跡に関する処理量を削減できる。また、追跡動作時のロバスト性を向上できる。撮像画像中に追跡対象候補が複数存在する場合、音源方向によって正確に追跡対象を特定できる。また、音源方向推定結果を用いて撮影方向の調整し、追跡動作の補正を行うことができる。実施形態によれば、追跡対象の音源方向に応じて、追跡対象を見失うことなく撮像し、撮像画像中の追跡対象を的確に探索でき、追跡動作を継続できる。この場合、追跡対象を再設定する操作が不要になり、操作性を向上できる。   In the second embodiment described above, the unmanned air vehicle estimates the sound source direction corresponding to the tracking target, and searches for the tracking target using the sound source direction estimation result. In the embodiment, an area for searching for a tracking target in a captured image is limited according to a sound source direction, and image processing related to calculation and comparison of a tracking target feature value is performed. Thereby, the processing amount regarding tracking can be reduced. In addition, the robustness during the tracking operation can be improved. When there are a plurality of tracking target candidates in the captured image, the tracking target can be accurately specified by the sound source direction. Further, the tracking direction can be corrected by adjusting the shooting direction using the sound source direction estimation result. According to the embodiment, according to the sound source direction of the tracking target, an image can be captured without losing sight of the tracking target, the tracking target in the captured image can be accurately searched, and the tracking operation can be continued. In this case, an operation for resetting the tracking target becomes unnecessary, and operability can be improved.

本実施形態によれば、飛行体において撮像画像を用いて追跡対象を追跡する際に、追跡対象に該当する音源方向を推定し、推定した音源方向に基づいて撮像装置による撮影方向を調整できる。これにより、追跡対象に撮像装置を向けるようにでき、追跡結果を補正することができる。したがって、追跡対象を再設定する操作が不要になり、操作性を向上できる。   According to the present embodiment, when tracking a tracking target using a captured image in a flying object, a sound source direction corresponding to the tracking target can be estimated, and a shooting direction by the imaging device can be adjusted based on the estimated sound source direction. Thereby, the imaging device can be directed to the tracking target, and the tracking result can be corrected. Therefore, an operation for resetting the tracking target is unnecessary, and operability can be improved.

本実施形態によれば、追跡対象の追跡を失敗した場合に、追跡対象が発する音情報を取得して音源方向を推定し、音源方向に応じて撮影方向を調整することができる。これにより、追跡対象の追跡を失敗した場合であっても追跡対象に撮像装置を向けるように撮影方向を調整し、追跡結果を補正することができる。   According to this embodiment, when tracking of a tracking target fails, sound information emitted from the tracking target can be acquired to estimate the sound source direction, and the shooting direction can be adjusted according to the sound source direction. As a result, even when tracking of the tracking target fails, the shooting direction can be adjusted so that the imaging device is directed toward the tracking target, and the tracking result can be corrected.

本実施形態によれば、撮像画像を用いて追跡対象を追跡する際に、追跡対象が発する音情報を取得して音源方向を推定し、音源方向に応じて撮像画像における追跡対象を探索する領域を限定できる。これにより、追跡結果を補正でき、追跡に関する処理量を削減でき、追跡動作時のロバスト性を向上できる。   According to this embodiment, when tracking a tracking target using a captured image, the sound information emitted from the tracking target is acquired to estimate the sound source direction, and the tracking target in the captured image is searched according to the sound source direction. Can be limited. As a result, the tracking result can be corrected, the amount of processing related to tracking can be reduced, and the robustness during the tracking operation can be improved.

以上、本開示について実施形態を用いて説明したが、本開示に係る発明の技術的範囲は上述した実施形態に記載の範囲には限定されない。上述した実施形態に、多様な変更又は改良を加えることが当業者に明らかである。その様な変更又は改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載からも明らかである。   As mentioned above, although this indication was explained using an embodiment, the technical scope of the invention concerning this indication is not limited to the range given in the embodiment mentioned above. It will be apparent to those skilled in the art that various modifications and improvements can be made to the embodiment described above. It is also apparent from the scope of the claims that the embodiment added with such changes or improvements can be included in the technical scope of the present invention.

特許請求の範囲、明細書、及び図面中において示した装置、システム、プログラム、及び方法における動作、手順、ステップ、及び段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現可能である。特許請求の範囲、明細書、及び図面中の動作フローに関して、便宜上「先ず」、「次に」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。   The execution order of each process such as operation, procedure, step, and stage in the apparatus, system, program, and method shown in the claims, the description, and the drawings is particularly “before” or “prior to”. ”And the like, and can be realized in any order unless the output of the previous process is used in the subsequent process. Regarding the operation flow in the claims, the description, and the drawings, even if it is described using “first”, “next”, etc. for convenience, it does not mean that it is essential to carry out in this order. Absent.

10 飛行制御システム
50 端末
51 処理部
52 メモリ
53 無線通信部
54 表示部
55 操作部
56 インタフェース部
57 ストレージ
58 バッテリ
100 無人飛行体(UAV)
102 UAV本体
110 制御部
111 追跡部
112 音源方向推定部
150 通信インタフェース
160 メモリ
170 ストレージ
180 収音装置
190 バッテリ
210 回転翼機構
220 撮像装置
230 ジンバル
240 GPS受信機
250 慣性計測装置
260 磁気コンパス
270 気圧高度計
280 超音波センサ
DESCRIPTION OF SYMBOLS 10 Flight control system 50 Terminal 51 Processing part 52 Memory 53 Wireless communication part 54 Display part 55 Operation part 56 Interface part 57 Storage 58 Battery 100 Unmanned air vehicle (UAV)
102 UAV main body 110 Control unit 111 Tracking unit 112 Sound source direction estimation unit 150 Communication interface 160 Memory 170 Storage 180 Sound collection device 190 Battery 210 Rotor blade mechanism 220 Imaging device 230 Gimbal 240 GPS receiver 250 Inertial measurement device 260 Magnetic compass 270 Barometric altimeter 280 Ultrasonic sensor

Claims (20)

所定の追跡対象を撮像する撮像装置と、
前記追跡対象を含む周囲の音を収音する収音装置と、
前記追跡対象の追跡に関する処理を実行する制御部と、を有する飛行体であって、
前記制御部は、
前記撮像装置により撮像した撮像画像を用いて前記追跡対象を追跡し、
前記収音装置により取得した音情報により前記追跡対象に該当する音源方向を推定し、
前記音源方向の推定結果に基づいて前記撮像装置による撮影方向を調整する、
飛行体。
An imaging device for imaging a predetermined tracking target;
A sound collection device for collecting ambient sounds including the tracked object;
A control unit that executes processing related to tracking of the tracking target,
The controller is
Track the tracking target using a captured image captured by the imaging device,
Estimating the sound source direction corresponding to the tracking target from the sound information acquired by the sound collection device,
Adjusting the shooting direction by the imaging device based on the estimation result of the sound source direction;
Flying body.
前記制御部は、
前記追跡対象の追跡において、
前記撮像画像における前記追跡対象に関する画像の特徴値を算出し、前記画像の特徴値を比較して前記追跡対象を探索する、
請求項1に記載の飛行体。
The controller is
In tracking the tracking target,
Calculating a feature value of an image related to the tracking target in the captured image, and searching for the tracking target by comparing the feature value of the image;
The flying object according to claim 1.
前記制御部は、
前記追跡対象の追跡を失敗した場合に、前記追跡対象が発する音情報を取得して音源方向を推定し、前記音源方向に応じて前記撮影方向を調整する、
請求項1又は2に記載の飛行体。
The controller is
When tracking of the tracking target fails, the sound information emitted by the tracking target is acquired to estimate the sound source direction, and the shooting direction is adjusted according to the sound source direction.
The flying object according to claim 1 or 2.
前記制御部は、
前記音情報における前記追跡対象に関する音の特徴値を算出し、
前記音の特徴値によって前記追跡対象の音源方向を推定し、前記音源方向に応じて前記追跡対象を追跡する、
請求項1又は2に記載の飛行体。
The controller is
Calculating a characteristic value of a sound related to the tracking target in the sound information;
Estimating the sound source direction of the tracking target according to the feature value of the sound, and tracking the tracking target according to the sound source direction;
The flying object according to claim 1 or 2.
前記制御部は、
前記追跡対象の追跡において、
前記推定した音源方向に応じて前記撮像画像における前記追跡対象を探索する領域を限定する、
請求項1〜4のいずれか一項に記載の飛行体。
The controller is
In tracking the tracking target,
Limiting the area to search for the tracking target in the captured image according to the estimated sound source direction;
The flying object according to any one of claims 1 to 4.
前記制御部は、
前記音源方向の推定において、
前記収音装置により取得した音情報から前記追跡対象の音成分を抽出し、前記追跡対象の音成分について音源方向の推定処理を行う、
請求項1〜5のいずれか一項に記載の飛行体。
The controller is
In the estimation of the sound source direction,
Extracting the tracking target sound component from the sound information acquired by the sound collection device, and performing a sound source direction estimation process for the tracking target sound component,
The flying object according to any one of claims 1 to 5.
前記制御部は、
前記撮影方向の調整において、
前記飛行体の回転翼機構と、前記撮像装置を支持する支持機構との少なくとも一方の動きを制御する、
請求項1〜6のいずれか一項に記載の飛行体。
The controller is
In adjusting the shooting direction,
Controlling the movement of at least one of the rotary wing mechanism of the flying object and the support mechanism for supporting the imaging device;
The flying object according to any one of claims 1 to 6.
飛行体と、前記飛行体と通信を行う端末と、を有する飛行制御システムであって、
前記飛行体は、
所定の追跡対象を撮像する撮像装置と、
前記追跡対象を含む周囲の音を収音する収音装置と、
前記追跡対象の候補情報を前記端末に送信する通信部と、
前記追跡対象の追跡に関する処理を実行するものであって、前記撮像装置により撮像した撮像画像を用いて前記追跡対象を追跡し、前記収音装置により取得した音情報により前記追跡対象に該当する音源方向を推定し、前記音源方向の推定結果に基づいて前記撮像装置による撮影方向を調整する、制御部と、を有し、
前記端末は、
前記追跡対象の候補情報を受信する通信部と、
前記追跡対象の候補を表示する表示部と、
前記追跡対象の設定に関する入力を行う操作部と、を有する、
飛行制御システム。
A flight control system comprising a flying object and a terminal that communicates with the flying object,
The aircraft is
An imaging device for imaging a predetermined tracking target;
A sound collection device for collecting ambient sounds including the tracked object;
A communication unit for transmitting the tracking target candidate information to the terminal;
A sound source that performs processing related to tracking of the tracking target, tracks the tracking target using a captured image captured by the imaging device, and corresponds to the tracking target based on sound information acquired by the sound collecting device; A control unit that estimates a direction and adjusts a shooting direction by the imaging device based on an estimation result of the sound source direction;
The terminal
A communication unit for receiving the candidate information to be tracked;
A display unit for displaying the tracking target candidates;
An operation unit for performing input related to the setting of the tracking target,
Flight control system.
前記端末の表示部は、
前記追跡対象の追跡を失敗した場合に、追跡失敗表示を行う、
請求項8に記載の飛行制御システム。
The display part of the terminal
When tracking of the tracking target fails, a tracking failure display is performed.
The flight control system according to claim 8.
所定の追跡対象を追跡する飛行体を制御するための飛行制御方法であって、
前記追跡対象を撮像装置により撮像するステップと、
前記追跡対象を含む周囲の音を収音装置により収音するステップと、
前記撮像した撮像画像を用いて前記追跡対象を追跡するステップと、
前記収音した音情報により前記追跡対象に該当する音源方向を推定するステップと、
前記音源方向の推定結果に基づいて前記撮像装置による撮影方向を調整するステップと、を有する、
飛行制御方法。
A flight control method for controlling an aircraft that tracks a predetermined tracking object,
Imaging the tracking object with an imaging device;
Collecting ambient sounds including the tracking target by a sound collecting device;
Tracking the tracking object using the imaged captured image;
Estimating a sound source direction corresponding to the tracking target based on the collected sound information;
Adjusting the shooting direction by the imaging device based on the estimation result of the sound source direction,
Flight control method.
前記追跡対象を追跡するステップは、
前記撮像画像における前記追跡対象に関する画像の特徴値を算出し、前記画像の特徴値を比較して前記追跡対象を探索する、
請求項10に記載の飛行制御方法。
The step of tracking the tracking object includes:
Calculating a feature value of an image related to the tracking target in the captured image, and searching for the tracking target by comparing the feature value of the image;
The flight control method according to claim 10.
前記音源方向を推定するステップは、
前記追跡対象の追跡を失敗した場合に、前記追跡対象が発する音情報を取得して音源方向を推定し、
前記撮影方向を調整するステップは、
前記推定した音源方向に応じて前記撮影方向を調整する、
請求項10又は11に記載の飛行制御方法。
Estimating the sound source direction comprises:
If tracking of the tracking target fails, the sound information emitted by the tracking target is acquired to estimate the sound source direction,
The step of adjusting the shooting direction includes:
Adjusting the shooting direction according to the estimated sound source direction;
The flight control method according to claim 10 or 11.
前記音情報における前記追跡対象に関する音の特徴値を算出するステップを有し、
前記追跡対象を追跡するステップは、
前記音の特徴値によって前記追跡対象の音源方向を推定し、前記音源方向に応じて前記追跡対象を追跡する、
請求項10又は11に記載の飛行制御方法。
Calculating a feature value of a sound related to the tracking target in the sound information,
The step of tracking the tracking object includes:
Estimating the sound source direction of the tracking target according to the feature value of the sound, and tracking the tracking target according to the sound source direction;
The flight control method according to claim 10 or 11.
前記追跡対象を追跡するステップは、
前記推定した音源方向に応じて前記撮像画像における前記追跡対象を探索する領域を限定する、
請求項10〜13のいずれか一項に記載の飛行制御方法。
The step of tracking the tracking object includes:
Limiting the area to search for the tracking target in the captured image according to the estimated sound source direction;
The flight control method according to any one of claims 10 to 13.
前記追跡対象を追跡するステップは、
前記収音装置により取得した音情報から前記追跡対象の音成分を抽出し、前記追跡対象の音成分について音源方向の推定処理を行う、
請求項10〜14のいずれか一項に記載の飛行制御方法。
The step of tracking the tracking object includes:
Extracting the tracking target sound component from the sound information acquired by the sound collection device, and performing a sound source direction estimation process for the tracking target sound component,
The flight control method according to any one of claims 10 to 14.
前記撮影方向を調整するステップは、
前記飛行体の回転翼機構と、前記撮像装置を支持する支持機構との少なくとも一方の動きを制御する、
請求項10〜15のいずれか一項に記載の飛行制御方法。
The step of adjusting the shooting direction includes:
Controlling the movement of at least one of the rotary wing mechanism of the flying object and the support mechanism for supporting the imaging device;
The flight control method according to any one of claims 10 to 15.
前記追跡対象の候補情報を前記飛行体と通信を行う端末に送信するステップと、
前記追跡対象の候補情報を前記端末により受信するステップと、
前記追跡対象の候補を表示部により表示するステップと、
前記追跡対象の設定に関する入力を行うステップと、を有する、
請求項10に記載の飛行制御方法。
Transmitting the tracking candidate information to a terminal that communicates with the aircraft;
Receiving the candidate information to be tracked by the terminal;
Displaying the tracking target candidates on a display unit;
Performing input relating to the setting of the tracking target,
The flight control method according to claim 10.
前記追跡対象の追跡を失敗した場合に、前記表示部により追跡失敗表示を行うステップ、を有する、
請求項17に記載の飛行制御方法。
When the tracking of the tracking target fails, the display unit displays a tracking failure display,
The flight control method according to claim 17.
所定の追跡対象を追跡する飛行体を制御するコンピュータに、
前記追跡対象を撮像装置により撮像するステップと、
前記追跡対象を含む周囲の音を収音装置により収音するステップと、
前記撮像した撮像画像を用いて前記追跡対象を追跡するステップと、
前記収音した音情報により前記追跡対象に該当する音源方向を推定するステップと、
前記音源方向の推定結果に基づいて前記撮像装置による撮影方向を調整するステップと、を実行させるための、
プログラム。
To a computer that controls a vehicle that tracks a predetermined tracking target,
Imaging the tracking object with an imaging device;
Collecting ambient sounds including the tracking target by a sound collecting device;
Tracking the tracking object using the imaged captured image;
Estimating a sound source direction corresponding to the tracking target based on the collected sound information;
Adjusting the shooting direction by the imaging device based on the estimation result of the sound source direction,
program.
所定の追跡対象を追跡する飛行体を制御するコンピュータに、
前記追跡対象を撮像装置により撮像するステップと、
前記追跡対象を含む周囲の音を収音装置により収音するステップと、
前記撮像した撮像画像を用いて前記追跡対象を追跡するステップと、
前記収音した音情報により前記追跡対象に該当する音源方向を推定するステップと、
前記音源方向の推定結果に基づいて前記撮像装置による撮影方向を調整するステップと、を実行させるためのプログラムを記録したコンピュータ読み取り可能な、
記録媒体。
To a computer that controls a vehicle that tracks a predetermined tracking target,
Imaging the tracking object with an imaging device;
Collecting ambient sounds including the tracking target by a sound collecting device;
Tracking the tracking object using the imaged captured image;
Estimating a sound source direction corresponding to the tracking target based on the collected sound information;
Adjusting the shooting direction by the imaging device based on the estimation result of the sound source direction, and a computer-readable recording program for executing the program,
recoding media.
JP2017120639A 2017-06-20 2017-06-20 Aircraft, flight control systems, flight control methods, programs and recording media Active JP6912281B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017120639A JP6912281B2 (en) 2017-06-20 2017-06-20 Aircraft, flight control systems, flight control methods, programs and recording media

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017120639A JP6912281B2 (en) 2017-06-20 2017-06-20 Aircraft, flight control systems, flight control methods, programs and recording media

Publications (2)

Publication Number Publication Date
JP2019006154A true JP2019006154A (en) 2019-01-17
JP6912281B2 JP6912281B2 (en) 2021-08-04

Family

ID=65027434

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017120639A Active JP6912281B2 (en) 2017-06-20 2017-06-20 Aircraft, flight control systems, flight control methods, programs and recording media

Country Status (1)

Country Link
JP (1) JP6912281B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020170510A1 (en) * 2019-02-19 2020-08-27 パナソニックIpマネジメント株式会社 Unmanned aircraft, information processing method, and program
WO2020230377A1 (en) * 2019-05-15 2020-11-19 パナソニックIpマネジメント株式会社 Information processing method, unmanned aerial vehicle, and unmanned aerial vehicle control system
CN116027804A (en) * 2022-12-30 2023-04-28 中国科学院长春光学精密机械与物理研究所 Unmanned plane ground photoelectric measurement and control guiding device and guiding method
JP7336621B1 (en) * 2021-09-30 2023-08-31 Jfeアドバンテック株式会社 Sound wave receiving device, sound source azimuth determination device, and sound source azimuth determination method
WO2023164814A1 (en) * 2022-03-01 2023-09-07 深圳市大疆创新科技有限公司 Media apparatus and control method and device therefor, and target tracking method and device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016101774A (en) * 2014-11-27 2016-06-02 みこらった株式会社 Vertically taking off and flying table
JP2016135625A (en) * 2015-01-23 2016-07-28 みこらった株式会社 Levitation movable carriage
JP2017068298A (en) * 2015-09-28 2017-04-06 株式会社日立システムズ Autonomous flying moving body and target tracking method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016101774A (en) * 2014-11-27 2016-06-02 みこらった株式会社 Vertically taking off and flying table
JP2016135625A (en) * 2015-01-23 2016-07-28 みこらった株式会社 Levitation movable carriage
JP2017068298A (en) * 2015-09-28 2017-04-06 株式会社日立システムズ Autonomous flying moving body and target tracking method

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020170510A1 (en) * 2019-02-19 2020-08-27 パナソニックIpマネジメント株式会社 Unmanned aircraft, information processing method, and program
JPWO2020170510A1 (en) * 2019-02-19 2021-12-16 パナソニックIpマネジメント株式会社 Unmanned aircraft, information processing methods and programs
US11928974B2 (en) 2019-02-19 2024-03-12 Panasonic Intellectual Property Management Co., Ltd. Unmanned aircraft, information processing method, and recording medium
WO2020230377A1 (en) * 2019-05-15 2020-11-19 パナソニックIpマネジメント株式会社 Information processing method, unmanned aerial vehicle, and unmanned aerial vehicle control system
CN113453980A (en) * 2019-05-15 2021-09-28 松下知识产权经营株式会社 Information processing method, unmanned aerial vehicle, and unmanned aerial vehicle control system
CN113453980B (en) * 2019-05-15 2024-03-29 松下知识产权经营株式会社 Information processing method, unmanned aerial vehicle, and unmanned aerial vehicle control system
JP7457949B2 (en) 2019-05-15 2024-03-29 パナソニックIpマネジメント株式会社 Information processing method, unmanned aerial vehicle and unmanned aerial vehicle control system
JP7336621B1 (en) * 2021-09-30 2023-08-31 Jfeアドバンテック株式会社 Sound wave receiving device, sound source azimuth determination device, and sound source azimuth determination method
WO2023164814A1 (en) * 2022-03-01 2023-09-07 深圳市大疆创新科技有限公司 Media apparatus and control method and device therefor, and target tracking method and device
CN116027804A (en) * 2022-12-30 2023-04-28 中国科学院长春光学精密机械与物理研究所 Unmanned plane ground photoelectric measurement and control guiding device and guiding method
CN116027804B (en) * 2022-12-30 2024-02-13 中国科学院长春光学精密机械与物理研究所 Unmanned plane ground photoelectric measurement and control guiding device and guiding method

Also Published As

Publication number Publication date
JP6912281B2 (en) 2021-08-04

Similar Documents

Publication Publication Date Title
JP6912281B2 (en) Aircraft, flight control systems, flight control methods, programs and recording media
US9891621B2 (en) Control of an unmanned aerial vehicle through multi-touch interactive visualization
JP6803800B2 (en) Information processing device, aerial photography route generation method, aerial photography route generation system, program, and recording medium
JP6899846B2 (en) Flight path display methods, mobile platforms, flight systems, recording media and programs
JP2018146546A (en) Information processing system, information processing device, and information processing method
US11531340B2 (en) Flying body, living body detection system, living body detection method, program and recording medium
JP6765512B2 (en) Flight path generation method, information processing device, flight path generation system, program and recording medium
JP6943684B2 (en) Communication relay method, relay air vehicle, program and recording medium
US20200064133A1 (en) Information processing device, aerial photography route generation method, aerial photography route generation system, program, and storage medium
US20200097027A1 (en) Method and apparatus for controlling an unmanned aerial vehicle and an unmanned aerial vehicle system
US11443640B2 (en) Ruggedized autonomous helicopter platform
JP2018070010A (en) Unmanned aircraft controlling system, controlling method and program thereof
EP3926976B1 (en) Information processing device, information processing method, and program
JP2018070011A (en) Unmanned aircraft controlling system, controlling method and program thereof
CN111344650B (en) Information processing device, flight path generation method, program, and recording medium
JP6265576B1 (en) Imaging control apparatus, shadow position specifying apparatus, imaging system, moving object, imaging control method, shadow position specifying method, and program
CN111213107B (en) Information processing device, imaging control method, program, and recording medium
US12007763B2 (en) Magic wand interface and other user interaction paradigms for a flying digital assistant
CN114586335A (en) Image processing apparatus, image processing method, program, and recording medium
US12024284B2 (en) Information processing device, information processing method, and recording medium
JP2018070012A (en) Unmanned aircraft controlling system, controlling method and program thereof
JP2018160196A (en) Unmanned aerial vehicle control system, control method of unmanned aerial vehicle control system, and program
JP6974290B2 (en) Position estimation device, position estimation method, program, and recording medium
JP7020813B2 (en) Mobile control system and program
JP2013096934A (en) Target position detection device, target position detection method for use in the same, and target position detection program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191009

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200923

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201006

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210224

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210514

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210608

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210708

R150 Certificate of patent or registration of utility model

Ref document number: 6912281

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150