JP6515423B2 - CONTROL DEVICE, MOBILE OBJECT, CONTROL METHOD, AND PROGRAM - Google Patents

CONTROL DEVICE, MOBILE OBJECT, CONTROL METHOD, AND PROGRAM Download PDF

Info

Publication number
JP6515423B2
JP6515423B2 JP2017559618A JP2017559618A JP6515423B2 JP 6515423 B2 JP6515423 B2 JP 6515423B2 JP 2017559618 A JP2017559618 A JP 2017559618A JP 2017559618 A JP2017559618 A JP 2017559618A JP 6515423 B2 JP6515423 B2 JP 6515423B2
Authority
JP
Japan
Prior art keywords
imaging device
distance
distance range
unit
geographical
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2017559618A
Other languages
Japanese (ja)
Other versions
JPWO2018123013A1 (en
Inventor
本庄 謙一
謙一 本庄
佳範 永山
佳範 永山
高根 靖雄
靖雄 高根
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SZ DJI Technology Co Ltd
Original Assignee
SZ DJI Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SZ DJI Technology Co Ltd filed Critical SZ DJI Technology Co Ltd
Publication of JPWO2018123013A1 publication Critical patent/JPWO2018123013A1/en
Application granted granted Critical
Publication of JP6515423B2 publication Critical patent/JP6515423B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment

Description

本発明は、制御装置、移動体、制御方法、及びプログラムに関する。   The present invention relates to a control device, a mobile unit, a control method, and a program.

特許文献1には、被写体が被写界深度に入るように撮影レンズの位置と絞りの絞り量を調整するカメラが開示されている。
特許文献1 国際公開第2016/056089号公報
Patent Document 1 discloses a camera that adjusts the position of a shooting lens and the amount of stop of an aperture so that a subject enters the depth of field.
Patent Document 1: International Publication No. 2016/056089

解決しようとする課題Problem to be solved

撮影レンズの位置または絞りの絞り量を変更せずに撮影することが望まれている場合には、上記のような手法を採用できない。   If it is desired to take a picture without changing the position of the taking lens or the stop amount of the stop, the above method can not be adopted.

一般的開示General disclosure

本発明の一態様に係る制御装置は、撮像装置の焦点距離、絞り値、許容錯乱円径、及び被写体距離の少なくとも1つに基づいて、撮像装置が撮像する対象物が存在すべき撮像装置からの距離範囲を決定する第1決定部を備えてよい。制御装置は、撮像装置から対象物までの距離を特定する第1特定部を備えてよい。制御装置は、距離範囲及び距離に基づいて、距離範囲内に対象物が含まれるように撮像装置の位置を制御する制御部を備えてよい。   The control device according to one aspect of the present invention is an imaging device in which an object to be imaged by the imaging device should exist based on at least one of the focal length of the imaging device, the aperture value, the permissible circle of confusion diameter, and the object distance. And a first determination unit that determines a distance range of The control device may include a first identification unit that identifies the distance from the imaging device to the object. The control device may include a control unit that controls the position of the imaging device so that the object is included in the distance range based on the distance range and the distance.

距離範囲の幅は、撮像装置の焦点距離、絞り値、許容錯乱円径、及び被写体距離の少なくとも1つに基づいて定められる撮像装置の被写界深度の幅より狭くてよい。被写体距離は、撮像装置のレンズの位置に基づいてよい。   The width of the distance range may be narrower than the width of the depth of field of the imaging device determined based on at least one of the focal length of the imaging device, the aperture value, the permissible circle of confusion diameter, and the subject distance. The subject distance may be based on the position of the lens of the imaging device.

制御装置は、対象物の将来の第1時点における地理的位置を推定する推定部を備えてよい。制御装置は、推定された地理的位置及び距離範囲に基づいて、撮像装置が第1時点に存在すべき地理的領域を決定する第2決定部を備えてよい。制御部は、撮像装置が第1時点に地理的領域内に存在するように、撮像装置の位置を制御してよい。   The controller may comprise an estimation unit for estimating the geographical position of the object at a first future point in time. The control device may include a second determination unit that determines a geographical area where the imaging device should exist at the first time point based on the estimated geographical position and the distance range. The controller may control the position of the imaging device such that the imaging device is within the geographical area at a first time.

制御装置は、撮像装置により撮像された画像の中から予め地理的位置が定められた第1の地点、及び対象物を選択する選択部を備えてよい。制御装置は、撮像装置により撮像された画像内における第1の地点と対象物との位置関係、及び第1の地点の地理的位置に基づいて、対象物の地理的位置を特定する第2特定部を備えてよい。推定部は、現在までの複数の時点で第2特定部により特定された対象物の複数の地理的位置に基づいて、第1時点における対象物の地理的位置を推定してよい。   The control device may include a first point at which a geographical position is determined in advance from an image captured by the imaging device, and a selection unit that selects an object. The control device specifies a geographical position of the object based on the positional relationship between the first point and the object in the image captured by the imaging device, and the geographical position of the first point. You may have a department. The estimation unit may estimate the geographical position of the object at the first time based on the plurality of geographical positions of the object specified by the second specifying unit at the plurality of time points up to now.

制御部は、対象物が距離範囲内に存在する場合に、撮像装置に対象物を撮像させてよい。   The control unit may cause the imaging device to image the object when the object is present within the distance range.

本発明の一態様に係る移動体は、上記制御装置及び撮像装置を搭載して移動してよい。   The mobile unit according to an aspect of the present invention may move with the control device and the imaging device mounted thereon.

制御部は、距離範囲内に対象物が含まれるように移動体の位置を制御してよい。   The control unit may control the position of the moving body such that the object is included in the distance range.

制御部は、距離範囲内に対象物が含まれるように移動体に対象物を追尾させてよい。   The control unit may cause the moving object to track the target so that the target is included in the distance range.

移動体は、無人航空機でよい。制御部は、距離範囲内に対象物が含まれるように無人航空機にホバリングさせてよい。   The mobile may be an unmanned aerial vehicle. The controller may cause the unmanned aircraft to hover so that the object is included within the distance range.

本発明の一態様に係る制御方法は、撮像装置の焦点距離、絞り値、許容錯乱円径、及び被写体距離の少なくとも1つに基づいて、撮像装置が撮像する対象物が存在すべき撮像装置からの距離範囲を決定する段階を備えてよい。制御方法は、撮像装置から対象物までの距離を特定する段階を備えてよい。制御方法は、距離範囲及び距離に基づいて、距離範囲内に対象物が含まれるように撮像装置の位置を制御する段階を備えてよい。   According to one aspect of the present invention, there is provided a control method according to an aspect of the present invention, in which an imaging device should have an object to be imaged based on at least one of a focal length of an imaging device, an aperture value, a permissible circle of confusion diameter Determining a distance range of The control method may comprise identifying a distance from the imaging device to the object. The control method may comprise controlling the position of the imaging device to include the object within the distance range based on the distance range and the distance.

本発明の一態様に係るプログラムは、撮像装置の焦点距離、絞り値、許容錯乱円径、及び被写体距離の少なくとも1つに基づいて、撮像装置が撮像する対象物が存在すべき撮像装置からの距離範囲を決定する段階をコンピュータに実行させてよい。プログラムは、撮像装置から対象物までの距離を特定する段階をコンピュータに実行させてよい。プログラムは、距離範囲及び距離に基づいて、距離範囲内に対象物が含まれるように撮像装置の位置を制御する段階をコンピュータに実行させてよい。   A program according to an aspect of the present invention is a program from an imaging device in which an object to be imaged by the imaging device should exist based on at least one of the focal length of the imaging device, the aperture value, the permissible circle of confusion diameter, and the object distance. The computer may perform the step of determining the distance range. The program may cause the computer to execute a step of specifying the distance from the imaging device to the object. The program may cause the computer to control the position of the imaging device so that the object is included in the distance range based on the distance range and the distance.

撮像装置の撮影条件を変更せずに撮影することが望まれている場合でも、対象物が撮像装置の被写界深度から外れることを防止できる。   Even when it is desired to capture an image without changing the imaging conditions of the imaging device, it is possible to prevent the object from falling out of the depth of field of the imaging device.

上記の発明の概要は、本発明の特徴の全てを列挙したものではない。これらの特徴群のサブコンビネーションも発明となりうる。   The above summary of the invention does not enumerate all of the features of the present invention. A subcombination of these feature groups can also be an invention.

無人航空機の外観の一例を示す図である。It is a figure showing an example of the appearance of a unmanned aerial vehicle. 被写界深度について説明するための模式図である。It is a schematic diagram for demonstrating the depth of field. 無人航空機の機能ブロックの一例を示す図である。It is a figure which shows an example of the functional block of a unmanned aerial vehicle. 距離範囲の位置の調整の一例について説明するための図である。It is a figure for demonstrating an example of adjustment of the position of a distance range. 対象物及びUAVの移動距離の時間的変化の一例を示す図である。It is a figure which shows an example of the time change of the movement distance of a target object and UAV. 対象物及びUAVの移動距離の時間的変化の一例を示す図である。It is a figure which shows an example of the time change of the movement distance of a target object and UAV. 基準点及び対象物を含む画像の一例を示す図である。It is a figure which shows an example of the image containing a control | reference point and a target object. 撮像装置の位置を制御する手順の一例を示すフローチャートである。5 is a flowchart illustrating an example of a procedure of controlling the position of the imaging device. 対象物の将来の位置を推定して撮像装置の位置を制御する手順の一例を示すフローチャートである。It is a flowchart which shows an example of the procedure which estimates the future position of a target object and controls the position of an imaging device. ハードウェア構成の一例を示す図である。It is a figure showing an example of hardware constitutions.

以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。   Hereinafter, the present invention will be described through the embodiments of the invention, but the following embodiments do not limit the invention according to the claims. Moreover, not all combinations of features described in the embodiments are essential to the solution of the invention.

請求の範囲、明細書、図面、及び要約書には、著作権による保護の対象となる事項が含まれる。著作権者は、これらの書類の何人による複製に対しても、特許庁のファイルまたはレコードに表示される通りであれば異議を唱えない。ただし、それ以外の場合、一切の著作権を保留する。   The claims, the description, the drawings, and the abstract contain matters which are subject to copyright protection. The copyright holder will not object to any copy of these documents as they appear in the Patent Office file or record. However, in all other cases, all copyrights are reserved.

本発明の様々な実施形態は、フローチャート及びブロック図を参照して記載されてよい。フローチャート及びブロック図におけるブロックは、(1)オペレーションが実行されるプロセスの段階又は(2)オペレーションを実行する役割を持つ装置の「部」を表わしてよい。特定の段階及び「部」が、専用回路、コンピュータ可読記憶媒体上に格納されるコンピュータ可読命令と共に供給されるプログラマブル回路、及び/又はコンピュータ可読記憶媒体上に格納されるコンピュータ可読命令と共に供給されるプロセッサによって実装されてよい。専用回路は、デジタル及び/またはアナログハードウェア回路を含んでよい。集積回路(IC)及び/またはディスクリート回路を含んでよい。プログラマブル回路は、例えば、フィールドプログラマブルゲートアレイ(FPGA)、及びプログラマブルロジックアレイ(PLA)等のような、論理積、論理和、排他的論理和、否定論理積、否定論理和、及び他の論理演算、フリップフロップ、レジスタ、並びにメモリエレメントを含む、再構成可能なハードウェア回路を含んでよい。   Various embodiments of the present invention may be described with reference to the flowcharts and block diagrams. The blocks in the flowcharts and block diagrams may represent (1) steps of a process in which the operation is performed or (2) "parts" of the device responsible for performing the operation. Specific steps and "parts" are supplied with dedicated circuitry, programmable circuitry supplied with computer readable instructions stored on computer readable storage media, and / or computer readable instructions stored on computer readable storage media It may be implemented by a processor. Dedicated circuitry may include digital and / or analog hardware circuitry. Integrated circuits (ICs) and / or discrete circuits may be included. Programmable circuits include, for example, AND, OR, EXCLUSIVE OR, NOR, NOR, and other logical operations, such as Field Programmable Gate Array (FPGA), Programmable Logic Array (PLA), etc. Reconfigurable hardware circuitry may be included, including flip flops, registers, and memory elements.

コンピュータ可読記憶媒体は、適切なデバイスによって実行される命令を格納可能な任意の有形なデバイスを含んでよい。その結果、そこに格納される命令を有するコンピュータ可読記憶媒体は、フローチャートまたはブロック図で指定されたオペレーションを実行するための手段を作成すべく実行され得る命令を含む、製品を備えることになる。コンピュータ可読記憶媒体の例としては、電子記憶媒体、磁気記憶媒体、光記憶媒体、電磁記憶媒体、半導体記憶媒体等が含まれてよい。コンピュータ可読記憶媒体のより具体的な例としては、フロッピー(登録商標)ディスク、ディスケット、ハードディスク、ランダムアクセスメモリ(RAM)、リードオンリメモリ(ROM)、消去可能プログラマブルリードオンリメモリ(EPROMまたはフラッシュメモリ)、電気的消去可能プログラマブルリードオンリメモリ(EEPROM)、静的ランダムアクセスメモリ(SRAM)、コンパクトディスクリードオンリメモリ(CD-ROM)、デジタル多用途ディスク(DVD)、ブルーレイ(登録商標)ディスク、メモリスティック、集積回路カード等が含まれてよい。   Computer readable storage media may include any tangible device capable of storing instructions for execution by a suitable device. As a result, a computer readable storage medium having instructions stored thereon will comprise an article of manufacture that includes instructions that can be executed to create means for performing the operations specified in the flowchart or block diagram. Examples of computer readable storage media may include electronic storage media, magnetic storage media, optical storage media, electromagnetic storage media, semiconductor storage media, and the like. More specific examples of the computer readable storage medium include floppy disk, diskette, hard disk, random access memory (RAM), read only memory (ROM), erasable programmable read only memory (EPROM or flash memory) Electrically erasable programmable read only memory (EEPROM), static random access memory (SRAM), compact disc read only memory (CD-ROM), digital versatile disc (DVD), Blu-ray (registered trademark) disc, memory stick , Integrated circuit cards, etc. may be included.

コンピュータ可読命令は、1または複数のプログラミング言語の任意の組み合わせで記述されたソースコードまたはオブジェクトコードの何れかを含んでよい。ソースコードまたはオブジェクトコードは、従来の手続型プログラミング言語を含む。従来の手続型プログラミング言語は、アセンブラ命令、命令セットアーキテクチャ(ISA)命令、マシン命令、マシン依存命令、マイクロコード、ファームウェア命令、状態設定データ、またはSmalltalk、JAVA(登録商標)、C++等のようなオブジェクト指向プログラミング言語、及び「C」プログラミング言語または同様のプログラミング言語でよい。   Computer readable instructions may include either source code or object code written in any combination of one or more programming languages. Source code or object code includes a conventional procedural programming language. Conventional procedural programming languages include assembler instructions, instruction set architecture (ISA) instructions, machine instructions, machine dependent instructions, microcode, firmware instructions, state setting data, or like Smalltalk, JAVA, C ++, etc. It may be an object oriented programming language, and a "C" programming language or similar programming language.

コンピュータ可読命令は、汎用コンピュータ、特殊目的のコンピュータ、若しくは他のプログラム可能なデータ処理装置のプロセッサまたはプログラマブル回路に対し、ローカルにまたはローカルエリアネットワーク(LAN)、インターネット等のようなワイドエリアネットワーク(WAN)を介して提供されてよい。プロセッサまたはプログラマブル回路は、フローチャートまたはブロック図で指定されたオペレーションを実行するための手段を作成すべく、コンピュータ可読命令を実行してよい。プロセッサの例としては、コンピュータプロセッサ、処理ユニット、マイクロプロセッサ、デジタル信号プロセッサ、コントローラ、マイクロコントローラ等を含む。   Computer readable instructions may be local or to a wide area network (WAN) such as a local area network (LAN), the Internet, etc., relative to a processor or programmable circuitry of a general purpose computer, special purpose computer, or other programmable data processing device. May be provided via The processor or programmable circuitry may execute computer readable instructions to create a means for performing the operations specified in the flowchart or block diagram. Examples of processors include computer processors, processing units, microprocessors, digital signal processors, controllers, microcontrollers, and the like.

図1は、無人航空機(UAV)100の外観の一例を示す。UAV100は、UAV本体102、ジンバル200、撮像装置300、及び複数の撮像装置230を備える。UAV100は、移動体の一例である。移動体とは、UAVの他、空中を移動する他の航空機、地上を移動する車両、水上を移動する船舶等を含む概念である。ジンバル200及び撮像装置300は、撮像システムの一例である。   FIG. 1 shows an example of the appearance of an unmanned aerial vehicle (UAV) 100. The UAV 100 includes a UAV body 102, a gimbal 200, an imaging device 300, and a plurality of imaging devices 230. The UAV 100 is an example of a mobile. The moving body is a concept including UAVs, other aircraft moving in the air, vehicles moving on the ground, ships moving on the water, and the like. The gimbal 200 and the imaging device 300 are an example of an imaging system.

UAV本体102は、複数の回転翼を備える。UAV本体102は、複数の回転翼の回転を制御することでUAV100を飛行させる。UAV本体102は、例えば、4つの回転翼を用いてUAV100を飛行させる。回転翼の数は、4つには限定されない。また、UAV100は、回転翼を有さない固定翼機でもよい。   The UAV body 102 comprises a plurality of rotors. The UAV body 102 causes the UAV 100 to fly by controlling the rotation of a plurality of rotors. The UAV body 102 causes the UAV 100 to fly, for example, using four rotors. The number of rotors is not limited to four. Further, the UAV 100 may be a fixed wing aircraft that does not have a rotary wing.

撮像装置300は、動画または静止画を撮像するためのカメラである。複数の撮像装置230は、UAV100の飛行を制御するためにUAV100の周囲を撮像するセンシング用のカメラである。2つの撮像装置230が、UAV100の機首である正面に設けられてよい。さらに他の2つの撮像装置230が、UAV100の底面に設けられてよい。正面側の2つの撮像装置230はペアとなり、いわゆるステレオカメラとして機能してよい。底面側の2つの撮像装置230もペアとなり、ステレオカメラとして機能してよい。複数の撮像装置230により撮像された画像に基づいて、UAV100から対象物までの距離が計測されてよい。複数の撮像装置230により撮像された画像に基づいて、UAV100の周囲の3次元空間データが生成されてよい。UAV100が備える撮像装置230の数は4つには限定されない。UAV100は、少なくとも1つの撮像装置230を備えていればよい。UAV100は、UAV100の機首、機尾、側面、底面、及び天井面のそれぞれに少なくとも1つの撮像装置230を備えてもよい。撮像装置230で設定できる画角は、撮像装置300で設定できる画角より広くてよい。撮像装置230は、単焦点レンズまたは魚眼レンズを有してもよい。   The imaging device 300 is a camera for capturing a moving image or a still image. The plurality of imaging devices 230 are sensing cameras that capture the periphery of the UAV 100 to control the flight of the UAV 100. Two imaging devices 230 may be provided at the front, which is the nose of the UAV 100. Two further imaging devices 230 may be provided on the bottom of the UAV 100. The two front imaging devices 230 may be paired to function as a so-called stereo camera. The two imaging devices 230 on the bottom side may also be paired and function as a stereo camera. Based on the images captured by the plurality of imaging devices 230, the distance from the UAV 100 to the object may be measured. Three-dimensional spatial data around the UAV 100 may be generated based on the images captured by the plurality of imaging devices 230. The number of imaging devices 230 included in the UAV 100 is not limited to four. The UAV 100 may include at least one imaging device 230. UAV 100 may include at least one imaging device 230 on each of the nose, aft, sides, bottom, and ceiling of UAV 100. The angle of view that can be set by the imaging device 230 may be wider than the angle of view that can be set by the imaging device 300. The imaging device 230 may have a single focus lens or a fisheye lens.

以上のように構成されたUAV100に搭載された撮像装置300において、撮像装置300により撮像される対象物が、撮像装置300の被写界深度から外れないように、UAV100の位置を制御する。   In the imaging device 300 mounted on the UAV 100 configured as described above, the position of the UAV 100 is controlled so that the object imaged by the imaging device 300 does not deviate from the depth of field of the imaging device 300.

図2は、被写界深度について説明するための模式図である。レンズ510の焦点距離をf、絞り514の絞り値をF、レンズ510からレンズ510の合焦位置502までの距離を示す被写体距離をa、レンズ510から撮像素子512の像面までの距離を示す像距離b、許容錯乱円径をεと定義する。被写体距離aは、レンズ510の位置によって変化する。許容錯乱円径εは、撮像素子512の種類によって変わる場合がある。許容錯乱円径εは、撮像素子512のサイズによって変わる場合がある。撮像素子512の像面から主要被写体である対象物500までの距離(撮影距離)をLと定義する。被写界深度は、撮像装置の焦点距離f、絞り値F、許容錯乱円径ε、及び被写体距離aの少なくとも1つに基づいて定められてよい。   FIG. 2 is a schematic view for explaining the depth of field. The focal length of the lens 510 is f, the aperture value of the diaphragm 514 is F, the subject distance indicating the distance from the lens 510 to the in-focus position 502 of the lens 510 is a, the distance from the lens 510 to the image plane of the image sensor 512 The image distance b and the permissible circle of confusion are defined as ε. The subject distance a changes with the position of the lens 510. The permissible circle of confusion diameter ε may change depending on the type of the imaging device 512. The permissible circle of confusion diameter ε may change depending on the size of the image sensor 512. A distance (shooting distance) from the image plane of the imaging element 512 to the target object 500 as a main subject is defined as L. The depth of field may be determined based on at least one of the focal length f of the imaging device, the aperture value F, the permissible circle of confusion diameter ε, and the subject distance a.

被写界深度520は、前方被写界深度522と後方被写界深度524との合計である。前方被写界深度522は、合焦位置502から前方側に位置する。後方被写界深度524は、合焦位置502より後方側に位置する。前方被写界深度522及び後方被写界深度524は、次式で導出される。

Figure 0006515423
The depth of field 520 is the sum of the forward depth of field 522 and the backward depth of field 524. The front depth of field 522 is located on the front side from the focusing position 502. The rear depth of field 524 is located rearward of the focusing position 502. The forward depth of field 522 and the backward depth of field 524 are derived by the following equation.
Figure 0006515423

UAV100は、対象物500が被写界深度520から外れないように、対象物500が存在すべき撮像装置300からの距離範囲526内に対象物500が含まれるように撮像装置300の位置、すなわちUAV100の位置を制御してよい。距離範囲526の幅は、被写界深度520の幅より狭くてよい。距離範囲526は、撮像素子512の像面からの距離Lfから、撮像素子512の像面からの距離Lb(>距離Lf)までの範囲でよい。距離範囲526は、前方被写界深度522の予め定められた割合、及び後方被写界深度524の予め定められた割合を含んでよい。距離範囲526は、例えば、前方被写界深度522の合焦位置502側の95%、90%、85%、または80%の範囲、及び後方被写界深度524の合焦位置502側の95%、90%、85%、または80%の範囲を含んでよい。   The UAV 100 positions the imaging device 300 such that the object 500 is included within the distance range 526 from the imaging device 300 where the object 500 should be present, so that the object 500 does not deviate from the depth of field 520. The position of UAV 100 may be controlled. The width of the distance range 526 may be narrower than the width of the depth of field 520. The distance range 526 may be a range from the distance Lf from the image plane of the imaging device 512 to the distance Lb from the image plane of the imaging device 512 (> distance Lf). Distance range 526 may include a predetermined percentage of forward depth of field 522 and a predetermined percentage of rear depth of field 524. The distance range 526 is, for example, a 95%, 90%, 85%, or 80% range on the side of the in-focus position 502 of the front depth of field 522, and 95 on the side of the in-focus position 502 of the back depth of field 524. A range of%, 90%, 85%, or 80% may be included.

このようにUAV100が飛行することで、撮像装置300の絞り値F、焦点距離fなどの撮影条件を変更せずに撮影することが望まれている場合でも、対象物500が撮像装置300の被写界深度520から外れることを防止できる。   As described above, even when it is desired that shooting is performed without changing the imaging conditions such as the aperture value F and the focal length f of the imaging device 300 by the UAV 100 flying, the object 500 is a target of the imaging device 300. It is possible to prevent the camera from falling out of the depth of field 520.

図3は、UAV100の機能ブロックの一例を示す。UAV100は、UAV制御部110、通信インタフェース150、メモリ160、ジンバル200、回転翼機構210、撮像装置300、撮像装置230、GPS受信機240、慣性計測装置(IMU)250、磁気コンパス260、及び気圧高度計270を備える。   FIG. 3 shows an example of a functional block of the UAV 100. The UAV 100 includes a UAV control unit 110, a communication interface 150, a memory 160, a gimbal 200, a rotary wing mechanism 210, an imaging device 300, an imaging device 230, a GPS receiver 240, an inertial measurement unit (IMU) 250, a magnetic compass 260, and a barometric pressure. An altimeter 270 is provided.

通信インタフェース150は、外部の送信機と通信する。通信インタフェース150は、遠隔の送信機からUAV制御部110に対する各種の命令を受信する。メモリ160は、UAV制御部110がジンバル200、回転翼機構210、撮像装置300、撮像装置230、GPS受信機240、IMU250、磁気コンパス260、及び気圧高度計270を制御するのに必要なプログラム等を格納する。メモリ160は、コンピュータ読み取り可能な記録媒体でよく、SRAM、DRAM、EPROM、EEPROM、及びUSBメモリ等のフラッシュメモリの少なくとも1つを含んでよい。メモリ160は、UAV本体102の内部に設けられてよい。メモリ160は、UAV本体102から取り外し可能に設けられてよい。   The communication interface 150 communicates with an external transmitter. The communication interface 150 receives various commands to the UAV control unit 110 from a remote transmitter. The memory 160 is a program necessary for the UAV control unit 110 to control the gimbal 200, the rotary wing mechanism 210, the imaging device 300, the imaging device 230, the GPS receiver 240, the IMU 250, the magnetic compass 260, and the barometric altimeter 270. Store. The memory 160 may be a computer readable recording medium, and may include at least one of a SRAM, a DRAM, an EPROM, an EEPROM, and a flash memory such as a USB memory. The memory 160 may be provided inside the UAV body 102. The memory 160 may be provided to be removable from the UAV body 102.

ジンバル200は、撮像装置300の撮像方向を調整可能に支持する。ジンバル200は、少なくとも1つの軸を中心に撮像装置300を回転可能に支持する。ジンバル200は、支持機構の一例である。ジンバル200は、ヨー軸、ピッチ軸、及びロール軸を中心に撮像装置300を回転可能に支持してよい。ジンバル200は、ヨー軸、ピッチ軸、及びロール軸の少なくとも1つを中心に撮像装置300を回転させることで、撮像装置300の撮像方向を変更してよい。回転翼機構210は、複数の回転翼と、複数の回転翼を回転させる複数の駆動モータとを有する。   The gimbal 200 supports the imaging direction of the imaging device 300 in an adjustable manner. The gimbal 200 rotatably supports the imaging device 300 about at least one axis. The gimbal 200 is an example of a support mechanism. The gimbal 200 may rotatably support the imaging device 300 about the yaw axis, the pitch axis, and the roll axis. The gimbal 200 may change the imaging direction of the imaging device 300 by rotating the imaging device 300 about at least one of the yaw axis, the pitch axis, and the roll axis. The rotary wing mechanism 210 has a plurality of rotary wings and a plurality of drive motors for rotating the plurality of rotary wings.

撮像装置230は、UAV100の周囲を撮像して画像データを生成する。撮像装置230の画像データは、メモリ160に格納される。GPS受信機240は、複数のGPS衛星から発信された時刻を示す複数の信号を受信する。GPS受信機240は、受信された複数の信号に基づいてGPS受信機240の位置、つまりUAV100の位置を算出する。慣性計測装置(IMU)250は、UAV100の姿勢を検出する。IMU250は、UAV100の姿勢として、UAV100の前後、左右、及び上下の3軸方向の加速度と、ピッチ、ロール、及びヨーの3軸方向の角速度とを検出する。磁気コンパス260は、UAV100の機首の方位を検出する。気圧高度計270は、UAV100が飛行する高度を検出する。   The imaging device 230 images the periphery of the UAV 100 to generate image data. Image data of the imaging device 230 is stored in the memory 160. The GPS receiver 240 receives a plurality of signals indicating times transmitted from a plurality of GPS satellites. The GPS receiver 240 calculates the position of the GPS receiver 240, that is, the position of the UAV 100 based on the received plurality of signals. The inertial measurement unit (IMU) 250 detects the attitude of the UAV 100. The IMU 250 detects, as the posture of the UAV 100, accelerations in three axial directions in the front, rear, left, right, upper and lower directions of the UAV 100 and angular velocities in three axial directions of pitch, roll, and yaw. The magnetic compass 260 detects the heading of the UAV 100. The barometric altimeter 270 detects the altitude at which the UAV 100 flies.

UAV制御部110は、メモリ160に格納されたプログラムに従ってUAV100の飛行を制御する。UAV制御部110は、CPUまたはMPU等のマイクロプロセッサ、MCU等のマイクロコントローラ等により構成されてよい。UAV制御部110は、通信インタフェース150を介して遠隔の送信機から受信した命令に従って、UAV100の飛行を制御する。   The UAV control unit 110 controls the flight of the UAV 100 according to a program stored in the memory 160. The UAV control unit 110 may be configured by a microprocessor such as a CPU or an MPU or a microcontroller such as an MCU. The UAV control unit 110 controls the flight of the UAV 100 in accordance with an instruction received from a remote transmitter via the communication interface 150.

UAV制御部110は、複数の撮像装置230により撮像された複数の画像を解析することで、UAV100の周囲の環境を特定してよい。UAV制御部110は、UAV100の周囲の環境に基づいて、例えば、障害物を回避して飛行を制御する。UAV制御部110は、複数の撮像装置230により撮像された複数の画像に基づいてUAV100の周囲の3次元空間データを生成し、3次元空間データに基づいて飛行を制御してよい。   The UAV control unit 110 may specify an environment around the UAV 100 by analyzing a plurality of images captured by a plurality of imaging devices 230. The UAV control unit 110 controls the flight, for example, avoiding an obstacle based on the environment around the UAV 100. The UAV control unit 110 may generate three-dimensional space data around the UAV 100 based on a plurality of images captured by a plurality of imaging devices 230 and control flight based on the three-dimensional space data.

撮像装置300は、撮像部301、及びレンズ部401を備える。レンズ部401は、撮像部301から取り外しが可能なレンズユニットでもよい。撮像部301は、撮像制御部310、撮像素子330、及びメモリ340を有する。撮像制御部310は、CPUまたはMPUなどのマイクロプロセッサ、MCUなどのマイクロコントローラなどにより構成されてよい。撮像制御部310は、UAV制御部110からの撮像装置300の動作命令に応じて、撮像装置300を制御してよい。   The imaging device 300 includes an imaging unit 301 and a lens unit 401. The lens unit 401 may be a lens unit that can be removed from the imaging unit 301. The imaging unit 301 includes an imaging control unit 310, an imaging element 330, and a memory 340. The imaging control unit 310 may be configured by a microprocessor such as a CPU or an MPU or a microcontroller such as an MCU. The imaging control unit 310 may control the imaging device 300 in accordance with an operation command of the imaging device 300 from the UAV control unit 110.

メモリ340は、コンピュータ可読可能な記録媒体でよく、SRAM、DRAM、EPROM、EEPROM、及びUSBメモリなどのフラッシュメモリの少なくとも1つを含んでよい。メモリ340は、撮像部301の筐体の内部に設けられてよい。メモリ340は、撮像部301の筐体から取り外し可能に設けられてよい。   The memory 340 may be a computer readable recording medium, and may include at least one of a SRAM, a DRAM, an EPROM, an EEPROM, and a flash memory such as a USB memory. The memory 340 may be provided inside the housing of the imaging unit 301. The memory 340 may be provided to be removable from the housing of the imaging unit 301.

撮像素子330は、CCDまたはCMOSにより構成されてよい。撮像素子330は、撮像装置300の筐体の内部に保持され、複数のレンズ432及びレンズ442を介して結像された光学像の画像データを撮像制御部310に出力する。撮像制御部310は、画像データに対してノイズ低減、デモザイキング、ガンマ補正、及びエッジ協調などの一連の画像処理を施す。撮像制御部310は、一連の画像処理後の画像データをメモリ340に格納する。撮像制御部310は、画像データをUAV制御部110を介してメモリ160に出力して格納してもよい。   The imaging device 330 may be configured by a CCD or a CMOS. The imaging element 330 is held inside the casing of the imaging device 300, and outputs image data of an optical image formed through the plurality of lenses 432 and the lens 442 to the imaging control unit 310. The imaging control unit 310 performs a series of image processing such as noise reduction, demosaicing, gamma correction, and edge coordination on the image data. The imaging control unit 310 stores the image data after the series of image processing in the memory 340. The imaging control unit 310 may output image data to the memory 160 via the UAV control unit 110 and store the image data.

レンズ部401は、レンズ制御部410、メモリ420、レンズ駆動部430、レンズ432、位置センサ434、レンズ駆動部440、レンズ442、位置センサ444、絞り駆動部450、及び絞り452を備える。レンズ432は、少なくとも1枚のレンズを含む。レンズ432は、ズームレンズでよい。レンズ442は、少なくとも1枚のレンズを含む。レンズ442は、フォーカスレンズでよい。   The lens unit 401 includes a lens control unit 410, a memory 420, a lens drive unit 430, a lens 432, a position sensor 434, a lens drive unit 440, a lens 442, a position sensor 444, an aperture drive unit 450, and an aperture 452. The lens 432 includes at least one lens. The lens 432 may be a zoom lens. The lens 442 includes at least one lens. The lens 442 may be a focus lens.

レンズ制御部410は、撮像部301からのレンズ動作命令に応じてレンズ駆動部430を介して、レンズ432の光軸方向への移動を制御する。レンズ制御部410は、撮像部301からのレンズ動作命令に応じてレンズ駆動部440を介して、レンズ442の光軸方向への移動を制御する。レンズ432及びレンズ442の一部または全部は、光軸に沿って移動する。レンズ制御部410は、レンズ432及びレンズ442の少なくとも1つを光軸に沿って移動させることで、ズーム動作及びフォーカス動作の少なくとも一方を実行する。位置センサ434は、レンズ432の位置を検出する。位置センサ434は、現在のズーム位置を検出してよい。位置センサ444は、レンズ442の位置を検出する。位置センサ444は、現在のフォーカス位置を検出してよい。   The lens control unit 410 controls the movement of the lens 432 in the optical axis direction via the lens drive unit 430 in accordance with the lens operation command from the imaging unit 301. The lens control unit 410 controls the movement of the lens 442 in the optical axis direction via the lens drive unit 440 in accordance with the lens operation command from the imaging unit 301. Some or all of the lens 432 and the lens 442 move along the optical axis. The lens control unit 410 performs at least one of the zoom operation and the focus operation by moving at least one of the lens 432 and the lens 442 along the optical axis. The position sensor 434 detects the position of the lens 432. Position sensor 434 may detect the current zoom position. The position sensor 444 detects the position of the lens 442. Position sensor 444 may detect the current focus position.

レンズ駆動部430及びレンズ駆動部440は、アクチュエータを含んでよい。レンズ432及びレンズ442は、それぞれのアクチュエータからの動力を受けてレンズ駆動機構を介して光軸方向に沿って移動してよい。   The lens driving unit 430 and the lens driving unit 440 may include an actuator. The lens 432 and the lens 442 may move along the optical axis direction via a lens drive mechanism upon receiving power from the respective actuators.

絞り452は、撮像素子330に入射される光の量を調整する。絞り駆動部450は、アクチュエータを含んでよい。絞り駆動部450は、レンズ制御部410からの指令を受けて、アクチュエータを駆動して、絞り開口の大きさ、つまり絞り値を調整してよい。   The aperture 452 adjusts the amount of light incident on the imaging device 330. The diaphragm drive unit 450 may include an actuator. In response to a command from the lens control unit 410, the diaphragm drive unit 450 may drive an actuator to adjust the size of the diaphragm opening, that is, the diaphragm value.

メモリ420は、レンズ駆動部430を介して移動する複数のレンズ432及びレンズ442の制御値を記憶する。メモリ420は、SRAM、DRAM、EPROM、EEPROM、及びUSBメモリなどのフラッシュメモリの少なくとも1つを含んでよい。   The memory 420 stores control values of the plurality of lenses 432 and the lenses 442 moving through the lens driving unit 430. The memory 420 may include at least one of flash memory such as SRAM, DRAM, EPROM, EEPROM, and USB memory.

このように構成されたUAV100において、対象物500が撮像装置300の被写界深度から外れないように、UAV制御部110がUAV100の位置を制御する。   In the UAV 100 configured as above, the UAV control unit 110 controls the position of the UAV 100 so that the object 500 does not deviate from the depth of field of the imaging device 300.

UAV制御部110は、距離範囲決定部111、距離特定部112、位置制御部113、選択部114、地理的位置特定部115、推定部116、及び地理的領域決定部117を有する。UAV制御部110以外の他の制御部が、UAV制御部110が備える各部の全部または一部を有してもよい。例えば、撮像制御部310が、UAV制御部110が備える各部の全部または一部を有してよい。UAV100を遠隔制御する送信機が、UAV制御部110が備える各部の全部または一部を有してよい。   The UAV control unit 110 includes a distance range determination unit 111, a distance specification unit 112, a position control unit 113, a selection unit 114, a geographical position specification unit 115, an estimation unit 116, and a geographical area determination unit 117. A control unit other than the UAV control unit 110 may have all or part of the units included in the UAV control unit 110. For example, the imaging control unit 310 may include all or part of the units included in the UAV control unit 110. The transmitter for remotely controlling the UAV 100 may have all or part of the units included in the UAV control unit 110.

距離範囲決定部111は、撮像装置300の焦点距離f、絞り値F、許容錯乱円径ε、及び被写体距離aの少なくとも1つに基づいて、撮像装置300が撮像する対象物500が存在すべき撮像装置300からの距離範囲526を決定する。距離範囲決定部111は、第1決定部の一例である。距離範囲決定部111は、撮像装置300の焦点距離f、絞り値F、許容錯乱円径ε、及び被写体距離aに基づいて上述の式(1)及び式(2)より前方被写界深度522及び後方被写界深度524を導出してよい。距離範囲決定部111は、導出された前方被写界深度522及び後方被写界深度524に基づいて、距離範囲526を決定してよい。距離範囲決定部111は、前方被写界深度522の合焦位置502側の予め定められた割合(例えば、90%)、及び後方被写界深度524の合焦位置502側の予め定められた割合(例えば、90%)を含むように、距離範囲526を決定してよい。   The distance range determination unit 111 should have an object 500 to be imaged by the imaging device 300 based on at least one of the focal length f of the imaging device 300, the aperture value F, the permissible circle of confusion diameter ε, and the object distance a. A distance range 526 from the imaging device 300 is determined. The distance range determination unit 111 is an example of a first determination unit. The distance range determination unit 111 determines the front depth of field 522 according to the above equations (1) and (2) based on the focal length f of the imaging device 300, the aperture value F, the permissible circle of confusion ε, and the subject distance a. And the rear depth of field 524 may be derived. The distance range determination unit 111 may determine the distance range 526 based on the derived front depth of field 522 and the rear depth of field 524. The distance range determination unit 111 determines a predetermined ratio (for example, 90%) of the in-focus position 502 of the front depth of field 522 and a predetermined ratio of the in-focus position 502 of the back depth of field 524. Distance range 526 may be determined to include a percentage (eg, 90%).

距離特定部112は、撮像装置300から対象物500までの距離Lを特定する。距離Lは、撮像素子330の像面から対象物500までの距離でよい。距離特定部112は、第1特定部の一例である。距離特定部112は、複数の撮像装置230により撮像された複数の画像に基づいて三角測距方式でUAV100から対象物500までの距離を距離Lとして特定してよい。距離特定部112は、超音波式センサ、赤外線センサ、またはレーダ式センサなどを用いてUAV100から対象物500までの距離を距離Lとして特定してよい。   The distance specifying unit 112 specifies the distance L from the imaging device 300 to the object 500. The distance L may be the distance from the image plane of the imaging device 330 to the object 500. The distance specifying unit 112 is an example of a first specifying unit. The distance specifying unit 112 may specify the distance from the UAV 100 to the object 500 as the distance L based on a plurality of images captured by the plurality of imaging devices 230 using a triangular ranging method. The distance specifying unit 112 may specify the distance from the UAV 100 to the object 500 as the distance L using an ultrasonic sensor, an infrared sensor, a radar sensor, or the like.

位置制御部113は、距離範囲526及び距離Lに基づいて、距離範囲526内に対象物500が含まれるように撮像装置300の位置、すなわちUAV100の位置を制御する。位置制御部113は、制御部の一例である。UAV制御部110は、対象物が距離範囲内に存在する場合に、撮像装置300に対象物を撮像させてよい。UAV制御部110は、対象物が距離範囲内に存在しない場合には、撮像装置300による対象物の撮像を停止してよい。UAV100が対象物を追尾している間、UAV制御部110は、距離範囲決定部111により決定された距離範囲内に対象物が存在するように、UAV100の位置を制御してよい。UAV100が対象物の周囲でホバリング中に、UAV制御部110は、距離範囲決定部111により決定された距離範囲内に対象物が存在するように、UAV100の位置を制御してよい。   The position control unit 113 controls the position of the imaging device 300, that is, the position of the UAV 100 so that the object 500 is included in the distance range 526 based on the distance range 526 and the distance L. The position control unit 113 is an example of a control unit. The UAV control unit 110 may cause the imaging device 300 to image the object when the object is present within the distance range. The UAV control unit 110 may stop the imaging of the object by the imaging device 300 when the object does not exist within the distance range. While the UAV 100 is tracking an object, the UAV control unit 110 may control the position of the UAV 100 so that the object is present within the distance range determined by the distance range determination unit 111. While the UAV 100 hovers around the object, the UAV control unit 110 may control the position of the UAV 100 such that the object is present within the distance range determined by the distance range determination unit 111.

図4は、距離範囲の位置の調整の一例について説明するための図である。対象物500が対象物500'の位置まで移動して、被写界深度610の距離範囲600を外れたとする。この場合、位置制御部113は、例えば、対象物500'が距離範囲の中央に存在するように、UAV100の位置を制御する。UAV100が移動することで、距離範囲が距離範囲600から距離範囲600'に移動する。   FIG. 4 is a diagram for describing an example of adjustment of the position of the distance range. It is assumed that the object 500 moves to the position of the object 500 ′ and deviates from the distance range 600 of the depth of field 610. In this case, the position control unit 113 controls, for example, the position of the UAV 100 such that the object 500 'is at the center of the distance range. As the UAV 100 moves, the distance range moves from the distance range 600 to the distance range 600 ′.

位置制御部113は、対象物500と撮像装置300との相対的な移動方向に応じて、対象物500が存在すべき距離範囲526内の位置を調整してよい。例えば、対象物500が撮像装置300に近付いてきているとする。この場合、対象物500は、前方被写界深度522の合焦位置502側の端部と反対側の端部から外れる。すなわち、対象物500は、前方被写界深度522の前方側の端部から外れる。この場合、位置制御部113は、対象物500が後方被写界深度524内に位置するように、UAV100の位置を制御してよい。一方、対象物500が撮像装置300から遠ざかっているとする。この場合、対象物500は、後方被写界深度524の合焦位置502側の端部と反対側の端部から外れる。すなわち、対象物500は、後方被写界深度524の後方側の端部から外れる。この場合、位置制御部113は、対象物500が前方被写界深度522内に位置するように、UAV100の位置を制御してよい。対象物500と撮像装置300との相対的な移動方向が一定の場合には、対象物500の位置が上記のような位置になるようにUAV100の位置を制御することで、対象物500が撮像装置300の被写界深度520から外れるのをさらに抑制できる。または、位置制御部113が距離範囲526に基づいてUAV100の位置を調整する頻度を低減できる。   The position control unit 113 may adjust the position within the distance range 526 where the object 500 should be present, in accordance with the relative movement direction of the object 500 and the imaging device 300. For example, it is assumed that the object 500 is approaching the imaging device 300. In this case, the object 500 deviates from the end on the opposite side to the end on the focusing position 502 side of the front depth of field 522. That is, the object 500 is disengaged from the front end of the front depth of field 522. In this case, the position control unit 113 may control the position of the UAV 100 such that the object 500 is located within the rear depth of field 524. On the other hand, it is assumed that the object 500 is away from the imaging device 300. In this case, the object 500 deviates from the end on the opposite side to the end on the focusing position 502 side of the rear depth of field 524. That is, the object 500 is disengaged from the rear end of the rear depth of field 524. In this case, the position control unit 113 may control the position of the UAV 100 such that the object 500 is positioned within the front depth of field 522. When the relative moving direction between the object 500 and the imaging device 300 is constant, the object 500 captures an image by controlling the position of the UAV 100 so that the position of the object 500 is as described above. It is possible to further suppress the deviation from the depth of field 520 of the device 300. Alternatively, the frequency with which the position control unit 113 adjusts the position of the UAV 100 based on the distance range 526 can be reduced.

被写界深度520は、上記の通り、式(1)及び式(2)により導出される。焦点距離fが一定でも、被写界深度520は、例えば、絞り値Fの大きさによって変化する。例えば、絞り値Fが大きいほど、被写界深度520は浅くなる。許容錯乱円径εは、撮像素子330のサイズによって変化するので、焦点距離fが一定でも、被写界深度520は、撮像素子330のサイズによって変化する。許容錯乱円径εの大きさが同じでも、被写界深度520は、撮像素子330のサイズによって変化する。撮像素子330のサイズが大きいほど、被写界深度520は浅くなる。   The depth of field 520 is derived by Equations (1) and (2) as described above. Even if the focal distance f is constant, the depth of field 520 changes according to the size of the aperture value F, for example. For example, the greater the aperture value F, the shallower the depth of field 520. Since the permissible circle of confusion ε varies with the size of the imaging device 330, the depth of field 520 varies with the size of the imaging device 330 even if the focal length f is constant. The depth of field 520 changes depending on the size of the image sensor 330 even if the size of the permissible circle of confusion diameter ε is the same. As the size of the imaging device 330 is larger, the depth of field 520 is shallower.

被写界深度の大きさ(幅)が変われば、対象物が存在すべき距離範囲の幅も変わる。距離範囲が狭いほど、UAV100は対象物との距離をより精度よく一定に保つ必要がある。図5A及び図5Bは、対象物500及びUAV100の移動距離の時間的変化の一例を示す。図5Aに示す距離範囲700の幅より、図5Bに示す距離範囲700の幅は狭い。図5A及び図5Bに示すように、距離範囲700が狭いほど、対象物500が距離範囲700の中心からずれ始めてから距離範囲700の端に達するまでの時間702が短い。したがって、被写界深度が浅いほど、UAV100は機敏に動作する必要がある。そこで、UAV100は、被写界深度が浅いほど、加速度が大きくなるように動作してもよい。UAV100が、予め設定された最大加速度以内で動作する場合には、被写界深度が浅いほど、最大加速度が大きくなるように設定されてもよい。被写界深度が浅いほど、UAV100と対象物との間の距離の修正を早くできる。UAV100と対象物との距離を一定に維持することが望まれる場合、例えば、対象物との距離を一定保ってUAV100が追尾またはホバリングする場合に、被写界深度が浅いほど最大加速度を大きくするのが有効な場合がある。   If the size (width) of the depth of field changes, the width of the distance range in which the object should exist also changes. As the distance range is narrower, the UAV 100 needs to keep the distance to the object constant more accurately. FIG. 5A and FIG. 5B show an example of the temporal change of the movement distance of the object 500 and the UAV 100. The width of the distance range 700 shown in FIG. 5B is narrower than the width of the distance range 700 shown in FIG. 5A. As shown in FIGS. 5A and 5B, the narrower the distance range 700, the shorter the time 702 from when the object 500 starts to shift from the center of the distance range 700 to when the end of the distance range 700 is reached. Thus, the shallower the depth of field, the faster the UAV 100 needs to operate. Therefore, the UAV 100 may operate so as to increase the acceleration as the depth of field is shallower. When the UAV 100 operates within a preset maximum acceleration, the maximum acceleration may be set to increase as the depth of field becomes shallower. The shallower the depth of field, the faster the distance between the UAV 100 and the object can be corrected. When it is desired to keep the distance between the UAV 100 and the object constant, for example, when the UAV 100 tracks or hovers while keeping the distance to the object constant, the maximum acceleration is increased as the depth of field is shallower. May be effective.

UAV制御部110は、対象物の動きを予測して、予測された対象物の将来の位置及び距離範囲に基づいてUAV100が到達すべき目標位置を決定し、目標位置までUAV100を移動させてよい。このような制御を実現するために、UAV制御部110は、さらに、選択部114、地理的位置特定部115、推定部116、及び地理的領域決定部117を有してよい。   The UAV control unit 110 may predict the movement of the object, determine the target position to be reached by the UAV 100 based on the predicted future position and distance range of the object, and move the UAV 100 to the target position. . In order to implement such control, the UAV control unit 110 may further include a selection unit 114, a geographical location unit 115, an estimation unit 116, and a geographical area determination unit 117.

選択部114は、撮像装置300により撮像された画像の中から予め地理的位置が定められた基準点、及び対象物を選択する。基準点は、第1の地点の一例である。予め地理的位置が定められた基準点は、不動の物体でよい。基準点は、UAV制御部110が参照可能な地図データベース上で予め地理的位置(緯度、経度、高度など)が登録されたランドマークでよい。選択部114は、撮像装置300により撮像された画像の中からユーザからの指定を受けて、基準点及び対象物を選択してよい。   The selection unit 114 selects, from among the images captured by the imaging device 300, a reference point whose geographical position has been determined in advance and an object. The reference point is an example of the first point. The reference point at which the geographical position is determined in advance may be an immobile object. The reference point may be a landmark having a geographical position (latitude, longitude, altitude, etc.) registered in advance on a map database that can be referred to by the UAV control unit 110. The selection unit 114 may select a reference point and an object in response to an instruction from the user from the image captured by the imaging device 300.

図6は、撮像装置300により撮像された基準点802及び対象物804を含む画像800の一例を示す。ユーザは、画像800の中から、ランドマークとなりうる山を基準点802として指定する。画像800は、例えば、UAV100を遠隔で制御する送信機が備えるディスプレイに表示されてよい。さらに、ユーザは、画像800の中から主要被写体として対象物804を指定する。選択部114は、予め地図データベースに登録されているランドマークに対応する画像と、画像800とを比較して、ランドマークとなり得る領域を画像800の中から検索してもよい。UAV100の現在位置、基準点802の位置、対象物804の現在位置を含む地図情報を撮像装置300により撮像された画像800に重ねてディスプレイに表示してもよい。   FIG. 6 shows an example of an image 800 including a reference point 802 and an object 804 captured by the imaging device 300. The user designates a mountain that can be a landmark from the image 800 as a reference point 802. The image 800 may be displayed, for example, on a display provided to a transmitter that remotely controls the UAV 100. Furthermore, the user designates an object 804 as a main subject in the image 800. The selecting unit 114 may compare the image 800 with the image corresponding to the landmark registered in advance in the map database, and search an area that can be the landmark from the image 800. The map information including the current position of the UAV 100, the position of the reference point 802, and the current position of the object 804 may be superimposed on the image 800 captured by the imaging device 300 and displayed on the display.

地理的位置特定部115は、撮像装置300により撮像された画像内における基準点と対象物との位置関係、及び基準点の地理的位置に基づいて、対象物の地理的位置を特定する。地理的位置特定部115は、第2特定部の一例である。地理的位置特定部115は、撮像装置300により単位時間毎に撮像された2枚の画像を利用して、画像内の単位領域毎に撮像装置300までの距離を示す距離画像を生成してよい。地理的位置特定部115は、距離画像を利用して基準点と対象物との位置関係を特定する。地理的位置特定部115は、例えば、メモリ160に格納されている地図データベースを参照して、基準点の地理的位置を特定する。地理的位置特定部115は、特定された位置関係及び基準点の地理的位置に基づいて、対象物の地理的位置を特定する。   The geographical position specifying unit 115 specifies the geographical position of the object based on the positional relationship between the reference point and the object in the image imaged by the imaging device 300 and the geographical position of the reference point. The geographical position specifying unit 115 is an example of a second specifying unit. The geographical position specifying unit 115 may generate a distance image indicating the distance to the imaging device 300 for each unit area in the image, using two images captured for each unit time by the imaging device 300. . The geographical position specifying unit 115 specifies the positional relationship between the reference point and the object using the distance image. The geographical position specifying unit 115 specifies the geographical position of the reference point, for example, with reference to the map database stored in the memory 160. The geographical location unit 115 identifies the geographical location of the object based on the identified positional relationship and the geographical location of the reference point.

推定部116は、対象物の将来の第1時点における地理的位置を推定する。推定部116は、現在までの複数の時点で地理的位置特定部115により特定された対象物の複数の地理的位置に基づいて、第1時点における対象物の地理的位置を推定する。推定部116は、フレームレートに基づいて定められる単位時間毎に対象物の地理的位置を推定してよい。   The estimation unit 116 estimates the geographical position of the object at a first future point in time. The estimation unit 116 estimates the geographical position of the object at the first time based on the plurality of geographical positions of the object specified by the geographical position specification unit 115 at the plurality of time points up to now. The estimation unit 116 may estimate the geographical position of the object for each unit time determined based on the frame rate.

地理的領域決定部117は、推定部116により推定された対象物の地理的位置及び距離範囲に基づいて、撮像装置300が第1時点に存在すべき地理的領域を決定する。すなわち、地理的領域決定部117は、推定部116により推定された対象物の地理的位置及び距離範囲に基づいて、UAV100が第1時点に存在すべき地理的領域を決定する。第1時点でUAV100が地理的領域内に存在すれば、第1時点で少なくとも対象物は撮像装置300の被写界深度内に位置できる。位置制御部113は、撮像装置300が第1時点に地理的領域内に存在するように、撮像装置300の位置を制御する。位置制御部113は、地理的領域及び地図データベースを参照して、地理的領域内で最適な目標位置を決定してよい。位置制御部113は、地理的領域内で、最短距離で到達できる位置を目標位置に決定してよい。位置制御部113は、地図データベースを参照して地理的領域に到達するまでに飛行の妨げとなる障害物を特定し、地理的領域内で、障害物を迂回しかつ最短距離で到達できる位置を目標位置に決定してよい。   The geographical area determination unit 117 determines the geographical area where the imaging device 300 should exist at the first time point, based on the geographical position and the distance range of the object estimated by the estimation unit 116. That is, the geographical area determination unit 117 determines the geographical area where the UAV 100 should exist at the first time based on the geographical position and the distance range of the object estimated by the estimation unit 116. If the UAV 100 is within the geographical area at a first time, at least the object can be located within the depth of field of the imaging device 300 at a first time. The position control unit 113 controls the position of the imaging device 300 so that the imaging device 300 exists in the geographical area at the first time point. The position control unit 113 may determine an optimal target position in the geographical area by referring to the geographical area and the map database. The position control unit 113 may determine a position that can be reached at the shortest distance as a target position in the geographical area. The position control unit 113 refers to the map database to identify obstacles that impede flight before reaching the geographical area, and positions within the geographical area that can bypass the obstacle and reach the shortest distance. You may decide on the target position.

図7は、撮像装置300の位置を制御する手順の一例を示すフローチャートである。選択部114は、撮像装置300により撮像された画像の中からユーザにより指定された対象物を選択する(S010)。対象物を撮像するのに最適な撮像装置300の撮像条件を決定し、処理が終了するまで、その撮像条件を維持する。つまり、撮像装置300は、撮像条件として決定された焦点距離f、絞り値F、被写体距離aを維持する。そして、距離範囲決定部111は、撮像装置300から焦点距離f、絞り値F、許容錯乱円径ε、被写体距離a、像距離bの情報を取得する。距離特定部112は、焦点距離f、絞り値F、許容錯乱円径ε、及び被写体距離aに基づいて撮像装置300の被写界深度を特定する。距離範囲決定部111は、被写界深度、被写体距離a、及び像距離bに基づいて、対象物が存在すべき撮像装置300からの距離範囲を決定する(S102)。   FIG. 7 is a flowchart showing an example of the procedure for controlling the position of the imaging device 300. The selection unit 114 selects an object specified by the user from the images captured by the imaging device 300 (S010). The imaging condition of the imaging device 300 optimal for imaging the object is determined, and the imaging condition is maintained until the processing is completed. That is, the imaging device 300 maintains the focal length f, the aperture value F, and the subject distance a determined as the imaging condition. Then, the distance range determination unit 111 acquires information of the focal length f, the aperture value F, the permissible circle of confusion diameter ε, the subject distance a, and the image distance b from the imaging device 300. The distance specifying unit 112 specifies the depth of field of the imaging device 300 based on the focal length f, the aperture value F, the permissible circle of confusion diameter ε, and the subject distance a. The distance range determination unit 111 determines the distance range from the imaging device 300 where the object should exist, based on the depth of field, the subject distance a, and the image distance b (S102).

距離特定部112は、撮像装置300から対象物までの距離Lを特定する(S104)。距離特定部112は、例えば、複数の撮像装置230により撮像された複数の画像から導出された対象物までの距離を距離Lとして特定してよい。位置制御部113は、特定された距離Lが距離範囲内か否かを判定する(S106)。対象物が距離範囲内に存在しなければ、位置制御部113は、対象物が距離範囲内に含まれるように、撮像装置300の位置を調整すべく、UAV100の飛行を制御する(S108)。対象物が距離範囲内に存在する場合には、UAV制御部110は、現状のUAV100の飛行制御を継続する。   The distance specifying unit 112 specifies the distance L from the imaging device 300 to the object (S104). The distance specifying unit 112 may specify, for example, the distance to the object derived from the plurality of images captured by the plurality of imaging devices 230 as the distance L. The position control unit 113 determines whether the specified distance L is within the distance range (S106). If the object does not exist within the distance range, the position control unit 113 controls the flight of the UAV 100 so as to adjust the position of the imaging device 300 so that the object is included within the distance range (S108). If the object is within the distance range, the UAV control unit 110 continues the flight control of the current UAV 100.

対象物が距離範囲内に存在するように撮像装置300の位置を制御する処理を終了するまで(S110)、UAV制御部110は、ステップS104からステップS108までの処理を継続する。   The UAV control unit 110 continues the process from step S104 to step S108 until the process of controlling the position of the imaging device 300 is finished so that the object exists within the distance range (S110).

以上の手順により、UAV100は、対象物が撮像装置300の被写界深度から外れることなく撮像装置300に対象物を撮像させることができる。   According to the above-described procedure, the UAV 100 can cause the imaging device 300 to image the object without the object falling outside the depth of field of the imaging device 300.

図8は、対象物の将来の位置を推定して撮像装置300の位置を制御する手順の一例を示すフローチャートである。選択部114は、撮像装置300により撮像された画像の中からユーザにより指定された対象物、及びランドマークとなる基準点を選択する(S200)。距離範囲決定部111は、撮像装置300から焦点距離f、絞り値F、許容錯乱円径ε、被写体距離a、像距離bの情報を取得する。距離特定部112は、焦点距離f、絞り値F、許容錯乱円径ε、及び被写体距離aに基づいて撮像装置300の被写界深度を特定する。距離範囲決定部111は、被写界深度、被写体距離a、及び像距離bに基づいて、対象物が存在すべき撮像装置300からの距離範囲を決定する(S202)。   FIG. 8 is a flowchart showing an example of a procedure of estimating the future position of the object to control the position of the imaging device 300. The selection unit 114 selects a target designated by the user and a reference point to be a landmark from the image captured by the imaging device 300 (S200). The distance range determination unit 111 acquires information of the focal length f, the aperture value F, the permissible circle of confusion diameter ε, the subject distance a, and the image distance b from the imaging device 300. The distance specifying unit 112 specifies the depth of field of the imaging device 300 based on the focal length f, the aperture value F, the permissible circle of confusion diameter ε, and the subject distance a. The distance range determination unit 111 determines a distance range from the imaging device 300 where the object should exist, based on the depth of field, the subject distance a, and the image distance b (S202).

地理的位置特定部115は、地図テータベースを参照して、基準点の地理的位置を特定する(S204)。地理的位置特定部115は、撮像装置300により単位時間毎に撮像された複数の画像に基づいて、画像内の単位領域毎に撮像装置300までの距離を示す距離画像を作成する(S206)。地理的位置特定部115は、基準点の地理的位置及び距離画像に基づいて対象物の地理的位置を特定する(S208)。   The geographical position specifying unit 115 specifies the geographical position of the reference point with reference to the map database (S204). The geographical position specifying unit 115 creates a distance image indicating the distance to the imaging device 300 for each unit area in the image based on the plurality of images captured for each unit time by the imaging device 300 (S206). The geographical position specifying unit 115 specifies the geographical position of the object based on the geographical position of the reference point and the distance image (S208).

推定部116は、現在までに地理的位置特定部115により特定された対象物の複数の地理的位置に基づいて、将来の第1時点における対象物の地理的位置を推定する(S210)。地理的領域決定部117は、第1時点における対象物の地理的位置、及び距離範囲に基づいて、第1時点にUAV100が存在すべき地理的領域を決定する(S212)。位置制御部113は、地理的領域及びUAV100の現在の地理的位置に基づいて、UAV100の飛行を制御する(S214)。位置制御部113は、UAV100が第1時点で地理的領域内に位置するように、UAV100の飛行を制御する。   The estimation unit 116 estimates the geographical position of the object at a first point in time in the future, based on the plurality of geographical positions of the object specified by the geographical position determination unit 115 so far (S210). The geographical area determination unit 117 determines the geographical area where the UAV 100 should exist at the first time based on the geographical position of the object at the first time and the distance range (S212). The position control unit 113 controls the flight of the UAV 100 based on the geographical area and the current geographical position of the UAV 100 (S214). The position control unit 113 controls the flight of the UAV 100 such that the UAV 100 is located within the geographical area at a first point of time.

以上の通り、UAV100は、将来の対象物の位置を推定して、その推定結果及び、対象物が存在すべき距離範囲に基づいて、UAV100が将来存在すべき地理的領域を特定する。UAV100は、特定された地理的領域及び地図データベースを参照して、障害物等を考慮して、最適な飛行経路を決定できる。これにより、UAV100は、最適な飛行経路で、対象物が撮像装置300の被写界深度から外れないように飛行できる。   As described above, the UAV 100 estimates the position of the future object, and identifies the geographical area where the UAV 100 should exist in the future, based on the estimation result and the distance range in which the object should exist. The UAV 100 can determine an optimal flight path in consideration of obstacles and the like with reference to the identified geographical area and map database. Thus, the UAV 100 can fly in an optimal flight path so that the object does not deviate from the depth of field of the imaging device 300.

図9は、本発明の複数の態様が全体的または部分的に具現化されてよいコンピュータ1200の一例を示す。コンピュータ1200にインストールされたプログラムは、コンピュータ1200に、本発明の実施形態に係る装置に関連付けられるオペレーションまたは当該装置の1または複数の「部」として機能させることができる。または、当該プログラムは、コンピュータ1200に当該オペレーションまたは当該1または複数の「部」を実行させることができる。当該プログラムは、コンピュータ1200に、本発明の実施形態に係るプロセスまたは当該プロセスの段階を実行させることができる。そのようなプログラムは、コンピュータ1200に、本明細書に記載のフローチャート及びブロック図のブロックのうちのいくつかまたはすべてに関連付けられた特定のオペレーションを実行させるべく、CPU1212によって実行されてよい。   FIG. 9 shows an example of a computer 1200 in which aspects of the present invention may be fully or partially embodied. A program installed on computer 1200 can cause computer 1200 to act as an operation or one or more "parts" of the device according to embodiments of the invention. Alternatively, the program may cause the computer 1200 to execute the operation or one or more “parts”. The program can cause the computer 1200 to execute the process according to the embodiment of the present invention or the steps of the process. Such programs may be executed by CPU 1212 to cause computer 1200 to perform specific operations associated with some or all of the blocks in the flowcharts and block diagrams described herein.

本実施形態によるコンピュータ1200は、CPU1212、及びRAM1214を含み、それらはホストコントローラ1210によって相互に接続されている。コンピュータ1200はまた、通信インタフェース1222、入力/出力ユニットを含み、それらは入力/出力コントローラ1220を介してホストコントローラ1210に接続されている。コンピュータ1200はまた、ROM1230を含む。CPU1212は、ROM1230及びRAM1214内に格納されたプログラムに従い動作し、それにより各ユニットを制御する。   The computer 1200 according to the present embodiment includes a CPU 1212 and a RAM 1214, which are interconnected by a host controller 1210. Computer 1200 also includes a communication interface 1222, an input / output unit, which are connected to host controller 1210 via an input / output controller 1220. Computer 1200 also includes a ROM 1230. The CPU 1212 operates in accordance with programs stored in the ROM 1230 and the RAM 1214 to control each unit.

通信インタフェース1222は、ネットワークを介して他の電子デバイスと通信する。ハードディスクドライブが、コンピュータ1200内のCPU1212によって使用されるプログラム及びデータを格納してよい。ROM1230はその中に、アクティブ化時にコンピュータ1200によって実行されるブートプログラム等、及び/またはコンピュータ1200のハードウェアに依存するプログラムを格納する。プログラムが、CR−ROM、USBメモリまたはICカードのようなコンピュータ可読記録媒体またはネットワークを介して提供される。プログラムは、コンピュータ可読記録媒体の例でもあるRAM1214、またはROM1230にインストールされ、CPU1212によって実行される。これらのプログラム内に記述される情報処理は、コンピュータ1200に読み取られ、プログラムと、上記様々なタイプのハードウェアリソースとの間の連携をもたらす。装置または方法が、コンピュータ1200の使用に従い情報のオペレーションまたは処理を実現することによって構成されてよい。   The communication interface 1222 communicates with other electronic devices via a network. A hard disk drive may store programs and data used by the CPU 1212 in the computer 1200. The ROM 1230 stores therein a boot program or the like executed by the computer 1200 upon activation, and / or a program dependent on the hardware of the computer 1200. The program is provided via a computer readable recording medium or network such as a CR-ROM, a USB memory or an IC card. The program is installed in the RAM 1214 or ROM 1230, which is also an example of a computer-readable recording medium, and executed by the CPU 1212. Information processing described in these programs is read by the computer 1200 and brings about coordination between the programs and the various types of hardware resources. An apparatus or method may be configured by implementing the operation or processing of information in accordance with the use of computer 1200.

例えば、通信がコンピュータ1200及び外部デバイス間で実行される場合、CPU1212は、RAM1214にロードされた通信プログラムを実行し、通信プログラムに記述された処理に基づいて、通信インタフェース1222に対し、通信処理を命令してよい。通信インタフェース1222は、CPU1212の制御の下、RAM1214、またはUSBメモリのような記録媒体内に提供される送信バッファ領域に格納された送信データを読み取り、読み取られた送信データをネットワークに送信し、またはネットワークから受信した受信データを記録媒体上に提供される受信バッファ領域等に書き込む。   For example, when communication is performed between the computer 1200 and an external device, the CPU 1212 executes the communication program loaded in the RAM 1214, and performs communication processing to the communication interface 1222 based on the processing described in the communication program. You may order. The communication interface 1222 reads transmission data stored in a transmission buffer area provided in a recording medium such as the RAM 1214 or a USB memory under the control of the CPU 1212 and transmits the read transmission data to the network, or The received data received from the network is written in a reception buffer area or the like provided on the recording medium.

また、CPU1212は、USBメモリ等のような外部記録媒体に格納されたファイルまたはデータベースの全部または必要な部分がRAM1214に読み取られるようにし、RAM1214上のデータに対し様々なタイプの処理を実行してよい。CPU1212は次に、処理されたデータを外部記録媒体にライトバックしてよい。   In addition, the CPU 1212 allows the RAM 1214 to read all or necessary portions of a file or database stored in an external recording medium such as a USB memory, and executes various types of processing on data on the RAM 1214. Good. The CPU 1212 may then write back the processed data to the external storage medium.

様々なタイプのプログラム、データ、テーブル、及びデータベースのような様々なタイプの情報が記録媒体に格納され、情報処理を受けてよい。CPU1212は、RAM1214から読み取られたデータに対し、本開示の随所に記載され、プログラムの命令シーケンスによって指定される様々なタイプのオペレーション、情報処理、条件判断、条件分岐、無条件分岐、情報の検索/置換等を含む、様々なタイプの処理を実行してよく、結果をRAM1214に対しライトバックする。また、CPU1212は、記録媒体内のファイル、データベース等における情報を検索してよい。例えば、各々が第2の属性の属性値に関連付けられた第1の属性の属性値を有する複数のエントリが記録媒体内に格納される場合、CPU1212は、第1の属性の属性値が指定される、条件に一致するエントリを当該複数のエントリの中から検索し、当該エントリ内に格納された第2の属性の属性値を読み取り、それにより予め定められた条件を満たす第1の属性に関連付けられた第2の属性の属性値を取得してよい。   Various types of information such as various types of programs, data, tables, and databases may be stored in the recording medium and subjected to information processing. The CPU 1212 describes various types of operations, information processing, condition judgment, conditional branching, unconditional branching, information retrieval, which are described throughout the present disclosure for data read from the RAM 1214 and specified by a program instruction sequence. Various types of processing may be performed, including / replacement etc, and the results written back to RAM 1214. Further, the CPU 1212 may search for information in a file in a recording medium, a database or the like. For example, when a plurality of entries each having the attribute value of the first attribute associated with the attribute value of the second attribute are stored in the recording medium, the CPU 1212 specifies the attribute value of the first attribute. Search for an entry matching the condition from among the plurality of entries, read the attribute value of the second attribute stored in the entry, and thereby associate the first attribute satisfying the predetermined condition with the first attribute An attribute value of the second attribute may be acquired.

上で説明したプログラムまたはソフトウェアモジュールは、コンピュータ1200上またはコンピュータ1200近傍のコンピュータ可読記憶媒体に格納されてよい。また、専用通信ネットワークまたはインターネットに接続されたサーバーシステム内に提供されるハードディスクまたはRAMのような記録媒体が、コンピュータ可読記憶媒体として使用可能であり、それによりプログラムを、ネットワークを介してコンピュータ1200に提供する。   The programs or software modules described above may be stored on computer readable storage medium on or near computer 1200. In addition, a recording medium such as a hard disk or RAM provided in a server system connected to a dedicated communication network or the Internet can be used as a computer readable storage medium, whereby the program can be transmitted to the computer 1200 via the network. provide.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、請求の範囲の記載から明らかである。   As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. It is apparent to those skilled in the art that various changes or modifications can be added to the above embodiment. It is also apparent from the scope of the claims that the embodiments added with such alterations or improvements can be included in the technical scope of the present invention.

請求の範囲、明細書、及び図面中において示した装置、システム、プログラム、及び方法における動作、手順、ステップ、及び段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。請求の範囲、明細書、及び図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。   The order of execution of each process such as operations, procedures, steps, and steps in the apparatuses, systems, programs, and methods shown in the claims, the specification, and the drawings is particularly "before", "before" It should be noted that it can be realized in any order, unless explicitly stated as etc., and unless the output of the previous process is used in the later process. With regard to the operation flow in the claims, the specification, and the drawings, even if it is described using “first,” “next,” etc. for the sake of convenience, it means that it is essential to carry out in this order. is not.

100 UAV
102 UAV本体
110 UAV制御部
111 距離範囲決定部
112 距離特定部
113 位置制御部
114 選択部
115 地理的位置特定部
116 推定部
117 地理的領域決定部
150 通信インタフェース
160 メモリ
200 ジンバル
210 回転翼機構
230 撮像装置
240 GPS受信機
260 磁気コンパス
270 気圧高度計
300 撮像装置
301 撮像部
310 撮像制御部
330 撮像素子
340 メモリ
401 レンズ部
410 レンズ制御部
420 メモリ
430 レンズ駆動部
432 レンズ
434 位置センサ
440 レンズ駆動部
442 レンズ
444 位置センサ
450 絞り駆動部
452 絞り
500 対象物
502 合焦位置
510 レンズ
512 撮像素子
514 絞り
1200 コンピュータ
1210 ホストコントローラ
1212 CPU
1214 RAM
1220 入力/出力コントローラ
1222 通信インタフェース
1230 ROM
100 UAV
102 UAV main unit 110 UAV control unit 111 distance range determination unit 112 distance specification unit 113 position control unit 114 selection unit 115 geographical position specification unit 116 estimation unit 117 geographical area determination unit 150 communication interface 160 memory 200 gimbal 210 rotary wing mechanism 230 Imaging device 240 GPS receiver 260 Magnetic compass 270 Barometric altimeter 300 Imaging device 301 Imaging unit 310 Imaging unit 330 Imaging control unit 330 Imaging device 340 Memory 401 Lens unit 410 Lens control unit 420 Memory 430 Lens drive unit 432 Lens 434 Position sensor 440 Lens drive unit 442 Lens 444 Position sensor 450 Aperture drive unit 452 Aperture 500 Object 502 Focus position 510 Lens 512 Image sensor 514 Aperture 1200 Computer 1210 Host controller 1212 CPU
1214 RAM
1220 I / O controller 1222 communication interface 1230 ROM

Claims (13)

撮像装置の焦点距離、絞り値、許容錯乱円径、及び被写体距離の少なくとも1つに基づいて、前記撮像装置が撮像する対象物が存在すべき前記撮像装置からの距離範囲を決定する第1決定部と、
前記撮像装置から前記対象物までの距離を特定する第1特定部と、
前記距離範囲及び前記距離に基づいて、前記距離範囲内に前記対象物が含まれるように前記撮像装置の位置を制御する制御部と
を備え
前記距離範囲の幅は、前記撮像装置の焦点距離、絞り値、許容錯乱円径、及び被写体距離の少なくとも1つに基づいて定められる前記撮像装置の被写界深度の幅より狭い、制御装置。
A first determination to determine a distance range from the image pickup apparatus in which an object to be picked up by the image pickup apparatus should exist based on at least one of focal length of the image pickup apparatus, aperture value, permissible circle of confusion diameter, and subject distance Department,
A first identification unit that identifies a distance from the imaging device to the object;
And a control unit configured to control the position of the imaging device such that the object is included in the distance range based on the distance range and the distance .
The control device, wherein a width of the distance range is narrower than a width of a depth of field of the imaging device determined based on at least one of a focal length of the imaging device, an aperture value, a permissible circle of confusion diameter, and a subject distance .
前記被写体距離は、前記撮像装置のレンズの位置に基づく、請求項1に記載の制御装置。   The control device according to claim 1, wherein the subject distance is based on a position of a lens of the imaging device. 前記対象物の将来の第1時点における地理的位置を推定する推定部と、
推定された地理的位置及び前記距離範囲に基づいて、前記撮像装置が前記第1時点に存在すべき地理的領域を決定する第2決定部と
をさらに備え、
前記制御部は、前記撮像装置が前記第1時点に前記地理的領域内に存在するように、前記撮像装置の位置を制御する、請求項1に記載の制御装置。
An estimation unit for estimating a geographical position of the object at a first future point in time;
And a second determination unit that determines a geographical area where the imaging device should be present at the first time based on the estimated geographical position and the distance range.
The control device according to claim 1, wherein the control unit controls the position of the imaging device such that the imaging device exists in the geographical area at the first time point.
前記撮像装置により撮像された画像の中から予め地理的位置が定められた第1の地点、及び前記対象物を選択する選択部と、
前記撮像装置により撮像された画像内における前記第1の地点と前記対象物との位置関係、及び前記第1の地点の地理的位置に基づいて、前記対象物の地理的位置を特定する第2特定部と
をさらに備え、
前記推定部は、現在までの複数の時点で前記第2特定部により特定された前記対象物の複数の地理的位置に基づいて、前記第1時点における前記対象物の地理的位置を推定する、請求項に記載の制御装置。
A first point at which a geographical position is determined in advance from an image captured by the imaging device, and a selection unit for selecting the object;
Second identifying a geographical position of the object based on a positional relationship between the first point and the object in an image captured by the imaging device, and a geographical position of the first point And a specific part,
The estimation unit estimates a geographical position of the object at the first time based on a plurality of geographical positions of the object specified by the second specifying unit at a plurality of time points up to now. The control device according to claim 3 .
撮像装置の焦点距離、絞り値、許容錯乱円径、及び被写体距離の少なくとも1つに基づいて、前記撮像装置が撮像する対象物が存在すべき前記撮像装置からの距離範囲を決定する第1決定部と、A first determination to determine a distance range from the image pickup apparatus in which an object to be picked up by the image pickup apparatus should exist based on at least one of the focal length of the image pickup apparatus, the aperture value, the permissible circle of confusion diameter, and the subject distance Department,
前記撮像装置から前記対象物までの距離を特定する第1特定部と、  A first identification unit that identifies a distance from the imaging device to the object;
前記距離範囲及び前記距離に基づいて、前記距離範囲内に前記対象物が含まれるように前記撮像装置の位置を制御する制御部と、  A control unit configured to control the position of the imaging device such that the object is included in the distance range based on the distance range and the distance;
前記撮像装置により撮像された画像の中から予め地理的位置が定められた第1の地点、及び前記対象物を選択する選択部と、  A first point at which a geographical position is determined in advance from an image captured by the imaging device, and a selection unit for selecting the object;
前記撮像装置により撮像された画像内における前記第1の地点と前記対象物との位置関係、及び前記第1の地点の地理的位置に基づいて、前記対象物の地理的位置を特定する第2特定部と、  Second identifying a geographical position of the object based on a positional relationship between the first point and the object in an image captured by the imaging device, and a geographical position of the first point A specific part,
現在までの複数の時点で前記第2特定部により特定された前記対象物の複数の地理的位置に基づいて、前記対象物の将来の第1時点における地理的位置を推定する推定部と、  An estimation unit for estimating a geographical position of the object at a first future time based on a plurality of geographical positions of the object specified by the second specifying unit at a plurality of time points up to now;
推定された地理的位置及び前記距離範囲に基づいて、前記撮像装置が前記第1時点に存在すべき地理的領域を決定する第2決定部と  A second determination unit that determines a geographical area that the imaging device should be present at the first time based on the estimated geographical position and the distance range;
を備え、Equipped with
前記制御部は、前記撮像装置が前記第1時点に前記地理的領域内に存在するように、前記撮像装置の位置を制御する、制御装置。  The control unit controls the position of the imaging device such that the imaging device exists in the geographical area at the first time point.
前記制御部は、前記対象物が前記距離範囲内に存在する場合に、前記撮像装置に前記対象物を撮像させる、請求項1から5の何れか1つに記載の制御装置。 The control device according to any one of claims 1 to 5, wherein the control unit causes the imaging device to image the object when the object is present within the distance range. 請求項1から6の何れか1つに記載の制御装置、及び前記撮像装置を搭載して移動する移動体。   The control device according to any one of claims 1 to 6, and a movable body mounted and moved with the imaging device. 前記制御部は、前記距離範囲内に前記対象物が含まれるように前記移動体の位置を制御する、請求項7に記載の移動体。   The movable body according to claim 7, wherein the control unit controls the position of the movable body so that the object is included in the distance range. 前記制御部は、前記距離範囲内に前記対象物が含まれるように前記移動体に前記対象物を追尾させる、請求項8に記載の移動体。 The mobile unit according to claim 8, wherein the control unit causes the mobile unit to track the target such that the target is included in the distance range. 前記移動体は、無人航空機であり、
前記制御部は、前記距離範囲内に前記対象物が含まれるように前記無人航空機にホバリングさせる、請求項8に記載の移動体。
The moving body is an unmanned aerial vehicle,
The mobile unit according to claim 8, wherein the control unit causes the unmanned aircraft to hover so that the object is included in the distance range.
撮像装置の焦点距離、絞り値、許容錯乱円径、及び被写体距離の少なくとも1つに基づいて、前記撮像装置が撮像する対象物が存在すべき前記撮像装置からの距離範囲を決定する段階と、
前記撮像装置から前記対象物までの距離を特定する段階と、
前記距離範囲及び前記距離に基づいて、前記距離範囲内に前記対象物が含まれるように前記撮像装置の位置を制御する段階と
を備え
前記距離範囲の幅は、前記撮像装置の焦点距離、絞り値、許容錯乱円径、及び被写体距離の少なくとも1つに基づいて定められる前記撮像装置の被写界深度の幅より狭い、制御方法。
Determining a distance range from the image pickup apparatus in which the object to be picked up by the image pickup apparatus should exist based on at least one of the focal length of the image pickup apparatus, the aperture value, the permissible circle of confusion diameter, and the subject distance;
Identifying a distance from the imaging device to the object;
Controlling the position of the imaging device so that the object is included in the distance range based on the distance range and the distance ;
The control method, wherein a width of the distance range is narrower than a depth of field of the imaging device determined based on at least one of a focal length of the imaging device, an aperture value, a permissible circle of confusion diameter, and a subject distance .
撮像装置の焦点距離、絞り値、許容錯乱円径、及び被写体距離の少なくとも1つに基づいて、前記撮像装置が撮像する対象物が存在すべき前記撮像装置からの距離範囲を決定する段階と、Determining a distance range from the image pickup apparatus in which the object to be picked up by the image pickup apparatus should exist based on at least one of the focal length of the image pickup apparatus, the aperture value, the permissible circle of confusion diameter, and the subject distance;
前記撮像装置から前記対象物までの距離を特定する段階と、  Identifying a distance from the imaging device to the object;
前記距離範囲及び前記距離に基づいて、前記距離範囲内に前記対象物が含まれるように前記撮像装置の位置を制御する段階と、  Controlling the position of the imaging device to include the object within the distance range based on the distance range and the distance;
前記撮像装置により撮像された画像の中から予め地理的位置が定められた第1の地点、及び前記対象物を選択する段階と、  Selecting a first point whose geographical position is previously determined from the image captured by the imaging device, and the object;
前記撮像装置により撮像された画像内における前記第1の地点と前記対象物との位置関係、及び前記第1の地点の地理的位置に基づいて、前記対象物の地理的位置を特定する段階と、  Identifying the geographical position of the object based on the positional relationship between the first point and the object in the image captured by the imaging device, and the geographical position of the first point; ,
現在までの複数の時点で特定された前記対象物の複数の地理的位置に基づいて、前記対象物の将来の第1時点における地理的位置を推定する段階と、  Estimating a geographical position of the object at a first future time based on a plurality of geographical positions of the object specified at a plurality of time points up to now;
推定された地理的位置及び前記距離範囲に基づいて、前記撮像装置が前記第1時点に存在すべき地理的領域を決定する段階と  Determining the geographical area that the imaging device should be present at the first time based on the estimated geographical position and the distance range;
を備え、Equipped with
前記制御する段階は、前記撮像装置が前記第1時点に前記地理的領域内に存在するように、前記撮像装置の位置を制御する段階を含む、制御方法。  Controlling the position of the imaging device such that the imaging device is within the geographical area at the first point in time.
請求項1から6の何れか1つに記載の制御装置としてコンピュータを機能させるためのプログラム。 A program for causing a computer to function as the control device according to any one of claims 1 to 6 .
JP2017559618A 2016-12-28 2016-12-28 CONTROL DEVICE, MOBILE OBJECT, CONTROL METHOD, AND PROGRAM Expired - Fee Related JP6515423B2 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/089087 WO2018123013A1 (en) 2016-12-28 2016-12-28 Controller, mobile entity, control method, and program

Publications (2)

Publication Number Publication Date
JPWO2018123013A1 JPWO2018123013A1 (en) 2019-01-10
JP6515423B2 true JP6515423B2 (en) 2019-05-22

Family

ID=62708116

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017559618A Expired - Fee Related JP6515423B2 (en) 2016-12-28 2016-12-28 CONTROL DEVICE, MOBILE OBJECT, CONTROL METHOD, AND PROGRAM

Country Status (2)

Country Link
JP (1) JP6515423B2 (en)
WO (1) WO2018123013A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111835968A (en) * 2020-05-28 2020-10-27 北京迈格威科技有限公司 Image definition restoration method and device and image shooting method and device

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6746856B2 (en) * 2018-12-19 2020-08-26 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Control device, imaging system, moving body, control method, and program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003348428A (en) * 2002-05-24 2003-12-05 Sharp Corp Photographing system, photographing method, photographing program, and computer-readable recording medium having the photographing program recorded thereon
JP6029446B2 (en) * 2012-12-13 2016-11-24 セコム株式会社 Autonomous flying robot
JP6155032B2 (en) * 2013-01-31 2017-06-28 セコム株式会社 Shooting system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111835968A (en) * 2020-05-28 2020-10-27 北京迈格威科技有限公司 Image definition restoration method and device and image shooting method and device
CN111835968B (en) * 2020-05-28 2022-02-08 北京迈格威科技有限公司 Image definition restoration method and device and image shooting method and device

Also Published As

Publication number Publication date
JPWO2018123013A1 (en) 2019-01-10
WO2018123013A1 (en) 2018-07-05

Similar Documents

Publication Publication Date Title
CN108235815B (en) Imaging control device, imaging system, moving object, imaging control method, and medium
US20190258255A1 (en) Control device, imaging system, movable object, control method, and program
WO2019238044A1 (en) Determination device, mobile object, determination method and program
US20210014427A1 (en) Control device, imaging device, mobile object, control method and program
JP2019110462A (en) Control device, system, control method, and program
JP2020012878A (en) Controller, moving object, control method, and program
JP6515423B2 (en) CONTROL DEVICE, MOBILE OBJECT, CONTROL METHOD, AND PROGRAM
JP6790318B2 (en) Unmanned aerial vehicles, control methods, and programs
JP6587006B2 (en) Moving body detection device, control device, moving body, moving body detection method, and program
JP6565072B2 (en) Control device, lens device, flying object, control method, and program
JP6543875B2 (en) Control device, imaging device, flying object, control method, program
JP6543878B2 (en) CONTROL DEVICE, IMAGING DEVICE, MOBILE OBJECT, CONTROL METHOD, AND PROGRAM
JP6503607B2 (en) Imaging control apparatus, imaging apparatus, imaging system, moving object, imaging control method, and program
JP2019096965A (en) Determination device, control arrangement, imaging system, flying object, determination method, program
JP2019083390A (en) Control device, imaging device, mobile body, control method, and program
JP6641574B1 (en) Determination device, moving object, determination method, and program
JP6543879B2 (en) Unmanned aerial vehicles, decision methods and programs
WO2020011198A1 (en) Control device, movable component, control method, and program
JP2019205047A (en) Controller, imaging apparatus, mobile body, control method and program
JP2020016703A (en) Control device, moving body, control method, and program
JP6696094B2 (en) Mobile object, control method, and program
JP6569157B1 (en) Control device, imaging device, moving object, control method, and program
JP6413170B1 (en) Determination apparatus, imaging apparatus, imaging system, moving object, determination method, and program
JP2020052220A (en) Controller, imaging device, mobile body, method for control, and program
JP2020098289A (en) Control apparatus, photography system, moving body, control method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171114

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180904

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181026

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190319

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190328

R150 Certificate of patent or registration of utility model

Ref document number: 6515423

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees