JP6515423B2 - CONTROL DEVICE, MOBILE OBJECT, CONTROL METHOD, AND PROGRAM - Google Patents
CONTROL DEVICE, MOBILE OBJECT, CONTROL METHOD, AND PROGRAM Download PDFInfo
- Publication number
- JP6515423B2 JP6515423B2 JP2017559618A JP2017559618A JP6515423B2 JP 6515423 B2 JP6515423 B2 JP 6515423B2 JP 2017559618 A JP2017559618 A JP 2017559618A JP 2017559618 A JP2017559618 A JP 2017559618A JP 6515423 B2 JP6515423 B2 JP 6515423B2
- Authority
- JP
- Japan
- Prior art keywords
- imaging device
- distance
- distance range
- unit
- geographical
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims description 24
- VJYFKVYYMZPMAB-UHFFFAOYSA-N ethoprophos Chemical compound CCCSP(=O)(OCC)SCCC VJYFKVYYMZPMAB-UHFFFAOYSA-N 0.000 title 1
- PWPJGUXAGUPAHP-UHFFFAOYSA-N lufenuron Chemical compound C1=C(Cl)C(OC(F)(F)C(C(F)(F)F)F)=CC(Cl)=C1NC(=O)NC(=O)C1=C(F)C=CC=C1F PWPJGUXAGUPAHP-UHFFFAOYSA-N 0.000 title 1
- 238000003384 imaging method Methods 0.000 claims description 189
- 238000004891 communication Methods 0.000 description 13
- 238000012545 processing Methods 0.000 description 10
- 230000008569 process Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 230000003287 optical effect Effects 0.000 description 7
- 230000008859 change Effects 0.000 description 6
- 230000007246 mechanism Effects 0.000 description 6
- 230000001133 acceleration Effects 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 3
- 230000010365 information processing Effects 0.000 description 3
- 230000001419 dependent effect Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- RZVHIXYEVGDQDX-UHFFFAOYSA-N 9,10-anthraquinone Chemical compound C1=CC=C2C(=O)C3=CC=CC=C3C(=O)C2=C1 RZVHIXYEVGDQDX-UHFFFAOYSA-N 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B15/00—Special procedures for taking photographs; Apparatus therefor
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B17/00—Details of cameras or camera bodies; Accessories therefor
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
Description
本発明は、制御装置、移動体、制御方法、及びプログラムに関する。 The present invention relates to a control device, a mobile unit, a control method, and a program.
特許文献1には、被写体が被写界深度に入るように撮影レンズの位置と絞りの絞り量を調整するカメラが開示されている。
特許文献1 国際公開第2016/056089号公報Patent Document 1 discloses a camera that adjusts the position of a shooting lens and the amount of stop of an aperture so that a subject enters the depth of field.
Patent Document 1: International Publication No. 2016/056089
撮影レンズの位置または絞りの絞り量を変更せずに撮影することが望まれている場合には、上記のような手法を採用できない。 If it is desired to take a picture without changing the position of the taking lens or the stop amount of the stop, the above method can not be adopted.
本発明の一態様に係る制御装置は、撮像装置の焦点距離、絞り値、許容錯乱円径、及び被写体距離の少なくとも1つに基づいて、撮像装置が撮像する対象物が存在すべき撮像装置からの距離範囲を決定する第1決定部を備えてよい。制御装置は、撮像装置から対象物までの距離を特定する第1特定部を備えてよい。制御装置は、距離範囲及び距離に基づいて、距離範囲内に対象物が含まれるように撮像装置の位置を制御する制御部を備えてよい。 The control device according to one aspect of the present invention is an imaging device in which an object to be imaged by the imaging device should exist based on at least one of the focal length of the imaging device, the aperture value, the permissible circle of confusion diameter, and the object distance. And a first determination unit that determines a distance range of The control device may include a first identification unit that identifies the distance from the imaging device to the object. The control device may include a control unit that controls the position of the imaging device so that the object is included in the distance range based on the distance range and the distance.
距離範囲の幅は、撮像装置の焦点距離、絞り値、許容錯乱円径、及び被写体距離の少なくとも1つに基づいて定められる撮像装置の被写界深度の幅より狭くてよい。被写体距離は、撮像装置のレンズの位置に基づいてよい。 The width of the distance range may be narrower than the width of the depth of field of the imaging device determined based on at least one of the focal length of the imaging device, the aperture value, the permissible circle of confusion diameter, and the subject distance. The subject distance may be based on the position of the lens of the imaging device.
制御装置は、対象物の将来の第1時点における地理的位置を推定する推定部を備えてよい。制御装置は、推定された地理的位置及び距離範囲に基づいて、撮像装置が第1時点に存在すべき地理的領域を決定する第2決定部を備えてよい。制御部は、撮像装置が第1時点に地理的領域内に存在するように、撮像装置の位置を制御してよい。 The controller may comprise an estimation unit for estimating the geographical position of the object at a first future point in time. The control device may include a second determination unit that determines a geographical area where the imaging device should exist at the first time point based on the estimated geographical position and the distance range. The controller may control the position of the imaging device such that the imaging device is within the geographical area at a first time.
制御装置は、撮像装置により撮像された画像の中から予め地理的位置が定められた第1の地点、及び対象物を選択する選択部を備えてよい。制御装置は、撮像装置により撮像された画像内における第1の地点と対象物との位置関係、及び第1の地点の地理的位置に基づいて、対象物の地理的位置を特定する第2特定部を備えてよい。推定部は、現在までの複数の時点で第2特定部により特定された対象物の複数の地理的位置に基づいて、第1時点における対象物の地理的位置を推定してよい。 The control device may include a first point at which a geographical position is determined in advance from an image captured by the imaging device, and a selection unit that selects an object. The control device specifies a geographical position of the object based on the positional relationship between the first point and the object in the image captured by the imaging device, and the geographical position of the first point. You may have a department. The estimation unit may estimate the geographical position of the object at the first time based on the plurality of geographical positions of the object specified by the second specifying unit at the plurality of time points up to now.
制御部は、対象物が距離範囲内に存在する場合に、撮像装置に対象物を撮像させてよい。 The control unit may cause the imaging device to image the object when the object is present within the distance range.
本発明の一態様に係る移動体は、上記制御装置及び撮像装置を搭載して移動してよい。 The mobile unit according to an aspect of the present invention may move with the control device and the imaging device mounted thereon.
制御部は、距離範囲内に対象物が含まれるように移動体の位置を制御してよい。 The control unit may control the position of the moving body such that the object is included in the distance range.
制御部は、距離範囲内に対象物が含まれるように移動体に対象物を追尾させてよい。 The control unit may cause the moving object to track the target so that the target is included in the distance range.
移動体は、無人航空機でよい。制御部は、距離範囲内に対象物が含まれるように無人航空機にホバリングさせてよい。 The mobile may be an unmanned aerial vehicle. The controller may cause the unmanned aircraft to hover so that the object is included within the distance range.
本発明の一態様に係る制御方法は、撮像装置の焦点距離、絞り値、許容錯乱円径、及び被写体距離の少なくとも1つに基づいて、撮像装置が撮像する対象物が存在すべき撮像装置からの距離範囲を決定する段階を備えてよい。制御方法は、撮像装置から対象物までの距離を特定する段階を備えてよい。制御方法は、距離範囲及び距離に基づいて、距離範囲内に対象物が含まれるように撮像装置の位置を制御する段階を備えてよい。 According to one aspect of the present invention, there is provided a control method according to an aspect of the present invention, in which an imaging device should have an object to be imaged based on at least one of a focal length of an imaging device, an aperture value, a permissible circle of confusion diameter Determining a distance range of The control method may comprise identifying a distance from the imaging device to the object. The control method may comprise controlling the position of the imaging device to include the object within the distance range based on the distance range and the distance.
本発明の一態様に係るプログラムは、撮像装置の焦点距離、絞り値、許容錯乱円径、及び被写体距離の少なくとも1つに基づいて、撮像装置が撮像する対象物が存在すべき撮像装置からの距離範囲を決定する段階をコンピュータに実行させてよい。プログラムは、撮像装置から対象物までの距離を特定する段階をコンピュータに実行させてよい。プログラムは、距離範囲及び距離に基づいて、距離範囲内に対象物が含まれるように撮像装置の位置を制御する段階をコンピュータに実行させてよい。 A program according to an aspect of the present invention is a program from an imaging device in which an object to be imaged by the imaging device should exist based on at least one of the focal length of the imaging device, the aperture value, the permissible circle of confusion diameter, and the object distance. The computer may perform the step of determining the distance range. The program may cause the computer to execute a step of specifying the distance from the imaging device to the object. The program may cause the computer to control the position of the imaging device so that the object is included in the distance range based on the distance range and the distance.
撮像装置の撮影条件を変更せずに撮影することが望まれている場合でも、対象物が撮像装置の被写界深度から外れることを防止できる。 Even when it is desired to capture an image without changing the imaging conditions of the imaging device, it is possible to prevent the object from falling out of the depth of field of the imaging device.
上記の発明の概要は、本発明の特徴の全てを列挙したものではない。これらの特徴群のサブコンビネーションも発明となりうる。 The above summary of the invention does not enumerate all of the features of the present invention. A subcombination of these feature groups can also be an invention.
以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。 Hereinafter, the present invention will be described through the embodiments of the invention, but the following embodiments do not limit the invention according to the claims. Moreover, not all combinations of features described in the embodiments are essential to the solution of the invention.
請求の範囲、明細書、図面、及び要約書には、著作権による保護の対象となる事項が含まれる。著作権者は、これらの書類の何人による複製に対しても、特許庁のファイルまたはレコードに表示される通りであれば異議を唱えない。ただし、それ以外の場合、一切の著作権を保留する。 The claims, the description, the drawings, and the abstract contain matters which are subject to copyright protection. The copyright holder will not object to any copy of these documents as they appear in the Patent Office file or record. However, in all other cases, all copyrights are reserved.
本発明の様々な実施形態は、フローチャート及びブロック図を参照して記載されてよい。フローチャート及びブロック図におけるブロックは、(1)オペレーションが実行されるプロセスの段階又は(2)オペレーションを実行する役割を持つ装置の「部」を表わしてよい。特定の段階及び「部」が、専用回路、コンピュータ可読記憶媒体上に格納されるコンピュータ可読命令と共に供給されるプログラマブル回路、及び/又はコンピュータ可読記憶媒体上に格納されるコンピュータ可読命令と共に供給されるプロセッサによって実装されてよい。専用回路は、デジタル及び/またはアナログハードウェア回路を含んでよい。集積回路(IC)及び/またはディスクリート回路を含んでよい。プログラマブル回路は、例えば、フィールドプログラマブルゲートアレイ(FPGA)、及びプログラマブルロジックアレイ(PLA)等のような、論理積、論理和、排他的論理和、否定論理積、否定論理和、及び他の論理演算、フリップフロップ、レジスタ、並びにメモリエレメントを含む、再構成可能なハードウェア回路を含んでよい。 Various embodiments of the present invention may be described with reference to the flowcharts and block diagrams. The blocks in the flowcharts and block diagrams may represent (1) steps of a process in which the operation is performed or (2) "parts" of the device responsible for performing the operation. Specific steps and "parts" are supplied with dedicated circuitry, programmable circuitry supplied with computer readable instructions stored on computer readable storage media, and / or computer readable instructions stored on computer readable storage media It may be implemented by a processor. Dedicated circuitry may include digital and / or analog hardware circuitry. Integrated circuits (ICs) and / or discrete circuits may be included. Programmable circuits include, for example, AND, OR, EXCLUSIVE OR, NOR, NOR, and other logical operations, such as Field Programmable Gate Array (FPGA), Programmable Logic Array (PLA), etc. Reconfigurable hardware circuitry may be included, including flip flops, registers, and memory elements.
コンピュータ可読記憶媒体は、適切なデバイスによって実行される命令を格納可能な任意の有形なデバイスを含んでよい。その結果、そこに格納される命令を有するコンピュータ可読記憶媒体は、フローチャートまたはブロック図で指定されたオペレーションを実行するための手段を作成すべく実行され得る命令を含む、製品を備えることになる。コンピュータ可読記憶媒体の例としては、電子記憶媒体、磁気記憶媒体、光記憶媒体、電磁記憶媒体、半導体記憶媒体等が含まれてよい。コンピュータ可読記憶媒体のより具体的な例としては、フロッピー(登録商標)ディスク、ディスケット、ハードディスク、ランダムアクセスメモリ(RAM)、リードオンリメモリ(ROM)、消去可能プログラマブルリードオンリメモリ(EPROMまたはフラッシュメモリ)、電気的消去可能プログラマブルリードオンリメモリ(EEPROM)、静的ランダムアクセスメモリ(SRAM)、コンパクトディスクリードオンリメモリ(CD-ROM)、デジタル多用途ディスク(DVD)、ブルーレイ(登録商標)ディスク、メモリスティック、集積回路カード等が含まれてよい。 Computer readable storage media may include any tangible device capable of storing instructions for execution by a suitable device. As a result, a computer readable storage medium having instructions stored thereon will comprise an article of manufacture that includes instructions that can be executed to create means for performing the operations specified in the flowchart or block diagram. Examples of computer readable storage media may include electronic storage media, magnetic storage media, optical storage media, electromagnetic storage media, semiconductor storage media, and the like. More specific examples of the computer readable storage medium include floppy disk, diskette, hard disk, random access memory (RAM), read only memory (ROM), erasable programmable read only memory (EPROM or flash memory) Electrically erasable programmable read only memory (EEPROM), static random access memory (SRAM), compact disc read only memory (CD-ROM), digital versatile disc (DVD), Blu-ray (registered trademark) disc, memory stick , Integrated circuit cards, etc. may be included.
コンピュータ可読命令は、1または複数のプログラミング言語の任意の組み合わせで記述されたソースコードまたはオブジェクトコードの何れかを含んでよい。ソースコードまたはオブジェクトコードは、従来の手続型プログラミング言語を含む。従来の手続型プログラミング言語は、アセンブラ命令、命令セットアーキテクチャ(ISA)命令、マシン命令、マシン依存命令、マイクロコード、ファームウェア命令、状態設定データ、またはSmalltalk、JAVA(登録商標)、C++等のようなオブジェクト指向プログラミング言語、及び「C」プログラミング言語または同様のプログラミング言語でよい。 Computer readable instructions may include either source code or object code written in any combination of one or more programming languages. Source code or object code includes a conventional procedural programming language. Conventional procedural programming languages include assembler instructions, instruction set architecture (ISA) instructions, machine instructions, machine dependent instructions, microcode, firmware instructions, state setting data, or like Smalltalk, JAVA, C ++, etc. It may be an object oriented programming language, and a "C" programming language or similar programming language.
コンピュータ可読命令は、汎用コンピュータ、特殊目的のコンピュータ、若しくは他のプログラム可能なデータ処理装置のプロセッサまたはプログラマブル回路に対し、ローカルにまたはローカルエリアネットワーク(LAN)、インターネット等のようなワイドエリアネットワーク(WAN)を介して提供されてよい。プロセッサまたはプログラマブル回路は、フローチャートまたはブロック図で指定されたオペレーションを実行するための手段を作成すべく、コンピュータ可読命令を実行してよい。プロセッサの例としては、コンピュータプロセッサ、処理ユニット、マイクロプロセッサ、デジタル信号プロセッサ、コントローラ、マイクロコントローラ等を含む。 Computer readable instructions may be local or to a wide area network (WAN) such as a local area network (LAN), the Internet, etc., relative to a processor or programmable circuitry of a general purpose computer, special purpose computer, or other programmable data processing device. May be provided via The processor or programmable circuitry may execute computer readable instructions to create a means for performing the operations specified in the flowchart or block diagram. Examples of processors include computer processors, processing units, microprocessors, digital signal processors, controllers, microcontrollers, and the like.
図1は、無人航空機(UAV)100の外観の一例を示す。UAV100は、UAV本体102、ジンバル200、撮像装置300、及び複数の撮像装置230を備える。UAV100は、移動体の一例である。移動体とは、UAVの他、空中を移動する他の航空機、地上を移動する車両、水上を移動する船舶等を含む概念である。ジンバル200及び撮像装置300は、撮像システムの一例である。
FIG. 1 shows an example of the appearance of an unmanned aerial vehicle (UAV) 100. The
UAV本体102は、複数の回転翼を備える。UAV本体102は、複数の回転翼の回転を制御することでUAV100を飛行させる。UAV本体102は、例えば、4つの回転翼を用いてUAV100を飛行させる。回転翼の数は、4つには限定されない。また、UAV100は、回転翼を有さない固定翼機でもよい。
The
撮像装置300は、動画または静止画を撮像するためのカメラである。複数の撮像装置230は、UAV100の飛行を制御するためにUAV100の周囲を撮像するセンシング用のカメラである。2つの撮像装置230が、UAV100の機首である正面に設けられてよい。さらに他の2つの撮像装置230が、UAV100の底面に設けられてよい。正面側の2つの撮像装置230はペアとなり、いわゆるステレオカメラとして機能してよい。底面側の2つの撮像装置230もペアとなり、ステレオカメラとして機能してよい。複数の撮像装置230により撮像された画像に基づいて、UAV100から対象物までの距離が計測されてよい。複数の撮像装置230により撮像された画像に基づいて、UAV100の周囲の3次元空間データが生成されてよい。UAV100が備える撮像装置230の数は4つには限定されない。UAV100は、少なくとも1つの撮像装置230を備えていればよい。UAV100は、UAV100の機首、機尾、側面、底面、及び天井面のそれぞれに少なくとも1つの撮像装置230を備えてもよい。撮像装置230で設定できる画角は、撮像装置300で設定できる画角より広くてよい。撮像装置230は、単焦点レンズまたは魚眼レンズを有してもよい。
The
以上のように構成されたUAV100に搭載された撮像装置300において、撮像装置300により撮像される対象物が、撮像装置300の被写界深度から外れないように、UAV100の位置を制御する。
In the
図2は、被写界深度について説明するための模式図である。レンズ510の焦点距離をf、絞り514の絞り値をF、レンズ510からレンズ510の合焦位置502までの距離を示す被写体距離をa、レンズ510から撮像素子512の像面までの距離を示す像距離b、許容錯乱円径をεと定義する。被写体距離aは、レンズ510の位置によって変化する。許容錯乱円径εは、撮像素子512の種類によって変わる場合がある。許容錯乱円径εは、撮像素子512のサイズによって変わる場合がある。撮像素子512の像面から主要被写体である対象物500までの距離(撮影距離)をLと定義する。被写界深度は、撮像装置の焦点距離f、絞り値F、許容錯乱円径ε、及び被写体距離aの少なくとも1つに基づいて定められてよい。
FIG. 2 is a schematic view for explaining the depth of field. The focal length of the
被写界深度520は、前方被写界深度522と後方被写界深度524との合計である。前方被写界深度522は、合焦位置502から前方側に位置する。後方被写界深度524は、合焦位置502より後方側に位置する。前方被写界深度522及び後方被写界深度524は、次式で導出される。
UAV100は、対象物500が被写界深度520から外れないように、対象物500が存在すべき撮像装置300からの距離範囲526内に対象物500が含まれるように撮像装置300の位置、すなわちUAV100の位置を制御してよい。距離範囲526の幅は、被写界深度520の幅より狭くてよい。距離範囲526は、撮像素子512の像面からの距離Lfから、撮像素子512の像面からの距離Lb(>距離Lf)までの範囲でよい。距離範囲526は、前方被写界深度522の予め定められた割合、及び後方被写界深度524の予め定められた割合を含んでよい。距離範囲526は、例えば、前方被写界深度522の合焦位置502側の95%、90%、85%、または80%の範囲、及び後方被写界深度524の合焦位置502側の95%、90%、85%、または80%の範囲を含んでよい。
The
このようにUAV100が飛行することで、撮像装置300の絞り値F、焦点距離fなどの撮影条件を変更せずに撮影することが望まれている場合でも、対象物500が撮像装置300の被写界深度520から外れることを防止できる。
As described above, even when it is desired that shooting is performed without changing the imaging conditions such as the aperture value F and the focal length f of the
図3は、UAV100の機能ブロックの一例を示す。UAV100は、UAV制御部110、通信インタフェース150、メモリ160、ジンバル200、回転翼機構210、撮像装置300、撮像装置230、GPS受信機240、慣性計測装置(IMU)250、磁気コンパス260、及び気圧高度計270を備える。
FIG. 3 shows an example of a functional block of the
通信インタフェース150は、外部の送信機と通信する。通信インタフェース150は、遠隔の送信機からUAV制御部110に対する各種の命令を受信する。メモリ160は、UAV制御部110がジンバル200、回転翼機構210、撮像装置300、撮像装置230、GPS受信機240、IMU250、磁気コンパス260、及び気圧高度計270を制御するのに必要なプログラム等を格納する。メモリ160は、コンピュータ読み取り可能な記録媒体でよく、SRAM、DRAM、EPROM、EEPROM、及びUSBメモリ等のフラッシュメモリの少なくとも1つを含んでよい。メモリ160は、UAV本体102の内部に設けられてよい。メモリ160は、UAV本体102から取り外し可能に設けられてよい。
The
ジンバル200は、撮像装置300の撮像方向を調整可能に支持する。ジンバル200は、少なくとも1つの軸を中心に撮像装置300を回転可能に支持する。ジンバル200は、支持機構の一例である。ジンバル200は、ヨー軸、ピッチ軸、及びロール軸を中心に撮像装置300を回転可能に支持してよい。ジンバル200は、ヨー軸、ピッチ軸、及びロール軸の少なくとも1つを中心に撮像装置300を回転させることで、撮像装置300の撮像方向を変更してよい。回転翼機構210は、複数の回転翼と、複数の回転翼を回転させる複数の駆動モータとを有する。
The
撮像装置230は、UAV100の周囲を撮像して画像データを生成する。撮像装置230の画像データは、メモリ160に格納される。GPS受信機240は、複数のGPS衛星から発信された時刻を示す複数の信号を受信する。GPS受信機240は、受信された複数の信号に基づいてGPS受信機240の位置、つまりUAV100の位置を算出する。慣性計測装置(IMU)250は、UAV100の姿勢を検出する。IMU250は、UAV100の姿勢として、UAV100の前後、左右、及び上下の3軸方向の加速度と、ピッチ、ロール、及びヨーの3軸方向の角速度とを検出する。磁気コンパス260は、UAV100の機首の方位を検出する。気圧高度計270は、UAV100が飛行する高度を検出する。
The
UAV制御部110は、メモリ160に格納されたプログラムに従ってUAV100の飛行を制御する。UAV制御部110は、CPUまたはMPU等のマイクロプロセッサ、MCU等のマイクロコントローラ等により構成されてよい。UAV制御部110は、通信インタフェース150を介して遠隔の送信機から受信した命令に従って、UAV100の飛行を制御する。
The
UAV制御部110は、複数の撮像装置230により撮像された複数の画像を解析することで、UAV100の周囲の環境を特定してよい。UAV制御部110は、UAV100の周囲の環境に基づいて、例えば、障害物を回避して飛行を制御する。UAV制御部110は、複数の撮像装置230により撮像された複数の画像に基づいてUAV100の周囲の3次元空間データを生成し、3次元空間データに基づいて飛行を制御してよい。
The
撮像装置300は、撮像部301、及びレンズ部401を備える。レンズ部401は、撮像部301から取り外しが可能なレンズユニットでもよい。撮像部301は、撮像制御部310、撮像素子330、及びメモリ340を有する。撮像制御部310は、CPUまたはMPUなどのマイクロプロセッサ、MCUなどのマイクロコントローラなどにより構成されてよい。撮像制御部310は、UAV制御部110からの撮像装置300の動作命令に応じて、撮像装置300を制御してよい。
The
メモリ340は、コンピュータ可読可能な記録媒体でよく、SRAM、DRAM、EPROM、EEPROM、及びUSBメモリなどのフラッシュメモリの少なくとも1つを含んでよい。メモリ340は、撮像部301の筐体の内部に設けられてよい。メモリ340は、撮像部301の筐体から取り外し可能に設けられてよい。
The
撮像素子330は、CCDまたはCMOSにより構成されてよい。撮像素子330は、撮像装置300の筐体の内部に保持され、複数のレンズ432及びレンズ442を介して結像された光学像の画像データを撮像制御部310に出力する。撮像制御部310は、画像データに対してノイズ低減、デモザイキング、ガンマ補正、及びエッジ協調などの一連の画像処理を施す。撮像制御部310は、一連の画像処理後の画像データをメモリ340に格納する。撮像制御部310は、画像データをUAV制御部110を介してメモリ160に出力して格納してもよい。
The
レンズ部401は、レンズ制御部410、メモリ420、レンズ駆動部430、レンズ432、位置センサ434、レンズ駆動部440、レンズ442、位置センサ444、絞り駆動部450、及び絞り452を備える。レンズ432は、少なくとも1枚のレンズを含む。レンズ432は、ズームレンズでよい。レンズ442は、少なくとも1枚のレンズを含む。レンズ442は、フォーカスレンズでよい。
The
レンズ制御部410は、撮像部301からのレンズ動作命令に応じてレンズ駆動部430を介して、レンズ432の光軸方向への移動を制御する。レンズ制御部410は、撮像部301からのレンズ動作命令に応じてレンズ駆動部440を介して、レンズ442の光軸方向への移動を制御する。レンズ432及びレンズ442の一部または全部は、光軸に沿って移動する。レンズ制御部410は、レンズ432及びレンズ442の少なくとも1つを光軸に沿って移動させることで、ズーム動作及びフォーカス動作の少なくとも一方を実行する。位置センサ434は、レンズ432の位置を検出する。位置センサ434は、現在のズーム位置を検出してよい。位置センサ444は、レンズ442の位置を検出する。位置センサ444は、現在のフォーカス位置を検出してよい。
The
レンズ駆動部430及びレンズ駆動部440は、アクチュエータを含んでよい。レンズ432及びレンズ442は、それぞれのアクチュエータからの動力を受けてレンズ駆動機構を介して光軸方向に沿って移動してよい。
The
絞り452は、撮像素子330に入射される光の量を調整する。絞り駆動部450は、アクチュエータを含んでよい。絞り駆動部450は、レンズ制御部410からの指令を受けて、アクチュエータを駆動して、絞り開口の大きさ、つまり絞り値を調整してよい。
The
メモリ420は、レンズ駆動部430を介して移動する複数のレンズ432及びレンズ442の制御値を記憶する。メモリ420は、SRAM、DRAM、EPROM、EEPROM、及びUSBメモリなどのフラッシュメモリの少なくとも1つを含んでよい。
The
このように構成されたUAV100において、対象物500が撮像装置300の被写界深度から外れないように、UAV制御部110がUAV100の位置を制御する。
In the
UAV制御部110は、距離範囲決定部111、距離特定部112、位置制御部113、選択部114、地理的位置特定部115、推定部116、及び地理的領域決定部117を有する。UAV制御部110以外の他の制御部が、UAV制御部110が備える各部の全部または一部を有してもよい。例えば、撮像制御部310が、UAV制御部110が備える各部の全部または一部を有してよい。UAV100を遠隔制御する送信機が、UAV制御部110が備える各部の全部または一部を有してよい。
The
距離範囲決定部111は、撮像装置300の焦点距離f、絞り値F、許容錯乱円径ε、及び被写体距離aの少なくとも1つに基づいて、撮像装置300が撮像する対象物500が存在すべき撮像装置300からの距離範囲526を決定する。距離範囲決定部111は、第1決定部の一例である。距離範囲決定部111は、撮像装置300の焦点距離f、絞り値F、許容錯乱円径ε、及び被写体距離aに基づいて上述の式(1)及び式(2)より前方被写界深度522及び後方被写界深度524を導出してよい。距離範囲決定部111は、導出された前方被写界深度522及び後方被写界深度524に基づいて、距離範囲526を決定してよい。距離範囲決定部111は、前方被写界深度522の合焦位置502側の予め定められた割合(例えば、90%)、及び後方被写界深度524の合焦位置502側の予め定められた割合(例えば、90%)を含むように、距離範囲526を決定してよい。
The distance
距離特定部112は、撮像装置300から対象物500までの距離Lを特定する。距離Lは、撮像素子330の像面から対象物500までの距離でよい。距離特定部112は、第1特定部の一例である。距離特定部112は、複数の撮像装置230により撮像された複数の画像に基づいて三角測距方式でUAV100から対象物500までの距離を距離Lとして特定してよい。距離特定部112は、超音波式センサ、赤外線センサ、またはレーダ式センサなどを用いてUAV100から対象物500までの距離を距離Lとして特定してよい。
The
位置制御部113は、距離範囲526及び距離Lに基づいて、距離範囲526内に対象物500が含まれるように撮像装置300の位置、すなわちUAV100の位置を制御する。位置制御部113は、制御部の一例である。UAV制御部110は、対象物が距離範囲内に存在する場合に、撮像装置300に対象物を撮像させてよい。UAV制御部110は、対象物が距離範囲内に存在しない場合には、撮像装置300による対象物の撮像を停止してよい。UAV100が対象物を追尾している間、UAV制御部110は、距離範囲決定部111により決定された距離範囲内に対象物が存在するように、UAV100の位置を制御してよい。UAV100が対象物の周囲でホバリング中に、UAV制御部110は、距離範囲決定部111により決定された距離範囲内に対象物が存在するように、UAV100の位置を制御してよい。
The
図4は、距離範囲の位置の調整の一例について説明するための図である。対象物500が対象物500'の位置まで移動して、被写界深度610の距離範囲600を外れたとする。この場合、位置制御部113は、例えば、対象物500'が距離範囲の中央に存在するように、UAV100の位置を制御する。UAV100が移動することで、距離範囲が距離範囲600から距離範囲600'に移動する。
FIG. 4 is a diagram for describing an example of adjustment of the position of the distance range. It is assumed that the
位置制御部113は、対象物500と撮像装置300との相対的な移動方向に応じて、対象物500が存在すべき距離範囲526内の位置を調整してよい。例えば、対象物500が撮像装置300に近付いてきているとする。この場合、対象物500は、前方被写界深度522の合焦位置502側の端部と反対側の端部から外れる。すなわち、対象物500は、前方被写界深度522の前方側の端部から外れる。この場合、位置制御部113は、対象物500が後方被写界深度524内に位置するように、UAV100の位置を制御してよい。一方、対象物500が撮像装置300から遠ざかっているとする。この場合、対象物500は、後方被写界深度524の合焦位置502側の端部と反対側の端部から外れる。すなわち、対象物500は、後方被写界深度524の後方側の端部から外れる。この場合、位置制御部113は、対象物500が前方被写界深度522内に位置するように、UAV100の位置を制御してよい。対象物500と撮像装置300との相対的な移動方向が一定の場合には、対象物500の位置が上記のような位置になるようにUAV100の位置を制御することで、対象物500が撮像装置300の被写界深度520から外れるのをさらに抑制できる。または、位置制御部113が距離範囲526に基づいてUAV100の位置を調整する頻度を低減できる。
The
被写界深度520は、上記の通り、式(1)及び式(2)により導出される。焦点距離fが一定でも、被写界深度520は、例えば、絞り値Fの大きさによって変化する。例えば、絞り値Fが大きいほど、被写界深度520は浅くなる。許容錯乱円径εは、撮像素子330のサイズによって変化するので、焦点距離fが一定でも、被写界深度520は、撮像素子330のサイズによって変化する。許容錯乱円径εの大きさが同じでも、被写界深度520は、撮像素子330のサイズによって変化する。撮像素子330のサイズが大きいほど、被写界深度520は浅くなる。
The depth of field 520 is derived by Equations (1) and (2) as described above. Even if the focal distance f is constant, the depth of field 520 changes according to the size of the aperture value F, for example. For example, the greater the aperture value F, the shallower the depth of field 520. Since the permissible circle of confusion ε varies with the size of the
被写界深度の大きさ(幅)が変われば、対象物が存在すべき距離範囲の幅も変わる。距離範囲が狭いほど、UAV100は対象物との距離をより精度よく一定に保つ必要がある。図5A及び図5Bは、対象物500及びUAV100の移動距離の時間的変化の一例を示す。図5Aに示す距離範囲700の幅より、図5Bに示す距離範囲700の幅は狭い。図5A及び図5Bに示すように、距離範囲700が狭いほど、対象物500が距離範囲700の中心からずれ始めてから距離範囲700の端に達するまでの時間702が短い。したがって、被写界深度が浅いほど、UAV100は機敏に動作する必要がある。そこで、UAV100は、被写界深度が浅いほど、加速度が大きくなるように動作してもよい。UAV100が、予め設定された最大加速度以内で動作する場合には、被写界深度が浅いほど、最大加速度が大きくなるように設定されてもよい。被写界深度が浅いほど、UAV100と対象物との間の距離の修正を早くできる。UAV100と対象物との距離を一定に維持することが望まれる場合、例えば、対象物との距離を一定保ってUAV100が追尾またはホバリングする場合に、被写界深度が浅いほど最大加速度を大きくするのが有効な場合がある。
If the size (width) of the depth of field changes, the width of the distance range in which the object should exist also changes. As the distance range is narrower, the
UAV制御部110は、対象物の動きを予測して、予測された対象物の将来の位置及び距離範囲に基づいてUAV100が到達すべき目標位置を決定し、目標位置までUAV100を移動させてよい。このような制御を実現するために、UAV制御部110は、さらに、選択部114、地理的位置特定部115、推定部116、及び地理的領域決定部117を有してよい。
The
選択部114は、撮像装置300により撮像された画像の中から予め地理的位置が定められた基準点、及び対象物を選択する。基準点は、第1の地点の一例である。予め地理的位置が定められた基準点は、不動の物体でよい。基準点は、UAV制御部110が参照可能な地図データベース上で予め地理的位置(緯度、経度、高度など)が登録されたランドマークでよい。選択部114は、撮像装置300により撮像された画像の中からユーザからの指定を受けて、基準点及び対象物を選択してよい。
The
図6は、撮像装置300により撮像された基準点802及び対象物804を含む画像800の一例を示す。ユーザは、画像800の中から、ランドマークとなりうる山を基準点802として指定する。画像800は、例えば、UAV100を遠隔で制御する送信機が備えるディスプレイに表示されてよい。さらに、ユーザは、画像800の中から主要被写体として対象物804を指定する。選択部114は、予め地図データベースに登録されているランドマークに対応する画像と、画像800とを比較して、ランドマークとなり得る領域を画像800の中から検索してもよい。UAV100の現在位置、基準点802の位置、対象物804の現在位置を含む地図情報を撮像装置300により撮像された画像800に重ねてディスプレイに表示してもよい。
FIG. 6 shows an example of an
地理的位置特定部115は、撮像装置300により撮像された画像内における基準点と対象物との位置関係、及び基準点の地理的位置に基づいて、対象物の地理的位置を特定する。地理的位置特定部115は、第2特定部の一例である。地理的位置特定部115は、撮像装置300により単位時間毎に撮像された2枚の画像を利用して、画像内の単位領域毎に撮像装置300までの距離を示す距離画像を生成してよい。地理的位置特定部115は、距離画像を利用して基準点と対象物との位置関係を特定する。地理的位置特定部115は、例えば、メモリ160に格納されている地図データベースを参照して、基準点の地理的位置を特定する。地理的位置特定部115は、特定された位置関係及び基準点の地理的位置に基づいて、対象物の地理的位置を特定する。
The geographical
推定部116は、対象物の将来の第1時点における地理的位置を推定する。推定部116は、現在までの複数の時点で地理的位置特定部115により特定された対象物の複数の地理的位置に基づいて、第1時点における対象物の地理的位置を推定する。推定部116は、フレームレートに基づいて定められる単位時間毎に対象物の地理的位置を推定してよい。
The
地理的領域決定部117は、推定部116により推定された対象物の地理的位置及び距離範囲に基づいて、撮像装置300が第1時点に存在すべき地理的領域を決定する。すなわち、地理的領域決定部117は、推定部116により推定された対象物の地理的位置及び距離範囲に基づいて、UAV100が第1時点に存在すべき地理的領域を決定する。第1時点でUAV100が地理的領域内に存在すれば、第1時点で少なくとも対象物は撮像装置300の被写界深度内に位置できる。位置制御部113は、撮像装置300が第1時点に地理的領域内に存在するように、撮像装置300の位置を制御する。位置制御部113は、地理的領域及び地図データベースを参照して、地理的領域内で最適な目標位置を決定してよい。位置制御部113は、地理的領域内で、最短距離で到達できる位置を目標位置に決定してよい。位置制御部113は、地図データベースを参照して地理的領域に到達するまでに飛行の妨げとなる障害物を特定し、地理的領域内で、障害物を迂回しかつ最短距離で到達できる位置を目標位置に決定してよい。
The geographical
図7は、撮像装置300の位置を制御する手順の一例を示すフローチャートである。選択部114は、撮像装置300により撮像された画像の中からユーザにより指定された対象物を選択する(S010)。対象物を撮像するのに最適な撮像装置300の撮像条件を決定し、処理が終了するまで、その撮像条件を維持する。つまり、撮像装置300は、撮像条件として決定された焦点距離f、絞り値F、被写体距離aを維持する。そして、距離範囲決定部111は、撮像装置300から焦点距離f、絞り値F、許容錯乱円径ε、被写体距離a、像距離bの情報を取得する。距離特定部112は、焦点距離f、絞り値F、許容錯乱円径ε、及び被写体距離aに基づいて撮像装置300の被写界深度を特定する。距離範囲決定部111は、被写界深度、被写体距離a、及び像距離bに基づいて、対象物が存在すべき撮像装置300からの距離範囲を決定する(S102)。
FIG. 7 is a flowchart showing an example of the procedure for controlling the position of the
距離特定部112は、撮像装置300から対象物までの距離Lを特定する(S104)。距離特定部112は、例えば、複数の撮像装置230により撮像された複数の画像から導出された対象物までの距離を距離Lとして特定してよい。位置制御部113は、特定された距離Lが距離範囲内か否かを判定する(S106)。対象物が距離範囲内に存在しなければ、位置制御部113は、対象物が距離範囲内に含まれるように、撮像装置300の位置を調整すべく、UAV100の飛行を制御する(S108)。対象物が距離範囲内に存在する場合には、UAV制御部110は、現状のUAV100の飛行制御を継続する。
The
対象物が距離範囲内に存在するように撮像装置300の位置を制御する処理を終了するまで(S110)、UAV制御部110は、ステップS104からステップS108までの処理を継続する。
The
以上の手順により、UAV100は、対象物が撮像装置300の被写界深度から外れることなく撮像装置300に対象物を撮像させることができる。
According to the above-described procedure, the
図8は、対象物の将来の位置を推定して撮像装置300の位置を制御する手順の一例を示すフローチャートである。選択部114は、撮像装置300により撮像された画像の中からユーザにより指定された対象物、及びランドマークとなる基準点を選択する(S200)。距離範囲決定部111は、撮像装置300から焦点距離f、絞り値F、許容錯乱円径ε、被写体距離a、像距離bの情報を取得する。距離特定部112は、焦点距離f、絞り値F、許容錯乱円径ε、及び被写体距離aに基づいて撮像装置300の被写界深度を特定する。距離範囲決定部111は、被写界深度、被写体距離a、及び像距離bに基づいて、対象物が存在すべき撮像装置300からの距離範囲を決定する(S202)。
FIG. 8 is a flowchart showing an example of a procedure of estimating the future position of the object to control the position of the
地理的位置特定部115は、地図テータベースを参照して、基準点の地理的位置を特定する(S204)。地理的位置特定部115は、撮像装置300により単位時間毎に撮像された複数の画像に基づいて、画像内の単位領域毎に撮像装置300までの距離を示す距離画像を作成する(S206)。地理的位置特定部115は、基準点の地理的位置及び距離画像に基づいて対象物の地理的位置を特定する(S208)。
The geographical
推定部116は、現在までに地理的位置特定部115により特定された対象物の複数の地理的位置に基づいて、将来の第1時点における対象物の地理的位置を推定する(S210)。地理的領域決定部117は、第1時点における対象物の地理的位置、及び距離範囲に基づいて、第1時点にUAV100が存在すべき地理的領域を決定する(S212)。位置制御部113は、地理的領域及びUAV100の現在の地理的位置に基づいて、UAV100の飛行を制御する(S214)。位置制御部113は、UAV100が第1時点で地理的領域内に位置するように、UAV100の飛行を制御する。
The
以上の通り、UAV100は、将来の対象物の位置を推定して、その推定結果及び、対象物が存在すべき距離範囲に基づいて、UAV100が将来存在すべき地理的領域を特定する。UAV100は、特定された地理的領域及び地図データベースを参照して、障害物等を考慮して、最適な飛行経路を決定できる。これにより、UAV100は、最適な飛行経路で、対象物が撮像装置300の被写界深度から外れないように飛行できる。
As described above, the
図9は、本発明の複数の態様が全体的または部分的に具現化されてよいコンピュータ1200の一例を示す。コンピュータ1200にインストールされたプログラムは、コンピュータ1200に、本発明の実施形態に係る装置に関連付けられるオペレーションまたは当該装置の1または複数の「部」として機能させることができる。または、当該プログラムは、コンピュータ1200に当該オペレーションまたは当該1または複数の「部」を実行させることができる。当該プログラムは、コンピュータ1200に、本発明の実施形態に係るプロセスまたは当該プロセスの段階を実行させることができる。そのようなプログラムは、コンピュータ1200に、本明細書に記載のフローチャート及びブロック図のブロックのうちのいくつかまたはすべてに関連付けられた特定のオペレーションを実行させるべく、CPU1212によって実行されてよい。
FIG. 9 shows an example of a
本実施形態によるコンピュータ1200は、CPU1212、及びRAM1214を含み、それらはホストコントローラ1210によって相互に接続されている。コンピュータ1200はまた、通信インタフェース1222、入力/出力ユニットを含み、それらは入力/出力コントローラ1220を介してホストコントローラ1210に接続されている。コンピュータ1200はまた、ROM1230を含む。CPU1212は、ROM1230及びRAM1214内に格納されたプログラムに従い動作し、それにより各ユニットを制御する。
The
通信インタフェース1222は、ネットワークを介して他の電子デバイスと通信する。ハードディスクドライブが、コンピュータ1200内のCPU1212によって使用されるプログラム及びデータを格納してよい。ROM1230はその中に、アクティブ化時にコンピュータ1200によって実行されるブートプログラム等、及び/またはコンピュータ1200のハードウェアに依存するプログラムを格納する。プログラムが、CR−ROM、USBメモリまたはICカードのようなコンピュータ可読記録媒体またはネットワークを介して提供される。プログラムは、コンピュータ可読記録媒体の例でもあるRAM1214、またはROM1230にインストールされ、CPU1212によって実行される。これらのプログラム内に記述される情報処理は、コンピュータ1200に読み取られ、プログラムと、上記様々なタイプのハードウェアリソースとの間の連携をもたらす。装置または方法が、コンピュータ1200の使用に従い情報のオペレーションまたは処理を実現することによって構成されてよい。
The
例えば、通信がコンピュータ1200及び外部デバイス間で実行される場合、CPU1212は、RAM1214にロードされた通信プログラムを実行し、通信プログラムに記述された処理に基づいて、通信インタフェース1222に対し、通信処理を命令してよい。通信インタフェース1222は、CPU1212の制御の下、RAM1214、またはUSBメモリのような記録媒体内に提供される送信バッファ領域に格納された送信データを読み取り、読み取られた送信データをネットワークに送信し、またはネットワークから受信した受信データを記録媒体上に提供される受信バッファ領域等に書き込む。
For example, when communication is performed between the
また、CPU1212は、USBメモリ等のような外部記録媒体に格納されたファイルまたはデータベースの全部または必要な部分がRAM1214に読み取られるようにし、RAM1214上のデータに対し様々なタイプの処理を実行してよい。CPU1212は次に、処理されたデータを外部記録媒体にライトバックしてよい。
In addition, the
様々なタイプのプログラム、データ、テーブル、及びデータベースのような様々なタイプの情報が記録媒体に格納され、情報処理を受けてよい。CPU1212は、RAM1214から読み取られたデータに対し、本開示の随所に記載され、プログラムの命令シーケンスによって指定される様々なタイプのオペレーション、情報処理、条件判断、条件分岐、無条件分岐、情報の検索/置換等を含む、様々なタイプの処理を実行してよく、結果をRAM1214に対しライトバックする。また、CPU1212は、記録媒体内のファイル、データベース等における情報を検索してよい。例えば、各々が第2の属性の属性値に関連付けられた第1の属性の属性値を有する複数のエントリが記録媒体内に格納される場合、CPU1212は、第1の属性の属性値が指定される、条件に一致するエントリを当該複数のエントリの中から検索し、当該エントリ内に格納された第2の属性の属性値を読み取り、それにより予め定められた条件を満たす第1の属性に関連付けられた第2の属性の属性値を取得してよい。
Various types of information such as various types of programs, data, tables, and databases may be stored in the recording medium and subjected to information processing. The
上で説明したプログラムまたはソフトウェアモジュールは、コンピュータ1200上またはコンピュータ1200近傍のコンピュータ可読記憶媒体に格納されてよい。また、専用通信ネットワークまたはインターネットに接続されたサーバーシステム内に提供されるハードディスクまたはRAMのような記録媒体が、コンピュータ可読記憶媒体として使用可能であり、それによりプログラムを、ネットワークを介してコンピュータ1200に提供する。
The programs or software modules described above may be stored on computer readable storage medium on or near
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、請求の範囲の記載から明らかである。 As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. It is apparent to those skilled in the art that various changes or modifications can be added to the above embodiment. It is also apparent from the scope of the claims that the embodiments added with such alterations or improvements can be included in the technical scope of the present invention.
請求の範囲、明細書、及び図面中において示した装置、システム、プログラム、及び方法における動作、手順、ステップ、及び段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。請求の範囲、明細書、及び図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。 The order of execution of each process such as operations, procedures, steps, and steps in the apparatuses, systems, programs, and methods shown in the claims, the specification, and the drawings is particularly "before", "before" It should be noted that it can be realized in any order, unless explicitly stated as etc., and unless the output of the previous process is used in the later process. With regard to the operation flow in the claims, the specification, and the drawings, even if it is described using “first,” “next,” etc. for the sake of convenience, it means that it is essential to carry out in this order. is not.
100 UAV
102 UAV本体
110 UAV制御部
111 距離範囲決定部
112 距離特定部
113 位置制御部
114 選択部
115 地理的位置特定部
116 推定部
117 地理的領域決定部
150 通信インタフェース
160 メモリ
200 ジンバル
210 回転翼機構
230 撮像装置
240 GPS受信機
260 磁気コンパス
270 気圧高度計
300 撮像装置
301 撮像部
310 撮像制御部
330 撮像素子
340 メモリ
401 レンズ部
410 レンズ制御部
420 メモリ
430 レンズ駆動部
432 レンズ
434 位置センサ
440 レンズ駆動部
442 レンズ
444 位置センサ
450 絞り駆動部
452 絞り
500 対象物
502 合焦位置
510 レンズ
512 撮像素子
514 絞り
1200 コンピュータ
1210 ホストコントローラ
1212 CPU
1214 RAM
1220 入力/出力コントローラ
1222 通信インタフェース
1230 ROM100 UAV
102 UAV
1214 RAM
1220 I /
Claims (13)
前記撮像装置から前記対象物までの距離を特定する第1特定部と、
前記距離範囲及び前記距離に基づいて、前記距離範囲内に前記対象物が含まれるように前記撮像装置の位置を制御する制御部と
を備え、
前記距離範囲の幅は、前記撮像装置の焦点距離、絞り値、許容錯乱円径、及び被写体距離の少なくとも1つに基づいて定められる前記撮像装置の被写界深度の幅より狭い、制御装置。 A first determination to determine a distance range from the image pickup apparatus in which an object to be picked up by the image pickup apparatus should exist based on at least one of focal length of the image pickup apparatus, aperture value, permissible circle of confusion diameter, and subject distance Department,
A first identification unit that identifies a distance from the imaging device to the object;
And a control unit configured to control the position of the imaging device such that the object is included in the distance range based on the distance range and the distance .
The control device, wherein a width of the distance range is narrower than a width of a depth of field of the imaging device determined based on at least one of a focal length of the imaging device, an aperture value, a permissible circle of confusion diameter, and a subject distance .
推定された地理的位置及び前記距離範囲に基づいて、前記撮像装置が前記第1時点に存在すべき地理的領域を決定する第2決定部と
をさらに備え、
前記制御部は、前記撮像装置が前記第1時点に前記地理的領域内に存在するように、前記撮像装置の位置を制御する、請求項1に記載の制御装置。 An estimation unit for estimating a geographical position of the object at a first future point in time;
And a second determination unit that determines a geographical area where the imaging device should be present at the first time based on the estimated geographical position and the distance range.
The control device according to claim 1, wherein the control unit controls the position of the imaging device such that the imaging device exists in the geographical area at the first time point.
前記撮像装置により撮像された画像内における前記第1の地点と前記対象物との位置関係、及び前記第1の地点の地理的位置に基づいて、前記対象物の地理的位置を特定する第2特定部と
をさらに備え、
前記推定部は、現在までの複数の時点で前記第2特定部により特定された前記対象物の複数の地理的位置に基づいて、前記第1時点における前記対象物の地理的位置を推定する、請求項3に記載の制御装置。 A first point at which a geographical position is determined in advance from an image captured by the imaging device, and a selection unit for selecting the object;
Second identifying a geographical position of the object based on a positional relationship between the first point and the object in an image captured by the imaging device, and a geographical position of the first point And a specific part,
The estimation unit estimates a geographical position of the object at the first time based on a plurality of geographical positions of the object specified by the second specifying unit at a plurality of time points up to now. The control device according to claim 3 .
前記撮像装置から前記対象物までの距離を特定する第1特定部と、 A first identification unit that identifies a distance from the imaging device to the object;
前記距離範囲及び前記距離に基づいて、前記距離範囲内に前記対象物が含まれるように前記撮像装置の位置を制御する制御部と、 A control unit configured to control the position of the imaging device such that the object is included in the distance range based on the distance range and the distance;
前記撮像装置により撮像された画像の中から予め地理的位置が定められた第1の地点、及び前記対象物を選択する選択部と、 A first point at which a geographical position is determined in advance from an image captured by the imaging device, and a selection unit for selecting the object;
前記撮像装置により撮像された画像内における前記第1の地点と前記対象物との位置関係、及び前記第1の地点の地理的位置に基づいて、前記対象物の地理的位置を特定する第2特定部と、 Second identifying a geographical position of the object based on a positional relationship between the first point and the object in an image captured by the imaging device, and a geographical position of the first point A specific part,
現在までの複数の時点で前記第2特定部により特定された前記対象物の複数の地理的位置に基づいて、前記対象物の将来の第1時点における地理的位置を推定する推定部と、 An estimation unit for estimating a geographical position of the object at a first future time based on a plurality of geographical positions of the object specified by the second specifying unit at a plurality of time points up to now;
推定された地理的位置及び前記距離範囲に基づいて、前記撮像装置が前記第1時点に存在すべき地理的領域を決定する第2決定部と A second determination unit that determines a geographical area that the imaging device should be present at the first time based on the estimated geographical position and the distance range;
を備え、Equipped with
前記制御部は、前記撮像装置が前記第1時点に前記地理的領域内に存在するように、前記撮像装置の位置を制御する、制御装置。 The control unit controls the position of the imaging device such that the imaging device exists in the geographical area at the first time point.
前記制御部は、前記距離範囲内に前記対象物が含まれるように前記無人航空機にホバリングさせる、請求項8に記載の移動体。 The moving body is an unmanned aerial vehicle,
The mobile unit according to claim 8, wherein the control unit causes the unmanned aircraft to hover so that the object is included in the distance range.
前記撮像装置から前記対象物までの距離を特定する段階と、
前記距離範囲及び前記距離に基づいて、前記距離範囲内に前記対象物が含まれるように前記撮像装置の位置を制御する段階と
を備え、
前記距離範囲の幅は、前記撮像装置の焦点距離、絞り値、許容錯乱円径、及び被写体距離の少なくとも1つに基づいて定められる前記撮像装置の被写界深度の幅より狭い、制御方法。 Determining a distance range from the image pickup apparatus in which the object to be picked up by the image pickup apparatus should exist based on at least one of the focal length of the image pickup apparatus, the aperture value, the permissible circle of confusion diameter, and the subject distance;
Identifying a distance from the imaging device to the object;
Controlling the position of the imaging device so that the object is included in the distance range based on the distance range and the distance ;
The control method, wherein a width of the distance range is narrower than a depth of field of the imaging device determined based on at least one of a focal length of the imaging device, an aperture value, a permissible circle of confusion diameter, and a subject distance .
前記撮像装置から前記対象物までの距離を特定する段階と、 Identifying a distance from the imaging device to the object;
前記距離範囲及び前記距離に基づいて、前記距離範囲内に前記対象物が含まれるように前記撮像装置の位置を制御する段階と、 Controlling the position of the imaging device to include the object within the distance range based on the distance range and the distance;
前記撮像装置により撮像された画像の中から予め地理的位置が定められた第1の地点、及び前記対象物を選択する段階と、 Selecting a first point whose geographical position is previously determined from the image captured by the imaging device, and the object;
前記撮像装置により撮像された画像内における前記第1の地点と前記対象物との位置関係、及び前記第1の地点の地理的位置に基づいて、前記対象物の地理的位置を特定する段階と、 Identifying the geographical position of the object based on the positional relationship between the first point and the object in the image captured by the imaging device, and the geographical position of the first point; ,
現在までの複数の時点で特定された前記対象物の複数の地理的位置に基づいて、前記対象物の将来の第1時点における地理的位置を推定する段階と、 Estimating a geographical position of the object at a first future time based on a plurality of geographical positions of the object specified at a plurality of time points up to now;
推定された地理的位置及び前記距離範囲に基づいて、前記撮像装置が前記第1時点に存在すべき地理的領域を決定する段階と Determining the geographical area that the imaging device should be present at the first time based on the estimated geographical position and the distance range;
を備え、Equipped with
前記制御する段階は、前記撮像装置が前記第1時点に前記地理的領域内に存在するように、前記撮像装置の位置を制御する段階を含む、制御方法。 Controlling the position of the imaging device such that the imaging device is within the geographical area at the first point in time.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2016/089087 WO2018123013A1 (en) | 2016-12-28 | 2016-12-28 | Controller, mobile entity, control method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2018123013A1 JPWO2018123013A1 (en) | 2019-01-10 |
JP6515423B2 true JP6515423B2 (en) | 2019-05-22 |
Family
ID=62708116
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017559618A Expired - Fee Related JP6515423B2 (en) | 2016-12-28 | 2016-12-28 | CONTROL DEVICE, MOBILE OBJECT, CONTROL METHOD, AND PROGRAM |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6515423B2 (en) |
WO (1) | WO2018123013A1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111835968A (en) * | 2020-05-28 | 2020-10-27 | 北京迈格威科技有限公司 | Image definition restoration method and device and image shooting method and device |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6746856B2 (en) * | 2018-12-19 | 2020-08-26 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd | Control device, imaging system, moving body, control method, and program |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003348428A (en) * | 2002-05-24 | 2003-12-05 | Sharp Corp | Photographing system, photographing method, photographing program, and computer-readable recording medium having the photographing program recorded thereon |
JP6029446B2 (en) * | 2012-12-13 | 2016-11-24 | セコム株式会社 | Autonomous flying robot |
JP6155032B2 (en) * | 2013-01-31 | 2017-06-28 | セコム株式会社 | Shooting system |
-
2016
- 2016-12-28 JP JP2017559618A patent/JP6515423B2/en not_active Expired - Fee Related
- 2016-12-28 WO PCT/JP2016/089087 patent/WO2018123013A1/en active Application Filing
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111835968A (en) * | 2020-05-28 | 2020-10-27 | 北京迈格威科技有限公司 | Image definition restoration method and device and image shooting method and device |
CN111835968B (en) * | 2020-05-28 | 2022-02-08 | 北京迈格威科技有限公司 | Image definition restoration method and device and image shooting method and device |
Also Published As
Publication number | Publication date |
---|---|
JPWO2018123013A1 (en) | 2019-01-10 |
WO2018123013A1 (en) | 2018-07-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108235815B (en) | Imaging control device, imaging system, moving object, imaging control method, and medium | |
US20190258255A1 (en) | Control device, imaging system, movable object, control method, and program | |
WO2019238044A1 (en) | Determination device, mobile object, determination method and program | |
US20210014427A1 (en) | Control device, imaging device, mobile object, control method and program | |
JP2019110462A (en) | Control device, system, control method, and program | |
JP2020012878A (en) | Controller, moving object, control method, and program | |
JP6515423B2 (en) | CONTROL DEVICE, MOBILE OBJECT, CONTROL METHOD, AND PROGRAM | |
JP6790318B2 (en) | Unmanned aerial vehicles, control methods, and programs | |
JP6587006B2 (en) | Moving body detection device, control device, moving body, moving body detection method, and program | |
JP6565072B2 (en) | Control device, lens device, flying object, control method, and program | |
JP6543875B2 (en) | Control device, imaging device, flying object, control method, program | |
JP6543878B2 (en) | CONTROL DEVICE, IMAGING DEVICE, MOBILE OBJECT, CONTROL METHOD, AND PROGRAM | |
JP6503607B2 (en) | Imaging control apparatus, imaging apparatus, imaging system, moving object, imaging control method, and program | |
JP2019096965A (en) | Determination device, control arrangement, imaging system, flying object, determination method, program | |
JP2019083390A (en) | Control device, imaging device, mobile body, control method, and program | |
JP6641574B1 (en) | Determination device, moving object, determination method, and program | |
JP6543879B2 (en) | Unmanned aerial vehicles, decision methods and programs | |
WO2020011198A1 (en) | Control device, movable component, control method, and program | |
JP2019205047A (en) | Controller, imaging apparatus, mobile body, control method and program | |
JP2020016703A (en) | Control device, moving body, control method, and program | |
JP6696094B2 (en) | Mobile object, control method, and program | |
JP6569157B1 (en) | Control device, imaging device, moving object, control method, and program | |
JP6413170B1 (en) | Determination apparatus, imaging apparatus, imaging system, moving object, determination method, and program | |
JP2020052220A (en) | Controller, imaging device, mobile body, method for control, and program | |
JP2020098289A (en) | Control apparatus, photography system, moving body, control method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20171114 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180904 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181026 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190319 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190328 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6515423 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |