JP6746857B2 - Image processing device, imaging device, unmanned aerial vehicle, image processing method, and program - Google Patents
Image processing device, imaging device, unmanned aerial vehicle, image processing method, and program Download PDFInfo
- Publication number
- JP6746857B2 JP6746857B2 JP2019015752A JP2019015752A JP6746857B2 JP 6746857 B2 JP6746857 B2 JP 6746857B2 JP 2019015752 A JP2019015752 A JP 2019015752A JP 2019015752 A JP2019015752 A JP 2019015752A JP 6746857 B2 JP6746857 B2 JP 6746857B2
- Authority
- JP
- Japan
- Prior art keywords
- lens
- image
- positions
- exposure period
- image processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000003384 imaging method Methods 0.000 title claims description 61
- 238000012545 processing Methods 0.000 title claims description 52
- 238000003672 processing method Methods 0.000 title description 4
- 238000012937 correction Methods 0.000 claims description 86
- 230000003287 optical effect Effects 0.000 claims description 36
- 239000000470 constituent Substances 0.000 claims description 9
- 238000000034 method Methods 0.000 description 37
- 230000008569 process Effects 0.000 description 22
- 238000010586 diagram Methods 0.000 description 12
- 230000006854 communication Effects 0.000 description 10
- 230000008859 change Effects 0.000 description 9
- 230000006870 function Effects 0.000 description 9
- 238000004891 communication Methods 0.000 description 7
- 238000005096 rolling process Methods 0.000 description 7
- 230000005540 biological transmission Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 230000004075 alteration Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 2
- 230000001174 ascending effect Effects 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000003702 image correction Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B7/00—Mountings, adjusting means, or light-tight connections, for optical elements
- G02B7/28—Systems for automatic generation of focusing signals
- G02B7/36—Systems for automatic generation of focusing signals using image sharpness techniques, e.g. image processing techniques for generating autofocus signals
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B13/00—Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
- G03B13/32—Means for focusing
- G03B13/34—Power focusing
- G03B13/36—Autofocus systems
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B15/00—Special procedures for taking photographs; Apparatus therefor
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Optics & Photonics (AREA)
- Automatic Focus Adjustment (AREA)
- Studio Devices (AREA)
- Focusing (AREA)
Description
本発明は、画像処理装置、撮像装置、無人航空機、画像処理方法、及びプログラムに関する。 The present invention relates to an image processing device, an imaging device, an unmanned aerial vehicle, an image processing method, and a program.
特許文献1には、入力された画面座標の画素に対する収差を、レンズパラメータに対応する各画素の位置座標データを保持する歪み補正パラメータテーブルにより補正する技術が記載されている。
特許文献1 特開2011−61444号公報
Patent Document 1 describes a technique for correcting aberration of a pixel having input screen coordinates with a distortion correction parameter table that holds position coordinate data of each pixel corresponding to a lens parameter.
Patent Document 1 JP 2011-61444 A
フォーカスレンズなどの光学系が備えるレンズを移動させると、歪曲歪などにより意図しない画角変動が生じる場合がある。 When a lens included in an optical system such as a focus lens is moved, an unintended view angle variation may occur due to distortion or the like.
本発明の一態様に係る画像処理装置は、撮像素子の露光期間中に移動するレンズの複数の位置を示す情報を取得する取得部を備える。画像処理装置は、複数の位置に基づいて、露光期間にレンズを通じて撮像素子を露光することにより取得された画像を補正する補正部を備える。 An image processing apparatus according to an aspect of the present invention includes an acquisition unit that acquires information indicating a plurality of positions of a lens that moves during an exposure period of an image sensor. The image processing apparatus includes a correction unit that corrects the image acquired by exposing the image sensor through the lens during the exposure period based on the plurality of positions.
補正部は、複数の位置に基づいて、露光期間内におけるレンズの平均的な位置を算出し、算出したレンズの平均的な位置に基づいて、画像の歪みを補正してよい。 The correction unit may calculate an average position of the lens within the exposure period based on the plurality of positions and correct the image distortion based on the calculated average position of the lens.
補正部は、レンズの平均的な位置と、レンズの位置に対応づけられた歪係数とに基づいて、画像の歪みを補正してよい。 The correction unit may correct the distortion of the image based on the average position of the lens and the distortion coefficient associated with the position of the lens.
補正部は、複数の位置及び撮像素子が備える複数の画素の位置に基づいて、複数の位置及び複数の画素の組み合わせ毎に、画像上で複数の画素のそれぞれに対応する複数の画素位置を算出し、複数の画素のそれぞれについて複数の画素位置の平均的な位置を算出することにより、画像を補正してよい。 The correction unit calculates a plurality of pixel positions corresponding to each of the plurality of pixels on the image for each of the plurality of positions and the plurality of pixel combinations based on the plurality of positions and the positions of the plurality of pixels included in the image sensor. Then, the image may be corrected by calculating the average position of the plurality of pixel positions for each of the plurality of pixels.
撮像素子は、撮像素子が備える複数の画素列毎に異なる露光期間で露光されてよい。取得部は、複数の画素列のそれぞれの露光期間中に移動するレンズの複数の位置を示す情報を取得してよい。補正部は、複数の画素列のそれぞれの露光期間中の複数の位置に基づいて、複数の画素列のそれぞれにより取得された画像を補正してよい。 The image sensor may be exposed for different exposure periods for each of a plurality of pixel columns included in the image sensor. The acquisition unit may acquire information indicating a plurality of positions of the lens that moves during each exposure period of the plurality of pixel columns. The correction unit may correct the image acquired by each of the plurality of pixel columns based on the plurality of positions of the plurality of pixel columns during each exposure period.
レンズは、光軸方向に移動可能なフォーカスレンズであってよい。 The lens may be a focus lens that is movable in the optical axis direction.
レンズは、レンズを含む光学系の焦点を調節をするために、露光期間中に光軸方向に往復移動してよい。取得部は、露光期間中の往復移動におけるレンズの複数の位置を示す情報を取得してよい。 The lens may reciprocate in the optical axis direction during the exposure period to adjust the focus of the optical system including the lens. The acquisition unit may acquire information indicating a plurality of positions of the lens in the reciprocating movement during the exposure period.
レンズは、レンズを含む光学系の焦点を調節をするために、露光期間中に光軸方向に一方向に移動してよい。取得部は、露光期間中の一方向の移動におけるレンズの複数の位置を示す情報を取得してよい。 The lens may move in one direction along the optical axis during the exposure period to adjust the focus of the optical system including the lens. The acquisition unit may acquire information indicating a plurality of positions of the lens during movement in one direction during the exposure period.
露光期間は、動画を構成する複数の動画構成画像のそれぞれを取得するために撮像素子を繰り返し露光する期間であってよい。補正部は、複数の動画構成画像のそれぞれを取得するための露光期間における複数の位置に基づいて、それぞれの動画構成画像を補正してよい。 The exposure period may be a period in which the image sensor is repeatedly exposed to obtain each of a plurality of moving image constituent images that form a moving image. The correction unit may correct each moving image constituent image based on the plurality of positions in the exposure period for acquiring each of the plurality of moving image constituent images.
本発明の一態様に係る撮像装置は、上記画像処理装置を備えてよい。撮像装置は、イメージセンサを備えてよい。 An imaging device according to one aspect of the present invention may include the image processing device. The imaging device may include an image sensor.
レンズは、光軸方向に移動可能なフォーカスレンズであってよい。撮像装置は、補正部により補正された画像に基づいて、レンズを含む光学系の焦点調整を行う焦点調節部を備えてよい。 The lens may be a focus lens that is movable in the optical axis direction. The imaging device may include a focus adjustment unit that adjusts the focus of the optical system including the lens based on the image corrected by the correction unit.
本発明の一態様に係る無人航空機は、上記撮像装置を備えて移動する。 An unmanned aerial vehicle according to an aspect of the present invention includes the above imaging device and moves.
本発明の一態様に係る画像処理方法は、撮像素子の露光期間中に移動するレンズの複数の位置を示す情報を取得する段階を備える。画像処理方法は、複数の位置に基づいて、露光期間にレンズを通じて撮像素子を露光することにより取得された画像を補正する段階を備える。 An image processing method according to an aspect of the present invention includes a step of acquiring information indicating a plurality of positions of a lens that moves during an exposure period of an image sensor. The image processing method includes a step of correcting an image acquired by exposing the image sensor through a lens during an exposure period based on the plurality of positions.
本発明の一態様に係るプログラムは、上記の画像処理装置としてコンピュータを機能させるためのプログラムとしてよい。 The program according to one aspect of the present invention may be a program for causing a computer to function as the above-described image processing device.
本発明の一態様によれば、レンズの移動に伴う画角変動の影響を抑制することができる。 According to one aspect of the present invention, it is possible to suppress the influence of the change in the angle of view due to the movement of the lens.
なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。 Note that the above summary of the invention does not enumerate all necessary features of the present invention. Further, a sub-combination of these feature groups can also be an invention.
以下、発明の実施の形態を通じて本発明を説明するが、以下の実施の形態は特許請求の範囲に係る発明を限定するものではない。また、実施の形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。以下の実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。 Hereinafter, the present invention will be described through embodiments of the invention, but the following embodiments do not limit the invention according to the claims. Further, not all combinations of the features described in the embodiments are essential to the means for solving the invention. It is apparent to those skilled in the art that various modifications and improvements can be added to the following embodiments. It is apparent from the scope of the claims that the embodiments added with such changes or improvements can be included in the technical scope of the present invention.
特許請求の範囲、明細書、図面、及び要約書には、著作権による保護の対象となる事項が含まれる。著作権者は、これらの書類の何人による複製に対しても、特許庁のファイルまたはレコードに表示される通りであれば異議を唱えない。ただし、それ以外の場合、一切の著作権を留保する。 The claims, the description, the drawings, and the abstract contain the subject matter of copyright protection. The copyright owner has no objection to the reproduction of any of these documents by anyone as it appears in the JPO file or record. However, in all other cases, all copyrights are reserved.
本発明の様々な実施形態は、フローチャート及びブロック図を参照して記載されてよく、ここにおいてブロックは、(1)操作が実行されるプロセスの段階または(2)操作を実行する役割を持つ装置の「部」を表わしてよい。特定の段階及び「部」が、プログラマブル回路、及び/またはプロセッサによって実装されてよい。専用回路は、デジタル及び/またはアナログハードウェア回路を含んでよい。集積回路(IC)及び/またはディスクリート回路を含んでよい。プログラマブル回路は、再構成可能なハードウェア回路を含んでよい。再構成可能なハードウェア回路は、論理AND、論理OR、論理XOR、論理NAND、論理NOR、及び他の論理操作、フリップフロップ、レジスタ、フィールドプログラマブルゲートアレイ(FPGA)、プログラマブルロジックアレイ(PLA)等のようなメモリ要素等を含んでよい。 Various embodiments of the present invention may be described with reference to flowcharts and block diagrams, where a block is (1) a stage of a process in which an operation is performed or (2) a device responsible for performing an operation. "Part" of may be represented. Particular stages and "sections" may be implemented by programmable circuits and/or processors. Dedicated circuitry may include digital and/or analog hardware circuitry. It may include integrated circuits (ICs) and/or discrete circuits. Programmable circuits may include reconfigurable hardware circuits. Reconfigurable hardware circuits include logical AND, logical OR, logical XOR, logical NAND, logical NOR, and other logical operations, flip-flops, registers, field programmable gate arrays (FPGA), programmable logic arrays (PLA), etc. Memory elements, etc. may be included.
コンピュータ可読媒体は、適切なデバイスによって実行される命令を格納可能な任意の有形なデバイスを含んでよい。その結果、そこに格納される命令を有するコンピュータ可読媒体は、フローチャートまたはブロック図で指定された操作を実行するための手段を作成すべく実行され得る命令を含む、製品を備えることになる。コンピュータ可読媒体の例としては、電子記憶媒体、磁気記憶媒体、光記憶媒体、電磁記憶媒体、半導体記憶媒体等が含まれてよい。コンピュータ可読媒体のより具体的な例としては、フロッピー(登録商標)ディスク、ディスケット、ハードディスク、ランダムアクセスメモリ(RAM)、リードオンリメモリ(ROM)、消去可能プログラマブルリードオンリメモリ(EPROMまたはフラッシュメモリ)、電気的消去可能プログラマブルリードオンリメモリ(EEPROM)、静的ランダムアクセスメモリ(SRAM)、コンパクトディスクリードオンリメモリ(CD-ROM)、デジタル多用途ディスク(DVD)、ブルーレイ(登録商標)ディスク、メモリスティック、集積回路カード等が含まれてよい。 Computer-readable media may include any tangible device capable of storing instructions executed by a suitable device. As a result, a computer-readable medium having instructions stored therein will comprise a product that includes instructions that may be executed to create the means for performing the operations specified in the flowcharts or block diagrams. Examples of computer-readable media may include electronic storage media, magnetic storage media, optical storage media, electromagnetic storage media, semiconductor storage media, and the like. More specific examples of computer readable media include floppy disks, diskettes, hard disks, random access memory (RAM), read only memory (ROM), erasable programmable read only memory (EPROM or flash memory), Electrically erasable programmable read only memory (EEPROM), static random access memory (SRAM), compact disc read only memory (CD-ROM), digital versatile disc (DVD), Blu-ray (registered trademark) disc, memory stick, An integrated circuit card or the like may be included.
コンピュータ可読命令は、1または複数のプログラミング言語の任意の組み合わせで記述されたソースコードまたはオブジェクトコードの何れかを含んでよい。ソースコードまたはオブジェクトコードは、従来の手続型プログラミング言語を含む。従来の手続型プログラミング言語は、アセンブラ命令、命令セットアーキテクチャ(ISA)命令、マシン命令、マシン依存命令、マイクロコード、ファームウェア命令、状態設定データ、またはSmalltalk、JAVA(登録商標)、C++等のようなオブジェクト指向プログラミング言語、及び「C」プログラミング言語または同様のプログラミング言語でよい。コンピュータ可読命令は、汎用コンピュータ、特殊目的のコンピュータ、若しくは他のプログラム可能なデータ処理装置のプロセッサまたはプログラマブル回路に対し、ローカルにまたはローカルエリアネットワーク(LAN)、インターネット等のようなワイドエリアネットワーク(WAN)を介して提供されてよい。プロセッサまたはプログラマブル回路は、フローチャートまたはブロック図で指定された操作を実行するための手段を作成すべく、コンピュータ可読命令を実行してよい。プロセッサの例としては、コンピュータプロセッサ、処理ユニット、マイクロプロセッサ、デジタル信号プロセッサ、コントローラ、マイクロコントローラ等を含む。 Computer readable instructions may include either source code or object code written in any combination of one or more programming languages. Source code or object code includes conventional procedural programming languages. Conventional procedural programming languages include assembler instructions, instruction set architecture (ISA) instructions, machine instructions, machine dependent instructions, microcode, firmware instructions, state setting data, or Smalltalk, JAVA, C++, etc. It may be an object-oriented programming language, and the "C" programming language or similar programming languages. Computer readable instructions can be for a general purpose computer, a special purpose computer, or another programmable data processing device processor or programmable circuit, either locally or in a wide area network (WAN) such as a local area network (LAN), the Internet, or the like. ). The processor or programmable circuit may execute computer readable instructions to create a means for performing the operations specified in the flowcharts or block diagrams. Examples of processors include computer processors, processing units, microprocessors, digital signal processors, controllers, microcontrollers, and the like.
図1は、本実施形態に係る撮像装置100の外観斜視図の一例を示す図である。図2は、本実施形態に係る撮像装置100の機能ブロックを示す図である。
FIG. 1 is a diagram showing an example of an external perspective view of the
撮像装置100は、撮像部102及びレンズ部200を備える。撮像部102は、イメージセンサ120、画像処理部104、撮像制御部110、メモリ130、指示部162、及び表示部160を備える。
The
イメージセンサ120は、CCDまたはCMOSなどの撮像素子である。イメージセンサ120は、レンズ部200が有する光学系を介して光を受光する。イメージセンサ120は、レンズ部200が有する光学系を介して結像された光学像の画像データを画像処理部104に出力する。
The
撮像制御部110及び画像処理部104は、CPUまたはMPUなどのマイクロプロセッサ、MCUなどのマイクロコントローラなどにより構成されてよい。メモリ130は、コンピュータ可読可能な記録媒体でよく、SRAM、DRAM、EPROM、EEPROM、及びUSBメモリなどのフラッシュメモリの少なくとも1つを含んでよい。メモリ130は、撮像制御部110がイメージセンサ120などを制御するのに必要なプログラム、画像処理部104が画像処理を実行するのに必要なプログラム等を格納する。メモリ130は、撮像装置100の筐体の内部に設けられてよい。メモリ130は、撮像装置100の筐体から取り外し可能に設けられてよい。
The
指示部162は、撮像装置100に対する指示をユーザから受け付けるユーザインタフェースである。表示部160は、イメージセンサ120により撮像され、画像処理部104により処理された画像、撮像装置100の各種設定情報などを表示する。表示部160は、タッチパネルで構成されてよい。
The
撮像制御部110は、レンズ部200及びイメージセンサ120を制御する。撮像制御部110は、レンズ部200が備える光学系の焦点位置や焦点距離の調整を制御する。撮像制御部110は、ユーザからの指示を示す情報に基づいて、レンズ部200が備えるレンズ制御部220に制御命令を出力することにより、レンズ部200を制御する。
The
レンズ部200は、フォーカスレンズ210、ズームレンズ211、レンズ駆動部212、レンズ駆動部213、レンズ制御部220、メモリ222、位置センサ214、及び位置センサ215を備える。フォーカスレンズ210、及びズームレンズ211は、少なくとも1つのレンズを含んでよい。フォーカスレンズ210及びズームレンズ211は、光学系に含まれるレンズである。フォーカスレンズ210、及びズームレンズ211の少なくとも一部または全部は、光学系の光軸に沿って移動可能に配置される。
The
撮像制御部110は、焦点調節部112を備える。焦点調節部112は、フォーカスレンズ210を制御することにより、レンズ部200が備える光学系の焦点調節を行う。
The
レンズ部200は、撮像部102に対して着脱可能に設けられる交換レンズでよい。レンズ駆動部212は、ステッピングモータ、DCモータ、コアレスモータ、または超音波モータなどの駆動装置を備えてよい。フォーカスレンズ210の少なくとも一部または全部は、レンズ駆動部212が備える駆動装置からの動力をカム環、ガイド軸などの機構部材を介して受け取ることにより移動する。レンズ駆動部213は、ステッピングモータ、DCモータ、コアレスモータ、または超音波モータなどの駆動装置を備えてよい。ズームレンズ211の少なくとも一部または全部は、レンズ駆動部213が備える駆動装置からの動力をカム環、ガイド軸などの機構部材を介して受け取ることにより移動する。
The
レンズ制御部220は、撮像部102からのレンズ制御命令に従って、レンズ駆動部212及びレンズ駆動部213の少なくとも一方を駆動して、機構部材を介してフォーカスレンズ210及びズームレンズ211の少なくとも一方を光軸方向に沿って移動させることで、ズーム動作及びフォーカス動作の少なくとも一方を実行する。レンズ制御命令は、例えば、ズーム制御命令、及びフォーカス制御命令である。
The
メモリ222は、レンズ駆動部212を介して移動するフォーカスレンズやズームレンズ用の制御値を記憶する。メモリ222は、SRAM、DRAM、EPROM、EEPROM、及びUSBメモリなどのフラッシュメモリの少なくとも1つを含んでよい。
The
位置センサ214は、フォーカスレンズ210の位置を検出する。位置センサ215は、ズームレンズ211の位置を検出する。位置センサ214、及び位置センサ215は、磁気抵抗(MR)センサ等であってよい。
The
撮像制御部110は、指示部162等を通じてユーザからの指示を示す情報に基づいて、イメージセンサ120に制御命令を出力することにより、イメージセンサ120に撮像動作の制御を含む制御を実行する。イメージセンサ120により撮像された画像は、画像処理部104により処理されて、メモリ130に格納される。
The
画像処理部104には、イメージセンサ120により取得された画像が入力される。補正部140は、イメージセンサ120により取得された画像を補正する。表示部160は、補正部140により補正された画像を表示する。メモリ130は、補正部140により補正された画像を格納する。補正部140により補正された画像は、メモリ130から、メモリカード等の記録媒体に転送されてよい。
The image acquired by the
画像処理部104は、補正部140と、取得部142とを備える。取得部142は、イメージセンサ120の露光期間中に移動するフォーカスレンズ210の複数の位置を示す情報を取得する。例えば、取得部142は、焦点調節部112から、フォーカスレンズ210の複数の位置を示す情報を取得する。補正部140は、複数の位置に基づいて、露光期間にフォーカスレンズ210を通じてイメージセンサ120を露光することにより取得された画像を補正する。
The
例えば、補正部140は、取得したフォーカスレンズ210の複数の位置に基づいて、露光期間内におけるフォーカスレンズ210の平均的な位置を算出し、算出したフォーカスレンズ210の平均的な位置に基づいて、画像の歪みを補正する。具体的には、補正部140は、フォーカスレンズ210の平均的な位置と、フォーカスレンズ210の位置に対応づけられた歪係数とに基づいて、画像の歪みを補正する。
For example, the
補正部140は、フォーカスレンズ210の複数の位置及びイメージセンサ120が備える複数の画素の位置に基づいて、フォーカスレンズ210の複数の位置及びイメージセンサ120の複数の画素の組み合わせ毎に、画像上で複数の画素のそれぞれに対応する複数の画素位置を算出してよい。補正部140は、複数の画素のそれぞれについて、算出した複数の画素位置の平均的な位置を算出することにより、画像を補正してよい。
The
イメージセンサ120は、イメージセンサ120が備える複数の画素列毎に異なる露光期間で露光されてよい。例えば、撮像制御部110は、ローリング読み出しによりイメージセンサ120から画素情報を読み出してよい。この場合、取得部142は、複数の画素列のそれぞれの露光期間中に移動するフォーカスレンズ210の複数の位置を示す情報を取得する。補正部140は、複数の画素列のそれぞれの露光期間中の複数の位置に基づいて、複数の画素列のそれぞれにより取得された画像を補正する。
The
フォーカスレンズ210は、フォーカスレンズ210を含む光学系の焦点を調節をするために、露光期間中に光軸方向に往復移動する。例えば、焦点調節部112は、露光期間中にフォーカスレンズ210をウォブリング動作を行わせる。取得部142は、露光期間中の往復移動におけるフォーカスレンズ210の複数の位置を示す情報を取得する。補正部140は、露光期間中の往復移動におけるフォーカスレンズ210の複数の位置に基づいて、画像を補正する。
The
フォーカスレンズ210は、フォーカスレンズ210を含む光学系の焦点を調節をするために、露光期間中に光軸方向に一方向に移動してよい。取得部142は、露光期間中の一方向の移動におけるフォーカスレンズ210の複数の位置を示す情報を取得する。補正部140は、露光期間中の一方向の移動におけるフォーカスレンズ210の複数の位置に基づいて、画像を補正する。
The
露光期間は、動画を構成する複数の動画構成画像のそれぞれを取得するためにイメージセンサ120を繰り返し露光する期間であってよい。補正部140は、複数の動画構成画像のそれぞれを取得するための露光期間における複数の位置に基づいて、それぞれの動画構成画像を補正してよい。
The exposure period may be a period in which the
焦点調節部112は、補正部140により補正された画像に基づいて、フォーカスレンズ210を含む光学系の焦点調整を行う。例えば、焦点調節部112は、補正部140により補正された画像のコントラスト値に基づいてフォーカスレンズ210の光軸方向の位置を決定して、決定した位置にフォーカスレンズ210を移動させる。
The focus adjustment unit 112 adjusts the focus of the optical system including the
図3は、補正部140の処理を概略的に説明する図である。図3に関連して、イメージセンサ120が備える全ての水平画素列の露光期間が同一である場合の補正部140の処理を説明する。具体的には、イメージセンサ120のグローバル読み出しにより連続的に撮像している場合の処理を説明する。本実施形態において、イメージセンサ120は、N個(Nは自然数)の水平画素列を有するものとする。
FIG. 3 is a diagram schematically illustrating the process of the
撮像制御部110は、垂直同期信号VDに基づくタイミングでイメージセンサ120が備える水平画素列1〜水平画素列Nを露光する。図3には、時刻t1から時刻t7までの露光期間と、時刻t9から時刻t15までの露光期間が示されている。
The
焦点調節部112は、垂直同期信号VDのトリガから次の垂直同期信号VDまでの期間内にフォーカスレンズ210の光軸方向の位置を複数回検出させる。具体的には、焦点調節部112は、時刻t0の垂直同期信号VDから、予め定められた時間間隔でフォーカスレンズ210の光軸方向の位置を予め定められた回数検出させる。また、焦点調節部112は、時刻t7の垂直同期信号VDから、予め定められた時間間隔でフォーカスレンズ210の光軸方向の位置を予め定められた回数検出させる。
The focus adjustment unit 112 detects the position of the
図3に示されるように、レンズ制御部220は、時刻t1から時刻t7までの露光期間において、LP1、LP2、LP3、LP4、LP5、LP6、及びLP7を検出する。また、レンズ制御部220は、時刻t9から時刻t15までの露光期間において、LP9、LP10、LP11、LP12、LP13、LP14、及びLP15を検出する。LPi(iは自然数)は、フォーカスレンズ210の光軸方向の位置を示すものとする。
As shown in FIG. 3, the
時刻t7の垂直同期信号VDに応じて、焦点調節部112は、時刻t1からt7までの露光期間に検出されたLP1、LP2、LP3、LP4、LP5、LP6、及びLP7を示すレンズ位置情報をレンズ制御部220から取得して、画像処理部104に出力する。取得部142は、焦点調節部112から出力されたレンズ位置情報を取得する。
In response to the vertical synchronization signal VD at time t7, the focus adjustment unit 112 outputs lens position information indicating LP1, LP2, LP3, LP4, LP5, LP6, and LP7 detected during the exposure period from time t1 to t7 to the lens. It is acquired from the
補正部140は、レンズ位置情報に基づいて、LP1、LP2、LP3、LP4、LP5、LP6、及びLP7の平均値を算出する。補正部140は、LP1、LP2、LP3、LP4、LP5、LP6、及びLP7の平均値に基づいて、歪係数を算出する。歪係数は、フォーカスレンズ210の位置から定まる歪曲歪を表す情報である。歪係数については図4などに関連して説明する。平均値はLP1からLP7までの和を、時刻t1から時刻t7までの時間で割ることで算出される値である。平均値の具体的な算出方法については図6などに関連して説明する。
The
画像処理部104は、時刻t7の垂直同期信号VDに応じて、イメージセンサ120から、水平画素列1〜水平画素列Nの画素データ310を取得する。画像処理部104は、イメージセンサ120から取得した画素データ310と、フォーカスレンズ210の位置の平均値に対応する歪係数とに基づいて画素データ310の画像を補正して、補正画像311を生成する。補正部140により生成された補正画像311はメモリ130に記憶され、表示部160の表示用の画像として表示部160に出力される。
The
同様に、時刻t7の垂直同期信号VDに応じて、焦点調節部112は、時刻t9からt15までの露光期間に検出されたLP9、LP10、LP11、LP12、LP13、LP14、及びLP15を示すレンズ位置情報をレンズ制御部220から取得して、画像処理部104に出力する。取得部142は、焦点調節部112から出力されたレンズ位置情報を取得する。
Similarly, according to the vertical synchronization signal VD at time t7, the focus adjustment unit 112 causes the lens positions indicating LP9, LP10, LP11, LP12, LP13, LP14, and LP15 detected during the exposure period from time t9 to t15. The information is acquired from the
補正部140は、レンズ位置情報に基づいて、LP9、LP10、LP11、LP12、LP13、LP14、及びLP15の平均値を算出する。補正部140は、LP9、LP10、LP11、LP12、LP13、LP14、及びLP15の平均値に基づいて、歪係数を算出する。
The
画像処理部104は、時刻t15の垂直同期信号VDに応じて、イメージセンサ120から、水平画素列1〜水平画素列Nの画素データ320を取得する。画像処理部104は、イメージセンサ120から取得した画素データ320と、フォーカスレンズ210の位置の平均値に対応する歪係数とに基づいて画素データ320の画像を補正して、補正画像321を生成する。補正部140により生成された補正画像321はメモリ130に記憶され、表示部160の表示用の画像として表示部160に出力される。
The
撮像装置100は、垂直同期信号VDに応じて、上述したように1回の露光処理と、画素データの読み出し処理と、画像の補正処理と、表示部160に表示する処理とを実行する。撮像装置100は、垂直同期信号VD毎に上述した処理を繰り返す。
The
図4は、歪係数の一例を示す。図4の横軸はフォーカスレンズ210の位置であり、縦軸は歪係数の値である。歪係数は、k1、k2、及びk3を含む。メモリ130は、k1、k2、及びk3のフォーカスレンズ210の依存性を示す歪係数データを格納する。歪係数データは、レンズ部200が備える光学系のレンズ設計データに基づいて予め算出されて、メモリ130に格納されてよい。歪係数データは、実験により予め算出されて、メモリ130に格納されてもよい。k1、k2、及びk3の歪係数データは、フォーカスレンズ210の位置を変数とする関数を表すデータであってよい。当該関数は、予め算出された歪み係数k1、k2、k3をフォーカスレンズ210の位置を変数とする関数にフィッティングすることにより取得されてよい。k1、k2、及びk3の歪係数データは、フォーカスレンズ210の位置をk1、k2、及びk3にマッピングするマップデータであってよい。
FIG. 4 shows an example of the distortion coefficient. The horizontal axis of FIG. 4 is the position of the
イメージセンサ120上の座標(xdistorted,ydistorted)と、正規化したイメージ座標(x、y)との関係は、歪係数k1、k2及びk3を用いて以下の式1で表される。
座標(x、y)は、補正画像内の座標を表す。式1のLPは、フォーカスレンズ210の位置を表す。歪係数k1、k2、k3はLPに依存するため、式1では、k1(LP)、k2(LP)、及びk3(LP)として表されている。図5は、イメージセンサ120上の座標(xdistorted,ydistorted)とイメージ座標(x,y)との位置関係の一例を模式的に示す。
The coordinates (x, y) represent coordinates in the corrected image. LP in Expression 1 represents the position of the
補正部140は、画素データの各画素の座標を式1の(xdistorted,ydistorted)に適用し、フォーカスレンズ210の位置の平均値と上記歪係数データから算出したk1、k2、及びk3をそれぞれk1(LP)、k2(LP)、及びk3(LP)に適用して、式1を満たす座標(x,y)を算出する。そして、補正部140は、イメージセンサ120から取得した画素データにおける座標(xdistorted,ydistorted)の画素値を、座標(x,y)の画素値として適用することにより、補正画像を生成する。
The
図3、図4、および図5などに関連して説明したように、補正部140は、露光期間中のフォーカスレンズ210の平均位置から定まる歪係数を用いて画像を補正する。これにより、図3に示されるように、フォーカスレンズ210の移動に伴って生じる画角変動が抑えられた補正画像311及び補正画像321を生成することができる。
As described with reference to FIG. 3, FIG. 4, and FIG. 5, the
図6は、フォーカスレンズ210の位置の平均値の算出方法を説明するための図である。図6において、Tは露光時間である。すなわち、Teはt1からt7までの時間である。Tdは、フォーカスレンズ210の位置を検出する時間間隔である。図6に示す例では、T=6Tdである。フォーカスレンズ210の位置の平均値は、LP1からLP7までの時間平均によって算出される値である。
FIG. 6 is a diagram for explaining a method of calculating the average value of the positions of the
具体的には、フォーカスレンズ210の位置の平均値は、LP1からLP7までの加重和をTで割ることで算出される。LP1からLP7までの加重和は、Σαi×LPiにより算出される。iは1から7の自然数である。
Specifically, the average value of the position of the
αiは加重和の重み係数である。α1からα7までの和はTである。αiは、時刻ti―Td/2から時刻ti+Td/2までの期間のうち、露光期間に含まれる期間の時間に基づいて定められる。具体的には、α1及びα7はTd/2であり、α2からα6はTdである。このように、フォーカスレンズ210の位置を検出したタイミングに応じて重み係数αiを定めることによって、フォーカスレンズ210の位置の時間的な平均値を算出することができる。
αi is a weighted sum weighting coefficient. The sum of α1 to α7 is T. αi is determined based on the time of the period included in the exposure period in the period from time ti-Td/2 to time ti+Td/2. Specifically, α1 and α7 are Td/2, and α2 to α6 are Td. In this way, by determining the weighting coefficient αi according to the timing at which the position of the
なお、平均値は、LP1からLP7の和を7で割ることで算出される値であってよい。すなわち、平均値は、露光期間内に検出されたフォーカスレンズ210の位置の和をフォーカスレンズ210の位置の検出数で割ることで算出される値であってよい。
The average value may be a value calculated by dividing the sum of LP1 to LP7 by 7. That is, the average value may be a value calculated by dividing the sum of the positions of the
図7は、撮像装置100が実行する手順の一例を示すフローチャートである。本フローチャートは、垂直同期信号VDのトリガが生じた場合に開始される。
FIG. 7 is a flowchart showing an example of a procedure executed by the
S600において、焦点調節部112は、レンズ制御部220にフォーカスレンズ210の位置を検出するタイミング信号を出力することにより、フォーカスレンズ210の位置を検出させる。
In step S600, the focus adjustment unit 112 detects the position of the
S600において、撮像制御部110は、垂直同期信号VDから予め定められた時間が経過した場合に、イメージセンサ120の露光を開始させる。S604において、レンズ制御部220は、焦点調節部112から出力されたタイミング信号に従って、フォーカスレンズ210の位置を検出する。
In S600, the
S606において、撮像制御部110は、露光を終了するか否かを判断する。例えば、撮像制御部110は、新たな垂直同期信号VDのトリガを検出した場合に、露光を終了すると判断する。露光を終了すると判断するまで、イメージセンサ120を露光したまま、S604の処理が繰り返される。
In step S606, the
S606の判断において、露光を終了すると判断すると、S608において、補正部140は、焦点調節部112を通じてレンズ制御部220からフォーカスレンズ210のレンズ位置情報を取得して、フォーカスレンズ210の位置の平均値を算出する。
If it is determined in step S606 that the exposure is to be ended, in step S608, the
S610において、補正部140は、イメージセンサ120から出力される画素データを取得する。S612において、補正部140は、歪係数データに基づいて、イメージセンサ120の各画素の座標(xdistorted,ydistorted)に対応するイメージ座標(x,y)を算出する。
In S610, the
S614において、補正部140は、イメージセンサ120から出力される画素データの各座標の画素値を、S612で算出したイメージ座標の画素値として反映することにより、補正画像を生成する。
In step S614, the
S616において、画像処理部104は、補正部140により生成された補正画像をメモリ130に格納する。S616の処理が完了すると本フローチャートの処理を終了する。
In S616, the
S616でメモリ130に格納された補正画像は、例えば、表示用の動画構成画像として表示部160に出力される。動画撮影中に上記の補正処理を行った場合、メモリ130に格納された補正画像は、動画撮影の終了後、動画データの動画構成画像としてメモリ130に記録される。
The corrected image stored in the
なお、補正部140は、S612で算出したイメージ座標を、フォーカスレンズ210の位置の平均値に対応づけてメモリ130に記憶させてよい。補正部140は、新たに算出したフォーカスレンズ210の位置の平均値と、メモリ130に記憶されている平均値との差が予め定められた値より小さい場合、S612の処理に代えて、メモリ130に記憶されているイメージ座標を用いてよい。これにより、イメージ座標を算出するための演算量を削減することができる場合がある。
The
図3から図7に関連して説明したように、補正部140は、露光期間中におけるフォーカスレンズ210の位置の平均値に基づいて、画像の歪を補正する。これにより、露光期間中のフォーカスレンズ210の移動に伴う画角変化の影響を抑制した補正画像を生成することができる。
As described with reference to FIGS. 3 to 7, the
図8は、補正部140が実行する他の補正方法を説明する図である。図8は、イメージセンサ120の画素の座標(xdistorted,ydistorted)と、補正後のイメージ座標(x,y)との関係を、イメージ座標の一部を拡大して示す。
FIG. 8 is a diagram illustrating another correction method executed by the
補正部140は、露光期間中に検出されたフォーカスレンズ210の位置のそれぞれに基づいて、イメージ座標(x,y)を算出する。以下に、図3に示す例を参照して、他の補正方法に基づく補正処理を説明する。
The
補正部140は、時刻t1〜t7までの露光期間におけるLP1、LP2、LP3、LP4、LP5、LP6、及びLP7のそれぞれから、イメージ座標(x,y)を算出する。具体的には、補正部140は、イメージセンサ120から取得した画素データにおける画素の座標を式1の(xdistorted,ydistorted)に適用し、LP1と歪係数データから算出したk1、k2、及びk3をそれぞれ式1のk1(LP)、k2(LP)、及びk3(LP)に適用して、式1を満たす座標(x,y)を算出する。算出した座標(x,y)は、図8において、(x1,y1)で示される。
The
LP2についても同様に、補正部140は、画素データにおける画素の座標を式1の(xdistorted,ydistorted)に適用し、LP2と歪係数データから算出したk1、k2、及びk3をそれぞれ式1のk1(LP)、k2(LP)、及びk3(LP)に適用して、式1を満たす座標(x,y)を算出する。算出した座標(x,y)は、図8において、(x2,y2)で示される。LP3、LP4、LP5、LP6、及びLP7についても同様に、LPi(iは3から7の自然数)と歪係数データから算出したk1、k2、及びk3を用いて、式1を満たす(x,y)を算出して、各LPiに対応する(xi、yi)として算出する。
Similarly for LP2, the
補正部140は、画素データにおける座標(xdistorted,ydistorted)の画素値を、(xi、yi)(iは1から7の自然数)の平均座標(x,y)の画素値として適用する。補正部140は、イメージセンサ120から取得した画素データの各画素に同様の処理を行って、補正画像を生成する。
The
図8に関連して説明した補正方法によっても、露光期間中のフォーカスレンズ210の移動に伴う画角変化の影響を抑制した補正画像を提供することができる。図3及び図5などに関連して説明した補正方法に比べて、画角変化の影響をより低減した補正画像を生成することができる場合がある。
The correction method described with reference to FIG. 8 can also provide a corrected image in which the influence of the change in the angle of view due to the movement of the
図9は、イメージセンサ120からローリング読み出しにより画素データを読み出す場合の補正部140の補正処理を概略的に説明する図である。ローリング読み出しを行う場合、撮像制御部110は、水平画素列1から水平画素列Nまの露光開始時刻を順次にずらして露光する。これにより、イメージセンサ120の露光期間は、イメージセンサ120が備える画素列毎に異なる。
FIG. 9 is a diagram schematically illustrating a correction process of the
図9に示されるように、水平画素列1の露光期間は、時刻t1から時刻t7までである。水平画素列Nの露光期間は、時刻t7から時刻t13までである。一般に、水平画素列1+iの露光期間は、時刻t1+δT×(i−1)から、時刻t7+δT×(i−1)までである(iは、1からNまでの自然数)。δTは、隣接する水平画素列の露光開始時刻の間隔である。 As shown in FIG. 9, the exposure period of the horizontal pixel row 1 is from time t1 to time t7. The exposure period of the horizontal pixel row N is from time t7 to time t13. In general, the exposure period of the horizontal pixel row 1+i is from time t1+δT×(i−1) to time t7+δT×(i−1) (i is a natural number from 1 to N). δT is an interval between exposure start times of adjacent horizontal pixel rows.
水平画素列1の露光期間中に検出されたフォーカスレンズ210の位置は、LP1、LP2、LP3、LP4、LP5、LP6、及びLP7である。補正部140は、LP1、LP2、LP3、LP4、LP5、LP6、及びLP7の平均値と歪係数データとに基づいて、LP1、LP2、LP3、LP4、LP5、LP6、及びLP7の平均値に対応する歪係数k1、k2及びk3を算出する。補正部140は、算出した歪係数k1、k2及びk3を式1に適用して水平画素列1の画素データ810を補正することにより、補正画素データ811を生成する。
The positions of the
同様に、水平画素列2の露光期間中に検出されたフォーカスレンズ210の位置は、LP2、LP3、LP4、LP5、LP6、及びLP7である。補正部140は、LP2、LP3、LP4、LP5、LP6、及びLP7の平均値と歪係数データとに基づいて、LP2、LP3、LP4、LP5、LP6、及びLP7の平均値に対応する歪係数k1、k2及びk3を算出する。補正部140は、算出した歪係数k1、k2及びk3を算出式1に適用して水平画素列2の画素データを補正することにより、補正画素データを生成する。平均値はLP1からLP7までの加重和を、時刻t1から時刻t7までの時間で割ることで算出される値である。具体的には、平均値は、図6などに関連して説明した算出方法により算出される値である。
Similarly, the positions of the
補正部140は、水平画素列3から水平画素列Nまで同様の処理を適用して、補正画素データを生成する。例えば、水平画素列Nの露光期間中に検出されたフォーカスレンズ210の位置はLP7、LP8、LP9、LP10、LP11、LP12、及びLP13であるので、補正部140は、LP7、LP8、LP9、LP10、LP11、LP12、及びLP13の平均値と歪係数データとに基づいて、LP7、LP8、LP9、LP10、LP11、LP12、及びLP13の平均値を算出し、算出した平均値に対応する歪係数k1、k2及びk3を算出する。補正部140は、算出した歪係数k1、k2及びk3を式1に適用して水平画素列Nの画素データ820を補正することにより、補正画素データ821を生成する。補正部140は、各水平画素列から生成された補正画素データに基づいて1つの補正画像を生成する。
The
以上に説明したように、イメージセンサ120からローリング読み出しを行う場合、水平画素列毎に露光期間が異なるため、検出されたイメージセンサ120の位置が画素列によって異なる場合がある。そこで、補正部140は、露光期間内に検出されたフォーカスレンズ210の位置が同一の画素列群について、露光期間内のフォーカスレンズ210の位置の平均値に基づく歪係数k1、k2、及びk3を式1に適用して、補正画素データを生成する。
As described above, when performing rolling reading from the
図9などに関連して、ローリング読み出しにより読み出された画像データを、フォーカスレンズ210の位置の平均値に基づいて補正する処理を説明した。図8などに関連して説明した補正方法を、ローリング読み出しにより読み出された画像データの補正に適用できる。例えば、補正部140は、各画素列について、フォーカスレンズ210の位置のそれぞれに対応するイメージ座標を算出して、算出したイメージ座標の平均座標を、補正後の画像の画素値として適用してよい。
With reference to FIG. 9 and the like, the process of correcting the image data read by the rolling read based on the average value of the position of the
以上に説明した通り、撮像装置100によれば、フォーカスレンズ210の移動に伴う画角変動の影響を抑制した画像を提供することができる。この効果は特に、イメージセンサのサイズに対して比較的に小型なレンズ装置に対して有効である。例えば、イメージセンサのサイズに対して光学系を小型化すると、フォーカスレンズの移動による歪曲収差の影響が顕著になる。そのため、例えばライブビュー撮影中にフォーカスレンズのウォブリング動作を行うと、ウォブリング動作に伴う画角変動がライブビュー画像上で観察されてしまう場合がある。上述したように、撮像装置100によれば、フォーカスレンズ210の移動に伴う画角変動の影響を抑制することができるので、ウォブリング動作に伴う画角変動がライブビュー画像上で観察されにくくすることができる。また、合焦制御に用いるコントラスト値を補正画像から検出することによって、コントラスト値の検出対象となる画像領域がフォーカスレンズ210の移動に伴って変動することを抑制することができる。そのため、コントラスト値に基づく合焦制御をより正確に行うことができる。
As described above, according to the
なお、本実施形態の撮像装置100に関連して説明した処理は、フォーカスレンズ210のウォブリング動作だけでなく、露光期間中にフォーカスレンズ210を一方向に移動させる場合の処理にも適用できる。また、本実施形態の撮像装置100に関連して説明した処理は、ライブビュー撮影中の画像だけでなく、記録用の動画データを生成する場合の補正処理や、記録用の静止画データを生成する場合の補正処理にも適用できる。また、本実施形態の撮像装置100に関連して説明した処理は、フォーカスレンズ210以外のレンズの移動にも適用できる。すなわち、補正部140は、イメージセンサ120の露光期間中に移動するフォーカスレンズ210以外のレンズの複数の位置に基づいて、当該露光期間にイメージセンサ120を露光することによって取得された画像を補正してよい。
The processing described in relation to the
上記のような撮像装置100は、移動体に搭載されてもよい。撮像装置100は、図10に示すような、無人航空機(UAV)に搭載されてもよい。UAV10は、UAV本体20、ジンバル50、複数の撮像装置60、及び撮像装置100を備えてよい。ジンバル50、及び撮像装置100は、撮像システムの一例である。UAV10は、推進部により推進される移動体の一例である。移動体とは、UAVの他、空中を移動する他の航空機などの飛行体、地上を移動する車両、水上を移動する船舶等を含む概念である。
The
UAV本体20は、複数の回転翼を備える。複数の回転翼は、推進部の一例である。UAV本体20は、複数の回転翼の回転を制御することでUAV10を飛行させる。UAV本体20は、例えば、4つの回転翼を用いてUAV10を飛行させる。回転翼の数は、4つには限定されない。また、UAV10は、回転翼を有さない固定翼機でもよい。
The
撮像装置100は、所望の撮像範囲に含まれる被写体を撮像する撮像用のカメラである。ジンバル50は、撮像装置100を回転可能に支持する。ジンバル50は、支持機構の一例である。例えば、ジンバル50は、撮像装置100を、アクチュエータを用いてピッチ軸で回転可能に支持する。ジンバル50は、撮像装置100を、アクチュエータを用いて更にロール軸及びヨー軸のそれぞれを中心に回転可能に支持する。ジンバル50は、ヨー軸、ピッチ軸、及びロール軸の少なくとも1つを中心に撮像装置100を回転させることで、撮像装置100の姿勢を変更してよい。
The
複数の撮像装置60は、UAV10の飛行を制御するためにUAV10の周囲を撮像するセンシング用のカメラである。2つの撮像装置60が、UAV10の機首である正面に設けられてよい。更に他の2つの撮像装置60が、UAV10の底面に設けられてよい。正面側の2つの撮像装置60はペアとなり、いわゆるステレオカメラとして機能してよい。底面側の2つの撮像装置60もペアとなり、ステレオカメラとして機能してよい。複数の撮像装置60により撮像された画像に基づいて、UAV10の周囲の3次元空間データが生成されてよい。UAV10が備える撮像装置60の数は4つには限定されない。UAV10は、少なくとも1つの撮像装置60を備えていればよい。UAV10は、UAV10の機首、機尾、側面、底面、及び天井面のそれぞれに少なくとも1つの撮像装置60を備えてもよい。撮像装置60で設定できる画角は、撮像装置100で設定できる画角より広くてよい。撮像装置60は、単焦点レンズまたは魚眼レンズを有してもよい。
The plurality of
遠隔操作装置300は、UAV10と通信して、UAV10を遠隔操作する。遠隔操作装置300は、UAV10と無線で通信してよい。遠隔操作装置300は、UAV10に上昇、下降、加速、減速、前進、後進、回転などのUAV10の移動に関する各種命令を示す指示情報を送信する。指示情報は、例えば、UAV10の高度を上昇させる指示情報を含む。指示情報は、UAV10が位置すべき高度を示してよい。UAV10は、遠隔操作装置300から受信した指示情報により示される高度に位置するように移動する。指示情報は、UAV10を上昇させる上昇命令を含んでよい。UAV10は、上昇命令を受け付けている間、上昇する。UAV10は、上昇命令を受け付けても、UAV10の高度が上限高度に達している場合には、上昇を制限してよい。
The
図11は、本発明の複数の態様が全体的または部分的に具現化されてよいコンピュータ1200の一例を示す。コンピュータ1200にインストールされたプログラムは、コンピュータ1200に、本発明の実施形態に係る装置に関連付けられるオペレーションまたは当該装置の1または複数の「部」として機能させることができる。例えば、コンピュータ1200にインストールされたプログラムは、コンピュータ1200に、補正部140又は画像処理部104として機能させることができる。または、当該プログラムは、コンピュータ1200に当該オペレーションまたは当該1または複数の「部」の機能を実行させることができる。当該プログラムは、コンピュータ1200に、本発明の実施形態に係るプロセスまたは当該プロセスの段階を実行させることができる。そのようなプログラムは、コンピュータ1200に、本明細書に記載のフローチャート及びブロック図のブロックのうちのいくつかまたはすべてに関連付けられた特定のオペレーションを実行させるべく、CPU1212によって実行されてよい。
FIG. 11 illustrates an
本実施形態によるコンピュータ1200は、CPU1212、及びRAM1214を含み、それらはホストコントローラ1210によって相互に接続されている。コンピュータ1200はまた、通信インタフェース1222、入力/出力ユニットを含み、それらは入力/出力コントローラ1220を介してホストコントローラ1210に接続されている。コンピュータ1200はまた、ROM1230を含む。CPU1212は、ROM1230及びRAM1214内に格納されたプログラムに従い動作し、それにより各ユニットを制御する。
The
通信インタフェース1222は、ネットワークを介して他の電子デバイスと通信する。ハードディスクドライブが、コンピュータ1200内のCPU1212によって使用されるプログラム及びデータを格納してよい。ROM1230はその中に、アクティブ化時にコンピュータ1200によって実行されるブートプログラム等、及び/またはコンピュータ1200のハードウェアに依存するプログラムを格納する。プログラムが、CR−ROM、USBメモリまたはICカードのようなコンピュータ可読記録媒体またはネットワークを介して提供される。プログラムは、コンピュータ可読記録媒体の例でもあるRAM1214、またはROM1230にインストールされ、CPU1212によって実行される。これらのプログラム内に記述される情報処理は、コンピュータ1200に読み取られ、プログラムと、上記様々なタイプのハードウェアリソースとの間の連携をもたらす。装置または方法が、コンピュータ1200の使用に従い情報のオペレーションまたは処理を実現することによって構成されてよい。
The
例えば、通信がコンピュータ1200及び外部デバイス間で実行される場合、CPU1212は、RAM1214にロードされた通信プログラムを実行し、通信プログラムに記述された処理に基づいて、通信インタフェース1222に対し、通信処理を命令してよい。通信インタフェース1222は、CPU1212の制御の下、RAM1214、またはUSBメモリのような記録媒体内に提供される送信バッファ領域に格納された送信データを読み取り、読み取られた送信データをネットワークに送信し、またはネットワークから受信した受信データを記録媒体上に提供される受信バッファ領域等に書き込む。
For example, when communication is executed between the
また、CPU1212は、USBメモリ等のような外部記録媒体に格納されたファイルまたはデータベースの全部または必要な部分がRAM1214に読み取られるようにし、RAM1214上のデータに対し様々なタイプの処理を実行してよい。CPU1212は次に、処理されたデータを外部記録媒体にライトバックしてよい。
Further, the
様々なタイプのプログラム、データ、テーブル、及びデータベースのような様々なタイプの情報が記録媒体に格納され、情報処理を受けてよい。CPU1212は、RAM1214から読み取られたデータに対し、本開示の随所に記載され、プログラムの命令シーケンスによって指定される様々なタイプのオペレーション、情報処理、条件判断、条件分岐、無条件分岐、情報の検索/置換等を含む、様々なタイプの処理を実行してよく、結果をRAM1214に対しライトバックする。また、CPU1212は、記録媒体内のファイル、データベース等における情報を検索してよい。例えば、各々が第2の属性の属性値に関連付けられた第1の属性の属性値を有する複数のエントリが記録媒体内に格納される場合、CPU1212は、第1の属性の属性値が指定される、条件に一致するエントリを当該複数のエントリの中から検索し、当該エントリ内に格納された第2の属性の属性値を読み取り、それにより予め定められた条件を満たす第1の属性に関連付けられた第2の属性の属性値を取得してよい。
Various types of information such as various types of programs, data, tables, and databases may be stored on the recording medium and processed. The
上で説明したプログラムまたはソフトウェアモジュールは、コンピュータ1200上またはコンピュータ1200近傍のコンピュータ可読記憶媒体に格納されてよい。また、専用通信ネットワークまたはインターネットに接続されたサーバーシステム内に提供されるハードディスクまたはRAMのような記録媒体が、コンピュータ可読記憶媒体として使用可能であり、それによりプログラムを、ネットワークを介してコンピュータ1200に提供する。
The programs or software modules described above may be stored on a computer-readable storage medium on or near
特許請求の範囲、明細書、及び図面中において示した装置、システム、プログラム、及び方法における動作、手順、ステップ、及び段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、及び図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。 The execution order of each process such as operation, procedure, step, and step in the device, system, program, and method shown in the claims, the specification, and the drawings is "preceding" or "prior to It should be noted that the output of the previous process can be realized in any order unless the output of the previous process is used in the subsequent process. The operation flow in the claims, the description, and the drawings is described by using “first,” “next,” and the like for the sake of convenience, but it is essential that the operations are performed in this order. Not a thing.
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。 Although the present invention has been described above using the embodiment, the technical scope of the present invention is not limited to the scope described in the above embodiment. It is apparent to those skilled in the art that various changes or improvements can be added to the above-described embodiment. It is apparent from the scope of the claims that the embodiments added with such changes or improvements can be included in the technical scope of the present invention.
10 UAV
20 UAV本体
50 ジンバル
60 撮像装置
100 撮像装置
102 撮像部
104 画像処理部
110 撮像制御部
112 焦点調節部
120 イメージセンサ
130 メモリ
140 補正部
142 取得部
160 表示部
162 指示部
200 レンズ部
210 フォーカスレンズ
211 ズームレンズ
212 レンズ駆動部
213 レンズ駆動部
220 レンズ制御部
222 メモリ
214、215 位置センサ
300 遠隔操作装置
310 画素データ
311 補正画像
320 画素データ
321 補正画像
810 画素データ
811 補正画素データ
820 画素データ
821 補正画素データ
1200 コンピュータ
1210 ホストコントローラ
1212 CPU
1214 RAM
1220 入力/出力コントローラ
1222 通信インタフェース
1230 ROM
10 UAV
20
311 corrected image
320 pixel data
321 corrected image
810 pixel data
811 corrected pixel data
820 pixel data
821 corrected pixel data
1200
1214 RAM
1220 Input/
Claims (14)
前記複数の位置に基づいて、前記露光期間に前記レンズを通じて前記撮像素子を露光することにより取得された画像の歪みを補正する補正部と
を備える画像処理装置。 An acquisition unit that acquires information indicating a plurality of positions of the lens that moves during the exposure period of the image sensor,
An image processing apparatus comprising: a correction unit that corrects distortion of an image acquired by exposing the image sensor through the lens during the exposure period based on the plurality of positions.
請求項1に記載の画像処理装置。 The correction unit calculates an average position of the lens within the exposure period based on the plurality of positions, and corrects the distortion of the image based on the calculated average position of the lens. Item 1. The image processing device according to item 1.
請求項2に記載の画像処理装置。 The image processing apparatus according to claim 2, wherein the correction unit corrects the distortion of the image based on an average position of the lens and a distortion coefficient associated with the position of the lens.
請求項1に記載の画像処理装置。 The correction unit corresponds to each of the plurality of pixels on the image for each combination of the plurality of positions and the plurality of pixels based on the plurality of positions and the positions of the plurality of pixels included in the image sensor. The image processing apparatus according to claim 1, wherein the distortion of the image is corrected by calculating a plurality of pixel positions to be performed and calculating an average position of the plurality of pixel positions for each of the plurality of pixels.
前記取得部は、前記複数の水平画素列のそれぞれの露光期間中に移動するレンズの複数の位置を示す情報を取得し、
前記補正部は、前記複数の水平画素列のそれぞれの露光期間中の前記複数の位置に基づいて、前記複数の水平画素列のそれぞれにより取得された前記画像の歪みを補正する
請求項1から4のいずれか一項に記載の画像処理装置。 The image sensor is exposed in a different exposure period for each of a plurality of horizontal pixel columns included in the image sensor,
The acquisition unit acquires information indicating a plurality of positions of a lens that moves during each exposure period of the plurality of horizontal pixel rows,
The correction unit 4 based on the plurality of positions in each of the exposure periods of the plurality of horizontal pixel rows, from claim 1 for correcting the distortion of the image acquired by each of the plurality of horizontal pixel rows The image processing device according to claim 1.
請求項1から5のいずれか一項に記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the lens is a focus lens that is movable in the optical axis direction.
前記取得部は、前記露光期間中の前記往復移動における前記レンズの複数の位置を示す情報を取得する
請求項6に記載の画像処理装置。 It said lens is in order Sessu the focus of the optical system including the lens adjustment, reciprocating in the optical axis direction during the exposure period,
The image processing apparatus according to claim 6, wherein the acquisition unit acquires information indicating a plurality of positions of the lens in the reciprocating movement during the exposure period.
前記取得部は、前記露光期間中の前記一方向の移動における前記レンズの複数の位置を示す情報を取得する
請求項6に記載の画像処理装置。 It said lens is in order Sessu the focus of the optical system including the lens adjustment, moves in one direction to the optical axis direction during the exposure period,
The image processing apparatus according to claim 6, wherein the acquisition unit acquires information indicating a plurality of positions of the lens in the movement in the one direction during the exposure period.
前記補正部は、前記複数の動画構成画像のそれぞれを取得するための前記露光期間における前記複数の位置に基づいて、それぞれの動画構成画像の歪みを補正する
請求項1から8のいずれか一項に記載の画像処理装置。 The exposure period is a period in which the image sensor is repeatedly exposed to obtain each of a plurality of moving image constituent images that form a moving image,
The correction part, based on the plurality of position in the exposure period for obtaining each of the plurality of video configuration images, any one of claims 1 to 8 for correcting the distortion of each video configuration images The image processing device according to item 1.
前記撮像素子と
を備える撮像装置。 An image processing apparatus according to any one of claims 1 to 9,
An image pickup apparatus comprising the image pickup device.
前記撮像装置は、
前記補正部により歪みが補正された前記画像に基づいて、前記レンズを含む光学系の焦点調整を行う焦点調節部
をさらに備える請求項10に記載の撮像装置。 The lens is a focus lens that is movable in the optical axis direction,
The imaging device is
The imaging device according to claim 10, further comprising a focus adjustment unit that adjusts a focus of an optical system including the lens based on the image whose distortion is corrected by the correction unit.
前記複数の位置に基づいて、前記露光期間に前記レンズを通じて前記撮像素子を露光することにより取得された画像の歪みを補正する段階と
を備える画像処理方法。 Acquiring information indicating a plurality of positions of a lens that moves during an exposure period of the image sensor,
Correcting the distortion of the image acquired by exposing the image pickup device through the lens during the exposure period based on the plurality of positions.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019015752A JP6746857B2 (en) | 2019-01-31 | 2019-01-31 | Image processing device, imaging device, unmanned aerial vehicle, image processing method, and program |
PCT/CN2020/071175 WO2020156085A1 (en) | 2019-01-31 | 2020-01-09 | Image processing apparatus, photographing apparatus, unmanned aerial aircraft, image processing method and program |
CN202080002874.4A CN112204947A (en) | 2019-01-31 | 2020-01-09 | Image processing device, imaging device, unmanned aircraft, image processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019015752A JP6746857B2 (en) | 2019-01-31 | 2019-01-31 | Image processing device, imaging device, unmanned aerial vehicle, image processing method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020123897A JP2020123897A (en) | 2020-08-13 |
JP6746857B2 true JP6746857B2 (en) | 2020-08-26 |
Family
ID=71840865
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019015752A Expired - Fee Related JP6746857B2 (en) | 2019-01-31 | 2019-01-31 | Image processing device, imaging device, unmanned aerial vehicle, image processing method, and program |
Country Status (3)
Country | Link |
---|---|
JP (1) | JP6746857B2 (en) |
CN (1) | CN112204947A (en) |
WO (1) | WO2020156085A1 (en) |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1320813C (en) * | 2003-06-20 | 2007-06-06 | 北京中星微电子有限公司 | A distortion correction method for lens imaging |
US7596286B2 (en) * | 2003-08-06 | 2009-09-29 | Sony Corporation | Image processing apparatus, image processing system, imaging apparatus and image processing method |
JP4522207B2 (en) * | 2004-09-17 | 2010-08-11 | キヤノン株式会社 | Camera system, camera body and interchangeable lens |
JP4310645B2 (en) * | 2004-12-28 | 2009-08-12 | ソニー株式会社 | Method for correcting distortion of captured image signal and distortion correction apparatus for captured image signal |
JP2009296561A (en) * | 2008-05-02 | 2009-12-17 | Olympus Imaging Corp | Imaging apparatus and imaging method |
JP5272699B2 (en) * | 2008-12-15 | 2013-08-28 | 株式会社ニコン | Image processing apparatus, imaging apparatus, program, and image processing method |
JP2011061444A (en) * | 2009-09-09 | 2011-03-24 | Hitachi Information & Communication Engineering Ltd | Aberration correction device and method |
WO2012157250A1 (en) * | 2011-05-16 | 2012-11-22 | パナソニック株式会社 | Lens unit and image capture device |
JP5736512B2 (en) * | 2012-06-22 | 2015-06-17 | 富士フイルム株式会社 | Imaging apparatus and operation control method thereof |
JP6124655B2 (en) * | 2013-04-05 | 2017-05-10 | オリンパス株式会社 | IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM |
JP6313685B2 (en) * | 2014-05-01 | 2018-04-18 | キヤノン株式会社 | Imaging apparatus and control method thereof |
JP6906947B2 (en) * | 2016-12-22 | 2021-07-21 | キヤノン株式会社 | Image processing equipment, imaging equipment, image processing methods and computer programs |
US10705312B2 (en) * | 2017-02-02 | 2020-07-07 | Canon Kabushiki Kaisha | Focus control apparatus, image capturing apparatus, and focus control method |
-
2019
- 2019-01-31 JP JP2019015752A patent/JP6746857B2/en not_active Expired - Fee Related
-
2020
- 2020-01-09 WO PCT/CN2020/071175 patent/WO2020156085A1/en active Application Filing
- 2020-01-09 CN CN202080002874.4A patent/CN112204947A/en active Pending
Also Published As
Publication number | Publication date |
---|---|
JP2020123897A (en) | 2020-08-13 |
WO2020156085A1 (en) | 2020-08-06 |
CN112204947A (en) | 2021-01-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2018185939A1 (en) | Imaging control device, imaging device, imaging system, mobile body, imaging control method and program | |
JP6496955B1 (en) | Control device, system, control method, and program | |
JP2019009751A (en) | Control device, imaging system, moving body, control method, and program | |
JP6874251B2 (en) | Devices, imaging devices, moving objects, methods, and programs | |
JP6746857B2 (en) | Image processing device, imaging device, unmanned aerial vehicle, image processing method, and program | |
JP6503607B2 (en) | Imaging control apparatus, imaging apparatus, imaging system, moving object, imaging control method, and program | |
US20220046177A1 (en) | Control device, camera device, movable object, control method, and program | |
JP6972456B1 (en) | Distance measuring sensor, image pickup device, control method, and program | |
JP6543859B1 (en) | IMAGE PROCESSING DEVICE, IMAGING DEVICE, MOBILE OBJECT, IMAGE PROCESSING METHOD, AND PROGRAM | |
JP6641574B1 (en) | Determination device, moving object, determination method, and program | |
JP6961888B1 (en) | Devices, imaging devices, mobiles, programs and methods | |
JP7043706B2 (en) | Control device, imaging system, control method, and program | |
JP2021032990A (en) | Control device, imaging system, control method and program | |
JP6569157B1 (en) | Control device, imaging device, moving object, control method, and program | |
JP6690105B1 (en) | Control device, imaging device, system, control method, and program | |
JP2019205047A (en) | Controller, imaging apparatus, mobile body, control method and program | |
WO2018163300A1 (en) | Control device, imaging device, imaging system, moving body, control method, and program | |
JP6743337B1 (en) | Control device, imaging device, imaging system, control method, and program | |
JP7173657B2 (en) | Control device, imaging device, control method, and program | |
JP7043707B2 (en) | Scene recognition device, image pickup device, scene recognition method, and program | |
JP6961889B1 (en) | Control device, imaging device, control method, and program | |
JP6780203B2 (en) | Control device, imaging device, control method, and program | |
JP6459012B1 (en) | Control device, imaging device, flying object, control method, and program | |
JP2021018309A (en) | Phase difference detection device, imaging apparatus, imaging system, moving body, phase difference detection method, and program | |
JP2020067558A (en) | Control device, imaging apparatus, moving body, control method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190131 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200121 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200318 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200707 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200713 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6746857 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |