JP6746857B2 - Image processing device, imaging device, unmanned aerial vehicle, image processing method, and program - Google Patents

Image processing device, imaging device, unmanned aerial vehicle, image processing method, and program Download PDF

Info

Publication number
JP6746857B2
JP6746857B2 JP2019015752A JP2019015752A JP6746857B2 JP 6746857 B2 JP6746857 B2 JP 6746857B2 JP 2019015752 A JP2019015752 A JP 2019015752A JP 2019015752 A JP2019015752 A JP 2019015752A JP 6746857 B2 JP6746857 B2 JP 6746857B2
Authority
JP
Japan
Prior art keywords
lens
image
positions
exposure period
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2019015752A
Other languages
Japanese (ja)
Other versions
JP2020123897A (en
Inventor
誠 高宮
誠 高宮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SZ DJI Technology Co Ltd
Original Assignee
SZ DJI Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SZ DJI Technology Co Ltd filed Critical SZ DJI Technology Co Ltd
Priority to JP2019015752A priority Critical patent/JP6746857B2/en
Priority to PCT/CN2020/071175 priority patent/WO2020156085A1/en
Priority to CN202080002874.4A priority patent/CN112204947A/en
Publication of JP2020123897A publication Critical patent/JP2020123897A/en
Application granted granted Critical
Publication of JP6746857B2 publication Critical patent/JP6746857B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/36Systems for automatic generation of focusing signals using image sharpness techniques, e.g. image processing techniques for generating autofocus signals
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing
    • G03B13/36Autofocus systems
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Optics & Photonics (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)
  • Focusing (AREA)

Description

本発明は、画像処理装置、撮像装置、無人航空機、画像処理方法、及びプログラムに関する。 The present invention relates to an image processing device, an imaging device, an unmanned aerial vehicle, an image processing method, and a program.

特許文献1には、入力された画面座標の画素に対する収差を、レンズパラメータに対応する各画素の位置座標データを保持する歪み補正パラメータテーブルにより補正する技術が記載されている。
特許文献1 特開2011−61444号公報
Patent Document 1 describes a technique for correcting aberration of a pixel having input screen coordinates with a distortion correction parameter table that holds position coordinate data of each pixel corresponding to a lens parameter.
Patent Document 1 JP 2011-61444 A

フォーカスレンズなどの光学系が備えるレンズを移動させると、歪曲歪などにより意図しない画角変動が生じる場合がある。 When a lens included in an optical system such as a focus lens is moved, an unintended view angle variation may occur due to distortion or the like.

本発明の一態様に係る画像処理装置は、撮像素子の露光期間中に移動するレンズの複数の位置を示す情報を取得する取得部を備える。画像処理装置は、複数の位置に基づいて、露光期間にレンズを通じて撮像素子を露光することにより取得された画像を補正する補正部を備える。 An image processing apparatus according to an aspect of the present invention includes an acquisition unit that acquires information indicating a plurality of positions of a lens that moves during an exposure period of an image sensor. The image processing apparatus includes a correction unit that corrects the image acquired by exposing the image sensor through the lens during the exposure period based on the plurality of positions.

補正部は、複数の位置に基づいて、露光期間内におけるレンズの平均的な位置を算出し、算出したレンズの平均的な位置に基づいて、画像の歪みを補正してよい。 The correction unit may calculate an average position of the lens within the exposure period based on the plurality of positions and correct the image distortion based on the calculated average position of the lens.

補正部は、レンズの平均的な位置と、レンズの位置に対応づけられた歪係数とに基づいて、画像の歪みを補正してよい。 The correction unit may correct the distortion of the image based on the average position of the lens and the distortion coefficient associated with the position of the lens.

補正部は、複数の位置及び撮像素子が備える複数の画素の位置に基づいて、複数の位置及び複数の画素の組み合わせ毎に、画像上で複数の画素のそれぞれに対応する複数の画素位置を算出し、複数の画素のそれぞれについて複数の画素位置の平均的な位置を算出することにより、画像を補正してよい。 The correction unit calculates a plurality of pixel positions corresponding to each of the plurality of pixels on the image for each of the plurality of positions and the plurality of pixel combinations based on the plurality of positions and the positions of the plurality of pixels included in the image sensor. Then, the image may be corrected by calculating the average position of the plurality of pixel positions for each of the plurality of pixels.

撮像素子は、撮像素子が備える複数の画素列毎に異なる露光期間で露光されてよい。取得部は、複数の画素列のそれぞれの露光期間中に移動するレンズの複数の位置を示す情報を取得してよい。補正部は、複数の画素列のそれぞれの露光期間中の複数の位置に基づいて、複数の画素列のそれぞれにより取得された画像を補正してよい。 The image sensor may be exposed for different exposure periods for each of a plurality of pixel columns included in the image sensor. The acquisition unit may acquire information indicating a plurality of positions of the lens that moves during each exposure period of the plurality of pixel columns. The correction unit may correct the image acquired by each of the plurality of pixel columns based on the plurality of positions of the plurality of pixel columns during each exposure period.

レンズは、光軸方向に移動可能なフォーカスレンズであってよい。 The lens may be a focus lens that is movable in the optical axis direction.

レンズは、レンズを含む光学系の焦点を調節をするために、露光期間中に光軸方向に往復移動してよい。取得部は、露光期間中の往復移動におけるレンズの複数の位置を示す情報を取得してよい。 The lens may reciprocate in the optical axis direction during the exposure period to adjust the focus of the optical system including the lens. The acquisition unit may acquire information indicating a plurality of positions of the lens in the reciprocating movement during the exposure period.

レンズは、レンズを含む光学系の焦点を調節をするために、露光期間中に光軸方向に一方向に移動してよい。取得部は、露光期間中の一方向の移動におけるレンズの複数の位置を示す情報を取得してよい。 The lens may move in one direction along the optical axis during the exposure period to adjust the focus of the optical system including the lens. The acquisition unit may acquire information indicating a plurality of positions of the lens during movement in one direction during the exposure period.

露光期間は、動画を構成する複数の動画構成画像のそれぞれを取得するために撮像素子を繰り返し露光する期間であってよい。補正部は、複数の動画構成画像のそれぞれを取得するための露光期間における複数の位置に基づいて、それぞれの動画構成画像を補正してよい。 The exposure period may be a period in which the image sensor is repeatedly exposed to obtain each of a plurality of moving image constituent images that form a moving image. The correction unit may correct each moving image constituent image based on the plurality of positions in the exposure period for acquiring each of the plurality of moving image constituent images.

本発明の一態様に係る撮像装置は、上記画像処理装置を備えてよい。撮像装置は、イメージセンサを備えてよい。 An imaging device according to one aspect of the present invention may include the image processing device. The imaging device may include an image sensor.

レンズは、光軸方向に移動可能なフォーカスレンズであってよい。撮像装置は、補正部により補正された画像に基づいて、レンズを含む光学系の焦点調整を行う焦点調節部を備えてよい。 The lens may be a focus lens that is movable in the optical axis direction. The imaging device may include a focus adjustment unit that adjusts the focus of the optical system including the lens based on the image corrected by the correction unit.

本発明の一態様に係る無人航空機は、上記撮像装置を備えて移動する。 An unmanned aerial vehicle according to an aspect of the present invention includes the above imaging device and moves.

本発明の一態様に係る画像処理方法は、撮像素子の露光期間中に移動するレンズの複数の位置を示す情報を取得する段階を備える。画像処理方法は、複数の位置に基づいて、露光期間にレンズを通じて撮像素子を露光することにより取得された画像を補正する段階を備える。 An image processing method according to an aspect of the present invention includes a step of acquiring information indicating a plurality of positions of a lens that moves during an exposure period of an image sensor. The image processing method includes a step of correcting an image acquired by exposing the image sensor through a lens during an exposure period based on the plurality of positions.

本発明の一態様に係るプログラムは、上記の画像処理装置としてコンピュータを機能させるためのプログラムとしてよい。 The program according to one aspect of the present invention may be a program for causing a computer to function as the above-described image processing device.

本発明の一態様によれば、レンズの移動に伴う画角変動の影響を抑制することができる。 According to one aspect of the present invention, it is possible to suppress the influence of the change in the angle of view due to the movement of the lens.

なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。 Note that the above summary of the invention does not enumerate all necessary features of the present invention. Further, a sub-combination of these feature groups can also be an invention.

本実施形態に係る撮像装置100の外観斜視図の一例を示す図である。It is a figure which shows an example of the external appearance perspective view of the imaging device 100 which concerns on this embodiment. 本実施形態に係る撮像装置100の機能ブロックを示す図である。It is a figure which shows the functional block of the imaging device 100 which concerns on this embodiment. 補正部140の処理を概略的に説明する図である。FIG. 6 is a diagram schematically illustrating a process of the correction unit 140. 歪係数の一例を示す。An example of a distortion coefficient is shown. イメージセンサ120上の座標とイメージ座標(x,y)との位置関係の一例を模式的に示す。An example of the positional relationship between the coordinates on the image sensor 120 and the image coordinates (x, y) is schematically shown. フォーカスレンズ210の位置の平均値の算出方法を説明する図である。FIG. 6 is a diagram illustrating a method of calculating an average value of positions of a focus lens 210. 撮像装置100が実行する手順の一例を示すフローチャートである。9 is a flowchart showing an example of a procedure executed by the imaging device 100. 補正部140が実行する他の補正方法を説明する図である。It is a figure explaining the other correction method which the correction|amendment part 140 performs. ローリング読み出しにより画素データを読み出す場合の補正処理を概略的に説明する図である。It is a figure which roughly explains the correction process at the time of reading pixel data by rolling reading. 撮像装置100を搭載した無人航空機(UAV)を示す。1 illustrates an unmanned aerial vehicle (UAV) equipped with the imaging device 100. 本発明の複数の態様が全体的または部分的に具現化されてよいコンピュータ1200の一例を示す。1 illustrates an example computer 1200 in which aspects of the present invention may be embodied in whole or in part.

以下、発明の実施の形態を通じて本発明を説明するが、以下の実施の形態は特許請求の範囲に係る発明を限定するものではない。また、実施の形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。以下の実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。 Hereinafter, the present invention will be described through embodiments of the invention, but the following embodiments do not limit the invention according to the claims. Further, not all combinations of the features described in the embodiments are essential to the means for solving the invention. It is apparent to those skilled in the art that various modifications and improvements can be added to the following embodiments. It is apparent from the scope of the claims that the embodiments added with such changes or improvements can be included in the technical scope of the present invention.

特許請求の範囲、明細書、図面、及び要約書には、著作権による保護の対象となる事項が含まれる。著作権者は、これらの書類の何人による複製に対しても、特許庁のファイルまたはレコードに表示される通りであれば異議を唱えない。ただし、それ以外の場合、一切の著作権を留保する。 The claims, the description, the drawings, and the abstract contain the subject matter of copyright protection. The copyright owner has no objection to the reproduction of any of these documents by anyone as it appears in the JPO file or record. However, in all other cases, all copyrights are reserved.

本発明の様々な実施形態は、フローチャート及びブロック図を参照して記載されてよく、ここにおいてブロックは、(1)操作が実行されるプロセスの段階または(2)操作を実行する役割を持つ装置の「部」を表わしてよい。特定の段階及び「部」が、プログラマブル回路、及び/またはプロセッサによって実装されてよい。専用回路は、デジタル及び/またはアナログハードウェア回路を含んでよい。集積回路(IC)及び/またはディスクリート回路を含んでよい。プログラマブル回路は、再構成可能なハードウェア回路を含んでよい。再構成可能なハードウェア回路は、論理AND、論理OR、論理XOR、論理NAND、論理NOR、及び他の論理操作、フリップフロップ、レジスタ、フィールドプログラマブルゲートアレイ(FPGA)、プログラマブルロジックアレイ(PLA)等のようなメモリ要素等を含んでよい。 Various embodiments of the present invention may be described with reference to flowcharts and block diagrams, where a block is (1) a stage of a process in which an operation is performed or (2) a device responsible for performing an operation. "Part" of may be represented. Particular stages and "sections" may be implemented by programmable circuits and/or processors. Dedicated circuitry may include digital and/or analog hardware circuitry. It may include integrated circuits (ICs) and/or discrete circuits. Programmable circuits may include reconfigurable hardware circuits. Reconfigurable hardware circuits include logical AND, logical OR, logical XOR, logical NAND, logical NOR, and other logical operations, flip-flops, registers, field programmable gate arrays (FPGA), programmable logic arrays (PLA), etc. Memory elements, etc. may be included.

コンピュータ可読媒体は、適切なデバイスによって実行される命令を格納可能な任意の有形なデバイスを含んでよい。その結果、そこに格納される命令を有するコンピュータ可読媒体は、フローチャートまたはブロック図で指定された操作を実行するための手段を作成すべく実行され得る命令を含む、製品を備えることになる。コンピュータ可読媒体の例としては、電子記憶媒体、磁気記憶媒体、光記憶媒体、電磁記憶媒体、半導体記憶媒体等が含まれてよい。コンピュータ可読媒体のより具体的な例としては、フロッピー(登録商標)ディスク、ディスケット、ハードディスク、ランダムアクセスメモリ(RAM)、リードオンリメモリ(ROM)、消去可能プログラマブルリードオンリメモリ(EPROMまたはフラッシュメモリ)、電気的消去可能プログラマブルリードオンリメモリ(EEPROM)、静的ランダムアクセスメモリ(SRAM)、コンパクトディスクリードオンリメモリ(CD-ROM)、デジタル多用途ディスク(DVD)、ブルーレイ(登録商標)ディスク、メモリスティック、集積回路カード等が含まれてよい。 Computer-readable media may include any tangible device capable of storing instructions executed by a suitable device. As a result, a computer-readable medium having instructions stored therein will comprise a product that includes instructions that may be executed to create the means for performing the operations specified in the flowcharts or block diagrams. Examples of computer-readable media may include electronic storage media, magnetic storage media, optical storage media, electromagnetic storage media, semiconductor storage media, and the like. More specific examples of computer readable media include floppy disks, diskettes, hard disks, random access memory (RAM), read only memory (ROM), erasable programmable read only memory (EPROM or flash memory), Electrically erasable programmable read only memory (EEPROM), static random access memory (SRAM), compact disc read only memory (CD-ROM), digital versatile disc (DVD), Blu-ray (registered trademark) disc, memory stick, An integrated circuit card or the like may be included.

コンピュータ可読命令は、1または複数のプログラミング言語の任意の組み合わせで記述されたソースコードまたはオブジェクトコードの何れかを含んでよい。ソースコードまたはオブジェクトコードは、従来の手続型プログラミング言語を含む。従来の手続型プログラミング言語は、アセンブラ命令、命令セットアーキテクチャ(ISA)命令、マシン命令、マシン依存命令、マイクロコード、ファームウェア命令、状態設定データ、またはSmalltalk、JAVA(登録商標)、C++等のようなオブジェクト指向プログラミング言語、及び「C」プログラミング言語または同様のプログラミング言語でよい。コンピュータ可読命令は、汎用コンピュータ、特殊目的のコンピュータ、若しくは他のプログラム可能なデータ処理装置のプロセッサまたはプログラマブル回路に対し、ローカルにまたはローカルエリアネットワーク(LAN)、インターネット等のようなワイドエリアネットワーク(WAN)を介して提供されてよい。プロセッサまたはプログラマブル回路は、フローチャートまたはブロック図で指定された操作を実行するための手段を作成すべく、コンピュータ可読命令を実行してよい。プロセッサの例としては、コンピュータプロセッサ、処理ユニット、マイクロプロセッサ、デジタル信号プロセッサ、コントローラ、マイクロコントローラ等を含む。 Computer readable instructions may include either source code or object code written in any combination of one or more programming languages. Source code or object code includes conventional procedural programming languages. Conventional procedural programming languages include assembler instructions, instruction set architecture (ISA) instructions, machine instructions, machine dependent instructions, microcode, firmware instructions, state setting data, or Smalltalk, JAVA, C++, etc. It may be an object-oriented programming language, and the "C" programming language or similar programming languages. Computer readable instructions can be for a general purpose computer, a special purpose computer, or another programmable data processing device processor or programmable circuit, either locally or in a wide area network (WAN) such as a local area network (LAN), the Internet, or the like. ). The processor or programmable circuit may execute computer readable instructions to create a means for performing the operations specified in the flowcharts or block diagrams. Examples of processors include computer processors, processing units, microprocessors, digital signal processors, controllers, microcontrollers, and the like.

図1は、本実施形態に係る撮像装置100の外観斜視図の一例を示す図である。図2は、本実施形態に係る撮像装置100の機能ブロックを示す図である。 FIG. 1 is a diagram showing an example of an external perspective view of the image pickup apparatus 100 according to the present embodiment. FIG. 2 is a diagram showing functional blocks of the image pickup apparatus 100 according to the present embodiment.

撮像装置100は、撮像部102及びレンズ部200を備える。撮像部102は、イメージセンサ120、画像処理部104、撮像制御部110、メモリ130、指示部162、及び表示部160を備える。 The image pickup apparatus 100 includes an image pickup unit 102 and a lens unit 200. The image capturing section 102 includes an image sensor 120, an image processing section 104, an image capturing control section 110, a memory 130, an instruction section 162, and a display section 160.

イメージセンサ120は、CCDまたはCMOSなどの撮像素子である。イメージセンサ120は、レンズ部200が有する光学系を介して光を受光する。イメージセンサ120は、レンズ部200が有する光学系を介して結像された光学像の画像データを画像処理部104に出力する。 The image sensor 120 is an image sensor such as CCD or CMOS. The image sensor 120 receives light via the optical system included in the lens unit 200. The image sensor 120 outputs image data of an optical image formed via the optical system of the lens unit 200 to the image processing unit 104.

撮像制御部110及び画像処理部104は、CPUまたはMPUなどのマイクロプロセッサ、MCUなどのマイクロコントローラなどにより構成されてよい。メモリ130は、コンピュータ可読可能な記録媒体でよく、SRAM、DRAM、EPROM、EEPROM、及びUSBメモリなどのフラッシュメモリの少なくとも1つを含んでよい。メモリ130は、撮像制御部110がイメージセンサ120などを制御するのに必要なプログラム、画像処理部104が画像処理を実行するのに必要なプログラム等を格納する。メモリ130は、撮像装置100の筐体の内部に設けられてよい。メモリ130は、撮像装置100の筐体から取り外し可能に設けられてよい。 The imaging control unit 110 and the image processing unit 104 may be configured by a microprocessor such as a CPU or MPU, a microcontroller such as an MCU, or the like. The memory 130 may be a computer-readable recording medium and may include at least one of SRAM, DRAM, EPROM, EEPROM, and flash memory such as USB memory. The memory 130 stores a program necessary for the imaging control unit 110 to control the image sensor 120 and the like, a program necessary for the image processing unit 104 to perform image processing, and the like. The memory 130 may be provided inside the housing of the imaging device 100. The memory 130 may be provided so as to be removable from the housing of the imaging device 100.

指示部162は、撮像装置100に対する指示をユーザから受け付けるユーザインタフェースである。表示部160は、イメージセンサ120により撮像され、画像処理部104により処理された画像、撮像装置100の各種設定情報などを表示する。表示部160は、タッチパネルで構成されてよい。 The instruction unit 162 is a user interface that receives an instruction for the imaging device 100 from a user. The display unit 160 displays an image captured by the image sensor 120 and processed by the image processing unit 104, various setting information of the image capturing apparatus 100, and the like. The display unit 160 may include a touch panel.

撮像制御部110は、レンズ部200及びイメージセンサ120を制御する。撮像制御部110は、レンズ部200が備える光学系の焦点位置や焦点距離の調整を制御する。撮像制御部110は、ユーザからの指示を示す情報に基づいて、レンズ部200が備えるレンズ制御部220に制御命令を出力することにより、レンズ部200を制御する。 The imaging control unit 110 controls the lens unit 200 and the image sensor 120. The imaging control unit 110 controls the adjustment of the focal position and the focal length of the optical system included in the lens unit 200. The imaging control unit 110 controls the lens unit 200 by outputting a control command to the lens control unit 220 included in the lens unit 200 based on the information indicating the instruction from the user.

レンズ部200は、フォーカスレンズ210、ズームレンズ211、レンズ駆動部212、レンズ駆動部213、レンズ制御部220、メモリ222、位置センサ214、及び位置センサ215を備える。フォーカスレンズ210、及びズームレンズ211は、少なくとも1つのレンズを含んでよい。フォーカスレンズ210及びズームレンズ211は、光学系に含まれるレンズである。フォーカスレンズ210、及びズームレンズ211の少なくとも一部または全部は、光学系の光軸に沿って移動可能に配置される。 The lens unit 200 includes a focus lens 210, a zoom lens 211, a lens driving unit 212, a lens driving unit 213, a lens control unit 220, a memory 222, a position sensor 214, and a position sensor 215. The focus lens 210 and the zoom lens 211 may include at least one lens. The focus lens 210 and the zoom lens 211 are lenses included in the optical system. At least a part or all of the focus lens 210 and the zoom lens 211 are arranged so as to be movable along the optical axis of the optical system.

撮像制御部110は、焦点調節部112を備える。焦点調節部112は、フォーカスレンズ210を制御することにより、レンズ部200が備える光学系の焦点調節を行う。 The imaging control unit 110 includes a focus adjustment unit 112. The focus adjustment unit 112 controls the focus lens 210 to adjust the focus of the optical system included in the lens unit 200.

レンズ部200は、撮像部102に対して着脱可能に設けられる交換レンズでよい。レンズ駆動部212は、ステッピングモータ、DCモータ、コアレスモータ、または超音波モータなどの駆動装置を備えてよい。フォーカスレンズ210の少なくとも一部または全部は、レンズ駆動部212が備える駆動装置からの動力をカム環、ガイド軸などの機構部材を介して受け取ることにより移動する。レンズ駆動部213は、ステッピングモータ、DCモータ、コアレスモータ、または超音波モータなどの駆動装置を備えてよい。ズームレンズ211の少なくとも一部または全部は、レンズ駆動部213が備える駆動装置からの動力をカム環、ガイド軸などの機構部材を介して受け取ることにより移動する。 The lens unit 200 may be an interchangeable lens that is detachably attached to the imaging unit 102. The lens driving unit 212 may include a driving device such as a stepping motor, a DC motor, a coreless motor, or an ultrasonic motor. At least a part or all of the focus lens 210 moves by receiving power from a driving device included in the lens driving unit 212 via a mechanical member such as a cam ring and a guide shaft. The lens driving unit 213 may include a driving device such as a stepping motor, a DC motor, a coreless motor, or an ultrasonic motor. At least a part or all of the zoom lens 211 moves by receiving power from a driving device included in the lens driving unit 213 via a mechanical member such as a cam ring and a guide shaft.

レンズ制御部220は、撮像部102からのレンズ制御命令に従って、レンズ駆動部212及びレンズ駆動部213の少なくとも一方を駆動して、機構部材を介してフォーカスレンズ210及びズームレンズ211の少なくとも一方を光軸方向に沿って移動させることで、ズーム動作及びフォーカス動作の少なくとも一方を実行する。レンズ制御命令は、例えば、ズーム制御命令、及びフォーカス制御命令である。 The lens control unit 220 drives at least one of the lens driving unit 212 and the lens driving unit 213 in accordance with a lens control command from the imaging unit 102, and causes at least one of the focus lens 210 and the zoom lens 211 to emit light through a mechanical member. By moving along the axial direction, at least one of zoom operation and focus operation is executed. The lens control command is, for example, a zoom control command and a focus control command.

メモリ222は、レンズ駆動部212を介して移動するフォーカスレンズやズームレンズ用の制御値を記憶する。メモリ222は、SRAM、DRAM、EPROM、EEPROM、及びUSBメモリなどのフラッシュメモリの少なくとも1つを含んでよい。 The memory 222 stores control values for the focus lens and the zoom lens that move via the lens driving unit 212. The memory 222 may include at least one of SRAM, DRAM, EPROM, EEPROM, and flash memory such as USB memory.

位置センサ214は、フォーカスレンズ210の位置を検出する。位置センサ215は、ズームレンズ211の位置を検出する。位置センサ214、及び位置センサ215は、磁気抵抗(MR)センサ等であってよい。 The position sensor 214 detects the position of the focus lens 210. The position sensor 215 detects the position of the zoom lens 211. The position sensor 214 and the position sensor 215 may be a magnetoresistive (MR) sensor or the like.

撮像制御部110は、指示部162等を通じてユーザからの指示を示す情報に基づいて、イメージセンサ120に制御命令を出力することにより、イメージセンサ120に撮像動作の制御を含む制御を実行する。イメージセンサ120により撮像された画像は、画像処理部104により処理されて、メモリ130に格納される。 The imaging control unit 110 outputs a control command to the image sensor 120 based on the information indicating the instruction from the user through the instruction unit 162 and the like, thereby executing the control including the control of the imaging operation on the image sensor 120. The image captured by the image sensor 120 is processed by the image processing unit 104 and stored in the memory 130.

画像処理部104には、イメージセンサ120により取得された画像が入力される。補正部140は、イメージセンサ120により取得された画像を補正する。表示部160は、補正部140により補正された画像を表示する。メモリ130は、補正部140により補正された画像を格納する。補正部140により補正された画像は、メモリ130から、メモリカード等の記録媒体に転送されてよい。 The image acquired by the image sensor 120 is input to the image processing unit 104. The correction unit 140 corrects the image acquired by the image sensor 120. The display unit 160 displays the image corrected by the correction unit 140. The memory 130 stores the image corrected by the correction unit 140. The image corrected by the correction unit 140 may be transferred from the memory 130 to a recording medium such as a memory card.

画像処理部104は、補正部140と、取得部142とを備える。取得部142は、イメージセンサ120の露光期間中に移動するフォーカスレンズ210の複数の位置を示す情報を取得する。例えば、取得部142は、焦点調節部112から、フォーカスレンズ210の複数の位置を示す情報を取得する。補正部140は、複数の位置に基づいて、露光期間にフォーカスレンズ210を通じてイメージセンサ120を露光することにより取得された画像を補正する。 The image processing unit 104 includes a correction unit 140 and an acquisition unit 142. The acquisition unit 142 acquires information indicating a plurality of positions of the focus lens 210 that moves during the exposure period of the image sensor 120. For example, the acquisition unit 142 acquires information indicating a plurality of positions of the focus lens 210 from the focus adjustment unit 112. The correction unit 140 corrects the image acquired by exposing the image sensor 120 through the focus lens 210 during the exposure period based on the plurality of positions.

例えば、補正部140は、取得したフォーカスレンズ210の複数の位置に基づいて、露光期間内におけるフォーカスレンズ210の平均的な位置を算出し、算出したフォーカスレンズ210の平均的な位置に基づいて、画像の歪みを補正する。具体的には、補正部140は、フォーカスレンズ210の平均的な位置と、フォーカスレンズ210の位置に対応づけられた歪係数とに基づいて、画像の歪みを補正する。 For example, the correction unit 140 calculates an average position of the focus lens 210 within the exposure period based on the acquired plurality of positions of the focus lens 210, and based on the calculated average position of the focus lens 210, Correct image distortion. Specifically, the correction unit 140 corrects the image distortion based on the average position of the focus lens 210 and the distortion coefficient associated with the position of the focus lens 210.

補正部140は、フォーカスレンズ210の複数の位置及びイメージセンサ120が備える複数の画素の位置に基づいて、フォーカスレンズ210の複数の位置及びイメージセンサ120の複数の画素の組み合わせ毎に、画像上で複数の画素のそれぞれに対応する複数の画素位置を算出してよい。補正部140は、複数の画素のそれぞれについて、算出した複数の画素位置の平均的な位置を算出することにより、画像を補正してよい。 The correction unit 140, based on the plurality of positions of the focus lens 210 and the plurality of pixels of the image sensor 120, displays on the image for each combination of the plurality of positions of the focus lens 210 and the plurality of pixels of the image sensor 120. A plurality of pixel positions corresponding to each of the plurality of pixels may be calculated. The correction unit 140 may correct the image by calculating an average position of the calculated plurality of pixel positions for each of the plurality of pixels.

イメージセンサ120は、イメージセンサ120が備える複数の画素列毎に異なる露光期間で露光されてよい。例えば、撮像制御部110は、ローリング読み出しによりイメージセンサ120から画素情報を読み出してよい。この場合、取得部142は、複数の画素列のそれぞれの露光期間中に移動するフォーカスレンズ210の複数の位置を示す情報を取得する。補正部140は、複数の画素列のそれぞれの露光期間中の複数の位置に基づいて、複数の画素列のそれぞれにより取得された画像を補正する。 The image sensor 120 may be exposed for different exposure periods for each of a plurality of pixel columns included in the image sensor 120. For example, the imaging control unit 110 may read pixel information from the image sensor 120 by rolling reading. In this case, the acquisition unit 142 acquires information indicating a plurality of positions of the focus lens 210 that moves during each exposure period of a plurality of pixel columns. The correction unit 140 corrects the image acquired by each of the plurality of pixel rows based on the plurality of positions of the plurality of pixel rows during each exposure period.

フォーカスレンズ210は、フォーカスレンズ210を含む光学系の焦点を調節をするために、露光期間中に光軸方向に往復移動する。例えば、焦点調節部112は、露光期間中にフォーカスレンズ210をウォブリング動作を行わせる。取得部142は、露光期間中の往復移動におけるフォーカスレンズ210の複数の位置を示す情報を取得する。補正部140は、露光期間中の往復移動におけるフォーカスレンズ210の複数の位置に基づいて、画像を補正する。 The focus lens 210 reciprocates in the optical axis direction during the exposure period in order to adjust the focus of the optical system including the focus lens 210. For example, the focus adjustment unit 112 causes the focus lens 210 to perform a wobbling operation during the exposure period. The acquisition unit 142 acquires information indicating a plurality of positions of the focus lens 210 during the reciprocating movement during the exposure period. The correction unit 140 corrects the image based on the plurality of positions of the focus lens 210 during the reciprocating movement during the exposure period.

フォーカスレンズ210は、フォーカスレンズ210を含む光学系の焦点を調節をするために、露光期間中に光軸方向に一方向に移動してよい。取得部142は、露光期間中の一方向の移動におけるフォーカスレンズ210の複数の位置を示す情報を取得する。補正部140は、露光期間中の一方向の移動におけるフォーカスレンズ210の複数の位置に基づいて、画像を補正する。 The focus lens 210 may move in one direction along the optical axis during the exposure period in order to adjust the focus of the optical system including the focus lens 210. The acquisition unit 142 acquires information indicating a plurality of positions of the focus lens 210 during movement in one direction during the exposure period. The correction unit 140 corrects the image based on the plurality of positions of the focus lens 210 in the movement in one direction during the exposure period.

露光期間は、動画を構成する複数の動画構成画像のそれぞれを取得するためにイメージセンサ120を繰り返し露光する期間であってよい。補正部140は、複数の動画構成画像のそれぞれを取得するための露光期間における複数の位置に基づいて、それぞれの動画構成画像を補正してよい。 The exposure period may be a period in which the image sensor 120 is repeatedly exposed to acquire each of a plurality of moving image constituent images that form a moving image. The correction unit 140 may correct each moving image constituent image based on the plurality of positions in the exposure period for acquiring each of the plurality of moving image constituent images.

焦点調節部112は、補正部140により補正された画像に基づいて、フォーカスレンズ210を含む光学系の焦点調整を行う。例えば、焦点調節部112は、補正部140により補正された画像のコントラスト値に基づいてフォーカスレンズ210の光軸方向の位置を決定して、決定した位置にフォーカスレンズ210を移動させる。 The focus adjustment unit 112 adjusts the focus of the optical system including the focus lens 210 based on the image corrected by the correction unit 140. For example, the focus adjustment unit 112 determines the position of the focus lens 210 in the optical axis direction based on the contrast value of the image corrected by the correction unit 140, and moves the focus lens 210 to the determined position.

図3は、補正部140の処理を概略的に説明する図である。図3に関連して、イメージセンサ120が備える全ての水平画素列の露光期間が同一である場合の補正部140の処理を説明する。具体的には、イメージセンサ120のグローバル読み出しにより連続的に撮像している場合の処理を説明する。本実施形態において、イメージセンサ120は、N個(Nは自然数)の水平画素列を有するものとする。 FIG. 3 is a diagram schematically illustrating the process of the correction unit 140. With reference to FIG. 3, a process of the correction unit 140 when the exposure periods of all the horizontal pixel columns included in the image sensor 120 are the same will be described. Specifically, a process in the case where images are continuously picked up by the global reading of the image sensor 120 will be described. In this embodiment, the image sensor 120 has N (N is a natural number) horizontal pixel rows.

撮像制御部110は、垂直同期信号VDに基づくタイミングでイメージセンサ120が備える水平画素列1〜水平画素列Nを露光する。図3には、時刻t1から時刻t7までの露光期間と、時刻t9から時刻t15までの露光期間が示されている。 The imaging control unit 110 exposes the horizontal pixel row 1 to the horizontal pixel row N included in the image sensor 120 at a timing based on the vertical synchronization signal VD. FIG. 3 shows an exposure period from time t1 to time t7 and an exposure period from time t9 to time t15.

焦点調節部112は、垂直同期信号VDのトリガから次の垂直同期信号VDまでの期間内にフォーカスレンズ210の光軸方向の位置を複数回検出させる。具体的には、焦点調節部112は、時刻t0の垂直同期信号VDから、予め定められた時間間隔でフォーカスレンズ210の光軸方向の位置を予め定められた回数検出させる。また、焦点調節部112は、時刻t7の垂直同期信号VDから、予め定められた時間間隔でフォーカスレンズ210の光軸方向の位置を予め定められた回数検出させる。 The focus adjustment unit 112 detects the position of the focus lens 210 in the optical axis direction a plurality of times within the period from the trigger of the vertical synchronization signal VD to the next vertical synchronization signal VD. Specifically, the focus adjustment unit 112 detects the position of the focus lens 210 in the optical axis direction a predetermined number of times at a predetermined time interval from the vertical synchronization signal VD at time t0. Further, the focus adjustment unit 112 detects the position of the focus lens 210 in the optical axis direction a predetermined number of times at a predetermined time interval from the vertical synchronization signal VD at time t7.

図3に示されるように、レンズ制御部220は、時刻t1から時刻t7までの露光期間において、LP1、LP2、LP3、LP4、LP5、LP6、及びLP7を検出する。また、レンズ制御部220は、時刻t9から時刻t15までの露光期間において、LP9、LP10、LP11、LP12、LP13、LP14、及びLP15を検出する。LPi(iは自然数)は、フォーカスレンズ210の光軸方向の位置を示すものとする。 As shown in FIG. 3, the lens controller 220 detects LP1, LP2, LP3, LP4, LP5, LP6, and LP7 in the exposure period from time t1 to time t7. In addition, the lens control unit 220 detects LP9, LP10, LP11, LP12, LP13, LP14, and LP15 in the exposure period from time t9 to time t15. LPi (i is a natural number) indicates the position of the focus lens 210 in the optical axis direction.

時刻t7の垂直同期信号VDに応じて、焦点調節部112は、時刻t1からt7までの露光期間に検出されたLP1、LP2、LP3、LP4、LP5、LP6、及びLP7を示すレンズ位置情報をレンズ制御部220から取得して、画像処理部104に出力する。取得部142は、焦点調節部112から出力されたレンズ位置情報を取得する。 In response to the vertical synchronization signal VD at time t7, the focus adjustment unit 112 outputs lens position information indicating LP1, LP2, LP3, LP4, LP5, LP6, and LP7 detected during the exposure period from time t1 to t7 to the lens. It is acquired from the control unit 220 and output to the image processing unit 104. The acquisition unit 142 acquires the lens position information output from the focus adjustment unit 112.

補正部140は、レンズ位置情報に基づいて、LP1、LP2、LP3、LP4、LP5、LP6、及びLP7の平均値を算出する。補正部140は、LP1、LP2、LP3、LP4、LP5、LP6、及びLP7の平均値に基づいて、歪係数を算出する。歪係数は、フォーカスレンズ210の位置から定まる歪曲歪を表す情報である。歪係数については図4などに関連して説明する。平均値はLP1からLP7までの和を、時刻t1から時刻t7までの時間で割ることで算出される値である。平均値の具体的な算出方法については図6などに関連して説明する。 The correction unit 140 calculates the average value of LP1, LP2, LP3, LP4, LP5, LP6, and LP7 based on the lens position information. The correction unit 140 calculates the distortion coefficient based on the average value of LP1, LP2, LP3, LP4, LP5, LP6, and LP7. The distortion coefficient is information that represents distortion that is determined from the position of the focus lens 210. The distortion coefficient will be described with reference to FIG. The average value is a value calculated by dividing the sum of LP1 to LP7 by the time from time t1 to time t7. A specific method of calculating the average value will be described with reference to FIG.

画像処理部104は、時刻t7の垂直同期信号VDに応じて、イメージセンサ120から、水平画素列1〜水平画素列Nの画素データ310を取得する。画像処理部104は、イメージセンサ120から取得した画素データ310と、フォーカスレンズ210の位置の平均値に対応する歪係数とに基づいて画素データ310の画像を補正して、補正画像311を生成する。補正部140により生成された補正画像311はメモリ130に記憶され、表示部160の表示用の画像として表示部160に出力される。 The image processing unit 104 acquires the pixel data 310 of the horizontal pixel row 1 to the horizontal pixel row N from the image sensor 120 according to the vertical synchronization signal VD at time t7. The image processing unit 104 corrects the image of the pixel data 310 based on the pixel data 310 acquired from the image sensor 120 and the distortion coefficient corresponding to the average value of the position of the focus lens 210 to generate a corrected image 311. .. The corrected image 311 generated by the correction unit 140 is stored in the memory 130 and output to the display unit 160 as an image for display on the display unit 160.

同様に、時刻t7の垂直同期信号VDに応じて、焦点調節部112は、時刻t9からt15までの露光期間に検出されたLP9、LP10、LP11、LP12、LP13、LP14、及びLP15を示すレンズ位置情報をレンズ制御部220から取得して、画像処理部104に出力する。取得部142は、焦点調節部112から出力されたレンズ位置情報を取得する。 Similarly, according to the vertical synchronization signal VD at time t7, the focus adjustment unit 112 causes the lens positions indicating LP9, LP10, LP11, LP12, LP13, LP14, and LP15 detected during the exposure period from time t9 to t15. The information is acquired from the lens control unit 220 and output to the image processing unit 104. The acquisition unit 142 acquires the lens position information output from the focus adjustment unit 112.

補正部140は、レンズ位置情報に基づいて、LP9、LP10、LP11、LP12、LP13、LP14、及びLP15の平均値を算出する。補正部140は、LP9、LP10、LP11、LP12、LP13、LP14、及びLP15の平均値に基づいて、歪係数を算出する。 The correction unit 140 calculates the average value of LP9, LP10, LP11, LP12, LP13, LP14, and LP15 based on the lens position information. The correction unit 140 calculates the distortion coefficient based on the average value of LP9, LP10, LP11, LP12, LP13, LP14, and LP15.

画像処理部104は、時刻t15の垂直同期信号VDに応じて、イメージセンサ120から、水平画素列1〜水平画素列Nの画素データ320を取得する。画像処理部104は、イメージセンサ120から取得した画素データ320と、フォーカスレンズ210の位置の平均値に対応する歪係数とに基づいて画素データ320の画像を補正して、補正画像321を生成する。補正部140により生成された補正画像321はメモリ130に記憶され、表示部160の表示用の画像として表示部160に出力される。 The image processing unit 104 acquires the pixel data 320 of the horizontal pixel row 1 to the horizontal pixel row N from the image sensor 120 according to the vertical synchronization signal VD at time t15. The image processing unit 104 corrects the image of the pixel data 320 based on the pixel data 320 acquired from the image sensor 120 and the distortion coefficient corresponding to the average value of the position of the focus lens 210 to generate a corrected image 321. .. The corrected image 321 generated by the correction unit 140 is stored in the memory 130 and output to the display unit 160 as an image for display on the display unit 160.

撮像装置100は、垂直同期信号VDに応じて、上述したように1回の露光処理と、画素データの読み出し処理と、画像の補正処理と、表示部160に表示する処理とを実行する。撮像装置100は、垂直同期信号VD毎に上述した処理を繰り返す。 The imaging apparatus 100 executes the one-time exposure process, the pixel data read process, the image correction process, and the process of displaying on the display unit 160, as described above, according to the vertical synchronization signal VD. The image pickup apparatus 100 repeats the above-described processing for each vertical synchronization signal VD.

図4は、歪係数の一例を示す。図4の横軸はフォーカスレンズ210の位置であり、縦軸は歪係数の値である。歪係数は、k1、k2、及びk3を含む。メモリ130は、k1、k2、及びk3のフォーカスレンズ210の依存性を示す歪係数データを格納する。歪係数データは、レンズ部200が備える光学系のレンズ設計データに基づいて予め算出されて、メモリ130に格納されてよい。歪係数データは、実験により予め算出されて、メモリ130に格納されてもよい。k1、k2、及びk3の歪係数データは、フォーカスレンズ210の位置を変数とする関数を表すデータであってよい。当該関数は、予め算出された歪み係数k1、k2、k3をフォーカスレンズ210の位置を変数とする関数にフィッティングすることにより取得されてよい。k1、k2、及びk3の歪係数データは、フォーカスレンズ210の位置をk1、k2、及びk3にマッピングするマップデータであってよい。 FIG. 4 shows an example of the distortion coefficient. The horizontal axis of FIG. 4 is the position of the focus lens 210, and the vertical axis is the value of the distortion coefficient. The distortion coefficient includes k1, k2, and k3. The memory 130 stores distortion coefficient data indicating the dependence of the focus lens 210 on k1, k2, and k3. The distortion coefficient data may be calculated in advance based on the lens design data of the optical system included in the lens unit 200 and stored in the memory 130. The distortion coefficient data may be preliminarily calculated by experiments and stored in the memory 130. The distortion coefficient data of k1, k2, and k3 may be data representing a function having the position of the focus lens 210 as a variable. The function may be obtained by fitting the distortion coefficients k1, k2, and k3 calculated in advance to a function having the position of the focus lens 210 as a variable. The distortion coefficient data of k1, k2, and k3 may be map data that maps the position of the focus lens 210 to k1, k2, and k3.

イメージセンサ120上の座標(xdistorted,ydistorted)と、正規化したイメージ座標(x、y)との関係は、歪係数k1、k2及びk3を用いて以下の式1で表される。

Figure 0006746857
The relationship between the coordinates (x distorted , y distorted ) on the image sensor 120 and the normalized image coordinates (x, y) is expressed by the following equation 1 using distortion coefficients k1, k2, and k3.
Figure 0006746857

座標(x、y)は、補正画像内の座標を表す。式1のLPは、フォーカスレンズ210の位置を表す。歪係数k1、k2、k3はLPに依存するため、式1では、k1(LP)、k2(LP)、及びk3(LP)として表されている。図5は、イメージセンサ120上の座標(xdistorted,ydistorted)とイメージ座標(x,y)との位置関係の一例を模式的に示す。 The coordinates (x, y) represent coordinates in the corrected image. LP in Expression 1 represents the position of the focus lens 210. Since the distortion coefficients k1, k2, and k3 depend on LP, they are represented as k1(LP), k2(LP), and k3(LP) in Expression 1. FIG. 5 schematically shows an example of the positional relationship between the coordinates (x distorted , y distorted ) on the image sensor 120 and the image coordinates (x, y).

補正部140は、画素データの各画素の座標を式1の(xdistorted,ydistorted)に適用し、フォーカスレンズ210の位置の平均値と上記歪係数データから算出したk1、k2、及びk3をそれぞれk1(LP)、k2(LP)、及びk3(LP)に適用して、式1を満たす座標(x,y)を算出する。そして、補正部140は、イメージセンサ120から取得した画素データにおける座標(xdistorted,ydistorted)の画素値を、座標(x,y)の画素値として適用することにより、補正画像を生成する。 The correction unit 140 applies the coordinates of each pixel of the pixel data to (x distorted , y distorted ) in Expression 1 to calculate k1, k2, and k3 calculated from the average value of the position of the focus lens 210 and the distortion coefficient data. Coordinates (x, y) satisfying the equation 1 are calculated by applying them to k1 (LP), k2 (LP), and k3 (LP), respectively. Then, the correction unit 140 generates a corrected image by applying the pixel value of the coordinate (x distorted , y distorted ) in the pixel data acquired from the image sensor 120 as the pixel value of the coordinate (x, y).

図3、図4、および図5などに関連して説明したように、補正部140は、露光期間中のフォーカスレンズ210の平均位置から定まる歪係数を用いて画像を補正する。これにより、図3に示されるように、フォーカスレンズ210の移動に伴って生じる画角変動が抑えられた補正画像311及び補正画像321を生成することができる。 As described with reference to FIG. 3, FIG. 4, and FIG. 5, the correction unit 140 corrects the image using the distortion coefficient determined from the average position of the focus lens 210 during the exposure period. As a result, as shown in FIG. 3, it is possible to generate the corrected image 311 and the corrected image 321 in which the change in the angle of view caused by the movement of the focus lens 210 is suppressed.

図6は、フォーカスレンズ210の位置の平均値の算出方法を説明するための図である。図6において、Tは露光時間である。すなわち、Teはt1からt7までの時間である。Tdは、フォーカスレンズ210の位置を検出する時間間隔である。図6に示す例では、T=6Tdである。フォーカスレンズ210の位置の平均値は、LP1からLP7までの時間平均によって算出される値である。 FIG. 6 is a diagram for explaining a method of calculating the average value of the positions of the focus lens 210. In FIG. 6, T is the exposure time. That is, Te is the time from t1 to t7. Td is a time interval for detecting the position of the focus lens 210. In the example shown in FIG. 6, T=6Td. The average value of the position of the focus lens 210 is a value calculated by the time average of LP1 to LP7.

具体的には、フォーカスレンズ210の位置の平均値は、LP1からLP7までの加重和をTで割ることで算出される。LP1からLP7までの加重和は、Σαi×LPiにより算出される。iは1から7の自然数である。 Specifically, the average value of the position of the focus lens 210 is calculated by dividing the weighted sum of LP1 to LP7 by T. The weighted sum of LP1 to LP7 is calculated by Σαi×LPi. i is a natural number from 1 to 7.

αiは加重和の重み係数である。α1からα7までの和はTである。αiは、時刻ti―Td/2から時刻ti+Td/2までの期間のうち、露光期間に含まれる期間の時間に基づいて定められる。具体的には、α1及びα7はTd/2であり、α2からα6はTdである。このように、フォーカスレンズ210の位置を検出したタイミングに応じて重み係数αiを定めることによって、フォーカスレンズ210の位置の時間的な平均値を算出することができる。 αi is a weighted sum weighting coefficient. The sum of α1 to α7 is T. αi is determined based on the time of the period included in the exposure period in the period from time ti-Td/2 to time ti+Td/2. Specifically, α1 and α7 are Td/2, and α2 to α6 are Td. In this way, by determining the weighting coefficient αi according to the timing at which the position of the focus lens 210 is detected, the temporal average value of the position of the focus lens 210 can be calculated.

なお、平均値は、LP1からLP7の和を7で割ることで算出される値であってよい。すなわち、平均値は、露光期間内に検出されたフォーカスレンズ210の位置の和をフォーカスレンズ210の位置の検出数で割ることで算出される値であってよい。 The average value may be a value calculated by dividing the sum of LP1 to LP7 by 7. That is, the average value may be a value calculated by dividing the sum of the positions of the focus lens 210 detected during the exposure period by the number of detections of the position of the focus lens 210.

図7は、撮像装置100が実行する手順の一例を示すフローチャートである。本フローチャートは、垂直同期信号VDのトリガが生じた場合に開始される。 FIG. 7 is a flowchart showing an example of a procedure executed by the image capturing apparatus 100. This flowchart is started when the vertical synchronizing signal VD is triggered.

S600において、焦点調節部112は、レンズ制御部220にフォーカスレンズ210の位置を検出するタイミング信号を出力することにより、フォーカスレンズ210の位置を検出させる。 In step S600, the focus adjustment unit 112 detects the position of the focus lens 210 by outputting a timing signal for detecting the position of the focus lens 210 to the lens control unit 220.

S600において、撮像制御部110は、垂直同期信号VDから予め定められた時間が経過した場合に、イメージセンサ120の露光を開始させる。S604において、レンズ制御部220は、焦点調節部112から出力されたタイミング信号に従って、フォーカスレンズ210の位置を検出する。 In S600, the imaging control unit 110 starts the exposure of the image sensor 120 when a predetermined time has elapsed from the vertical synchronization signal VD. In step S604, the lens control unit 220 detects the position of the focus lens 210 according to the timing signal output from the focus adjustment unit 112.

S606において、撮像制御部110は、露光を終了するか否かを判断する。例えば、撮像制御部110は、新たな垂直同期信号VDのトリガを検出した場合に、露光を終了すると判断する。露光を終了すると判断するまで、イメージセンサ120を露光したまま、S604の処理が繰り返される。 In step S606, the imaging control unit 110 determines whether to end the exposure. For example, the imaging control unit 110 determines to end the exposure when detecting the trigger of the new vertical synchronization signal VD. The process of S604 is repeated while exposing the image sensor 120 until it is determined that the exposure is finished.

S606の判断において、露光を終了すると判断すると、S608において、補正部140は、焦点調節部112を通じてレンズ制御部220からフォーカスレンズ210のレンズ位置情報を取得して、フォーカスレンズ210の位置の平均値を算出する。 If it is determined in step S606 that the exposure is to be ended, in step S608, the correction unit 140 acquires the lens position information of the focus lens 210 from the lens control unit 220 through the focus adjustment unit 112, and the average value of the positions of the focus lens 210. To calculate.

S610において、補正部140は、イメージセンサ120から出力される画素データを取得する。S612において、補正部140は、歪係数データに基づいて、イメージセンサ120の各画素の座標(xdistorted,ydistorted)に対応するイメージ座標(x,y)を算出する。 In S610, the correction unit 140 acquires the pixel data output from the image sensor 120. In S612, the correction unit 140 calculates the image coordinates (x, y) corresponding to the coordinates (x distorted , y distorted ) of each pixel of the image sensor 120 based on the distortion coefficient data.

S614において、補正部140は、イメージセンサ120から出力される画素データの各座標の画素値を、S612で算出したイメージ座標の画素値として反映することにより、補正画像を生成する。 In step S614, the correction unit 140 generates a corrected image by reflecting the pixel value of each coordinate of the pixel data output from the image sensor 120 as the pixel value of the image coordinate calculated in step S612.

S616において、画像処理部104は、補正部140により生成された補正画像をメモリ130に格納する。S616の処理が完了すると本フローチャートの処理を終了する。 In S616, the image processing unit 104 stores the corrected image generated by the correction unit 140 in the memory 130. When the processing of S616 is completed, the processing of this flowchart ends.

S616でメモリ130に格納された補正画像は、例えば、表示用の動画構成画像として表示部160に出力される。動画撮影中に上記の補正処理を行った場合、メモリ130に格納された補正画像は、動画撮影の終了後、動画データの動画構成画像としてメモリ130に記録される。 The corrected image stored in the memory 130 in S616 is output to the display unit 160 as a moving image constituent image for display, for example. When the above correction process is performed during moving image shooting, the corrected image stored in the memory 130 is recorded in the memory 130 as a moving image constituent image of moving image data after the moving image shooting is completed.

なお、補正部140は、S612で算出したイメージ座標を、フォーカスレンズ210の位置の平均値に対応づけてメモリ130に記憶させてよい。補正部140は、新たに算出したフォーカスレンズ210の位置の平均値と、メモリ130に記憶されている平均値との差が予め定められた値より小さい場合、S612の処理に代えて、メモリ130に記憶されているイメージ座標を用いてよい。これにより、イメージ座標を算出するための演算量を削減することができる場合がある。 The correction unit 140 may store the image coordinates calculated in S612 in the memory 130 in association with the average value of the position of the focus lens 210. If the difference between the newly calculated average value of the position of the focus lens 210 and the average value stored in the memory 130 is smaller than a predetermined value, the correction unit 140 replaces the processing of S612 and replaces the memory 130. The image coordinates stored in can be used. This may reduce the amount of calculation for calculating the image coordinates.

図3から図7に関連して説明したように、補正部140は、露光期間中におけるフォーカスレンズ210の位置の平均値に基づいて、画像の歪を補正する。これにより、露光期間中のフォーカスレンズ210の移動に伴う画角変化の影響を抑制した補正画像を生成することができる。 As described with reference to FIGS. 3 to 7, the correction unit 140 corrects the image distortion based on the average value of the position of the focus lens 210 during the exposure period. Accordingly, it is possible to generate a corrected image in which the influence of the change in the angle of view due to the movement of the focus lens 210 during the exposure period is suppressed.

図8は、補正部140が実行する他の補正方法を説明する図である。図8は、イメージセンサ120の画素の座標(xdistorted,ydistorted)と、補正後のイメージ座標(x,y)との関係を、イメージ座標の一部を拡大して示す。 FIG. 8 is a diagram illustrating another correction method executed by the correction unit 140. FIG. 8 shows the relationship between the pixel coordinates (x distorted , y distorted ) of the image sensor 120 and the corrected image coordinates (x, y) with a part of the image coordinates enlarged.

補正部140は、露光期間中に検出されたフォーカスレンズ210の位置のそれぞれに基づいて、イメージ座標(x,y)を算出する。以下に、図3に示す例を参照して、他の補正方法に基づく補正処理を説明する。 The correction unit 140 calculates the image coordinates (x, y) based on each of the positions of the focus lens 210 detected during the exposure period. Hereinafter, correction processing based on another correction method will be described with reference to the example shown in FIG.

補正部140は、時刻t1〜t7までの露光期間におけるLP1、LP2、LP3、LP4、LP5、LP6、及びLP7のそれぞれから、イメージ座標(x,y)を算出する。具体的には、補正部140は、イメージセンサ120から取得した画素データにおける画素の座標を式1の(xdistorted,ydistorted)に適用し、LP1と歪係数データから算出したk1、k2、及びk3をそれぞれ式1のk1(LP)、k2(LP)、及びk3(LP)に適用して、式1を満たす座標(x,y)を算出する。算出した座標(x,y)は、図8において、(x1,y1)で示される。 The correction unit 140 calculates the image coordinates (x, y) from each of LP1, LP2, LP3, LP4, LP5, LP6, and LP7 in the exposure period from time t1 to time t7. Specifically, the correction unit 140 applies the coordinates of the pixel in the pixel data acquired from the image sensor 120 to (x distorted , y distorted ) of Expression 1, and calculates k1, k2 calculated from LP1 and the distortion coefficient data, and k3 is applied to k1(LP), k2(LP), and k3(LP) in Equation 1, respectively, to calculate the coordinates (x, y) that satisfy Equation 1. The calculated coordinates (x, y) are indicated by (x1, y1) in FIG.

LP2についても同様に、補正部140は、画素データにおける画素の座標を式1の(xdistorted,ydistorted)に適用し、LP2と歪係数データから算出したk1、k2、及びk3をそれぞれ式1のk1(LP)、k2(LP)、及びk3(LP)に適用して、式1を満たす座標(x,y)を算出する。算出した座標(x,y)は、図8において、(x2,y2)で示される。LP3、LP4、LP5、LP6、及びLP7についても同様に、LPi(iは3から7の自然数)と歪係数データから算出したk1、k2、及びk3を用いて、式1を満たす(x,y)を算出して、各LPiに対応する(xi、yi)として算出する。 Similarly for LP2, the correction unit 140 applies the coordinates of the pixel in the pixel data to (x distorted , y distorted ) in Equation 1 to calculate k1, k2, and k3 calculated from LP2 and the distortion coefficient data, respectively, using Equation 1 To k1(LP), k2(LP), and k3(LP), to calculate the coordinates (x, y) that satisfy Expression 1. The calculated coordinates (x, y) are indicated by (x2, y2) in FIG. Similarly, for LP3, LP4, LP5, LP6, and LP7, Expression 1 is satisfied by using LPi (i is a natural number from 3 to 7) and k1, k2, and k3 calculated from the distortion coefficient data (x, y ) Is calculated and calculated as (xi, yi) corresponding to each LPi.

補正部140は、画素データにおける座標(xdistorted,ydistorted)の画素値を、(xi、yi)(iは1から7の自然数)の平均座標(x,y)の画素値として適用する。補正部140は、イメージセンサ120から取得した画素データの各画素に同様の処理を行って、補正画像を生成する。 The correction unit 140 applies the pixel value of the coordinates (x distorted , y distorted ) in the pixel data as the pixel value of the average coordinates (x, y) of (xi, yi) (i is a natural number from 1 to 7). The correction unit 140 performs the same process on each pixel of the pixel data acquired from the image sensor 120 to generate a corrected image.

図8に関連して説明した補正方法によっても、露光期間中のフォーカスレンズ210の移動に伴う画角変化の影響を抑制した補正画像を提供することができる。図3及び図5などに関連して説明した補正方法に比べて、画角変化の影響をより低減した補正画像を生成することができる場合がある。 The correction method described with reference to FIG. 8 can also provide a corrected image in which the influence of the change in the angle of view due to the movement of the focus lens 210 during the exposure period is suppressed. In some cases, it is possible to generate a corrected image in which the influence of the change in the angle of view is further reduced as compared with the correction method described with reference to FIGS.

図9は、イメージセンサ120からローリング読み出しにより画素データを読み出す場合の補正部140の補正処理を概略的に説明する図である。ローリング読み出しを行う場合、撮像制御部110は、水平画素列1から水平画素列Nまの露光開始時刻を順次にずらして露光する。これにより、イメージセンサ120の露光期間は、イメージセンサ120が備える画素列毎に異なる。 FIG. 9 is a diagram schematically illustrating a correction process of the correction unit 140 when pixel data is read from the image sensor 120 by rolling read. When performing the rolling reading, the imaging control unit 110 sequentially shifts the exposure start time from the horizontal pixel row 1 to the horizontal pixel row N to perform exposure. Accordingly, the exposure period of the image sensor 120 differs for each pixel column included in the image sensor 120.

図9に示されるように、水平画素列1の露光期間は、時刻t1から時刻t7までである。水平画素列Nの露光期間は、時刻t7から時刻t13までである。一般に、水平画素列1+iの露光期間は、時刻t1+δT×(i−1)から、時刻t7+δT×(i−1)までである(iは、1からNまでの自然数)。δTは、隣接する水平画素列の露光開始時刻の間隔である。 As shown in FIG. 9, the exposure period of the horizontal pixel row 1 is from time t1 to time t7. The exposure period of the horizontal pixel row N is from time t7 to time t13. In general, the exposure period of the horizontal pixel row 1+i is from time t1+δT×(i−1) to time t7+δT×(i−1) (i is a natural number from 1 to N). δT is an interval between exposure start times of adjacent horizontal pixel rows.

水平画素列1の露光期間中に検出されたフォーカスレンズ210の位置は、LP1、LP2、LP3、LP4、LP5、LP6、及びLP7である。補正部140は、LP1、LP2、LP3、LP4、LP5、LP6、及びLP7の平均値と歪係数データとに基づいて、LP1、LP2、LP3、LP4、LP5、LP6、及びLP7の平均値に対応する歪係数k1、k2及びk3を算出する。補正部140は、算出した歪係数k1、k2及びk3を式1に適用して水平画素列1の画素データ810を補正することにより、補正画素データ811を生成する。 The positions of the focus lens 210 detected during the exposure period of the horizontal pixel row 1 are LP1, LP2, LP3, LP4, LP5, LP6, and LP7. The correction unit 140 corresponds to the average value of LP1, LP2, LP3, LP5, LP6, and LP7 based on the average value of LP1, LP2, LP3, LP4, LP5, LP6, and LP7 and the distortion coefficient data. The distortion coefficients k1, k2, and k3 to be calculated are calculated. The correction unit 140 applies the calculated distortion coefficients k1, k2, and k3 to Expression 1 to correct the pixel data 810 of the horizontal pixel row 1, thereby generating corrected pixel data 811.

同様に、水平画素列2の露光期間中に検出されたフォーカスレンズ210の位置は、LP2、LP3、LP4、LP5、LP6、及びLP7である。補正部140は、LP2、LP3、LP4、LP5、LP6、及びLP7の平均値と歪係数データとに基づいて、LP2、LP3、LP4、LP5、LP6、及びLP7の平均値に対応する歪係数k1、k2及びk3を算出する。補正部140は、算出した歪係数k1、k2及びk3を算出式1に適用して水平画素列2の画素データを補正することにより、補正画素データを生成する。平均値はLP1からLP7までの加重和を、時刻t1から時刻t7までの時間で割ることで算出される値である。具体的には、平均値は、図6などに関連して説明した算出方法により算出される値である。 Similarly, the positions of the focus lens 210 detected during the exposure period of the horizontal pixel row 2 are LP2, LP3, LP4, LP5, LP6, and LP7. The correction unit 140, based on the average value of LP2, LP3, LP4, LP5, LP6, and LP7 and the distortion coefficient data, the distortion coefficient k1 corresponding to the average value of LP2, LP3, LP4, LP5, LP6, and LP7. , K2 and k3 are calculated. The correction unit 140 applies the calculated distortion coefficients k1, k2, and k3 to the calculation formula 1 to correct the pixel data of the horizontal pixel row 2, thereby generating corrected pixel data. The average value is a value calculated by dividing the weighted sum of LP1 to LP7 by the time from time t1 to time t7. Specifically, the average value is a value calculated by the calculation method described with reference to FIG.

補正部140は、水平画素列3から水平画素列Nまで同様の処理を適用して、補正画素データを生成する。例えば、水平画素列Nの露光期間中に検出されたフォーカスレンズ210の位置はLP7、LP8、LP9、LP10、LP11、LP12、及びLP13であるので、補正部140は、LP7、LP8、LP9、LP10、LP11、LP12、及びLP13の平均値と歪係数データとに基づいて、LP7、LP8、LP9、LP10、LP11、LP12、及びLP13の平均値を算出し、算出した平均値に対応する歪係数k1、k2及びk3を算出する。補正部140は、算出した歪係数k1、k2及びk3を式1に適用して水平画素列Nの画素データ820を補正することにより、補正画素データ821を生成する。補正部140は、各水平画素列から生成された補正画素データに基づいて1つの補正画像を生成する。 The correction unit 140 applies the same processing from the horizontal pixel row 3 to the horizontal pixel row N to generate corrected pixel data. For example, since the positions of the focus lens 210 detected during the exposure period of the horizontal pixel row N are LP7, LP8, LP9, LP10, LP11, LP12, and LP13, the correction unit 140 uses the LP7, LP8, LP9, and LP10. , LP11, LP12, and LP13 based on the average value and distortion coefficient data, the average value of LP7, LP8, LP9, LP10, LP11, LP12, and LP13 is calculated, and the distortion coefficient k1 corresponding to the calculated average value. , K2 and k3 are calculated. The correction unit 140 applies the calculated distortion coefficients k1, k2, and k3 to Expression 1 to correct the pixel data 820 of the horizontal pixel row N, thereby generating corrected pixel data 821. The correction unit 140 generates one corrected image based on the corrected pixel data generated from each horizontal pixel row.

以上に説明したように、イメージセンサ120からローリング読み出しを行う場合、水平画素列毎に露光期間が異なるため、検出されたイメージセンサ120の位置が画素列によって異なる場合がある。そこで、補正部140は、露光期間内に検出されたフォーカスレンズ210の位置が同一の画素列群について、露光期間内のフォーカスレンズ210の位置の平均値に基づく歪係数k1、k2、及びk3を式1に適用して、補正画素データを生成する。 As described above, when performing rolling reading from the image sensor 120, the detected position of the image sensor 120 may differ depending on the pixel column because the exposure period differs for each horizontal pixel column. Therefore, the correction unit 140 sets the distortion coefficients k1, k2, and k3 based on the average value of the positions of the focus lens 210 in the exposure period for the pixel column groups in which the position of the focus lens 210 detected in the exposure period is the same. It is applied to Equation 1 to generate corrected pixel data.

図9などに関連して、ローリング読み出しにより読み出された画像データを、フォーカスレンズ210の位置の平均値に基づいて補正する処理を説明した。図8などに関連して説明した補正方法を、ローリング読み出しにより読み出された画像データの補正に適用できる。例えば、補正部140は、各画素列について、フォーカスレンズ210の位置のそれぞれに対応するイメージ座標を算出して、算出したイメージ座標の平均座標を、補正後の画像の画素値として適用してよい。 With reference to FIG. 9 and the like, the process of correcting the image data read by the rolling read based on the average value of the position of the focus lens 210 has been described. The correction method described with reference to FIG. 8 and the like can be applied to correction of image data read by rolling reading. For example, the correction unit 140 may calculate the image coordinates corresponding to each position of the focus lens 210 for each pixel row, and apply the average coordinates of the calculated image coordinates as the pixel value of the corrected image. ..

以上に説明した通り、撮像装置100によれば、フォーカスレンズ210の移動に伴う画角変動の影響を抑制した画像を提供することができる。この効果は特に、イメージセンサのサイズに対して比較的に小型なレンズ装置に対して有効である。例えば、イメージセンサのサイズに対して光学系を小型化すると、フォーカスレンズの移動による歪曲収差の影響が顕著になる。そのため、例えばライブビュー撮影中にフォーカスレンズのウォブリング動作を行うと、ウォブリング動作に伴う画角変動がライブビュー画像上で観察されてしまう場合がある。上述したように、撮像装置100によれば、フォーカスレンズ210の移動に伴う画角変動の影響を抑制することができるので、ウォブリング動作に伴う画角変動がライブビュー画像上で観察されにくくすることができる。また、合焦制御に用いるコントラスト値を補正画像から検出することによって、コントラスト値の検出対象となる画像領域がフォーカスレンズ210の移動に伴って変動することを抑制することができる。そのため、コントラスト値に基づく合焦制御をより正確に行うことができる。 As described above, according to the imaging device 100, it is possible to provide an image in which the influence of the change in the angle of view due to the movement of the focus lens 210 is suppressed. This effect is particularly effective for a lens device that is relatively small with respect to the size of the image sensor. For example, when the optical system is downsized with respect to the size of the image sensor, the influence of the distortion aberration due to the movement of the focus lens becomes remarkable. Therefore, for example, if the wobbling operation of the focus lens is performed during live view shooting, a change in the angle of view due to the wobbling operation may be observed on the live view image. As described above, according to the imaging device 100, the influence of the angle of view variation due to the movement of the focus lens 210 can be suppressed, and thus the angle of view variation due to the wobbling operation is hard to be observed on the live view image. You can Further, by detecting the contrast value used for the focus control from the corrected image, it is possible to suppress the change of the image area where the contrast value is to be detected due to the movement of the focus lens 210. Therefore, focusing control based on the contrast value can be performed more accurately.

なお、本実施形態の撮像装置100に関連して説明した処理は、フォーカスレンズ210のウォブリング動作だけでなく、露光期間中にフォーカスレンズ210を一方向に移動させる場合の処理にも適用できる。また、本実施形態の撮像装置100に関連して説明した処理は、ライブビュー撮影中の画像だけでなく、記録用の動画データを生成する場合の補正処理や、記録用の静止画データを生成する場合の補正処理にも適用できる。また、本実施形態の撮像装置100に関連して説明した処理は、フォーカスレンズ210以外のレンズの移動にも適用できる。すなわち、補正部140は、イメージセンサ120の露光期間中に移動するフォーカスレンズ210以外のレンズの複数の位置に基づいて、当該露光期間にイメージセンサ120を露光することによって取得された画像を補正してよい。 The processing described in relation to the image pickup apparatus 100 of the present embodiment can be applied not only to the wobbling operation of the focus lens 210, but also to processing when the focus lens 210 is moved in one direction during the exposure period. Further, the processing described in relation to the image capturing apparatus 100 of the present embodiment is not only the image during live view shooting, but also correction processing when generating moving image data for recording, and generating still image data for recording. It can also be applied to the correction processing in the case of doing. Further, the processing described in relation to the image pickup apparatus 100 of the present embodiment can be applied to the movement of lenses other than the focus lens 210. That is, the correction unit 140 corrects the image acquired by exposing the image sensor 120 during the exposure period, based on a plurality of positions of lenses other than the focus lens 210 that move during the exposure period of the image sensor 120. You may

上記のような撮像装置100は、移動体に搭載されてもよい。撮像装置100は、図10に示すような、無人航空機(UAV)に搭載されてもよい。UAV10は、UAV本体20、ジンバル50、複数の撮像装置60、及び撮像装置100を備えてよい。ジンバル50、及び撮像装置100は、撮像システムの一例である。UAV10は、推進部により推進される移動体の一例である。移動体とは、UAVの他、空中を移動する他の航空機などの飛行体、地上を移動する車両、水上を移動する船舶等を含む概念である。 The imaging device 100 as described above may be mounted on a moving body. The imaging device 100 may be mounted on an unmanned aerial vehicle (UAV) as shown in FIG. The UAV 10 may include a UAV body 20, a gimbal 50, a plurality of imaging devices 60, and an imaging device 100. The gimbal 50 and the imaging device 100 are an example of an imaging system. The UAV 10 is an example of a moving body propelled by the propulsion unit. The moving body is a concept including a UAV, a flying body such as another aircraft moving in the air, a vehicle moving on the ground, a ship moving on the water, and the like.

UAV本体20は、複数の回転翼を備える。複数の回転翼は、推進部の一例である。UAV本体20は、複数の回転翼の回転を制御することでUAV10を飛行させる。UAV本体20は、例えば、4つの回転翼を用いてUAV10を飛行させる。回転翼の数は、4つには限定されない。また、UAV10は、回転翼を有さない固定翼機でもよい。 The UAV body 20 includes a plurality of rotary blades. The plurality of rotary blades is an example of the propulsion unit. The UAV body 20 causes the UAV 10 to fly by controlling the rotation of a plurality of rotor blades. The UAV body 20 flies the UAV 10 by using, for example, four rotor blades. The number of rotor blades is not limited to four. Further, the UAV 10 may be a fixed wing aircraft having no rotary wing.

撮像装置100は、所望の撮像範囲に含まれる被写体を撮像する撮像用のカメラである。ジンバル50は、撮像装置100を回転可能に支持する。ジンバル50は、支持機構の一例である。例えば、ジンバル50は、撮像装置100を、アクチュエータを用いてピッチ軸で回転可能に支持する。ジンバル50は、撮像装置100を、アクチュエータを用いて更にロール軸及びヨー軸のそれぞれを中心に回転可能に支持する。ジンバル50は、ヨー軸、ピッチ軸、及びロール軸の少なくとも1つを中心に撮像装置100を回転させることで、撮像装置100の姿勢を変更してよい。 The image capturing apparatus 100 is an image capturing camera that captures an image of a subject included in a desired image capturing range. The gimbal 50 rotatably supports the imaging device 100. The gimbal 50 is an example of a support mechanism. For example, the gimbal 50 supports the image pickup apparatus 100 using an actuator so as to be rotatable on the pitch axis. The gimbal 50 further supports the imaging device 100 by using an actuator so as to be rotatable about each of a roll axis and a yaw axis. The gimbal 50 may change the posture of the imaging device 100 by rotating the imaging device 100 around at least one of the yaw axis, the pitch axis, and the roll axis.

複数の撮像装置60は、UAV10の飛行を制御するためにUAV10の周囲を撮像するセンシング用のカメラである。2つの撮像装置60が、UAV10の機首である正面に設けられてよい。更に他の2つの撮像装置60が、UAV10の底面に設けられてよい。正面側の2つの撮像装置60はペアとなり、いわゆるステレオカメラとして機能してよい。底面側の2つの撮像装置60もペアとなり、ステレオカメラとして機能してよい。複数の撮像装置60により撮像された画像に基づいて、UAV10の周囲の3次元空間データが生成されてよい。UAV10が備える撮像装置60の数は4つには限定されない。UAV10は、少なくとも1つの撮像装置60を備えていればよい。UAV10は、UAV10の機首、機尾、側面、底面、及び天井面のそれぞれに少なくとも1つの撮像装置60を備えてもよい。撮像装置60で設定できる画角は、撮像装置100で設定できる画角より広くてよい。撮像装置60は、単焦点レンズまたは魚眼レンズを有してもよい。 The plurality of imaging devices 60 are sensing cameras that capture images of the periphery of the UAV 10 in order to control the flight of the UAV 10. The two imaging devices 60 may be provided on the front surface of the UAV 10, which is the nose. Still another two imaging devices 60 may be provided on the bottom surface of the UAV 10. The two imaging devices 60 on the front side may be paired and may function as a so-called stereo camera. The two imaging devices 60 on the bottom side may also be paired and function as a stereo camera. Three-dimensional spatial data around the UAV 10 may be generated based on the images captured by the plurality of imaging devices 60. The number of imaging devices 60 included in the UAV 10 is not limited to four. The UAV 10 only needs to include at least one imaging device 60. The UAV 10 may include at least one imaging device 60 on each of the nose, tail, side surface, bottom surface, and ceiling surface of the UAV 10. The angle of view that can be set by the imaging device 60 may be wider than the angle of view that can be set by the imaging device 100. The imaging device 60 may have a single focus lens or a fisheye lens.

遠隔操作装置300は、UAV10と通信して、UAV10を遠隔操作する。遠隔操作装置300は、UAV10と無線で通信してよい。遠隔操作装置300は、UAV10に上昇、下降、加速、減速、前進、後進、回転などのUAV10の移動に関する各種命令を示す指示情報を送信する。指示情報は、例えば、UAV10の高度を上昇させる指示情報を含む。指示情報は、UAV10が位置すべき高度を示してよい。UAV10は、遠隔操作装置300から受信した指示情報により示される高度に位置するように移動する。指示情報は、UAV10を上昇させる上昇命令を含んでよい。UAV10は、上昇命令を受け付けている間、上昇する。UAV10は、上昇命令を受け付けても、UAV10の高度が上限高度に達している場合には、上昇を制限してよい。 The remote control device 300 communicates with the UAV 10 to remotely control the UAV 10. The remote control device 300 may communicate with the UAV 10 wirelessly. The remote control device 300 transmits instruction information indicating various commands regarding movement of the UAV 10, such as ascending, descending, accelerating, decelerating, moving forward, moving backward, and rotating, to the UAV 10. The instruction information includes, for example, instruction information for increasing the altitude of the UAV 10. The instruction information may indicate the altitude at which the UAV 10 should be located. The UAV 10 moves so as to be located at the altitude indicated by the instruction information received from the remote control device 300. The instruction information may include an ascending instruction to elevate the UAV 10. The UAV 10 rises while accepting the rise command. Even if the UAV 10 receives the climb command, the UAV 10 may limit the climb when the altitude of the UAV 10 reaches the upper limit altitude.

図11は、本発明の複数の態様が全体的または部分的に具現化されてよいコンピュータ1200の一例を示す。コンピュータ1200にインストールされたプログラムは、コンピュータ1200に、本発明の実施形態に係る装置に関連付けられるオペレーションまたは当該装置の1または複数の「部」として機能させることができる。例えば、コンピュータ1200にインストールされたプログラムは、コンピュータ1200に、補正部140又は画像処理部104として機能させることができる。または、当該プログラムは、コンピュータ1200に当該オペレーションまたは当該1または複数の「部」の機能を実行させることができる。当該プログラムは、コンピュータ1200に、本発明の実施形態に係るプロセスまたは当該プロセスの段階を実行させることができる。そのようなプログラムは、コンピュータ1200に、本明細書に記載のフローチャート及びブロック図のブロックのうちのいくつかまたはすべてに関連付けられた特定のオペレーションを実行させるべく、CPU1212によって実行されてよい。 FIG. 11 illustrates an example computer 1200 in which aspects of the invention may be embodied in whole or in part. The program installed on the computer 1200 can cause the computer 1200 to function as an operation associated with an apparatus according to an embodiment of the present invention or one or more “units” of the apparatus. For example, the program installed in the computer 1200 can cause the computer 1200 to function as the correction unit 140 or the image processing unit 104. Alternatively, the program can cause the computer 1200 to execute the operation or the function of the one or more “units”. The program can cause the computer 1200 to execute the process according to the embodiment of the present invention or the stage of the process. Such programs may be executed by CPU 1212 to cause computer 1200 to perform certain operations associated with some or all of the blocks in the flowcharts and block diagrams described herein.

本実施形態によるコンピュータ1200は、CPU1212、及びRAM1214を含み、それらはホストコントローラ1210によって相互に接続されている。コンピュータ1200はまた、通信インタフェース1222、入力/出力ユニットを含み、それらは入力/出力コントローラ1220を介してホストコントローラ1210に接続されている。コンピュータ1200はまた、ROM1230を含む。CPU1212は、ROM1230及びRAM1214内に格納されたプログラムに従い動作し、それにより各ユニットを制御する。 The computer 1200 according to this embodiment includes a CPU 1212 and a RAM 1214, which are connected to each other by a host controller 1210. Computer 1200 also includes a communication interface 1222, an input/output unit, which is connected to host controller 1210 via input/output controller 1220. Computer 1200 also includes ROM 1230. The CPU 1212 operates according to the programs stored in the ROM 1230 and the RAM 1214, thereby controlling each unit.

通信インタフェース1222は、ネットワークを介して他の電子デバイスと通信する。ハードディスクドライブが、コンピュータ1200内のCPU1212によって使用されるプログラム及びデータを格納してよい。ROM1230はその中に、アクティブ化時にコンピュータ1200によって実行されるブートプログラム等、及び/またはコンピュータ1200のハードウェアに依存するプログラムを格納する。プログラムが、CR−ROM、USBメモリまたはICカードのようなコンピュータ可読記録媒体またはネットワークを介して提供される。プログラムは、コンピュータ可読記録媒体の例でもあるRAM1214、またはROM1230にインストールされ、CPU1212によって実行される。これらのプログラム内に記述される情報処理は、コンピュータ1200に読み取られ、プログラムと、上記様々なタイプのハードウェアリソースとの間の連携をもたらす。装置または方法が、コンピュータ1200の使用に従い情報のオペレーションまたは処理を実現することによって構成されてよい。 The communication interface 1222 communicates with other electronic devices via the network. A hard disk drive may store programs and data used by CPU 1212 in computer 1200. The ROM 1230 stores therein a boot program or the like executed by the computer 1200 at the time of activation, and/or a program depending on the hardware of the computer 1200. The program is provided via a computer-readable recording medium such as a CR-ROM, a USB memory or an IC card, or a network. The program is installed in the RAM 1214 or the ROM 1230, which is also an example of a computer-readable recording medium, and is executed by the CPU 1212. The information processing described in these programs is read by the computer 1200 and brings about the cooperation between the programs and the various types of hardware resources described above. An apparatus or method may be configured by implementing the operation or processing of information according to the use of the computer 1200.

例えば、通信がコンピュータ1200及び外部デバイス間で実行される場合、CPU1212は、RAM1214にロードされた通信プログラムを実行し、通信プログラムに記述された処理に基づいて、通信インタフェース1222に対し、通信処理を命令してよい。通信インタフェース1222は、CPU1212の制御の下、RAM1214、またはUSBメモリのような記録媒体内に提供される送信バッファ領域に格納された送信データを読み取り、読み取られた送信データをネットワークに送信し、またはネットワークから受信した受信データを記録媒体上に提供される受信バッファ領域等に書き込む。 For example, when communication is executed between the computer 1200 and an external device, the CPU 1212 executes the communication program loaded in the RAM 1214, and executes the communication process on the communication interface 1222 based on the process described in the communication program. You may order. The communication interface 1222 reads the transmission data stored in the transmission buffer area provided in the recording medium such as the RAM 1214 or the USB memory under the control of the CPU 1212, transmits the read transmission data to the network, or The reception data received from the network is written in the reception buffer area or the like provided on the recording medium.

また、CPU1212は、USBメモリ等のような外部記録媒体に格納されたファイルまたはデータベースの全部または必要な部分がRAM1214に読み取られるようにし、RAM1214上のデータに対し様々なタイプの処理を実行してよい。CPU1212は次に、処理されたデータを外部記録媒体にライトバックしてよい。 Further, the CPU 1212 causes the RAM 1214 to read all or a necessary portion of a file or database stored in an external recording medium such as a USB memory, and executes various types of processing on the data on the RAM 1214. Good. CPU 1212 may then write back the processed data to an external storage medium.

様々なタイプのプログラム、データ、テーブル、及びデータベースのような様々なタイプの情報が記録媒体に格納され、情報処理を受けてよい。CPU1212は、RAM1214から読み取られたデータに対し、本開示の随所に記載され、プログラムの命令シーケンスによって指定される様々なタイプのオペレーション、情報処理、条件判断、条件分岐、無条件分岐、情報の検索/置換等を含む、様々なタイプの処理を実行してよく、結果をRAM1214に対しライトバックする。また、CPU1212は、記録媒体内のファイル、データベース等における情報を検索してよい。例えば、各々が第2の属性の属性値に関連付けられた第1の属性の属性値を有する複数のエントリが記録媒体内に格納される場合、CPU1212は、第1の属性の属性値が指定される、条件に一致するエントリを当該複数のエントリの中から検索し、当該エントリ内に格納された第2の属性の属性値を読み取り、それにより予め定められた条件を満たす第1の属性に関連付けられた第2の属性の属性値を取得してよい。 Various types of information such as various types of programs, data, tables, and databases may be stored on the recording medium and processed. The CPU 1212 can retrieve various types of operations, information processing, conditional judgment, conditional branching, unconditional branching, and information retrieval from the data read from the RAM 1214, described in various parts of this disclosure and specified by the instruction sequence of the program. Various types of processing may be performed, including /replacement, etc., and the result is written back to RAM 1214. Further, the CPU 1212 may search for information in files, databases, etc. in the recording medium. For example, when a plurality of entries each having the attribute value of the first attribute associated with the attribute value of the second attribute are stored in the recording medium, the CPU 1212 specifies the attribute value of the first attribute. That is, the entry that matches the condition is searched from the plurality of entries, the attribute value of the second attribute stored in the entry is read, and thereby the first attribute satisfying the predetermined condition is associated. The attribute value of the acquired second attribute may be acquired.

上で説明したプログラムまたはソフトウェアモジュールは、コンピュータ1200上またはコンピュータ1200近傍のコンピュータ可読記憶媒体に格納されてよい。また、専用通信ネットワークまたはインターネットに接続されたサーバーシステム内に提供されるハードディスクまたはRAMのような記録媒体が、コンピュータ可読記憶媒体として使用可能であり、それによりプログラムを、ネットワークを介してコンピュータ1200に提供する。 The programs or software modules described above may be stored on a computer-readable storage medium on or near computer 1200. In addition, a recording medium such as a hard disk or a RAM provided in a server system connected to a dedicated communication network or the Internet can be used as a computer-readable storage medium, whereby the program can be stored in the computer 1200 via the network. provide.

特許請求の範囲、明細書、及び図面中において示した装置、システム、プログラム、及び方法における動作、手順、ステップ、及び段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、及び図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。 The execution order of each process such as operation, procedure, step, and step in the device, system, program, and method shown in the claims, the specification, and the drawings is "preceding" or "prior to It should be noted that the output of the previous process can be realized in any order unless the output of the previous process is used in the subsequent process. The operation flow in the claims, the description, and the drawings is described by using “first,” “next,” and the like for the sake of convenience, but it is essential that the operations are performed in this order. Not a thing.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。 Although the present invention has been described above using the embodiment, the technical scope of the present invention is not limited to the scope described in the above embodiment. It is apparent to those skilled in the art that various changes or improvements can be added to the above-described embodiment. It is apparent from the scope of the claims that the embodiments added with such changes or improvements can be included in the technical scope of the present invention.

10 UAV
20 UAV本体
50 ジンバル
60 撮像装置
100 撮像装置
102 撮像部
104 画像処理部
110 撮像制御部
112 焦点調節部
120 イメージセンサ
130 メモリ
140 補正部
142 取得部
160 表示部
162 指示部
200 レンズ部
210 フォーカスレンズ
211 ズームレンズ
212 レンズ駆動部
213 レンズ駆動部
220 レンズ制御部
222 メモリ
214、215 位置センサ
300 遠隔操作装置
310 画素データ
311 補正画像
320 画素データ
321 補正画像
810 画素データ
811 補正画素データ
820 画素データ
821 補正画素データ
1200 コンピュータ
1210 ホストコントローラ
1212 CPU
1214 RAM
1220 入力/出力コントローラ
1222 通信インタフェース
1230 ROM
10 UAV
20 UAV body 50 Gimbal 60 Imaging device 100 Imaging device 102 Imaging unit 104 Image processing unit 110 Imaging control unit 112 Focus adjustment unit 120 Image sensor 130 Memory 140 Correction unit 142 Acquisition unit 160 Display unit 162 Indication unit 200 Lens unit 210 Focus lens 211 Zoom lens 212 Lens drive unit 213 Lens drive unit 220 Lens control unit 222 Memory 214, 215 Position sensor 300 Remote operation device 310 Pixel data
311 corrected image
320 pixel data
321 corrected image
810 pixel data
811 corrected pixel data
820 pixel data
821 corrected pixel data
1200 computer 1210 host controller 1212 CPU
1214 RAM
1220 Input/output controller 1222 Communication interface 1230 ROM

Claims (14)

撮像素子の露光期間中に移動するレンズの複数の位置を示す情報を取得する取得部と、
前記複数の位置に基づいて、前記露光期間に前記レンズを通じて前記撮像素子を露光することにより取得された画像の歪みを補正する補正部と
を備える画像処理装置。
An acquisition unit that acquires information indicating a plurality of positions of the lens that moves during the exposure period of the image sensor,
An image processing apparatus comprising: a correction unit that corrects distortion of an image acquired by exposing the image sensor through the lens during the exposure period based on the plurality of positions.
前記補正部は、前記複数の位置に基づいて、前記露光期間内における前記レンズの平均的な位置を算出し、算出した前記レンズの平均的な位置に基づいて、前記画像の歪みを補正する
請求項1に記載の画像処理装置。
The correction unit calculates an average position of the lens within the exposure period based on the plurality of positions, and corrects the distortion of the image based on the calculated average position of the lens. Item 1. The image processing device according to item 1.
前記補正部は、前記レンズの平均的な位置と、前記レンズの位置に対応づけられた歪係数とに基づいて、前記画像の歪みを補正する
請求項2に記載の画像処理装置。
The image processing apparatus according to claim 2, wherein the correction unit corrects the distortion of the image based on an average position of the lens and a distortion coefficient associated with the position of the lens.
前記補正部は、前記複数の位置及び前記撮像素子が備える複数の画素の位置に基づいて、前記複数の位置及び前記複数の画素の組み合わせ毎に、前記画像上で前記複数の画素のそれぞれに対応する複数の画素位置を算出し、前記複数の画素のそれぞれについて前記複数の画素位置の平均的な位置を算出することにより、前記画像の歪みを補正する
請求項1に記載の画像処理装置。
The correction unit corresponds to each of the plurality of pixels on the image for each combination of the plurality of positions and the plurality of pixels based on the plurality of positions and the positions of the plurality of pixels included in the image sensor. The image processing apparatus according to claim 1, wherein the distortion of the image is corrected by calculating a plurality of pixel positions to be performed and calculating an average position of the plurality of pixel positions for each of the plurality of pixels.
前記撮像素子は、前記撮像素子が備える複数の水平画素列毎に異なる露光期間で露光され、
前記取得部は、前記複数の水平画素列のそれぞれの露光期間中に移動するレンズの複数の位置を示す情報を取得し、
前記補正部は、前記複数の水平画素列のそれぞれの露光期間中の前記複数の位置に基づいて、前記複数の水平画素列のそれぞれにより取得された前記画像の歪みを補正する
請求項1から4のいずれか一項に記載の画像処理装置。
The image sensor is exposed in a different exposure period for each of a plurality of horizontal pixel columns included in the image sensor,
The acquisition unit acquires information indicating a plurality of positions of a lens that moves during each exposure period of the plurality of horizontal pixel rows,
The correction unit 4 based on the plurality of positions in each of the exposure periods of the plurality of horizontal pixel rows, from claim 1 for correcting the distortion of the image acquired by each of the plurality of horizontal pixel rows The image processing device according to claim 1.
前記レンズは、光軸方向に移動可能なフォーカスレンズである
請求項1から5のいずれか一項に記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the lens is a focus lens that is movable in the optical axis direction.
前記レンズは、前記レンズを含む光学系の焦点を調節するために、前記露光期間中に前記光軸方向に往復移動し、
前記取得部は、前記露光期間中の前記往復移動における前記レンズの複数の位置を示す情報を取得する
請求項6に記載の画像処理装置。
It said lens is in order Sessu the focus of the optical system including the lens adjustment, reciprocating in the optical axis direction during the exposure period,
The image processing apparatus according to claim 6, wherein the acquisition unit acquires information indicating a plurality of positions of the lens in the reciprocating movement during the exposure period.
前記レンズは、前記レンズを含む光学系の焦点を調節するために、前記露光期間中に前記光軸方向に一方向に移動し、
前記取得部は、前記露光期間中の前記一方向の移動における前記レンズの複数の位置を示す情報を取得する
請求項6に記載の画像処理装置。
It said lens is in order Sessu the focus of the optical system including the lens adjustment, moves in one direction to the optical axis direction during the exposure period,
The image processing apparatus according to claim 6, wherein the acquisition unit acquires information indicating a plurality of positions of the lens in the movement in the one direction during the exposure period.
前記露光期間は、動画を構成する複数の動画構成画像のそれぞれを取得するために前記撮像素子を繰り返し露光する期間であり、
前記補正部は、前記複数の動画構成画像のそれぞれを取得するための前記露光期間における前記複数の位置に基づいて、それぞれの動画構成画像の歪みを補正する
請求項1から8のいずれか一項に記載の画像処理装置。
The exposure period is a period in which the image sensor is repeatedly exposed to obtain each of a plurality of moving image constituent images that form a moving image,
The correction part, based on the plurality of position in the exposure period for obtaining each of the plurality of video configuration images, any one of claims 1 to 8 for correcting the distortion of each video configuration images The image processing device according to item 1.
請求項1から9のいずれか一項に記載の画像処理装置と、
前記撮像素子と
を備える撮像装置。
An image processing apparatus according to any one of claims 1 to 9,
An image pickup apparatus comprising the image pickup device.
前記レンズは、光軸方向に移動可能なフォーカスレンズであり、
前記撮像装置は、
前記補正部により歪みが補正された前記画像に基づいて、前記レンズを含む光学系の焦点調整を行う焦点調節部
をさらに備える請求項10に記載の撮像装置。
The lens is a focus lens that is movable in the optical axis direction,
The imaging device is
The imaging device according to claim 10, further comprising a focus adjustment unit that adjusts a focus of an optical system including the lens based on the image whose distortion is corrected by the correction unit.
請求項10に記載の撮像装置を備えて移動する無人航空機。 An unmanned aerial vehicle comprising the imaging device according to claim 10 and moving. 撮像素子の露光期間中に移動するレンズの複数の位置を示す情報を取得する段階と、
前記複数の位置に基づいて、前記露光期間に前記レンズを通じて前記撮像素子を露光することにより取得された画像の歪みを補正する段階と
を備える画像処理方法。
Acquiring information indicating a plurality of positions of a lens that moves during an exposure period of the image sensor,
Correcting the distortion of the image acquired by exposing the image pickup device through the lens during the exposure period based on the plurality of positions.
請求項1から9のいずれか一項に記載の画像処理装置としてコンピュータを機能させるためのプログラム。 A program for causing a computer to function as the image processing device according to claim 1.
JP2019015752A 2019-01-31 2019-01-31 Image processing device, imaging device, unmanned aerial vehicle, image processing method, and program Expired - Fee Related JP6746857B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019015752A JP6746857B2 (en) 2019-01-31 2019-01-31 Image processing device, imaging device, unmanned aerial vehicle, image processing method, and program
PCT/CN2020/071175 WO2020156085A1 (en) 2019-01-31 2020-01-09 Image processing apparatus, photographing apparatus, unmanned aerial aircraft, image processing method and program
CN202080002874.4A CN112204947A (en) 2019-01-31 2020-01-09 Image processing device, imaging device, unmanned aircraft, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019015752A JP6746857B2 (en) 2019-01-31 2019-01-31 Image processing device, imaging device, unmanned aerial vehicle, image processing method, and program

Publications (2)

Publication Number Publication Date
JP2020123897A JP2020123897A (en) 2020-08-13
JP6746857B2 true JP6746857B2 (en) 2020-08-26

Family

ID=71840865

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019015752A Expired - Fee Related JP6746857B2 (en) 2019-01-31 2019-01-31 Image processing device, imaging device, unmanned aerial vehicle, image processing method, and program

Country Status (3)

Country Link
JP (1) JP6746857B2 (en)
CN (1) CN112204947A (en)
WO (1) WO2020156085A1 (en)

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1320813C (en) * 2003-06-20 2007-06-06 北京中星微电子有限公司 A distortion correction method for lens imaging
US7596286B2 (en) * 2003-08-06 2009-09-29 Sony Corporation Image processing apparatus, image processing system, imaging apparatus and image processing method
JP4522207B2 (en) * 2004-09-17 2010-08-11 キヤノン株式会社 Camera system, camera body and interchangeable lens
JP4310645B2 (en) * 2004-12-28 2009-08-12 ソニー株式会社 Method for correcting distortion of captured image signal and distortion correction apparatus for captured image signal
JP2009296561A (en) * 2008-05-02 2009-12-17 Olympus Imaging Corp Imaging apparatus and imaging method
JP5272699B2 (en) * 2008-12-15 2013-08-28 株式会社ニコン Image processing apparatus, imaging apparatus, program, and image processing method
JP2011061444A (en) * 2009-09-09 2011-03-24 Hitachi Information & Communication Engineering Ltd Aberration correction device and method
WO2012157250A1 (en) * 2011-05-16 2012-11-22 パナソニック株式会社 Lens unit and image capture device
JP5736512B2 (en) * 2012-06-22 2015-06-17 富士フイルム株式会社 Imaging apparatus and operation control method thereof
JP6124655B2 (en) * 2013-04-05 2017-05-10 オリンパス株式会社 IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM
JP6313685B2 (en) * 2014-05-01 2018-04-18 キヤノン株式会社 Imaging apparatus and control method thereof
JP6906947B2 (en) * 2016-12-22 2021-07-21 キヤノン株式会社 Image processing equipment, imaging equipment, image processing methods and computer programs
US10705312B2 (en) * 2017-02-02 2020-07-07 Canon Kabushiki Kaisha Focus control apparatus, image capturing apparatus, and focus control method

Also Published As

Publication number Publication date
JP2020123897A (en) 2020-08-13
WO2020156085A1 (en) 2020-08-06
CN112204947A (en) 2021-01-08

Similar Documents

Publication Publication Date Title
WO2018185939A1 (en) Imaging control device, imaging device, imaging system, mobile body, imaging control method and program
JP6496955B1 (en) Control device, system, control method, and program
JP2019009751A (en) Control device, imaging system, moving body, control method, and program
JP6874251B2 (en) Devices, imaging devices, moving objects, methods, and programs
JP6746857B2 (en) Image processing device, imaging device, unmanned aerial vehicle, image processing method, and program
JP6503607B2 (en) Imaging control apparatus, imaging apparatus, imaging system, moving object, imaging control method, and program
US20220046177A1 (en) Control device, camera device, movable object, control method, and program
JP6972456B1 (en) Distance measuring sensor, image pickup device, control method, and program
JP6543859B1 (en) IMAGE PROCESSING DEVICE, IMAGING DEVICE, MOBILE OBJECT, IMAGE PROCESSING METHOD, AND PROGRAM
JP6641574B1 (en) Determination device, moving object, determination method, and program
JP6961888B1 (en) Devices, imaging devices, mobiles, programs and methods
JP7043706B2 (en) Control device, imaging system, control method, and program
JP2021032990A (en) Control device, imaging system, control method and program
JP6569157B1 (en) Control device, imaging device, moving object, control method, and program
JP6690105B1 (en) Control device, imaging device, system, control method, and program
JP2019205047A (en) Controller, imaging apparatus, mobile body, control method and program
WO2018163300A1 (en) Control device, imaging device, imaging system, moving body, control method, and program
JP6743337B1 (en) Control device, imaging device, imaging system, control method, and program
JP7173657B2 (en) Control device, imaging device, control method, and program
JP7043707B2 (en) Scene recognition device, image pickup device, scene recognition method, and program
JP6961889B1 (en) Control device, imaging device, control method, and program
JP6780203B2 (en) Control device, imaging device, control method, and program
JP6459012B1 (en) Control device, imaging device, flying object, control method, and program
JP2021018309A (en) Phase difference detection device, imaging apparatus, imaging system, moving body, phase difference detection method, and program
JP2020067558A (en) Control device, imaging apparatus, moving body, control method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190131

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200318

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200707

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200713

R150 Certificate of patent or registration of utility model

Ref document number: 6746857

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees