JP2020123897A - 画像処理装置、撮像装置、無人航空機、画像処理方法、及びプログラム - Google Patents

画像処理装置、撮像装置、無人航空機、画像処理方法、及びプログラム Download PDF

Info

Publication number
JP2020123897A
JP2020123897A JP2019015752A JP2019015752A JP2020123897A JP 2020123897 A JP2020123897 A JP 2020123897A JP 2019015752 A JP2019015752 A JP 2019015752A JP 2019015752 A JP2019015752 A JP 2019015752A JP 2020123897 A JP2020123897 A JP 2020123897A
Authority
JP
Japan
Prior art keywords
lens
image
positions
exposure period
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019015752A
Other languages
English (en)
Other versions
JP6746857B2 (ja
Inventor
誠 高宮
Makoto Takamiya
誠 高宮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SZ DJI Technology Co Ltd
Original Assignee
SZ DJI Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SZ DJI Technology Co Ltd filed Critical SZ DJI Technology Co Ltd
Priority to JP2019015752A priority Critical patent/JP6746857B2/ja
Priority to PCT/CN2020/071175 priority patent/WO2020156085A1/zh
Priority to CN202080002874.4A priority patent/CN112204947A/zh
Publication of JP2020123897A publication Critical patent/JP2020123897A/ja
Application granted granted Critical
Publication of JP6746857B2 publication Critical patent/JP6746857B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/36Systems for automatic generation of focusing signals using image sharpness techniques, e.g. image processing techniques for generating autofocus signals
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing
    • G03B13/36Autofocus systems
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Optics & Photonics (AREA)
  • Studio Devices (AREA)
  • Automatic Focus Adjustment (AREA)
  • Focusing (AREA)

Abstract

【課題】フォーカスレンズなどの光学系が備えるレンズの移動に、歪曲歪などにより意図しない画角変動が生じることのない画像処理装置、撮像装置、無人航空機、画像処理方法及びプログラムを提供する。【解決手段】撮像装置において、撮像部102の画像処理部104は、撮像素子(イメージセンサ120)の露光期間中に移動するレンズ部200の複数のレンズ210、211の複数の位置を示す情報を取得する取得部142と、複数の位置に基づいて、露光期間にレンズを通じて撮像素子を露光することにより取得された画像を補正する補正部140とを備える。画像処理方法は、撮像素子の露光期間中に移動するレンズの複数の位置を示す情報を取得する段階と、複数の位置に基づいて、露光期間にレンズを通じて撮像素子を露光することにより取得された画像を補正する段階とを備える。【選択図】図2

Description

本発明は、画像処理装置、撮像装置、無人航空機、画像処理方法、及びプログラムに関する。
特許文献1には、入力された画面座標の画素に対する収差を、レンズパラメータに対応する各画素の位置座標データを保持する歪み補正パラメータテーブルにより補正する技術が記載されている。
特許文献1 特開2011−61444号公報
フォーカスレンズなどの光学系が備えるレンズを移動させると、歪曲歪などにより意図しない画角変動が生じる場合がある。
本発明の一態様に係る画像処理装置は、撮像素子の露光期間中に移動するレンズの複数の位置を示す情報を取得する取得部を備える。画像処理装置は、複数の位置に基づいて、露光期間にレンズを通じて撮像素子を露光することにより取得された画像を補正する補正部を備える。
補正部は、複数の位置に基づいて、露光期間内におけるレンズの平均的な位置を算出し、算出したレンズの平均的な位置に基づいて、画像の歪みを補正してよい。
補正部は、レンズの平均的な位置と、レンズの位置に対応づけられた歪係数とに基づいて、画像の歪みを補正してよい。
補正部は、複数の位置及び撮像素子が備える複数の画素の位置に基づいて、複数の位置及び複数の画素の組み合わせ毎に、画像上で複数の画素のそれぞれに対応する複数の画素位置を算出し、複数の画素のそれぞれについて複数の画素位置の平均的な位置を算出することにより、画像を補正してよい。
撮像素子は、撮像素子が備える複数の画素列毎に異なる露光期間で露光されてよい。取得部は、複数の画素列のそれぞれの露光期間中に移動するレンズの複数の位置を示す情報を取得してよい。補正部は、複数の画素列のそれぞれの露光期間中の複数の位置に基づいて、複数の画素列のそれぞれにより取得された画像を補正してよい。
レンズは、光軸方向に移動可能なフォーカスレンズであってよい。
レンズは、レンズを含む光学系の焦点を調節をするために、露光期間中に光軸方向に往復移動してよい。取得部は、露光期間中の往復移動におけるレンズの複数の位置を示す情報を取得してよい。
レンズは、レンズを含む光学系の焦点を調節をするために、露光期間中に光軸方向に一方向に移動してよい。取得部は、露光期間中の一方向の移動におけるレンズの複数の位置を示す情報を取得してよい。
露光期間は、動画を構成する複数の動画構成画像のそれぞれを取得するために撮像素子を繰り返し露光する期間であってよい。補正部は、複数の動画構成画像のそれぞれを取得するための露光期間における複数の位置に基づいて、それぞれの動画構成画像を補正してよい。
本発明の一態様に係る撮像装置は、上記画像処理装置を備えてよい。撮像装置は、イメージセンサを備えてよい。
レンズは、光軸方向に移動可能なフォーカスレンズであってよい。撮像装置は、補正部により補正された画像に基づいて、レンズを含む光学系の焦点調整を行う焦点調節部を備えてよい。
本発明の一態様に係る無人航空機は、上記撮像装置を備えて移動する。
本発明の一態様に係る画像処理方法は、撮像素子の露光期間中に移動するレンズの複数の位置を示す情報を取得する段階を備える。画像処理方法は、複数の位置に基づいて、露光期間にレンズを通じて撮像素子を露光することにより取得された画像を補正する段階を備える。
本発明の一態様に係るプログラムは、上記の画像処理装置としてコンピュータを機能させるためのプログラムとしてよい。
本発明の一態様によれば、レンズの移動に伴う画角変動の影響を抑制することができる。
なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。
本実施形態に係る撮像装置100の外観斜視図の一例を示す図である。 本実施形態に係る撮像装置100の機能ブロックを示す図である。 補正部140の処理を概略的に説明する図である。 歪係数の一例を示す。 イメージセンサ120上の座標とイメージ座標(x,y)との位置関係の一例を模式的に示す。 フォーカスレンズ210の位置の平均値の算出方法を説明する図である。 撮像装置100が実行する手順の一例を示すフローチャートである。 補正部140が実行する他の補正方法を説明する図である。 ローリング読み出しにより画素データを読み出す場合の補正処理を概略的に説明する図である。 撮像装置100を搭載した無人航空機(UAV)を示す。 本発明の複数の態様が全体的または部分的に具現化されてよいコンピュータ1200の一例を示す。
以下、発明の実施の形態を通じて本発明を説明するが、以下の実施の形態は特許請求の範囲に係る発明を限定するものではない。また、実施の形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。以下の実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。
特許請求の範囲、明細書、図面、及び要約書には、著作権による保護の対象となる事項が含まれる。著作権者は、これらの書類の何人による複製に対しても、特許庁のファイルまたはレコードに表示される通りであれば異議を唱えない。ただし、それ以外の場合、一切の著作権を留保する。
本発明の様々な実施形態は、フローチャート及びブロック図を参照して記載されてよく、ここにおいてブロックは、(1)操作が実行されるプロセスの段階または(2)操作を実行する役割を持つ装置の「部」を表わしてよい。特定の段階及び「部」が、プログラマブル回路、及び/またはプロセッサによって実装されてよい。専用回路は、デジタル及び/またはアナログハードウェア回路を含んでよい。集積回路(IC)及び/またはディスクリート回路を含んでよい。プログラマブル回路は、再構成可能なハードウェア回路を含んでよい。再構成可能なハードウェア回路は、論理AND、論理OR、論理XOR、論理NAND、論理NOR、及び他の論理操作、フリップフロップ、レジスタ、フィールドプログラマブルゲートアレイ(FPGA)、プログラマブルロジックアレイ(PLA)等のようなメモリ要素等を含んでよい。
コンピュータ可読媒体は、適切なデバイスによって実行される命令を格納可能な任意の有形なデバイスを含んでよい。その結果、そこに格納される命令を有するコンピュータ可読媒体は、フローチャートまたはブロック図で指定された操作を実行するための手段を作成すべく実行され得る命令を含む、製品を備えることになる。コンピュータ可読媒体の例としては、電子記憶媒体、磁気記憶媒体、光記憶媒体、電磁記憶媒体、半導体記憶媒体等が含まれてよい。コンピュータ可読媒体のより具体的な例としては、フロッピー(登録商標)ディスク、ディスケット、ハードディスク、ランダムアクセスメモリ(RAM)、リードオンリメモリ(ROM)、消去可能プログラマブルリードオンリメモリ(EPROMまたはフラッシュメモリ)、電気的消去可能プログラマブルリードオンリメモリ(EEPROM)、静的ランダムアクセスメモリ(SRAM)、コンパクトディスクリードオンリメモリ(CD-ROM)、デジタル多用途ディスク(DVD)、ブルーレイ(登録商標)ディスク、メモリスティック、集積回路カード等が含まれてよい。
コンピュータ可読命令は、1または複数のプログラミング言語の任意の組み合わせで記述されたソースコードまたはオブジェクトコードの何れかを含んでよい。ソースコードまたはオブジェクトコードは、従来の手続型プログラミング言語を含む。従来の手続型プログラミング言語は、アセンブラ命令、命令セットアーキテクチャ(ISA)命令、マシン命令、マシン依存命令、マイクロコード、ファームウェア命令、状態設定データ、またはSmalltalk、JAVA(登録商標)、C++等のようなオブジェクト指向プログラミング言語、及び「C」プログラミング言語または同様のプログラミング言語でよい。コンピュータ可読命令は、汎用コンピュータ、特殊目的のコンピュータ、若しくは他のプログラム可能なデータ処理装置のプロセッサまたはプログラマブル回路に対し、ローカルにまたはローカルエリアネットワーク(LAN)、インターネット等のようなワイドエリアネットワーク(WAN)を介して提供されてよい。プロセッサまたはプログラマブル回路は、フローチャートまたはブロック図で指定された操作を実行するための手段を作成すべく、コンピュータ可読命令を実行してよい。プロセッサの例としては、コンピュータプロセッサ、処理ユニット、マイクロプロセッサ、デジタル信号プロセッサ、コントローラ、マイクロコントローラ等を含む。
図1は、本実施形態に係る撮像装置100の外観斜視図の一例を示す図である。図2は、本実施形態に係る撮像装置100の機能ブロックを示す図である。
撮像装置100は、撮像部102及びレンズ部200を備える。撮像部102は、イメージセンサ120、画像処理部104、撮像制御部110、メモリ130、指示部162、及び表示部160を備える。
イメージセンサ120は、CCDまたはCMOSなどの撮像素子である。イメージセンサ120は、レンズ部200が有する光学系を介して光を受光する。イメージセンサ120は、レンズ部200が有する光学系を介して結像された光学像の画像データを画像処理部104に出力する。
撮像制御部110及び画像処理部104は、CPUまたはMPUなどのマイクロプロセッサ、MCUなどのマイクロコントローラなどにより構成されてよい。メモリ130は、コンピュータ可読可能な記録媒体でよく、SRAM、DRAM、EPROM、EEPROM、及びUSBメモリなどのフラッシュメモリの少なくとも1つを含んでよい。メモリ130は、撮像制御部110がイメージセンサ120などを制御するのに必要なプログラム、画像処理部104が画像処理を実行するのに必要なプログラム等を格納する。メモリ130は、撮像装置100の筐体の内部に設けられてよい。メモリ130は、撮像装置100の筐体から取り外し可能に設けられてよい。
指示部162は、撮像装置100に対する指示をユーザから受け付けるユーザインタフェースである。表示部160は、イメージセンサ120により撮像され、画像処理部104により処理された画像、撮像装置100の各種設定情報などを表示する。表示部160は、タッチパネルで構成されてよい。
撮像制御部110は、レンズ部200及びイメージセンサ120を制御する。撮像制御部110は、レンズ部200が備える光学系の焦点位置や焦点距離の調整を制御する。撮像制御部110は、ユーザからの指示を示す情報に基づいて、レンズ部200が備えるレンズ制御部220に制御命令を出力することにより、レンズ部200を制御する。
レンズ部200は、フォーカスレンズ210、ズームレンズ211、レンズ駆動部212、レンズ駆動部213、レンズ制御部220、メモリ222、位置センサ214、及び位置センサ215を備える。フォーカスレンズ210、及びズームレンズ211は、少なくとも1つのレンズを含んでよい。フォーカスレンズ210及びズームレンズ211は、光学系に含まれるレンズである。フォーカスレンズ210、及びズームレンズ211の少なくとも一部または全部は、光学系の光軸に沿って移動可能に配置される。
撮像制御部110は、焦点調節部112を備える。焦点調節部112は、フォーカスレンズ210を制御することにより、レンズ部200が備える光学系の焦点調節を行う。
レンズ部200は、撮像部102に対して着脱可能に設けられる交換レンズでよい。レンズ駆動部212は、ステッピングモータ、DCモータ、コアレスモータ、または超音波モータなどの駆動装置を備えてよい。フォーカスレンズ210の少なくとも一部または全部は、レンズ駆動部212が備える駆動装置からの動力をカム環、ガイド軸などの機構部材を介して受け取ることにより移動する。レンズ駆動部213は、ステッピングモータ、DCモータ、コアレスモータ、または超音波モータなどの駆動装置を備えてよい。ズームレンズ211の少なくとも一部または全部は、レンズ駆動部213が備える駆動装置からの動力をカム環、ガイド軸などの機構部材を介して受け取ることにより移動する。
レンズ制御部220は、撮像部102からのレンズ制御命令に従って、レンズ駆動部212及びレンズ駆動部213の少なくとも一方を駆動して、機構部材を介してフォーカスレンズ210及びズームレンズ211の少なくとも一方を光軸方向に沿って移動させることで、ズーム動作及びフォーカス動作の少なくとも一方を実行する。レンズ制御命令は、例えば、ズーム制御命令、及びフォーカス制御命令である。
メモリ222は、レンズ駆動部212を介して移動するフォーカスレンズやズームレンズ用の制御値を記憶する。メモリ222は、SRAM、DRAM、EPROM、EEPROM、及びUSBメモリなどのフラッシュメモリの少なくとも1つを含んでよい。
位置センサ214は、フォーカスレンズ210の位置を検出する。位置センサ215は、ズームレンズ211の位置を検出する。位置センサ214、及び位置センサ215は、磁気抵抗(MR)センサ等であってよい。
撮像制御部110は、指示部162等を通じてユーザからの指示を示す情報に基づいて、イメージセンサ120に制御命令を出力することにより、イメージセンサ120に撮像動作の制御を含む制御を実行する。イメージセンサ120により撮像された画像は、画像処理部104により処理されて、メモリ130に格納される。
画像処理部104には、イメージセンサ120により取得された画像が入力される。補正部140は、イメージセンサ120により取得された画像を補正する。表示部160は、補正部140により補正された画像を表示する。メモリ130は、補正部140により補正された画像を格納する。補正部140により補正された画像は、メモリ130から、メモリカード等の記録媒体に転送されてよい。
画像処理部104は、補正部140と、取得部142とを備える。取得部142は、イメージセンサ120の露光期間中に移動するフォーカスレンズ210の複数の位置を示す情報を取得する。例えば、取得部142は、焦点調節部112から、フォーカスレンズ210の複数の位置を示す情報を取得する。補正部140は、複数の位置に基づいて、露光期間にフォーカスレンズ210を通じてイメージセンサ120を露光することにより取得された画像を補正する。
例えば、補正部140は、取得したフォーカスレンズ210の複数の位置に基づいて、露光期間内におけるフォーカスレンズ210の平均的な位置を算出し、算出したフォーカスレンズ210の平均的な位置に基づいて、画像の歪みを補正する。具体的には、補正部140は、フォーカスレンズ210の平均的な位置と、フォーカスレンズ210の位置に対応づけられた歪係数とに基づいて、画像の歪みを補正する。
補正部140は、フォーカスレンズ210の複数の位置及びイメージセンサ120が備える複数の画素の位置に基づいて、フォーカスレンズ210の複数の位置及びイメージセンサ120の複数の画素の組み合わせ毎に、画像上で複数の画素のそれぞれに対応する複数の画素位置を算出してよい。補正部140は、複数の画素のそれぞれについて、算出した複数の画素位置の平均的な位置を算出することにより、画像を補正してよい。
イメージセンサ120は、イメージセンサ120が備える複数の画素列毎に異なる露光期間で露光されてよい。例えば、撮像制御部110は、ローリング読み出しによりイメージセンサ120から画素情報を読み出してよい。この場合、取得部142は、複数の画素列のそれぞれの露光期間中に移動するフォーカスレンズ210の複数の位置を示す情報を取得する。補正部140は、複数の画素列のそれぞれの露光期間中の複数の位置に基づいて、複数の画素列のそれぞれにより取得された画像を補正する。
フォーカスレンズ210は、フォーカスレンズ210を含む光学系の焦点を調節をするために、露光期間中に光軸方向に往復移動する。例えば、焦点調節部112は、露光期間中にフォーカスレンズ210をウォブリング動作を行わせる。取得部142は、露光期間中の往復移動におけるフォーカスレンズ210の複数の位置を示す情報を取得する。補正部140は、露光期間中の往復移動におけるフォーカスレンズ210の複数の位置に基づいて、画像を補正する。
フォーカスレンズ210は、フォーカスレンズ210を含む光学系の焦点を調節をするために、露光期間中に光軸方向に一方向に移動してよい。取得部142は、露光期間中の一方向の移動におけるフォーカスレンズ210の複数の位置を示す情報を取得する。補正部140は、露光期間中の一方向の移動におけるフォーカスレンズ210の複数の位置に基づいて、画像を補正する。
露光期間は、動画を構成する複数の動画構成画像のそれぞれを取得するためにイメージセンサ120を繰り返し露光する期間であってよい。補正部140は、複数の動画構成画像のそれぞれを取得するための露光期間における複数の位置に基づいて、それぞれの動画構成画像を補正してよい。
焦点調節部112は、補正部140により補正された画像に基づいて、フォーカスレンズ210を含む光学系の焦点調整を行う。例えば、焦点調節部112は、補正部140により補正された画像のコントラスト値に基づいてフォーカスレンズ210の光軸方向の位置を決定して、決定した位置にフォーカスレンズ210を移動させる。
図3は、補正部140の処理を概略的に説明する図である。図3に関連して、イメージセンサ120が備える全ての水平画素列の露光期間が同一である場合の補正部140の処理を説明する。具体的には、イメージセンサ120のグローバル読み出しにより連続的に撮像している場合の処理を説明する。本実施形態において、イメージセンサ120は、N個(Nは自然数)の水平画素列を有するものとする。
撮像制御部110は、垂直同期信号VDに基づくタイミングでイメージセンサ120が備える水平画素列1〜水平画素列Nを露光する。図3には、時刻t1から時刻t7までの露光期間と、時刻t9から時刻t15までの露光期間が示されている。
焦点調節部112は、垂直同期信号VDのトリガから次の垂直同期信号VDまでの期間内にフォーカスレンズ210の光軸方向の位置を複数回検出させる。具体的には、焦点調節部112は、時刻t0の垂直同期信号VDから、予め定められた時間間隔でフォーカスレンズ210の光軸方向の位置を予め定められた回数検出させる。また、焦点調節部112は、時刻t7の垂直同期信号VDから、予め定められた時間間隔でフォーカスレンズ210の光軸方向の位置を予め定められた回数検出させる。
図3に示されるように、レンズ制御部220は、時刻t1から時刻t7までの露光期間において、LP1、LP2、LP3、LP4、LP5、LP6、及びLP7を検出する。また、レンズ制御部220は、時刻t9から時刻t15までの露光期間において、LP9、LP10、LP11、LP12、LP13、LP14、及びLP15を検出する。LPi(iは自然数)は、フォーカスレンズ210の光軸方向の位置を示すものとする。
時刻t7の垂直同期信号VDに応じて、焦点調節部112は、時刻t1からt7までの露光期間に検出されたLP1、LP2、LP3、LP4、LP5、LP6、及びLP7を示すレンズ位置情報をレンズ制御部220から取得して、画像処理部104に出力する。取得部142は、焦点調節部112から出力されたレンズ位置情報を取得する。
補正部140は、レンズ位置情報に基づいて、LP1、LP2、LP3、LP4、LP5、LP6、及びLP7の平均値を算出する。補正部140は、LP1、LP2、LP3、LP4、LP5、LP6、及びLP7の平均値に基づいて、歪係数を算出する。歪係数は、フォーカスレンズ210の位置から定まる歪曲歪を表す情報である。歪係数については図4などに関連して説明する。平均値はLP1からLP7までの和を、時刻t1から時刻t7までの時間で割ることで算出される値である。平均値の具体的な算出方法については図6などに関連して説明する。
画像処理部104は、時刻t7の垂直同期信号VDに応じて、イメージセンサ120から、水平画素列1〜水平画素列Nの画素データ310を取得する。画像処理部104は、イメージセンサ120から取得した画素データ310と、フォーカスレンズ210の位置の平均値に対応する歪係数とに基づいて画素データ310の画像を補正して、補正画像311を生成する。補正部140により生成された補正画像311はメモリ130に記憶され、表示部160の表示用の画像として表示部160に出力される。
同様に、時刻t7の垂直同期信号VDに応じて、焦点調節部112は、時刻t9からt15までの露光期間に検出されたLP9、LP10、LP11、LP12、LP13、LP14、及びLP15を示すレンズ位置情報をレンズ制御部220から取得して、画像処理部104に出力する。取得部142は、焦点調節部112から出力されたレンズ位置情報を取得する。
補正部140は、レンズ位置情報に基づいて、LP9、LP10、LP11、LP12、LP13、LP14、及びLP15の平均値を算出する。補正部140は、LP9、LP10、LP11、LP12、LP13、LP14、及びLP15の平均値に基づいて、歪係数を算出する。
画像処理部104は、時刻t15の垂直同期信号VDに応じて、イメージセンサ120から、水平画素列1〜水平画素列Nの画素データ320を取得する。画像処理部104は、イメージセンサ120から取得した画素データ320と、フォーカスレンズ210の位置の平均値に対応する歪係数とに基づいて画素データ320の画像を補正して、補正画像321を生成する。補正部140により生成された補正画像321はメモリ130に記憶され、表示部160の表示用の画像として表示部160に出力される。
撮像装置100は、垂直同期信号VDに応じて、上述したように1回の露光処理と、画素データの読み出し処理と、画像の補正処理と、表示部160に表示する処理とを実行する。撮像装置100は、垂直同期信号VD毎に上述した処理を繰り返す。
図4は、歪係数の一例を示す。図4の横軸はフォーカスレンズ210の位置であり、縦軸は歪係数の値である。歪係数は、k1、k2、及びk3を含む。メモリ130は、k1、k2、及びk3のフォーカスレンズ210の依存性を示す歪係数データを格納する。歪係数データは、レンズ部200が備える光学系のレンズ設計データに基づいて予め算出されて、メモリ130に格納されてよい。歪係数データは、実験により予め算出されて、メモリ130に格納されてもよい。k1、k2、及びk3の歪係数データは、フォーカスレンズ210の位置を変数とする関数を表すデータであってよい。当該関数は、予め算出された歪み係数k1、k2、k3をフォーカスレンズ210の位置を変数とする関数にフィッティングすることにより取得されてよい。k1、k2、及びk3の歪係数データは、フォーカスレンズ210の位置をk1、k2、及びk3にマッピングするマップデータであってよい。
イメージセンサ120上の座標(xdistorted,ydistorted)と、正規化したイメージ座標(x、y)との関係は、歪係数k1、k2及びk3を用いて以下の式1で表される。
Figure 2020123897
座標(x、y)は、補正画像内の座標を表す。式1のLPは、フォーカスレンズ210の位置を表す。歪係数k1、k2、k3はLPに依存するため、式1では、k1(LP)、k2(LP)、及びk3(LP)として表されている。図5は、イメージセンサ120上の座標(xdistorted,ydistorted)とイメージ座標(x,y)との位置関係の一例を模式的に示す。
補正部140は、画素データの各画素の座標を式1の(xdistorted,ydistorted)に適用し、フォーカスレンズ210の位置の平均値と上記歪係数データから算出したk1、k2、及びk3をそれぞれk1(LP)、k2(LP)、及びk3(LP)に適用して、式1を満たす座標(x,y)を算出する。そして、補正部140は、イメージセンサ120から取得した画素データにおける座標(xdistorted,ydistorted)の画素値を、座標(x,y)の画素値として適用することにより、補正画像を生成する。
図3、図4、および図5などに関連して説明したように、補正部140は、露光期間中のフォーカスレンズ210の平均位置から定まる歪係数を用いて画像を補正する。これにより、図3に示されるように、フォーカスレンズ210の移動に伴って生じる画角変動が抑えられた補正画像311及び補正画像321を生成することができる。
図6は、フォーカスレンズ210の位置の平均値の算出方法を説明するための図である。図6において、Tは露光時間である。すなわち、Teはt1からt7までの時間である。Tdは、フォーカスレンズ210の位置を検出する時間間隔である。図6に示す例では、T=6Tdである。フォーカスレンズ210の位置の平均値は、LP1からLP7までの時間平均によって算出される値である。
具体的には、フォーカスレンズ210の位置の平均値は、LP1からLP7までの加重和をTで割ることで算出される。LP1からLP7までの加重和は、Σαi×LPiにより算出される。iは1から7の自然数である。
αiは加重和の重み係数である。α1からα7までの和はTである。αiは、時刻ti―Td/2から時刻ti+Td/2までの期間のうち、露光期間に含まれる期間の時間に基づいて定められる。具体的には、α1及びα7はTd/2であり、α2からα6はTdである。このように、フォーカスレンズ210の位置を検出したタイミングに応じて重み係数αiを定めることによって、フォーカスレンズ210の位置の時間的な平均値を算出することができる。
なお、平均値は、LP1からLP7の和を7で割ることで算出される値であってよい。すなわち、平均値は、露光期間内に検出されたフォーカスレンズ210の位置の和をフォーカスレンズ210の位置の検出数で割ることで算出される値であってよい。
図7は、撮像装置100が実行する手順の一例を示すフローチャートである。本フローチャートは、垂直同期信号VDのトリガが生じた場合に開始される。
S600において、焦点調節部112は、レンズ制御部220にフォーカスレンズ210の位置を検出するタイミング信号を出力することにより、フォーカスレンズ210の位置を検出させる。
S600において、撮像制御部110は、垂直同期信号VDから予め定められた時間が経過した場合に、イメージセンサ120の露光を開始させる。S604において、レンズ制御部220は、焦点調節部112から出力されたタイミング信号に従って、フォーカスレンズ210の位置を検出する。
S606において、撮像制御部110は、露光を終了するか否かを判断する。例えば、撮像制御部110は、新たな垂直同期信号VDのトリガを検出した場合に、露光を終了すると判断する。露光を終了すると判断するまで、イメージセンサ120を露光したまま、S604の処理が繰り返される。
S606の判断において、露光を終了すると判断すると、S608において、補正部140は、焦点調節部112を通じてレンズ制御部220からフォーカスレンズ210のレンズ位置情報を取得して、フォーカスレンズ210の位置の平均値を算出する。
S610において、補正部140は、イメージセンサ120から出力される画素データを取得する。S612において、補正部140は、歪係数データに基づいて、イメージセンサ120の各画素の座標(xdistorted,ydistorted)に対応するイメージ座標(x,y)を算出する。
S614において、補正部140は、イメージセンサ120から出力される画素データの各座標の画素値を、S612で算出したイメージ座標の画素値として反映することにより、補正画像を生成する。
S616において、画像処理部104は、補正部140により生成された補正画像をメモリ130に格納する。S616の処理が完了すると本フローチャートの処理を終了する。
S616でメモリ130に格納された補正画像は、例えば、表示用の動画構成画像として表示部160に出力される。動画撮影中に上記の補正処理を行った場合、メモリ130に格納された補正画像は、動画撮影の終了後、動画データの動画構成画像としてメモリ130に記録される。
なお、補正部140は、S612で算出したイメージ座標を、フォーカスレンズ210の位置の平均値に対応づけてメモリ130に記憶させてよい。補正部140は、新たに算出したフォーカスレンズ210の位置の平均値と、メモリ130に記憶されている平均値との差が予め定められた値より小さい場合、S612の処理に代えて、メモリ130に記憶されているイメージ座標を用いてよい。これにより、イメージ座標を算出するための演算量を削減することができる場合がある。
図3から図7に関連して説明したように、補正部140は、露光期間中におけるフォーカスレンズ210の位置の平均値に基づいて、画像の歪を補正する。これにより、露光期間中のフォーカスレンズ210の移動に伴う画角変化の影響を抑制した補正画像を生成することができる。
図8は、補正部140が実行する他の補正方法を説明する図である。図8は、イメージセンサ120の画素の座標(xdistorted,ydistorted)と、補正後のイメージ座標(x,y)との関係を、イメージ座標の一部を拡大して示す。
補正部140は、露光期間中に検出されたフォーカスレンズ210の位置のそれぞれに基づいて、イメージ座標(x,y)を算出する。以下に、図3に示す例を参照して、他の補正方法に基づく補正処理を説明する。
補正部140は、時刻t1〜t7までの露光期間におけるLP1、LP2、LP3、LP4、LP5、LP6、及びLP7のそれぞれから、イメージ座標(x,y)を算出する。具体的には、補正部140は、イメージセンサ120から取得した画素データにおける画素の座標を式1の(xdistorted,ydistorted)に適用し、LP1と歪係数データから算出したk1、k2、及びk3をそれぞれ式1のk1(LP)、k2(LP)、及びk3(LP)に適用して、式1を満たす座標(x,y)を算出する。算出した座標(x,y)は、図8において、(x1,y1)で示される。
LP2についても同様に、補正部140は、画素データにおける画素の座標を式1の(xdistorted,ydistorted)に適用し、LP2と歪係数データから算出したk1、k2、及びk3をそれぞれ式1のk1(LP)、k2(LP)、及びk3(LP)に適用して、式1を満たす座標(x,y)を算出する。算出した座標(x,y)は、図8において、(x2,y2)で示される。LP3、LP4、LP5、LP6、及びLP7についても同様に、LPi(iは3から7の自然数)と歪係数データから算出したk1、k2、及びk3を用いて、式1を満たす(x,y)を算出して、各LPiに対応する(xi、yi)として算出する。
補正部140は、画素データにおける座標(xdistorted,ydistorted)の画素値を、(xi、yi)(iは1から7の自然数)の平均座標(x,y)の画素値として適用する。補正部140は、イメージセンサ120から取得した画素データの各画素に同様の処理を行って、補正画像を生成する。
図8に関連して説明した補正方法によっても、露光期間中のフォーカスレンズ210の移動に伴う画角変化の影響を抑制した補正画像を提供することができる。図3及び図5などに関連して説明した補正方法に比べて、画角変化の影響をより低減した補正画像を生成することができる場合がある。
図9は、イメージセンサ120からローリング読み出しにより画素データを読み出す場合の補正部140の補正処理を概略的に説明する図である。ローリング読み出しを行う場合、撮像制御部110は、水平画素列1から水平画素列Nまの露光開始時刻を順次にずらして露光する。これにより、イメージセンサ120の露光期間は、イメージセンサ120が備える画素列毎に異なる。
図9に示されるように、水平画素列1の露光期間は、時刻t1から時刻t7までである。水平画素列Nの露光期間は、時刻t7から時刻t13までである。一般に、水平画素列1+iの露光期間は、時刻t1+δT×(i−1)から、時刻t7+δT×(i−1)までである(iは、1からNまでの自然数)。δTは、隣接する水平画素列の露光開始時刻の間隔である。
水平画素列1の露光期間中に検出されたフォーカスレンズ210の位置は、LP1、LP2、LP3、LP4、LP5、LP6、及びLP7である。補正部140は、LP1、LP2、LP3、LP4、LP5、LP6、及びLP7の平均値と歪係数データとに基づいて、LP1、LP2、LP3、LP4、LP5、LP6、及びLP7の平均値に対応する歪係数k1、k2及びk3を算出する。補正部140は、算出した歪係数k1、k2及びk3を式1に適用して水平画素列1の画素データ810を補正することにより、補正画素データ811を生成する。
同様に、水平画素列2の露光期間中に検出されたフォーカスレンズ210の位置は、LP2、LP3、LP4、LP5、LP6、及びLP7である。補正部140は、LP2、LP3、LP4、LP5、LP6、及びLP7の平均値と歪係数データとに基づいて、LP2、LP3、LP4、LP5、LP6、及びLP7の平均値に対応する歪係数k1、k2及びk3を算出する。補正部140は、算出した歪係数k1、k2及びk3を算出式1に適用して水平画素列2の画素データを補正することにより、補正画素データを生成する。平均値はLP1からLP7までの加重和を、時刻t1から時刻t7までの時間で割ることで算出される値である。具体的には、平均値は、図6などに関連して説明した算出方法により算出される値である。
補正部140は、水平画素列3から水平画素列Nまで同様の処理を適用して、補正画素データを生成する。例えば、水平画素列Nの露光期間中に検出されたフォーカスレンズ210の位置はLP7、LP8、LP9、LP10、LP11、LP12、及びLP13であるので、補正部140は、LP7、LP8、LP9、LP10、LP11、LP12、及びLP13の平均値と歪係数データとに基づいて、LP7、LP8、LP9、LP10、LP11、LP12、及びLP13の平均値を算出し、算出した平均値に対応する歪係数k1、k2及びk3を算出する。補正部140は、算出した歪係数k1、k2及びk3を式1に適用して水平画素列Nの画素データ820を補正することにより、補正画素データ821を生成する。補正部140は、各水平画素列から生成された補正画素データに基づいて1つの補正画像を生成する。
以上に説明したように、イメージセンサ120からローリング読み出しを行う場合、水平画素列毎に露光期間が異なるため、検出されたイメージセンサ120の位置が画素列によって異なる場合がある。そこで、補正部140は、露光期間内に検出されたフォーカスレンズ210の位置が同一の画素列群について、露光期間内のフォーカスレンズ210の位置の平均値に基づく歪係数k1、k2、及びk3を式1に適用して、補正画素データを生成する。
図9などに関連して、ローリング読み出しにより読み出された画像データを、フォーカスレンズ210の位置の平均値に基づいて補正する処理を説明した。図8などに関連して説明した補正方法を、ローリング読み出しにより読み出された画像データの補正に適用できる。例えば、補正部140は、各画素列について、フォーカスレンズ210の位置のそれぞれに対応するイメージ座標を算出して、算出したイメージ座標の平均座標を、補正後の画像の画素値として適用してよい。
以上に説明した通り、撮像装置100によれば、フォーカスレンズ210の移動に伴う画角変動の影響を抑制した画像を提供することができる。この効果は特に、イメージセンサのサイズに対して比較的に小型なレンズ装置に対して有効である。例えば、イメージセンサのサイズに対して光学系を小型化すると、フォーカスレンズの移動による歪曲収差の影響が顕著になる。そのため、例えばライブビュー撮影中にフォーカスレンズのウォブリング動作を行うと、ウォブリング動作に伴う画角変動がライブビュー画像上で観察されてしまう場合がある。上述したように、撮像装置100によれば、フォーカスレンズ210の移動に伴う画角変動の影響を抑制することができるので、ウォブリング動作に伴う画角変動がライブビュー画像上で観察されにくくすることができる。また、合焦制御に用いるコントラスト値を補正画像から検出することによって、コントラスト値の検出対象となる画像領域がフォーカスレンズ210の移動に伴って変動することを抑制することができる。そのため、コントラスト値に基づく合焦制御をより正確に行うことができる。
なお、本実施形態の撮像装置100に関連して説明した処理は、フォーカスレンズ210のウォブリング動作だけでなく、露光期間中にフォーカスレンズ210を一方向に移動させる場合の処理にも適用できる。また、本実施形態の撮像装置100に関連して説明した処理は、ライブビュー撮影中の画像だけでなく、記録用の動画データを生成する場合の補正処理や、記録用の静止画データを生成する場合の補正処理にも適用できる。また、本実施形態の撮像装置100に関連して説明した処理は、フォーカスレンズ210以外のレンズの移動にも適用できる。すなわち、補正部140は、イメージセンサ120の露光期間中に移動するフォーカスレンズ210以外のレンズの複数の位置に基づいて、当該露光期間にイメージセンサ120を露光することによって取得された画像を補正してよい。
上記のような撮像装置100は、移動体に搭載されてもよい。撮像装置100は、図10に示すような、無人航空機(UAV)に搭載されてもよい。UAV10は、UAV本体20、ジンバル50、複数の撮像装置60、及び撮像装置100を備えてよい。ジンバル50、及び撮像装置100は、撮像システムの一例である。UAV10は、推進部により推進される移動体の一例である。移動体とは、UAVの他、空中を移動する他の航空機などの飛行体、地上を移動する車両、水上を移動する船舶等を含む概念である。
UAV本体20は、複数の回転翼を備える。複数の回転翼は、推進部の一例である。UAV本体20は、複数の回転翼の回転を制御することでUAV10を飛行させる。UAV本体20は、例えば、4つの回転翼を用いてUAV10を飛行させる。回転翼の数は、4つには限定されない。また、UAV10は、回転翼を有さない固定翼機でもよい。
撮像装置100は、所望の撮像範囲に含まれる被写体を撮像する撮像用のカメラである。ジンバル50は、撮像装置100を回転可能に支持する。ジンバル50は、支持機構の一例である。例えば、ジンバル50は、撮像装置100を、アクチュエータを用いてピッチ軸で回転可能に支持する。ジンバル50は、撮像装置100を、アクチュエータを用いて更にロール軸及びヨー軸のそれぞれを中心に回転可能に支持する。ジンバル50は、ヨー軸、ピッチ軸、及びロール軸の少なくとも1つを中心に撮像装置100を回転させることで、撮像装置100の姿勢を変更してよい。
複数の撮像装置60は、UAV10の飛行を制御するためにUAV10の周囲を撮像するセンシング用のカメラである。2つの撮像装置60が、UAV10の機首である正面に設けられてよい。更に他の2つの撮像装置60が、UAV10の底面に設けられてよい。正面側の2つの撮像装置60はペアとなり、いわゆるステレオカメラとして機能してよい。底面側の2つの撮像装置60もペアとなり、ステレオカメラとして機能してよい。複数の撮像装置60により撮像された画像に基づいて、UAV10の周囲の3次元空間データが生成されてよい。UAV10が備える撮像装置60の数は4つには限定されない。UAV10は、少なくとも1つの撮像装置60を備えていればよい。UAV10は、UAV10の機首、機尾、側面、底面、及び天井面のそれぞれに少なくとも1つの撮像装置60を備えてもよい。撮像装置60で設定できる画角は、撮像装置100で設定できる画角より広くてよい。撮像装置60は、単焦点レンズまたは魚眼レンズを有してもよい。
遠隔操作装置300は、UAV10と通信して、UAV10を遠隔操作する。遠隔操作装置300は、UAV10と無線で通信してよい。遠隔操作装置300は、UAV10に上昇、下降、加速、減速、前進、後進、回転などのUAV10の移動に関する各種命令を示す指示情報を送信する。指示情報は、例えば、UAV10の高度を上昇させる指示情報を含む。指示情報は、UAV10が位置すべき高度を示してよい。UAV10は、遠隔操作装置300から受信した指示情報により示される高度に位置するように移動する。指示情報は、UAV10を上昇させる上昇命令を含んでよい。UAV10は、上昇命令を受け付けている間、上昇する。UAV10は、上昇命令を受け付けても、UAV10の高度が上限高度に達している場合には、上昇を制限してよい。
図11は、本発明の複数の態様が全体的または部分的に具現化されてよいコンピュータ1200の一例を示す。コンピュータ1200にインストールされたプログラムは、コンピュータ1200に、本発明の実施形態に係る装置に関連付けられるオペレーションまたは当該装置の1または複数の「部」として機能させることができる。例えば、コンピュータ1200にインストールされたプログラムは、コンピュータ1200に、補正部140又は画像処理部104として機能させることができる。または、当該プログラムは、コンピュータ1200に当該オペレーションまたは当該1または複数の「部」の機能を実行させることができる。当該プログラムは、コンピュータ1200に、本発明の実施形態に係るプロセスまたは当該プロセスの段階を実行させることができる。そのようなプログラムは、コンピュータ1200に、本明細書に記載のフローチャート及びブロック図のブロックのうちのいくつかまたはすべてに関連付けられた特定のオペレーションを実行させるべく、CPU1212によって実行されてよい。
本実施形態によるコンピュータ1200は、CPU1212、及びRAM1214を含み、それらはホストコントローラ1210によって相互に接続されている。コンピュータ1200はまた、通信インタフェース1222、入力/出力ユニットを含み、それらは入力/出力コントローラ1220を介してホストコントローラ1210に接続されている。コンピュータ1200はまた、ROM1230を含む。CPU1212は、ROM1230及びRAM1214内に格納されたプログラムに従い動作し、それにより各ユニットを制御する。
通信インタフェース1222は、ネットワークを介して他の電子デバイスと通信する。ハードディスクドライブが、コンピュータ1200内のCPU1212によって使用されるプログラム及びデータを格納してよい。ROM1230はその中に、アクティブ化時にコンピュータ1200によって実行されるブートプログラム等、及び/またはコンピュータ1200のハードウェアに依存するプログラムを格納する。プログラムが、CR−ROM、USBメモリまたはICカードのようなコンピュータ可読記録媒体またはネットワークを介して提供される。プログラムは、コンピュータ可読記録媒体の例でもあるRAM1214、またはROM1230にインストールされ、CPU1212によって実行される。これらのプログラム内に記述される情報処理は、コンピュータ1200に読み取られ、プログラムと、上記様々なタイプのハードウェアリソースとの間の連携をもたらす。装置または方法が、コンピュータ1200の使用に従い情報のオペレーションまたは処理を実現することによって構成されてよい。
例えば、通信がコンピュータ1200及び外部デバイス間で実行される場合、CPU1212は、RAM1214にロードされた通信プログラムを実行し、通信プログラムに記述された処理に基づいて、通信インタフェース1222に対し、通信処理を命令してよい。通信インタフェース1222は、CPU1212の制御の下、RAM1214、またはUSBメモリのような記録媒体内に提供される送信バッファ領域に格納された送信データを読み取り、読み取られた送信データをネットワークに送信し、またはネットワークから受信した受信データを記録媒体上に提供される受信バッファ領域等に書き込む。
また、CPU1212は、USBメモリ等のような外部記録媒体に格納されたファイルまたはデータベースの全部または必要な部分がRAM1214に読み取られるようにし、RAM1214上のデータに対し様々なタイプの処理を実行してよい。CPU1212は次に、処理されたデータを外部記録媒体にライトバックしてよい。
様々なタイプのプログラム、データ、テーブル、及びデータベースのような様々なタイプの情報が記録媒体に格納され、情報処理を受けてよい。CPU1212は、RAM1214から読み取られたデータに対し、本開示の随所に記載され、プログラムの命令シーケンスによって指定される様々なタイプのオペレーション、情報処理、条件判断、条件分岐、無条件分岐、情報の検索/置換等を含む、様々なタイプの処理を実行してよく、結果をRAM1214に対しライトバックする。また、CPU1212は、記録媒体内のファイル、データベース等における情報を検索してよい。例えば、各々が第2の属性の属性値に関連付けられた第1の属性の属性値を有する複数のエントリが記録媒体内に格納される場合、CPU1212は、第1の属性の属性値が指定される、条件に一致するエントリを当該複数のエントリの中から検索し、当該エントリ内に格納された第2の属性の属性値を読み取り、それにより予め定められた条件を満たす第1の属性に関連付けられた第2の属性の属性値を取得してよい。
上で説明したプログラムまたはソフトウェアモジュールは、コンピュータ1200上またはコンピュータ1200近傍のコンピュータ可読記憶媒体に格納されてよい。また、専用通信ネットワークまたはインターネットに接続されたサーバーシステム内に提供されるハードディスクまたはRAMのような記録媒体が、コンピュータ可読記憶媒体として使用可能であり、それによりプログラムを、ネットワークを介してコンピュータ1200に提供する。
特許請求の範囲、明細書、及び図面中において示した装置、システム、プログラム、及び方法における動作、手順、ステップ、及び段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、及び図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。
10 UAV
20 UAV本体
50 ジンバル
60 撮像装置
100 撮像装置
102 撮像部
104 画像処理部
110 撮像制御部
112 焦点調節部
120 イメージセンサ
130 メモリ
140 補正部
142 取得部
160 表示部
162 指示部
200 レンズ部
210 フォーカスレンズ
211 ズームレンズ
212 レンズ駆動部
213 レンズ駆動部
220 レンズ制御部
222 メモリ
214、215 位置センサ
300 遠隔操作装置
310 画素データ
311 補正画像
320 画素データ
321 補正画像
810 画素データ
811 補正画素データ
820 画素データ
821 補正画素データ
1200 コンピュータ
1210 ホストコントローラ
1212 CPU
1214 RAM
1220 入力/出力コントローラ
1222 通信インタフェース
1230 ROM

Claims (14)

  1. 撮像素子の露光期間中に移動するレンズの複数の位置を示す情報を取得する取得部と、
    前記複数の位置に基づいて、前記露光期間に前記レンズを通じて前記撮像素子を露光することにより取得された画像を補正する補正部と
    を備える画像処理装置。
  2. 前記補正部は、前記複数の位置に基づいて、前記露光期間内における前記レンズの平均的な位置を算出し、算出した前記レンズの平均的な位置に基づいて、前記画像の歪みを補正する
    請求項1に記載の画像処理装置。
  3. 前記補正部は、前記レンズの平均的な位置と、前記レンズの位置に対応づけられた歪係数とに基づいて、前記画像の歪みを補正する
    請求項2に記載の画像処理装置。
  4. 前記補正部は、前記複数の位置及び前記撮像素子が備える複数の画素の位置に基づいて、前記複数の位置及び前記複数の画素の組み合わせ毎に、前記画像上で前記複数の画素のそれぞれに対応する複数の画素位置を算出し、前記複数の画素のそれぞれについて前記複数の画素位置の平均的な位置を算出することにより、前記画像を補正する
    請求項1に記載の画像処理装置。
  5. 前記撮像素子は、前記撮像素子が備える複数の画素列毎に異なる露光期間で露光され、
    前記取得部は、前記複数の画素列のそれぞれの露光期間中に移動するレンズの複数の位置を示す情報を取得し、
    前記補正部は、前記複数の画素列のそれぞれの露光期間中の前記複数の位置に基づいて、前記複数の画素列のそれぞれにより取得された前記画像を補正する
    請求項1又は2に記載の画像処理装置。
  6. 前記レンズは、光軸方向に移動可能なフォーカスレンズである
    請求項1又は2に記載の画像処理装置。
  7. 前記レンズは、前記レンズを含む光学系の焦点を調節をするために、前記露光期間中に前記光軸方向に往復移動し、
    前記取得部は、前記露光期間中の前記往復移動における前記レンズの複数の位置を示す情報を取得する
    請求項6に記載の画像処理装置。
  8. 前記レンズは、前記レンズを含む光学系の焦点を調節をするために、前記露光期間中に前記光軸方向に一方向に移動し、
    前記取得部は、前記露光期間中の前記一方向の移動における前記レンズの複数の位置を示す情報を取得する
    請求項6に記載の画像処理装置。
  9. 前記露光期間は、動画を構成する複数の動画構成画像のそれぞれを取得するために前記撮像素子を繰り返し露光する期間であり、
    前記補正部は、前記複数の動画構成画像のそれぞれを取得するための前記露光期間における前記複数の位置に基づいて、それぞれの動画構成画像を補正する
    請求項1又は2に記載の画像処理装置。
  10. 請求項1から9のいずれか一項に記載の画像処理装置と、
    前記撮像素子と
    を備える撮像装置。
  11. 前記レンズは、光軸方向に移動可能なフォーカスレンズであり、
    前記撮像装置は、
    前記補正部により補正された前記画像に基づいて、前記レンズを含む光学系の焦点調整を行う焦点調節部
    をさらに備える請求項10に記載の撮像装置。
  12. 請求項10に記載の撮像装置を備えて移動する無人航空機。
  13. 撮像素子の露光期間中に移動するレンズの複数の位置を示す情報を取得する段階と、
    前記複数の位置に基づいて、前記露光期間に前記レンズを通じて前記撮像素子を露光することにより取得された画像を補正する段階と
    を備える画像処理方法。
  14. 請求項1又は2に記載の画像処理装置としてコンピュータを機能させるためのプログラム。
JP2019015752A 2019-01-31 2019-01-31 画像処理装置、撮像装置、無人航空機、画像処理方法、及びプログラム Expired - Fee Related JP6746857B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019015752A JP6746857B2 (ja) 2019-01-31 2019-01-31 画像処理装置、撮像装置、無人航空機、画像処理方法、及びプログラム
PCT/CN2020/071175 WO2020156085A1 (zh) 2019-01-31 2020-01-09 图像处理装置、摄像装置、无人驾驶航空器、图像处理方法以及程序
CN202080002874.4A CN112204947A (zh) 2019-01-31 2020-01-09 图像处理装置、摄像装置、无人驾驶航空器、图像处理方法以及程序

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019015752A JP6746857B2 (ja) 2019-01-31 2019-01-31 画像処理装置、撮像装置、無人航空機、画像処理方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2020123897A true JP2020123897A (ja) 2020-08-13
JP6746857B2 JP6746857B2 (ja) 2020-08-26

Family

ID=71840865

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019015752A Expired - Fee Related JP6746857B2 (ja) 2019-01-31 2019-01-31 画像処理装置、撮像装置、無人航空機、画像処理方法、及びプログラム

Country Status (3)

Country Link
JP (1) JP6746857B2 (ja)
CN (1) CN112204947A (ja)
WO (1) WO2020156085A1 (ja)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013171954A1 (ja) * 2012-05-17 2013-11-21 パナソニック株式会社 撮像装置、半導体集積回路および撮像方法
JP2013251625A (ja) * 2012-05-30 2013-12-12 Canon Inc 画像処理装置、その制御方法及びプログラム
WO2013190946A1 (ja) * 2012-06-22 2013-12-27 富士フイルム株式会社 撮像装置およびその動作制御方法
JP2015163931A (ja) * 2014-02-03 2015-09-10 パナソニックIpマネジメント株式会社 動画像撮影装置、および、動画像撮影装置の合焦方法
JP2016090924A (ja) * 2014-11-10 2016-05-23 オリンパス株式会社 撮影装置およびカメラシステム
WO2017122348A1 (ja) * 2016-01-15 2017-07-20 オリンパス株式会社 フォーカス制御装置、内視鏡装置及びフォーカス制御装置の作動方法
WO2018025659A1 (ja) * 2016-08-05 2018-02-08 ソニー株式会社 撮像装置、固体撮像素子、カメラモジュール、駆動制御部、および撮像方法
WO2018159069A1 (ja) * 2017-03-01 2018-09-07 富士フイルム株式会社 撮像装置、画像処理装置、画像処理方法及び画像処理プログラム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1320813C (zh) * 2003-06-20 2007-06-06 北京中星微电子有限公司 一种镜头成像畸变校正的方法
US7596286B2 (en) * 2003-08-06 2009-09-29 Sony Corporation Image processing apparatus, image processing system, imaging apparatus and image processing method
JP4522207B2 (ja) * 2004-09-17 2010-08-11 キヤノン株式会社 カメラシステム、カメラ本体及び交換レンズ
JP4310645B2 (ja) * 2004-12-28 2009-08-12 ソニー株式会社 撮像画像信号の歪み補正方法および撮像画像信号の歪み補正装置
JP2009296561A (ja) * 2008-05-02 2009-12-17 Olympus Imaging Corp 撮像装置及び撮像方法
JP5272699B2 (ja) * 2008-12-15 2013-08-28 株式会社ニコン 画像処理装置、撮像装置、プログラムおよび画像処理方法
JP2011061444A (ja) * 2009-09-09 2011-03-24 Hitachi Information & Communication Engineering Ltd 収差補正装置及び収差補正方法
JP5891440B2 (ja) * 2011-05-16 2016-03-23 パナソニックIpマネジメント株式会社 レンズユニット及び撮像装置
JP6124655B2 (ja) * 2013-04-05 2017-05-10 オリンパス株式会社 撮像装置、撮像装置の制御方法及びプログラム
JP6313685B2 (ja) * 2014-05-01 2018-04-18 キヤノン株式会社 撮像装置およびその制御方法
JP6906947B2 (ja) * 2016-12-22 2021-07-21 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法およびコンピュータのプログラム
US10705312B2 (en) * 2017-02-02 2020-07-07 Canon Kabushiki Kaisha Focus control apparatus, image capturing apparatus, and focus control method

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013171954A1 (ja) * 2012-05-17 2013-11-21 パナソニック株式会社 撮像装置、半導体集積回路および撮像方法
JP2013251625A (ja) * 2012-05-30 2013-12-12 Canon Inc 画像処理装置、その制御方法及びプログラム
WO2013190946A1 (ja) * 2012-06-22 2013-12-27 富士フイルム株式会社 撮像装置およびその動作制御方法
JP2015163931A (ja) * 2014-02-03 2015-09-10 パナソニックIpマネジメント株式会社 動画像撮影装置、および、動画像撮影装置の合焦方法
JP2016090924A (ja) * 2014-11-10 2016-05-23 オリンパス株式会社 撮影装置およびカメラシステム
WO2017122348A1 (ja) * 2016-01-15 2017-07-20 オリンパス株式会社 フォーカス制御装置、内視鏡装置及びフォーカス制御装置の作動方法
WO2018025659A1 (ja) * 2016-08-05 2018-02-08 ソニー株式会社 撮像装置、固体撮像素子、カメラモジュール、駆動制御部、および撮像方法
WO2018159069A1 (ja) * 2017-03-01 2018-09-07 富士フイルム株式会社 撮像装置、画像処理装置、画像処理方法及び画像処理プログラム

Also Published As

Publication number Publication date
WO2020156085A1 (zh) 2020-08-06
CN112204947A (zh) 2021-01-08
JP6746857B2 (ja) 2020-08-26

Similar Documents

Publication Publication Date Title
JPWO2018185939A1 (ja) 撮像制御装置、撮像装置、撮像システム、移動体、撮像制御方法、及びプログラム
WO2019120082A1 (zh) 控制装置、系统、控制方法以及程序
JP6874251B2 (ja) 装置、撮像装置、移動体、方法、及びプログラム
JP6746857B2 (ja) 画像処理装置、撮像装置、無人航空機、画像処理方法、及びプログラム
JP6503607B2 (ja) 撮像制御装置、撮像装置、撮像システム、移動体、撮像制御方法、及びプログラム
US20220046177A1 (en) Control device, camera device, movable object, control method, and program
JP6972456B1 (ja) 測距センサ、撮像装置、制御方法、及びプログラム
JP6641574B1 (ja) 決定装置、移動体、決定方法、及びプログラム
JP6543859B1 (ja) 画像処理装置、撮像装置、移動体、画像処理方法、及びプログラム
JP6961888B1 (ja) 装置、撮像装置、移動体、プログラム及び方法
JP6547984B2 (ja) 制御装置、撮像装置、撮像システム、移動体、制御方法、及びプログラム
JP2021032990A (ja) 制御装置、撮像システム、制御方法、及びプログラム
JP7043706B2 (ja) 制御装置、撮像システム、制御方法、及びプログラム
JP6569157B1 (ja) 制御装置、撮像装置、移動体、制御方法、及びプログラム
JP6743337B1 (ja) 制御装置、撮像装置、撮像システム、制御方法、及びプログラム
JP7173657B2 (ja) 制御装置、撮像装置、制御方法、及びプログラム
JP2019205047A (ja) 制御装置、撮像装置、移動体、制御方法、及びプログラム
JP2020014054A (ja) 制御装置、移動体、制御方法、及びプログラム
JP7043707B2 (ja) シーン認識装置、撮像装置、シーン認識方法、及びプログラム
JP6932895B1 (ja) 画像処理装置、撮像装置、移動体、プログラム及び方法
JP6776494B2 (ja) 制御装置、撮像装置、移動体、制御方法、及びプログラム
JP6780203B2 (ja) 制御装置、撮像装置、制御方法、及びプログラム
JP6459012B1 (ja) 制御装置、撮像装置、飛行体、制御方法、及びプログラム
JP2021193412A (ja) 装置、撮像装置、撮像システム、移動体
JP2020122808A (ja) 制御装置、撮像装置、移動体、制御方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190131

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200318

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200707

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200713

R150 Certificate of patent or registration of utility model

Ref document number: 6746857

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees