JP7366635B2 - 撮像装置、コンピュータプログラム及び記憶媒体 - Google Patents

撮像装置、コンピュータプログラム及び記憶媒体 Download PDF

Info

Publication number
JP7366635B2
JP7366635B2 JP2019145629A JP2019145629A JP7366635B2 JP 7366635 B2 JP7366635 B2 JP 7366635B2 JP 2019145629 A JP2019145629 A JP 2019145629A JP 2019145629 A JP2019145629 A JP 2019145629A JP 7366635 B2 JP7366635 B2 JP 7366635B2
Authority
JP
Japan
Prior art keywords
image
tracking
main subject
imaging
image signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019145629A
Other languages
English (en)
Other versions
JP2021027519A (ja
Inventor
貴弘 宇佐美
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019145629A priority Critical patent/JP7366635B2/ja
Priority to US16/987,198 priority patent/US11206344B2/en
Publication of JP2021027519A publication Critical patent/JP2021027519A/ja
Application granted granted Critical
Publication of JP7366635B2 publication Critical patent/JP7366635B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/675Focus control based on electronic image sensor signals comprising setting of focusing regions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/40Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled
    • H04N25/44Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled by partially reading an SSIS array
    • H04N25/443Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled by partially reading an SSIS array by reading pixels from selected 2D regions of the array, e.g. for windowing or digital zooming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/53Control of the integration time
    • H04N25/531Control of the integration time by controlling rolling shutters in CMOS SSIS
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/13Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths with multiple sensors
    • H04N23/15Image signal generation with circuitry for avoiding or correcting image misregistration

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Studio Devices (AREA)
  • Focusing (AREA)
  • Cameras In General (AREA)
  • Automatic Focus Adjustment (AREA)

Description

本発明は撮像装置等に関し、特に、2つの撮像手段を有する撮像装置に関する。
一般にデジタルカメラなどの撮像装置において、画像に含まれる被写体を追尾する、いわゆる被写体追尾機能が知られている。この被写体追尾機能を備えた撮像装置では例えばライブビュー(以下LVと略す。)の表示を行う際に、追尾対象となる被写体に対して追尾枠を表示することで撮影者に認識しやすくしている(特許文献1参照)。また、別の技術では、記録映像用とは別に追尾用の撮像素子を設けてそれぞれ同一撮影範囲の被写体画像を撮像し、追尾用の撮像素子で撮像した画像信号を用いて追尾対象となる被写体を検出しながら、その追尾枠を表示するものがある(特許文献2参照)。
特開2010-81587号公報 特開2005-338352号公報
特許文献2に示す撮像装置では、被写体の検出性能や追尾性能の向上を目的として、追尾用の撮像素子の撮像周期を、記録映像用の撮像素子の撮像周期より短くし、1枚の記録映像用の撮像を行う時間で、複数枚の追尾用の撮像を行う構成が例示されている。この場合、追尾用の撮像素子と記録映像用の撮像素子とでは、撮像周期や露光開始タイミングが異なる。
ところで、一般に記録映像用の撮像や追尾用の撮像を行う際の撮像素子における撮像手法として、蓄積された電荷を上部から下部に向かってライン毎に読み出す、所謂ローリングシャッタ方式による読み出し制御が用いられる。このローリングシャッタ方式による読み出しでは、撮像素子の上部と下部とで読み出しタイミングが異なる。そのため、撮像面上で被写体の位置が移動した場合に、撮像素子の電荷読み出しのタイミングが異なることに起因する撮像画像の歪み(ローリングシャッタ歪み)が生じる。このローリングシャッタ歪みは撮像素子の撮像周期によって歪み量が異なる。
ここで、記録映像用の撮像素子で撮像した画像信号(LV画像信号)に対して、追尾用の撮像素子で撮像した画像信号(追尾画像信号)から生成する追尾対象となる被写体の追尾領域を用いた画像処理を行う場合を考える。追尾用の撮像素子の撮像周期と、記録映像用の撮像素子の撮像周期が同じであり、且つ、露光開始タイミングも同期していれば、追尾領域位置と被写体位置とでずれが発生することはないため、適切な画像処理を行うことができる。しかし、追尾用の撮像素子と記録映像用の撮像素子とで撮像周期や露光開始タイミングが異なる場合がある。その場合に、追尾画像信号から作成する追尾領域位置は、追尾対象となる被写体が移動していると、露光開始タイミングの違いや、ローリングシャッタ歪みの歪み量の違いから、LV画像信号における被写体位置に対して、ずれが発生する可能性がある。
従来技術では、追尾用の撮像素子と記録映像用の撮像素子とで、撮像周期や露光開始タイミングが異なる場合の追尾画像信号から作成する追尾領域位置と、LV画像信号上の被写体位置とのずれについては考慮されていない。
本発明はこうした状況に鑑みなされたものであり、その目的は、2つの撮像手段の画像出力の相対的な位置ずれを抑制した撮像装置を提供することにある。
本発明に係る撮像装置は、
第1の周期でローリングシャッタ動作による撮像をして第1の画像信号を生成する第1の撮像手段と、
前記第1の撮像手段より短い第2の周期で撮像をして複数の第2の画像信号を生成する第2の撮像手段と、
前記第1の撮像手段における露光期間と前記第2の撮像手段の前記周期での撮像タイミングとの重なりに基づいて、前記第1の画像信号と複数の前記第2の画像信号との撮像タイミングの前記重なりに関する関連度情報を生成する関連度情報生成手段と、
前記関連度情報生成手段によって生成した関連度情報に基づいて、複数の前記第2の画像信号の中から、所定の被写体が含まれると共に前記第1の画像信号の撮像タイミングと重なる特定の領域を選択する領域選択手段と、
前記領域選択手段で選択した前記特定の領域に基づき前記第1の画像信号に対して枠の重畳、フォーカス演算、圧縮処理の少なくとも1つを含む画像処理を行う画像処理手段と、
を備えることを特徴とする。
2つの撮像手段の画像出力の相対的な位置ずれを抑制した撮像装置を実現できる。
実施例1における撮像装置のブロック図である。 実施例1、2における露光開始タイミングを示すタイミング図である。 実施例1における追尾画像の垂直ラインごとのLV画像と追尾画像の関連度の例を示す図である。 実施例1における追尾画像の垂直ラインごとのLV画像と追尾画像の関連度を示す図である。 実施例1における表示用画像と追尾枠付き表示用画像を示す図である。 実施例1における検出処理結果を用いた主被写体追尾枠の重畳が表示にすべて間に合うケースのタイミング図である。 実施例1における検出処理結果を用いた主被写体追尾枠の重畳が表示にすべて間に合うケースのタイミング図である。 実施例1における検出処理結果を用いた主被写体追尾枠の重畳が一部のフレームにおいては表示に間に合わないケースのタイミング図である。 実施例1における検出処理結果を用いた主被写体追尾枠の重畳が一部のフレームにおいては表示に間に合わないケースのタイミング図である。 実施例1における撮像装置のLV画像信号の記録処理の流れを説明するフローチャートである。 実施例1における撮像装置のLV画像信号の表示処理の流れを説明するフローチャートである。 実施例1における撮像装置の追尾用画像信号の主被写体追尾枠を重畳する処理の流れを説明するフローチャートである。 実施例1における撮像装置の追尾用画像信号の主被写体追尾枠を重畳する処理の流れを説明するフローチャートである。 実施例2における撮像装置のブロック図である。 実施例2におけるLV画像と追尾画像との画角の違いを示す図である。 実施例2におけるLV画像の垂直ラインごとのLV画像と追尾画像の関連度を示す図である。 実施例2における追尾画像垂直ラインごとのLV画像と追尾画像の関連度を示す図である。 実施例2におけるデフォーカス量演算処理の流れを示すフローチャートである。 実施例2における追尾用画像信号の主被写体領域を作成する処理の流れを示すフローチャートである。 実施例2における露光開始タイミングごとの追尾画像における被写体検出領域を示す図である。
以下、添付図面を参照して、本発明の好適な実施の形態について実施例を用いて説明する。なお、各図において、同一の部材ないし要素については同一の参照番号を付し、重複する説明は省略ないし簡略化する。
また、実施例においては、撮像装置としてデジタルスチルカメラに適用した例について説明する。しかし、撮像装置はデジタルムービーカメラ、カメラ付きのスマートフォン、カメラ付きのタブレットコンピュータ、ネットワークカメラなど撮像機能を有する電子機器等を含む。
実施例1の概要を述べる。実施例1に係る撮像装置100は、追尾画像信号から生成する追尾枠を、LV画像信号から作成するLV画像に重畳表示する。
図1は実施例1に係る撮像装置100の内部構造を模式的に示す図である。撮像装置100は、光学系101、光学制御部102、撮像素子103、表示用画像前処理部104、検出追尾用画像前処理部105、画像補正部106を含む。
また、表示用画像データ制御部107、メモリ108、特定領域検出部109、表示用画像後処理部113、特定領域選択合成部114、関連度情報生成部115、記録部116、特定領域重畳部117、記録媒体118、表示部119、メモリ120を含む。なお、前記特定領域検出部109は内部にコンピュータとしてのCPUを含み、メモリ120に記憶されたコンピュータプログラムに基づき装置全体の各種動作を実行する制御手段として機能する。
また、表示部119は、例えばLCDパネルや有機ELパネルであり、特定領域重畳部117で表示用画像に主被写体追尾枠を重畳した追尾枠付き表示用画像等を表示する。
光学系101はズームレンズ、フォーカスレンズ等の複数枚のレンズを含み、被写体からの光情報を撮像素子103に結像する。
撮像素子103は、例えばCMOS(Complementary Metal Oxide Semiconductor)イメージセンサであり、光学系101により結像された光情報を電気情報に変換する。本実施例では、撮像素子103は、撮像周期や撮像開始タイミングの異なるLV画像信号と追尾画像信号とを並列に出力することができるように構成されている。即ち、LV画像信号を出力するための(第1の)撮像手段と、追尾画像信号を出力するための(第2の)撮像手段とが同じ撮像素子内に設けられている。
なお、LV画像信号を出力するための(第1の)撮像手段と、追尾画像信号を出力するための(第2の)撮像手段とを、それぞれ別の撮像素子としてもよい。
表示用画像前処理部104は、撮像素子103が第1の撮像手段として第1の周期で撮像して生成したLV画像信号(第1の画像信号)をRGB各色の信号(LVRGB信号)に変換する。
画像補正部106は、表示用画像前処理部104が変換したLVRGB信号に対して、ホワイトバランス補正やシェーディング補正、RGB信号のYUV信号への変換などの各種画像補正処理を行う。
画像補正部106内の表示用画像データ制御部107は、LVRGB信号に画像補正処理を行う際に、メモリ108へのLVRGB信号、または変換処理をしたYUV信号の書き込み、読み出しを行う。それによって、複数ライン分、または複数フレーム分の画像補正処理を実行可能とする。なお、ここでライン(垂直ライン)とは画面における水平方向の行のことを指す。
表示用画像後処理部113は、画像補正部106が画像補正処理をしたLVRGB信号、または変換処理をしたYUV信号を記録媒体118に記録するための記録用画像信号に変換する。記録用画像信号は、例えばJPEGを適応した圧縮データ信号が挙げられる。
また、表示用画像後処理部113は、画像補正部106が画像補正処理をしたライブビューRGB信号、または変換処理をしたYUV信号を、表示部119に表示するための表示用画像信号に変換する。ここで、表示部119における表示周期は、撮像素子103におけるLV画像信号の撮像周期と同じ周期である。また、表示用画像後処理部113は画像補正部106から入力されるLVRGB信号、または変換処理をしたYUV信号を毎フレーム、表示部119が表示するために最適な画像サイズに変換する。
表示部119における表示周期が、LV画像信号の撮像周期と異なる場合、例えば、表示周期が30fps(Frame per Second)であり、撮像周期が60fpsである場合を考える。その場合、表示用画像信号への変換を2フレームに1回にすることで、表示用画像後処理部113は、表示部119の表示周期にあわせた出力を行う。表示周期が60fpsであり、撮像周期が30fpsである場合は、表示用画像後処理部113の表示用画像信号1フレーム分の出力に対し、表示部119において2フレーム期間、同じ表示を繰り返す。それによって、表示用画像後処理部113の出力が表示部119の表示周期に間に合わない場合の表示処理行う。
記録部116は、表示用画像後処理部113で変換された記録用画像信号を記録媒体118に記録する。記録媒体としては、例えばSDメモリカード、CFカードなどのフラッシュメモリを使用する。
検出追尾用画像前処理部105は、撮像素子103が第2の撮像手段として前記第1の周期よりも短い(前記第1の周期の整数分の一の)第2の周期で撮像して生成した追尾画像信号(第2の画像信号)をRGB各色の信号(追尾RGB信号)に変換する。
特定領域検出部109は、検出追尾用画像データ制御部110、画像検出部111、画像追尾部112を有する。検出追尾用画像データ制御部110は、検出追尾用画像前処理部105が変換した追尾RGB信号に対して、ホワイトバランス補正やシェーディング補正、RGB信号のYUV信号への変換などの画像補正処理を行う。画像検出部111はフレーム毎の追尾RGB信号(第2の画像信号)から一つ以上の被写体を検出し、検出した被写体から主被写体を決定する。画像追尾部112は、検出処理で決定した主被写体が次のフレーム以降の追尾RGB信号においてどの位置に移動しているかを追尾する追尾処理を行う。
特定領域検出部109内の検出追尾用画像データ制御部110は、メモリ108への追尾RGB信号、または変換処理をしたYUV信号の書き込み、読み出しを行う。
特定領域検出部109内の画像検出部111は、例えば、1フレームの画像信号からエッジ情報に基づいた領域特徴量を抽出する。そして、抽出した特徴量に基づいて被写体となる領域候補を検出する被写体検出技術を用いて、追尾RGB信号、または変換処理をしたYUV信号から被写体の検出を行い、検出した一つ以上の被写体から主被写体を決定する。
一つ以上の被写体から主被写体を決定する手法としては、例えば、あらかじめ用意した人物顔、自動車、動物などの特徴画像と被写体候補領域画像とのパターンマッチングを行う。そして、マッチング率の高い被写体に対して任意の優先順位に基づいて、主被写体を決定する。任意の優先順位としては、例えば、サイズの大きい人物顔を最も優先する、オートフォーカス設定枠に最も近い被写体を優先する、などを適宜組み合わせる。
画像検出部111により決定した主被写体のエッジ情報、ヒストグラム情報などの特徴情報を、検出追尾用画像データ制御部110を通して、メモリ108に一旦記憶する。また、画像検出部111は決定した主被写体から主被写体のサイズ、重心位置を算出する。そして、主被写体を内包する最小の矩形領域を特定領域として、特定領域位置情報、特定領域サイズ情報、および、主被写体重心位置情報を主被写体検出情報として出力する。
画像追尾部112は、追尾RGB信号、または変換処理をしたYUV信号、および、画像検出部111が検出した1フレーム過去、または複数フレーム過去の主被写体の特徴情報を、検出追尾用画像データ制御部110を通して、メモリ108から読み出す。そして、取得フレームの追尾RGB信号、または変換処理をしたYUV信号における、例えば主被写体のヒストグラム情報と最も類似性が高い被写体領域を主被写体の追尾結果領域として決定することで、主被写体の追尾処理を行う。また、画像追尾部112は追尾した主被写体から主被写体のサイズ、重心位置を算出し、主被写体を内包する最小の矩形領域を特定領域として、特定領域位置情報、特定領域サイズ情報、および、主被写体重心位置情報を主被写体追尾情報として出力する。
追尾処理は検出処理における領域特徴量を使った被写体検出の演算量に比べ、演算量が少ないヒストグラムマッチング処理技術、テンプレート画像マッチング処理技術などを用いて構成する。これによって、一般的に、検出処理に必要とする時間に対して短い時間で処理を完了することができる。しかし前述したアルゴリズムを用いる主被写体追尾情報は、特徴量の演算を用いる検出情報に比べて精度は低い。
特定領域検出部109で検出した主被写体検出情報、および、主被写体追尾情報に基づいて、撮像面における、合焦対象とする矩形領域を決定する。光学制御部102は、例えば撮像素子103として、位相差オートフォーカスセンサーを用いて撮像対象となる空間を撮像し、撮像面における前記矩形領域のデフォーカス量を演算する。そして、前記矩形領域のデフォーカス量に基づいてフォーカスレンズのフォーカス制御を実行する。フォーカス制御は高速であるほど撮影者が撮影しやすくなることから、LV画像信号の撮像周期(第1の周期)を追尾画像信号の撮像周期(第2の周期)より長い周期(整数倍)とする。
例えば、LV画像信号の撮像周期を60fps、追尾画像信号の撮像周期を240fpsとする。ただし、同じ信号量の画像信号を転送する場合、撮像周期が短くなるほど時間当たりの転送信号量が増え、データ転送負荷が増大する。従って、例えばLV画像信号の画像サイズ、水平1920画素、垂直1440ラインに対して、追尾画像信号の画像サイズを水平960画素、垂直720ラインとする。このように、追尾画像信号の撮像周期をLV画像信号の例えば1/4の周期とするとともに、追尾画像信号の解像度をLV画像信号の解像度の1/4としている。このように周期の比に応じて解像度の比を設定することによって、時間当たりの転送信号量を等価とし、データ転送負荷を抑制している。
関連度情報生成部115は、1フレームのLV画像信号と、LV画像信号とは撮像周期や撮像タイミングの異なる複数フレームの追尾画像信号との撮像タイミングとの重なり(割合)に基づき、露光重なりマップを関連度情報として生成する。そして、どのラインに主被写体重心が位置する場合に、どの露光期間を含む表示用画像信号から生成する追尾枠が表示用画像に重畳する追尾枠として最適であるかを示す。
図2(A)、(B)は実施例1、2における露光開始タイミングを示すタイミング図である。図2(A)において、LV画像信号の撮像周期507を1/60msとし、追尾画像信号の撮像周期512を1/240msとし、LV画像信号露光のローリングシャッタの傾きを500とする。また、1ラインのLV画像信号露光時間(露光期間)を501、LV画像信号の読み出し傾きを502、1フレームのLV画像信号の露光時間を506、追尾画像信号露光のローリングシャッタ傾きを503とする。また、1ラインの追尾画像信号の露光時間を504、追尾画像信号の読み出し傾きを505、複数フレームの追尾画像信号の露光時間をそれぞれ508、509、510、511とする。なお、ローリングシャッタ傾きとは、各行毎にずれたタイミングで露光(蓄積)を開始することによって生じる露光タイミングのずれの傾きを意味し、信号読み出し傾きとは、各行毎の読出しタイミングのずれの傾きを意味する。
このとき、傾き500と、502とは、ラインあたりの露光時間を一定とするため、同じ傾きである。また傾き503と傾き505も同じ傾きとする。追尾画像信号の露光時間508においてLV画像信号が露光する領域はAで表され、追尾画像信号の露光時間509においてLV画像信号が露光する領域はBで表され、追尾画像信号の露光時間510においてLV画像信号が露光する領域はCで表される。LV画像信号が全ライン露光する際の各ラインの露光において、追尾画像信号の露光時間508、509、510がどのように重なるかを図2(B)に示す。
最も上のラインではLV画像信号の1ラインの露光時間と追尾画像信号の露光時間508は等しいことから、100%重なっており、ラインが1ラインずつ下に下がるにつれ重なり割合はリニアに下がり、垂直ライン519で0%になる。重なり割合はLV画像信号の傾き500と露光時間501と傾き502と、追尾画像信号の傾き503と露光時間504と傾き505と撮像周期512から計算で容易に求めることができる。
図3(A)、(B)は実施例1における追尾画像の垂直ラインごとのLV画像と追尾画像の関連度の例を示す図である。
図3(A)は、追尾画像信号において、508~510のいずれの露光時間で露光した追尾画像信号が、LV画像信号の各ラインと重なり割合が最も高いかを示す露光重なりマップを追尾画像にマッピングし直したものである。ラインごとの重なり割合が相対的に最も高い追尾画像信号を追尾画像関連度100%とし、それ以外の追尾画像信号は0%としている。
露光重なりマップは、LV画像信号と追尾画像信号の画角が同じである場合、図2(B)の重なり割合の大小関係から容易に作成することができる。即ち、図3(A)における508と509の境目のライン515´が、図2(B)における露光時間508の重なり割合513と露光時間509の重なり割合514が等しくなっているライン515を示す。図3(A)における509と510の境目のライン518´が、図2(B)における露光時間509の重なり割合516と露光時間510の重なり割合517が等しくなっているライン518を示す。つまり、境目のライン515´より下のラインでは508の割合より509の割合の方が大きくなり、境目のライン518´より下のラインでは509の割合より510の割合の方が大きくなる。
ただしLV画像信号と追尾画像信号とで垂直ライン数が異なる場合、追尾画像信号におけるライン515´はLV画像信号におけるライン515に(追尾画像信号の垂直ライン数/LV画像信号の垂直ライン数)を乗じてマッピングし直す。追尾画像信号におけるライン518´に関しても同様である。
なお、ここであげる露光重なりマップの作成手法は実施例1における一例であり、図3(B)に示すように、露光時間の重なり割合そのものを追尾画像関連度とし、露光重なりマップとしても良い。
最も簡単な露光重なりマップとしては、図2(A)の追尾画像信号の露光開始時間521~523と、LV画像信号のローリングシャッタの傾き500とのそれぞれの交点を追尾画像信号ライン数にマッピングし直す方法があり、その結果を図4に示す。図4は実施例1における追尾画像の垂直ラインごとのLV画像と追尾画像の関連度を示す図である。図4において、ライン524~526をライン境界として、重なり割合の高い露光時間508~510を0%と100%のいずれかに切り替える露光重なりマップとすることができる。
ライン525までは、露光時間508の追尾画像信号が100%の追尾画像関連度を有し、ライン525の次のラインからライン526までは、露光時間509の追尾画像信号が100%の追尾画像関連度を有する。また、ライン526の次のラインからは、露光時間510の追尾画像信号が100%の追尾画像関連度を有するものとする。
なお、関連度情報生成部115は、撮像装置100の構成に含めず、撮像装置100とは異なる演算装置に関連度情報生成手段としてプログラム実装し、プログラム実行により露光重なりマップを生成するようにしても良い。そして、生成した露光重なりマップをあらかじめメモリ108に書き込み、特定領域選択合成部114がメモリ108から露光重なりマップを読み出す構成としても良い。それによって、撮像装置内で、リアルタイムで露光重なりマップを生成するための演算量を削減することもできる。
特定領域選択合成部114は、関連度情報生成部115で生成した露光重なりマップと、特定領域検出部109で取得した複数フレームの主被写体検出情報と、主被写体追尾情報に基づいて、主被写体位置、主被写体サイズを示す主被写体追尾枠を選択する。そして、LV画像に合成する。
例えば図3(A)が露光重なりマップである場合について説明する。特定領域選択合成部114は、図2(A)における追尾画像の露光時間508~510の中でLV画像信号の露光時間506の露光重心タイミング520に最も露光重心が近い露光時間509を基準露光画像とする。そして、露光時間509で撮像した追尾画像信号における主被写体追尾情報に含まれる主被写体重心位置が露光重なりマップのどの露光時間(露光期間)に位置するかを確認する。確認の結果、仮に主被写体重心位置が露光時間508に位置する場合、特定領域選択合成部114は、LV画像信号における主被写体は露光時間508で撮像した追尾画像信号との関係性が最も高いと判断する。そして、露光時間508で撮像した追尾画像信号における主被写体検出情報、主被写体追尾情報を用いて主被写体追尾枠(特定の領域)の選択、もしくは合成を行う。なお、合成に限らずLV画像信号(第1の画像信号)に対する所定の画像処理であれば良い。
前記確認の結果、仮に主被写体重心位置が露光時間509に位置する場合、特定領域選択合成部114は、LV画像信号における主被写体は露光時間509で撮像した追尾画像信号との関係性が最も高いと判断する。そして、露光時間509で撮像した追尾画像信号における主被写体検出情報、主被写体追尾情報を用いて主被写体追尾枠の選択、もしくは合成を行う。仮に主被写体重心位置が露光時間510に位置する場合、特定領域選択合成部114は、LV画像信号における主被写体は露光時間510で撮像した追尾画像信号との関係性が最も高いと判断する。そして、露光時間510で撮像した追尾画像信号における主被写体検出情報、主被写体追尾情報を用いて主被写体追尾枠の選択、もしくは合成を行う。
他の例として、特定領域選択合成部114は、露光時間510で撮像した追尾画像信号における主被写体追尾情報に含まれる主被写体重心位置が、露光重なりマップのどの露光時間に位置するかを確認する。仮に主被写体重心位置が露光時間510に位置する場合、特定領域選択合成部114は、LV画像信号における主被写体は露光時間510で撮像した追尾画像信号との関係性が最も高いと判断する。そして、露光時間510で撮像した追尾画像信号における主被写体検出情報、主被写体追尾情報を用いて主被写体追尾枠の選択、もしくは合成を行う。
続いて露光時間509で撮像した追尾画像信号における主被写体追尾情報に含まれる主被写体重心位置が、露光重なりマップのどの露光時間に位置するかを確認する。
主被写体重心位置が露光重なりマップの露光時間509に位置する場合、LV画像信号における主被写体は露光時間509で撮像した追尾画像信号との関係性が最も高いと判断する。そして、露光時間509で撮像した追尾画像信号における主被写体検出情報、主被写体追尾情報を用いて主被写体追尾枠の選択、もしくは合成を行う。続いて露光時間508で撮像した追尾画像信号における主被写体追尾情報に含まれる主被写体重心位置が、露光重なりマップのどの露光時間に位置するかを確認する。そして、主被写体重心位置が露光重なりマップの露光時間508に位置する場合、LV画像信号における主被写体は露光時間508で撮像した追尾画像信号との関係性が最も高いと判断する。
そして、露光時間508で撮像した追尾画像信号における主被写体検出情報、主被写体追尾情報を用いて主被写体追尾枠の選択、もしくは合成を行う。いずれでもない場合、基準露光画像である露光時間509で撮像した追尾画像信号における主被写体検出情報、主被写体追尾情報を用いて主被写体追尾枠の選択、もしくは合成を行う。
また、他の例として、以下のようにしても良い。即ち、特定領域選択合成部114は、露光時間508~510で撮像した追尾画像信号における主被写体追尾情報に含まれる主被写体重心位置の平均位置を求める。そして、主被写体重心位置の平均位置が露光重なりマップのどの露光時間に位置するかを確認する。そして露光時間508~510で撮像した追尾画像信号におけるいずれの主被写体追尾情報、および、主被写体検出情報を用いて主被写体追尾枠の選択、もしくは合成を行うかを決定するようにしても良い。
また、更に他の例として、特定領域選択合成部114は、LV画像信号の露光時間506の露光重心タイミング520に最も露光重心が近い露光時間509を基準露光画像とし、二番目に近い露光時間510を副基準露光画像とする。そして、露光時間509で撮像した追尾画像信号における主被写体追尾情報に含まれる主被写体重心位置と、露光時間510で撮像した追尾画像信号における主被写体追尾情報に含まれる主被写体重心位置を求める。そして、これらの主被写体重心位置に対して、露光時間509、510それぞれの露光重心タイミングとLV画像信号の露光時間506の露光重心タイミング520との距離に応じた重み付けをした平均位置を求める。主被写体重心の重み付け平均位置が露光重なりマップのどの露光時間に位置するかを確認する。そして、露光時間508~510で撮像した追尾画像信号におけるいずれの主被写体追尾情報、および、主被写体検出情報を用いて主被写体追尾枠の選択、もしくは合成を行うかを決定するようにしても良い。
特定領域選択合成部114は、露光時間508~510で撮像した追尾画像信号における主被写体追尾情報に含まれる主被写体重心位置の平均位置を求め、主被写体重心の平均位置が露光重なりマップのどの露光時間に位置するかを確認する。その場合に、主被写体重心位置の平均位置との距離合計値を求め、距離合計値に対応した主被写体追尾枠の拡大率を設定し、特定領域選択合成部114が選択、もしくは合成する主被写体追尾枠に拡大率を乗じて拡大する。それによって、露光時間508、509、510で主被写体が激しく動いた場合に追尾枠をより拡大し、追尾枠の内側に主被写体が収まる頻度を高める機能を有する。
また、更に別の例として、特定領域選択合成部114は、図3(B)に示す露光重なりマップを用いる。露光時間509で撮像した追尾画像信号を基準露光画像とし、露光時間509で撮像した追尾画像信号における主被写体追尾情報に含まれる主被写体重心位置が露光重なりマップのどの垂直ラインに位置するかを確認する。そして、その垂直ラインにおける露光時間重なり割合に基づいて、露光時間508~510で撮像した追尾画像信号における主被写体追尾情報と主被写体検出情報に対して、重なり割合の重み付けをしたり、主被写体追尾枠の合成を行ったりしても良い。
露光時間508との重なり割合が40%、露光時間509との重なり割合が60%である場合について考える。
露光時間508で撮像した追尾画像信号における主被写体検出情報の特定領域位置情報を(x1、y1)、特定領域サイズ情報を(s1)、露光時間509で撮像した追尾画像信号における主被写体検出情報の特定領域位置情報を(x2、y2)とする。そして、特定領域サイズ情報を(s2)とすると、主被写体追尾枠の位置情報(x3、y3)、サイズ情報(s3)は以下の計算式で求めることができる。
x3=0.4×x1 + 0.6×x2
y3=0.4×y1 + 0.6×y2
s3=0.4×s1 + 0.6×s2
特定領域重畳部117は、表示用画像後処理部113で変換した表示用画像に、特定領域選択合成部114で選択、もしくは合成した主被写体追尾枠を重畳し、追尾枠付き表示用画像として表示部119に出力する。図5は実施例1における表示用画像と追尾枠付き表示用画像を示す図である。図5(A)に示すように、表示用画像600の主被写体601に対して図5(B)のように主被写体追尾枠603を重畳し、追尾枠付き表示用画像602を生成する。
なお、図6、図7は実施例1における検出処理結果を用いた主被写体追尾枠の重畳が表示に間に合うケースのタイミング図である。図6、図7では、LV画像信号の露光時間t700~t703と露光時間が重なる追尾画像信号706~709から検出する主被写体検出情報から生成する主被写体追尾枠が表示用画像への重畳に間に合っている。即ち、追尾画像信号709を用いて検出処理した主被写体検出情報の出力タイミングt705に追尾枠生成処理、表示用画像への追尾枠の重畳処理を加えた時間が、LV画像信号710の表示を開始する表示開始時間t706に対して間に合っている。この場合には、主被写体検出情報から生成する主被写体追尾枠を表示用画像に重畳する。
一方、図8、図9は実施例1における検出処理結果を用いた主被写体追尾枠の重畳が一部のフレームにおいては表示に間に合わないケースのタイミング図である。図8、図9では、LV画像信号の露光時間t800~t803と露光時間が重なる追尾画像信号806、~809から検出する主被写体検出情報から生成する主被写体追尾枠が、表示用画像への重畳に間に合わない。即ち追尾画像信号809を用いて検出処理した主被写体検出情報の出力タイミングt805に、追尾枠生成処理、表示用画像への追尾枠の重畳処理を加えた時間が、LV画像信号810の表示を開始する表示開始時間t806に対して間に合わない。
この場合には、間に合う主被写体検出情報812、813、814と主被写体追尾情報811とを用いて主被写体追尾枠を生成し、表示用画像に重畳する。
即ち、本来の主被写体追尾枠の表示が間に合わない場合には、間に合う別の主被写体追尾枠を表示するようにする。
図10は、実施例1に係る撮像装置100のLV画像信号の記録処理の流れを説明するフローチャートである。
撮像素子103は、光学制御部102によって焦点調整された光学系101を介して被写体からの光信号を受光し、電気信号であるLV画像信号に変換する(S200)。
表示用画像前処理部104は、撮像素子103が変換したLV画像信号をRGB各色の信号に変換する(S201)。LVRGB信号は画面の左上を先頭にしてラインごとに順々に右下に至るまで画像補正部106に出力する。
画像補正部106の表示用画像データ制御部107は、表示用画像前処理部104より取得したRGB信号、または画像補正部106で画像補正処理したRGB信号/YUV信号をメモリ108に書き込む(S202)。
画像補正部106の表示用画像データ制御部107は、S202でメモリ108に書き込んだRGB信号/YUV信号を読み出し、画像補正処理を行う(S203)。読み出すライン数は画像補正部106で実施する画像処理によって異なり、1ライン分の画像処理に対して、1ライン分のRGB信号を読み出す場合や、複数ライン分のRGB信号を読み出す場合を有する。また、画像を矩形エリアに分割し、矩形エリア単位で読み出す場合など、様々な読み出し処理を実行できるように構成しても良い。
画像補正部106は、必要なすべての画像補正処理が完了していない場合、S202の処理に戻る(S204のNO)。必要なすべての画像補正処理が完了した場合、画像補正処理されたRGB信号/YUV信号は表示用画像後処理部113に出力される(S204のYES)。
表示用画像後処理部113は、画像補正部106より取得した画像補正処理されたRGB信号/YUV信号を記録媒体で記録するための記録用信号に変換する(S205)。
記録部116は、表示用画像後処理部113より取得した記録用画像を記録媒体118に書き込む(S206)。
図11は、実施例1に係る撮像装置100のLV画像信号の表示処理の流れを説明するフローチャートである。
S300、S301、S302、S303、S304の処理についてはS200、S201、S202、S203、S204処理と同様のため説明を省略する。
表示用画像後処理部113は、画像補正部106より取得した画像補正処理されたRGB信号/YUV信号を表示用画像信号に変換する(S305)。表示用画像信号は特定領域重畳部117に供給される。
特定領域重畳部117は、表示用画像後処理部113より取得した表示用画像信号に、特定領域選択合成部114で選択、もしくは合成した矩形枠(主被写体追尾枠)を重畳する(S306)。前記矩形枠(主被写体追尾枠)は、表示用画像信号内に含まれる主被写体を内包する最小の矩形領域である特定領域を示す枠である。
主被写体追尾枠が重畳された表示用信号は表示部119に供給され、表示部119は、特定領域重畳部117より取得した主被写体追尾枠が重畳された表示用信号を撮影者が視認できる形式で表示する(S307)。
図12、図13は、実施例1に係る撮像装置100の追尾画像信号の主被写体追尾枠を重畳する処理の流れを説明するフローチャートである。
関連度情報生成部115は、撮像素子103におけるLV画像信号の露光開始タイミングと露光時間と、露光開始タイミングの異なる複数フレームの追尾画像信号の夫々の露光開始タイミングと露光時間から露光重なりマップを生成する(S400)。この露光重なりマップにより1フレームのLV画像信号と複数フレームの追尾画像信号との関連度を示す。
露光重なりマップは特定領域選択合成部114に出力される。露光重なりマップの生成は、1フレームのLV画像信号の撮像周期と、複数フレームの追尾画像信号の撮像周期とが同期している場合、1回生成した露光重なりマップを繰り返し複数回使う。同期していない場合、LV画像信号を1フレーム撮像するごとに、生成する。
S401、S402、S403、S404、S405の処理に関しては、S200、S201、S202、S203、S204処理と同様のため説明を省略する。
画像追尾部112は、S405のYESで、必要なすべての画像補正処理が完了したRGB信号/YUV信号を取得する。そして、画像検出部111における過去フレームの検出処理によってメモリ108に記憶された主被写体の特徴情報を、検出追尾用画像データ制御部110を通して取得する。そして取得した特徴情報に基づいて特定領域の追尾処理を行う(S406)。
ステップS406において、特定領域を追尾した主被写体追尾情報は特定領域選択合成部114に出力される。また、画像検出部111は、S405のYESで必要なすべての画像補正処理が完了したRGB信号/YUV信号を取得し、主被写体領域である特定領域の検出処理を開始する。特定領域を検出した主被写体検出情報は特定領域選択合成部114に出力される。
また、ステップS406において、画像検出部111はエッジ情報、ヒストグラム情報に代表される主被写体の特徴情報を、検出追尾用画像データ制御部110を通してメモリ108に出力する。ただし検出処理は追尾処理に比べ時間がかかることから、S407処理への遷移は追尾処理の完了をトリガーとして行う。
関連度情報生成部115より取得した露光重なりマップから、LV画像信号の露光時間と露光時間が重なる複数フレームの追尾画像信号の追尾処理がすべて完了していない場合、次のフレームのS400の処理に戻る(S407のNO)。追尾処理がすべて完了している場合、S408の処理に進む(S407のYES)。
特定領域選択合成部114は、関連度情報生成部115より取得した露光重なりマップと、画像追尾部112より取得した複数フレームの主被写体追尾情報をもとに、一つの特定領域を選択、もしくは合成するのに必要なフレームを決定する(S408)。図3(A)で示す露光重なりマップの場合に、例えば露光時間508~510で撮像した追尾画像信号の主被写体追尾情報における主被写体重心位置の平均位置が515´より上のライン位置であるとする。その場合には、LV画像信号における主被写体は露光時間508で撮像した追尾画像信号との関係性が最も高いと判断し、露光時間508のフレームを前記の必要フレームとして決定する。露光重なりマップが図3(B)で示すものである場合、主被写体重心位置によって決定される前記の必要フレームは2フレームとなる。
特定領域選択合成部114は、S408の処理で決定した必要フレームの追尾画像信号から変換したRGB信号/YUV信号を用いて、画像検出部111で行う特定領域の検出処理を行う。また、画像検出部111が出力する主被写体検出情報から主被写体追尾枠を作成する。また、表示用信号に重畳する処理の完了タイミングが、表示部119における表示用信号の表示開始タイミングに間に合う場合、S410の処理に進む(S409のYES)。表示用信号の表示開始タイミングに間に合わない場合、S411の処理に進む(S409のNO)。
S411において、特定領域選択合成部114は、S408で決定した必要フレームの数が1フレームである場合、該当フレームの主被写体追尾情報を選択する。そして、選択した主被写体追尾情報の特定領域位置、特定領域サイズ、主被写体重心位置から主被写体追尾枠を作成する。S408で決定した必要フレームが複数フレームである場合、複数の必要フレームの中から表示開始タイミングに間に合うフレームの主被写体検出情報、および、間に合わないフレームにおける主被写体追尾情報を選択する。そして、選択した主被写体検出情報、および主被写体追尾情報の特定領域位置、特定領域サイズ、主被写体重心位置から主被写体追尾枠を作成する(S411)。作成された主被写体追尾枠は特定領域重畳部117に出力される。
特定領域選択合成部114は、S410の処理として、S408で決定した必要フレームの画像検出部111における検出処理がすべて完了し、すべての必要フレームの主被写体検出情報を取得している場合、S412の処理に進む(S410のYES)。必要フレームの主被写体検出情報の取得が完了していない場合、完了するまでS410の処理を繰り返す(S410のNO)。
特定領域選択合成部114は、S408で決定した必要フレームが1フレームである場合、該当フレームの主被写体検出情報を選択し、選択した主被写体検出情報の特定領域位置、特定領域サイズ、主被写体重心位置から主被写体追尾枠を作成する(S412)。S408で決定した必要フレームが複数フレームである場合、複数フレームの主被写体検出情報における特定領域位置、特定領域サイズ、主被写体重心位置から主被写体追尾枠を合成する(S412)。作成された主被写体追尾枠は特定領域重畳部117に出力される。
特定領域重畳部117は、表示用画像後処理部113より取得した表示用信号に、特定領域選択合成部114より取得した表示用信号内に含まれる主被写体を内包する最小の矩形領域である特定領域を示す矩形(主被写体追尾枠)を重畳する(S413)。主被写体追尾枠が重畳された表示用信号は表示部119に出力される。
表示部119は、特定領域重畳部117より取得した主被写体追尾枠が重畳された表示用信号を撮影者が視認できる形式で表示する(S414)。
以上のように、実施例1に係る撮像装置100は、露光開始タイミングの異なる複数フレームの追尾画像信号から検出処理、および、追尾処理した主被写体位置情報を取得する。そして、この主被写体位置情報と、LV画像信号と追尾画像信号との関係度を表す露光重なりマップとに基づいて、最適な露光時間で撮像した追尾画像信号を選択する。そして、選択した追尾画像信号から生成した主被写体追尾枠を、表示部119で表示する表示用画像上の主被写体に重畳処理する。それによって、主被写体の動きによって発生する主被写体と主被写体追尾枠との位置ずれを抑制し、撮影者に対して主被写体の認識を容易に、且つ、正確に行わせることができる。
なお、重畳表示させる枠としては追尾枠に限らない。例えば、何らかのアイコンなどの所定の枠等を重畳表示させても良い。
次に実施例2について説明する。実施例2に係る撮像装置900は、追尾画像信号から生成する被写体領域を用いてLV画像から被写体領域のレンズデフォーカス量演算処理を行う。また、追尾用の撮像素子と、表示用の撮像素子を別々に有する。
図14は実施例2に係る撮像装置900の内部構造を模式的に示すブロック図である。撮像装置900は、検出追尾用光学系901、表示用光学系902、光学制御部903、検出追尾用撮像素子904、表示用撮像素子905、検出追尾用画像前処理部906、表示用画像前処理部907、デフォーカス量演算部908を有する。
また、位相差情報メモリ910、特定領域検出部911、主メモリ914、画像補正部912、特定領域選択合成部916、関連度情報生成部917、表示用画像後処理部918、表示部919、記録部920、記録媒体921を有する。
検出追尾用光学系901は、複数枚のレンズを含む固定の焦点距離の光学系であり、表示用光学系902より焦点距離が短く、広角な範囲の被写体からの光情報を結像して取得する。
図15は実施例2におけるLV画像と追尾画像との画角の違いを示す図である。表示用光学系902を通し、表示用撮像素子905で撮像した図15(A)のLV画像信号画角1200は、検出追尾用光学系901を通し、検出追尾用撮像素子904で撮像した図15(B)の追尾画像信号画角1202上では画角1203に該当する。図15(A)のLV画像信号上の主被写体1201は、図15(B)の追尾画像信号画角1202上では主被写体1204に該当する。図15(B)の被写体1205、1206はLV画像信号画角1200では撮像できない範囲に位置する被写体である。これらの被写体情報は、例えば、被写体の動きベクトルを算出することで、次フレーム以降で被写体が画角1203に入ってくる可能性のある場合には、撮影者に報知等するのに用いられる。
検出追尾用撮像素子904は例えばCMOSイメージセンサであり、表示用撮像素子905とは異なる撮像周期、撮像開始タイミングで撮像処理を行い、検出追尾用光学系901によって結像された光情報を電気信号に変換する。
表示用光学系902は、実施例1に述べた光学系101と同様のため説明を省略する。
表示用撮像素子905は、通常の撮像機能を有するとともに、表示用撮像素子905上に離散的に配置された特定の複数の画素(位相差検出用画素)に対して、水平方向に配置された2画素を1組とし、各組の画素に左右対称の一部遮光部を設けてある。
そして上記2画素の組によって、位相差を有する画像信号(位相差画像信号)を生成し、前記位相差画像信号を用いて撮像面の一部の矩形領域毎にレンズデフォーカス量を演算するように構成されている。
そして前記レンズデフォーカス量に基づきレンズ制御を行うことで、いわゆる像面位相差オートフォーカスを行うように構成されている。
表示用撮像素子905は、位相差検出用画素が生成した位相差画像信号と、通常画素から得られたLV画像信号をそれぞれ出力できるように構成されている。
検出追尾用画像前処理部906は、実施例1に述べた検出追尾用画像前処理部105と同様の処理を実施する。
特定領域検出部911は、検出追尾用画像データ制御部913を有し、実施例1に述べた画像検出部111の処理を特定領域検出部911で行う。
画像検出部111の処理と同様に、追尾RGB信号、または追尾RGB信号を変換処理したYUV信号から被写体の検出を行う。そして、検出した一つ以上の被写体から主被写体を決定し、決定した主被写体の特徴情報を、検出追尾用画像データ制御部913を通して、主メモリ914に記憶する。
なお、前記特定領域検出部911は内部にコンピュータとしてのCPUを含み、メモリ922に記憶されたコンピュータプログラムに基づき装置全体の各種動作を実行する制御手段として機能する。
また、特定領域検出部911は決定した主被写体から主被写体のサイズ、重心位置を算出し、主被写体を内包する最小の矩形領域を特定領域として、特定領域位置情報、特定領域サイズ情報、および、主被写体重心位置情報を主被写体検出情報として出力する。特定領域検出部911は、図15(B)に示す追尾画像信号画角1202におけるLV画像信号の画角1203の内側のみを検出対象領域とする。それにより、検出処理の演算量を削減するモードと、LV画像信号の画角1203の外側の領域を含めて検出対象領域とするモードを任意に切り替える構成とする。
関連度情報生成部917は、実施例1に述べた関連度情報生成部115と同様の処理を実施する。図16はLV画像における垂直ラインごとの追尾画像関連度を示す露光重なりマップを示す図である。
撮像装置900ではLV画像信号と追尾画像信号とで撮影画角が異なることから、図16に示すLV画像垂直ラインを、追尾画像垂直ラインにマッピングし直す際に、画角の違いを考慮したマッピングを行う。マッピングをし直した後の露光重なりマップを図17に示す。図17は実施例2における追尾画像垂直ラインごとのLV画像と追尾画像の関連度を示す図であり、図17における垂直ライン527´´は図16における先頭ライン527に対して、画角を考慮したマッピングを行ったラインである。また、図17における垂直ライン528´´は図16における最終ライン528に対して、画角を考慮したマッピングを行ったラインである。
同様に、515´´は図16における垂直ライン515に対してマッピングを行ったラインであり、518´´は図16における垂直ライン518に対してマッピングを行ったラインである。図17の露光時間508、509、510で示されている領域は、該当の垂直ラインに主被写体が位置した場合に関連度が100%となる追尾画像がどの露光時間で撮像した追尾画像であるかを示す。図17において先頭ラインから527´´までのライン、および、528´´から最終ラインまでのラインは図15における画角1203の外側を意味し、LV画像と関連する追尾画像がないため、追尾画像関連度はすべて0%とする。
特定領域選択合成部916は、関連度情報生成部917で生成した露光重なりマップと、特定領域検出部911で検出処理した複数フレームの主被写体検出情報に基づいて、主被写体位置、主被写体サイズを示す主被写体領域を選択、もしくは合成する。実施例1に述べた特定領域選択合成部114の処理と同様に基準露光画像を定め、基準露光画像における主被写体検出情報に含まれる主被写体重心位置が露光重なりマップのどの露光時間に位置するかを確認する。そして、主被写体重心位置に対応した露光重なりマップの追尾画像関連度に従い、複数フレームの主被写体検出情報から主被写体領域の選択、もしくは合成に必要な複数フレームの主被写体検出情報を選択する。
選択した主被写体検出情報が1フレームのみであれば該当フレームの主被写体検出情報を主被写体領域情報としてデフォーカス量演算部908に出力する。2フレーム以上の主被写体検出情報であれば各フレームの主被写体情報における主被写体位置、主被写体サイズを合成し、合成した主被写体領域としてデフォーカス量演算部908に出力する。
表示用画像前処理部907は、表示用撮像素子905が変換した位相差画像信号を含むLV画像信号から位相差画像信号を抽出し、デフォーカス量演算部908に出力するとともに、LV画像信号を画像補正部912に出力する。
画像補正部912は、実施例1に述べた画像補正部106と同様の処理を実施する。表示用画像データ制御部915、表示用画像後処理部918、表示部919、記録部920、記録媒体921は実施例1の表示用画像データ制御部107、表示用画像後処理部113、表示部119、記録部116、記録媒体118と同様の処理を実施する。
デフォーカス量演算部908は、位相差情報制御部909を有し、特定領域選択合成部916より取得した主被写体領域と、表示用画像前処理部907より取得した位相差画像信号から前記主被写体領域におけるデフォーカス量を演算する。
デフォーカス量の演算は矩形領域ごとに行い、一つの矩形領域におけるデフォーカス量の演算には複数ラインの位相差画像信号を用いる。そのためラインごとに取得した位相差画像信号を、位相差情報制御部909を通して位相差情報メモリ910に書き込み、読み出しを行う。ここで、デフォーカス量の演算、および、位相差情報制御部909における位相差情報メモリ910への位相差画像信号の書き込み、読み出しを、LV画像信号における画角全体ではなく主被写体領域を含む矩形領域に制限する。それによって、デフォーカス量演算部は、演算処理量、メモリへの書き込み、読み出しデータ量の削減を行う。デフォーカス量演算部908は主被写体領域を含む矩形領域ごとのデフォーカス量を光学制御部903に出力する。
光学制御部903は、デフォーカス量演算部908より取得した矩形領域ごとのデフォーカス量と、特定領域検出部911より取得した主被写体検出情報に基づいて、合焦対象とする矩形領域を決定する。そして、決定した矩形領域のデフォーカス量が減少するようにレンズのフォーカス制御を実行する。
図18は、実施例2に係る撮像装置900のデフォーカス量演算処理の流れを説明するフローチャートである。
表示用撮像素子905は、被写体からの光信号を、光学制御部903によって焦点調整された表示用光学系902を介して受光し、電気信号に変換する(S1000)。像面位相差用画素位置における電気信号は位相差画像信号として出力する。一方、像面位相差用画素ではない通常画素で光源変換された電気信号はLV画像信号として、表示用画像前処理部907に出力される。
表示用画像前処理部907は、表示用撮像素子905からのLV画像信号をRGB各色の信号に変換し、位相差画像信号をG(緑)信号に変換する(S1001)。
RGB各色の信号に変換されたLV画像信号は、画像補正部912に出力される。
表示用画像前処理部907は、G色信号に変換した位相差画像信号を、2画素を1組とした位相差情報としてデフォーカス量演算部908に出力する(S1002)。
デフォーカス量演算部908は、LV画像信号の画角を複数の矩形領域に分割する。そして、分割した矩形領域(AF枠)ごとに、AF枠が特定領域選択合成部916から取得した主被写体領域を含むか否かを判定し、主被写体領域を含むAF枠における位相差情報を位相差情報メモリ910に書き込む(S1003)。
デフォーカス量演算部908は、位相差情報メモリ910より位相差情報をAF枠単位で読み出し、AF枠単位でデフォーカス量演算処理を行う(S1004)。S1003において位相差情報メモリ910に書き込まれている位相差情報は主被写体領域を含むAF枠に制限されているため、デフォーカス量演算処理も主被写体領域を含むAF枠においてのみ行う。主被写体領域を含むAF枠が1つである場合は、デフォーカス量の演算を1回行い、該当AF枠におけるデフォーカス量として光学制御部903に出力する。主被写体領域を含むAF枠が複数ある場合は、デフォーカス量の演算を複数回行い、複数のAF枠それぞれのデフォーカス量を光学制御部903に出力する。
光学制御部903は、特定領域検出部911より取得した複数フレームの主被写体検出情報から、主被写体の重心位置を含む可能性が最も高いAF枠を選定する。そして、デフォーカス量演算部908より取得した該当AF枠におけるデフォーカス量に基づいてレンズのフォーカス制御を実行する(S1005)。
図19は、実施例2に係る撮像装置900の追尾画像信号から主被写体領域を作成し、作成した主被写体領域情報をデフォーカス量演算部908に出力する処理の流れを説明するフローチャートである。
関連度情報生成部917は、先に述べたように、1フレームのLV画像信号と複数フレームの追尾画像信号との関連度を示す露光重なりマップを生成する(S1100)。その際に、表示用撮像素子905におけるLV画像信号の露光開始タイミングと露光時間と撮像時の表示用光学系902の状態より定まる画角を用いる。更に、検出追尾用撮像素子904における複数フレームの追尾画像信号のそれぞれの露光開始タイミングと露光時間と検出追尾用光学系901の画角とを用いて前記露光重なりマップを生成する。
露光重なりマップは特定領域検出部911、および、特定領域選択合成部916に出力される。S400と同様に、1フレームのLV画像信号の撮像周期と、複数フレームの追尾画像信号の撮像周期とが同期している場合、1回生成した露光重なりマップを繰り返し複数回使う。同期していない場合、LV画像信号を1フレーム撮像するごとに、露光重なりマップを生成する。
S1101、S1102、S1103、S1104、S1105の処理に関しては、S200、S201、S202、S203、S204処理と同様のため説明を省略する。
特定領域検出部911は、S1105のYESで、必要なすべての画像補正処理が完了したRGB信号/YUV信号を取得し、主被写体領域の検出処理を行う(S1106)。検出した主被写体検出情報は特定領域選択合成部916に出力される。
図20は関連度情報生成部917より取得した露光重なりマップの各垂直ライン情報から、複数フレームの追尾画像信号のそれぞれのフレームの追尾画像信号において検出領域をどのように絞り込むかを示す図である。なお、検出領域を絞り込むのは演算量の削減のためである。
追尾画像信号529は露光時間508で撮像した追尾画像信号であり、追尾画像信号531は露光時間509で撮像した追尾画像信号であり、追尾画像信号533は露光時間510で撮像した追尾画像信号である。それぞれの追尾画像信号の内側の矩形530、532、534は追尾画像信号上のLV画像信号の画角を示す。ここで、追尾画像信号529における主被写体位置が露光重なりマップにおける527´´から515´´の垂直ライン範囲であるとする。その場合には、LV画像信号における主被写体は露光時間508で撮像した追尾画像信号との関連度が高いと判断する。そして、特定領域選択合成部916は露光時間508で撮像した追尾画像信号における主被写体検出結果を選択し、主被写体領域を生成する。
したがって、露光時間508で撮像した追尾画像信号529における主被写体検出は、LV画像信号の画角を示す矩形530の内側で、且つ、527´´から515´´の垂直ライン範囲に絞り込みをして検出すればよい。同様に、追尾画像信号531における主被写体検出は、LV画像信号の画角を示す矩形532の内側で、且つ、515´´から518´´の垂直ライン範囲に絞り込みをして検出すればよい。また、追尾画像信号533における主被写体検出は、LV画像の画角を示す矩形530の内側で、且つ、518´´から528´´の垂直ライン範囲に絞り込みをして検出すればよい。このように関連度情報である露光重なりマップに基づいて、複数フレームの追尾画像の検出処理におけるフレームごとの検出領域を切り替えることで、検出処理に係る演算量を削減することができる。
関連度情報生成部917より取得した露光重なりマップから、LV画像信号の露光時間と露光時間が重なる複数フレームの追尾画像信号の検出処理がすべて完了していない場合、次のフレームのS1100の処理に進む(S1107のNO)。検出処理がすべて完了している場合、S1108の処理に進む(S1107のYES)。
特定領域選択合成部916は、関連度情報生成部917より取得した露光重なりマップと、特定領域検出部911より取得した複数フレームの主被写体検出情報をもとに、一つの主被写体領域を選択する。或いは合成するのに必要なフレームを決定する(S1108)。
特定領域選択合成部916は、S1108で決定した必要なフレームの主被写体検出情報から主被写体領域を作成する(S1109)。主被写体領域はデフォーカス量演算部908に出力される。
以上のように、実施例2に係る撮像装置900は、主被写体の動きによって発生する主被写体と主被写体領域との位置ずれが抑制された主被写体領域を用いて、主被写体領域を含む矩形領域に絞ったデフォーカス量の演算をしている。従って、デフォーカス演算量や位相差情報のメモリアクセス量等を低減することができる。
次に撮像装置900の実施例3につき説明する。
実施例3に係る撮像装置は、表示用画像後処理部918においてLV画像信号の画像圧縮処理をする際に、特定領域選択合成部916で作成した主被写体領域を用いて、主被写体領域の内側の圧縮率を低くして、高画質な画像圧縮処理をする。また、主被写体領域の外側の圧縮率を高くして、低画質な高能率の圧縮処理をする。
これにより、LV画像信号の主被写体位置に対する主被写体領域位置のずれを抑制しつつ、主被写体領域の内外の圧縮率を制御することで、主被写体の画質低下を抑えながら、圧縮後のデータ量が少ない高能率の圧縮処理を実現することができる。
以上、本発明をその好適な実施例に基づいて詳述してきたが、本発明は上記実施例に限定されるものではなく、本発明の主旨に基づき種々の変形が可能であり、それらを本発明の範囲から除外するものではない。
また、本実施例における制御の一部または全部を上述した実施例の機能を実現するコンピュータプログラムをネットワーク又は各種記憶媒体を介して撮像装置に供給するようにしてもよい。そしてその撮像装置におけるコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行するようにしてもよい。その場合、そのプログラム、及び該プログラムを記憶した記憶媒体は本発明を構成することとなる。
100 撮像装置、
101 光学系、
102 光学制御部、
103 撮像素子、
104 表示用画像前処理部、
105 検出追尾用画像前処理部、
106 画像補正部、
107 表示用画像データ制御部、
108 メモリ、
109 特定領域検出部、
110 検出追尾用画像データ制御部、
111 画像検出部、
112 画像追尾部、
113 表示用画像後処理部、
114 特定領域選択合成部、
115 関連度情報生成部、
116 記録部、
117 特定領域重畳部、
118 記録媒体、
119 表示部、
120 メモリ


Claims (13)

  1. 第1の周期でローリングシャッタ動作による撮像をして第1の画像信号を生成する第1の撮像手段と、
    前記第1の撮像手段より短い第2の周期で撮像をして複数の第2の画像信号を生成する第2の撮像手段と、
    前記第1の撮像手段における露光期間と前記第2の撮像手段の前記周期での撮像タイミングとの重なりに基づいて、前記第1の画像信号と複数の前記第2の画像信号との撮像タイミングの前記重なりに関する関連度情報を生成する関連度情報生成手段と、
    前記関連度情報生成手段によって生成した関連度情報に基づいて、複数の前記第2の画像信号の中から、所定の被写体が含まれると共に前記第1の画像信号の撮像タイミングと重なる特定の領域を選択する領域選択手段と、
    前記領域選択手段で選択した前記特定の領域に基づき前記第1の画像信号に対して枠の重畳、フォーカス演算、圧縮処理の少なくとも1つを含む画像処理を行う画像処理手段と、
    を備えることを特徴とする撮像装置。
  2. 前記第1の周期は前記第2の周期の整数倍であることを特徴とする請求項1に記載の撮像装置。
  3. 前記第2の画像信号における主被写体を検出する検出手段を有することを特徴とする請求項1または2に記載の撮像装置。
  4. 前記検出手段によって検出された前記第2の画像信号における前記主被写体の検出領域を前記関連度情報に基づき切り替えることを特徴とする請求項3に記載の撮像装置。
  5. 前記検出手段によって検出された前記第2の画像信号における主被写体を追尾する追尾手段を有することを特徴とする請求項3または4に記載の撮像装置。
  6. 前記第1の周期と前記第2の周期の比に応じて前記第1の撮像手段の解像度と前記第2の撮像手段の解像度の比を設定したことを特徴とする請求項1~5のいずれか1項に記載の撮像装置。
  7. 前記所定の画像処理は、前記第1の画像に対して所定の枠を重畳する処理を含むことを特徴とする請求項1~6のいずれか1項に記載の撮像装置。
  8. 前記所定の画像処理は、デフォーカス量に関する演算処理を含むことを特徴とする請求項1~7のいずれか1項に記載の撮像装置。
  9. 前記所定の画像処理は、画像圧縮処理を含むことを特徴とする請求項1~8のいずれか1項に記載の撮像装置。
  10. 前記第1の撮像手段と前記第2の撮像手段は別々の撮像素子から成ることを特徴とする請求項1~9のいずれか1項に記載の撮像装置。
  11. 前記第1の撮像手段と前記第2の撮像手段は同じ撮像素子内に設けられていることを特徴とする請求項1~9のいずれか1項に記載の撮像装置。
  12. 請求項1~11のうちいずれか一項に記載の前記撮像装置の関連度情報生成手段としてコンピュータを機能させるためのコンピュータプログラム。
  13. 請求項12に記載のコンピュータプログラムを記憶したコンピュータで読み取り可能な記憶媒体。
JP2019145629A 2019-08-07 2019-08-07 撮像装置、コンピュータプログラム及び記憶媒体 Active JP7366635B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019145629A JP7366635B2 (ja) 2019-08-07 2019-08-07 撮像装置、コンピュータプログラム及び記憶媒体
US16/987,198 US11206344B2 (en) 2019-08-07 2020-08-06 Image pickup apparatus and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019145629A JP7366635B2 (ja) 2019-08-07 2019-08-07 撮像装置、コンピュータプログラム及び記憶媒体

Publications (2)

Publication Number Publication Date
JP2021027519A JP2021027519A (ja) 2021-02-22
JP7366635B2 true JP7366635B2 (ja) 2023-10-23

Family

ID=74499035

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019145629A Active JP7366635B2 (ja) 2019-08-07 2019-08-07 撮像装置、コンピュータプログラム及び記憶媒体

Country Status (2)

Country Link
US (1) US11206344B2 (ja)
JP (1) JP7366635B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021241015A1 (ja) * 2020-05-25 2021-12-02 ソニーグループ株式会社 撮像装置、撮像方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005338352A (ja) 2004-05-26 2005-12-08 Fujinon Corp オートフォーカスシステム
WO2013164915A1 (ja) 2012-05-02 2013-11-07 株式会社ニコン 撮像装置
WO2019065915A1 (ja) 2017-09-29 2019-04-04 株式会社ニコン 動画圧縮装置、電子機器、および動画圧縮プログラム
JP2019140676A (ja) 2018-02-09 2019-08-22 パナソニックIpマネジメント株式会社 カメラシステム、及び車両走行制御システム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5409189B2 (ja) 2008-08-29 2014-02-05 キヤノン株式会社 撮像装置及びその制御方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005338352A (ja) 2004-05-26 2005-12-08 Fujinon Corp オートフォーカスシステム
WO2013164915A1 (ja) 2012-05-02 2013-11-07 株式会社ニコン 撮像装置
WO2019065915A1 (ja) 2017-09-29 2019-04-04 株式会社ニコン 動画圧縮装置、電子機器、および動画圧縮プログラム
JP2019140676A (ja) 2018-02-09 2019-08-22 パナソニックIpマネジメント株式会社 カメラシステム、及び車両走行制御システム

Also Published As

Publication number Publication date
US11206344B2 (en) 2021-12-21
JP2021027519A (ja) 2021-02-22
US20210044733A1 (en) 2021-02-11

Similar Documents

Publication Publication Date Title
JP4446193B2 (ja) 画像処理装置および方法、並びにプログラム
US9538085B2 (en) Method of providing panoramic image and imaging device thereof
JP4254969B2 (ja) 撮像装置
JP5548552B2 (ja) 撮像装置
US20080101710A1 (en) Image processing device and imaging device
JP2010268441A (ja) 画像処理装置、撮像装置及び画像再生装置
EP2219366B1 (en) Image capturing device, image capturing method, and image capturing program
JP2012186593A (ja) 画像処理装置、および画像処理方法、並びにプログラム
JP2012004908A (ja) 画像処理装置、および画像処理方法、並びにプログラム
US8723969B2 (en) Compensating for undesirable camera shakes during video capture
JP6541501B2 (ja) 画像処理装置、撮像装置、及び画像処理方法
JP7366635B2 (ja) 撮像装置、コンピュータプログラム及び記憶媒体
JP2007274504A (ja) デジタルカメラ
JP5959194B2 (ja) 撮像装置
JP4606218B2 (ja) 歪補正装置
JP2016111568A (ja) 像ぶれ補正制御装置、撮像装置およびそれらの制御方法、プログラム
JP2009237650A (ja) 画像処理装置及び撮像装置
JP2011205442A (ja) 画像処理装置、画像処理方法およびプログラム
JP2009200981A (ja) ビデオカメラ
JP2021097351A (ja) 画像処理装置、撮像装置、画像処理方法、プログラムおよび記録媒体
JP4687619B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP2008072428A (ja) 画像処理装置、電子カメラ、および画像処理プログラム
JP6828069B2 (ja) 撮像装置、撮像方法およびプログラム
JP7409604B2 (ja) 画像処理装置、撮像装置、画像処理方法、プログラムおよび記録媒体
JP2019047145A (ja) 画像処理装置、撮像装置、画像処理装置の制御方法およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220729

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230404

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230602

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230912

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231011

R151 Written notification of patent or utility model registration

Ref document number: 7366635

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151