JP2013214833A - Area determination device, image pickup device, and area determination program - Google Patents
Area determination device, image pickup device, and area determination program Download PDFInfo
- Publication number
- JP2013214833A JP2013214833A JP2012083245A JP2012083245A JP2013214833A JP 2013214833 A JP2013214833 A JP 2013214833A JP 2012083245 A JP2012083245 A JP 2012083245A JP 2012083245 A JP2012083245 A JP 2012083245A JP 2013214833 A JP2013214833 A JP 2013214833A
- Authority
- JP
- Japan
- Prior art keywords
- subject
- area
- image
- region
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000605 extraction Methods 0.000 claims abstract description 134
- 238000003384 imaging method Methods 0.000 claims description 236
- 238000000034 method Methods 0.000 claims description 66
- 230000009471 action Effects 0.000 claims description 23
- 230000003287 optical effect Effects 0.000 claims description 12
- 230000002596 correlated effect Effects 0.000 abstract 2
- 238000003860 storage Methods 0.000 description 58
- 230000008569 process Effects 0.000 description 35
- 239000000284 extract Substances 0.000 description 29
- 238000011156 evaluation Methods 0.000 description 27
- 238000012545 processing Methods 0.000 description 14
- 238000006243 chemical reaction Methods 0.000 description 8
- 238000004891 communication Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 238000004091 panning Methods 0.000 description 6
- 230000007704 transition Effects 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 4
- 238000001514 detection method Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000012805 post-processing Methods 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 210000004209 hair Anatomy 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 229920006395 saturated elastomer Polymers 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Landscapes
- Focusing (AREA)
- Automatic Focus Adjustment (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、領域を判定する領域判定装置、撮像装置、及び領域判定プログラムに関する。 The present invention relates to an area determination apparatus, an imaging apparatus, and an area determination program for determining an area.
被写体がカメラ方向に移動する場合でも、その被写体に対して最適に焦点調節することを目的とした撮像装置が開示されている(特許文献1参照)。 There has been disclosed an imaging apparatus for the purpose of optimal focus adjustment with respect to a subject even when the subject moves in the camera direction (see Patent Document 1).
しかしながら、特許文献1に開示された撮像装置は、撮像された画像にフレームインした被写体領域を精度よく判定することができないという問題がある。被写体領域を精度よく判定することができない場合、撮像装置は、被写体領域が画像にフレームインする度に合焦レンズを光軸方向に大きく移動させて、被写体領域に合焦させなければならない等、被写体を適切に撮像することができない。 However, the imaging device disclosed in Patent Document 1 has a problem that it cannot accurately determine a subject area framed in a captured image. If the subject area cannot be accurately determined, the imaging apparatus must move the focusing lens greatly in the optical axis direction every time the subject area is framed into the image, and focus on the subject area. The subject cannot be imaged properly.
本発明は、前記の点に鑑みてなされたものであり、撮像された画像にフレームインした被写体領域を精度よく判定し、被写体を適切に撮像させることができる領域判定装置、撮像装置、及び領域判定プログラムを提供することを目的とする。 The present invention has been made in view of the above points, and is an area determination device, an imaging apparatus, and an area that can accurately determine a subject area framed in a captured image and appropriately capture the subject. An object is to provide a judgment program.
本発明は、上記の課題を解決するためになされたものであり、異なる時刻に撮像された画像列から、画像特徴量に基づいて被写体領域をそれぞれ抽出し、抽出された被写体領域同士が同じ被写体による被写体領域であるか否かを判定するための条件を示す抽出情報と、被写体領域を撮像するための設定を示す撮像情報とを、抽出された被写体領域にそれぞれ対応付ける領域抽出部と、前記画像列の第1画像からフレームアウトした被写体領域と、前記画像列の第2画像にフレームインした被写体領域とが、同じ被写体による被写体領域であるか否かを、前記抽出情報に基づいて判定し、同じ被写体による被写体領域であると判定した場合、前記第2画像にフレームインした被写体領域を撮像するための前記撮像情報として、前記第1画像からフレームアウトした被写体領域に対応付けられた前記撮像情報を選択する領域判定部と、を備えることを特徴とする領域判定装置である。 The present invention has been made to solve the above-described problem, and extracts subject areas based on image feature amounts from image sequences captured at different times, and the extracted subject areas are the same subject. A region extracting unit that associates extraction information indicating a condition for determining whether or not the subject region is determined and imaging information indicating a setting for capturing the subject region with the extracted subject region, and the image Determining whether the subject area framed out from the first image in the column and the subject region framed in to the second image in the image sequence are subject regions of the same subject based on the extraction information; When it is determined that the subject area is the same subject, the imaging information for capturing the subject area framed in the second image is used as the imaging information. A region determining unit that selects the imaging information associated with the object regions frame out, a region judging device, characterized in that it comprises a.
また、本発明は、領域判定装置と、前記領域判定装置が選択した前記撮像情報である合焦位置に基づいて、光学系により被写体領域に合焦させる焦点調節部と、被写体領域に合焦した状態の画像を撮像する撮像部と、を備えることを特徴とする撮像装置である。 In addition, the present invention focuses on a subject determination region, a focus adjustment unit that focuses on the subject region with an optical system based on the focus position that is the imaging information selected by the region determination device, and the subject region. An imaging apparatus comprising: an imaging unit that captures an image of a state.
また、本発明は、コンピュータに、異なる時刻に撮像された画像列から、画像特徴量に基づいて被写体領域をそれぞれ抽出し、抽出された被写体領域同士が同じ被写体による被写体領域であるか否かを判定するための条件を示す抽出情報と、被写体領域を撮像するための設定を示す撮像情報とを、抽出された被写体領域にそれぞれ対応付ける手順と、前記画像列の第1画像からフレームアウトした被写体領域と、前記画像列の第2画像にフレームインした被写体領域とが、同じ被写体による被写体領域であるか否かを、前記抽出情報に基づいて判定し、同じ被写体による被写体領域であると判定した場合、前記第2画像にフレームインした被写体領域を撮像するための前記撮像情報として、前記第1画像からフレームアウトした被写体領域に対応付けられた前記撮像情報を選択する手順と、を実行させるための領域判定プログラムである。 The present invention also allows a computer to extract subject areas based on image feature amounts from image sequences captured at different times, and to determine whether the extracted subject areas are subject areas of the same subject. A procedure for associating the extracted information indicating the condition for determination and the imaging information indicating the setting for imaging the subject area with the extracted subject area, and the subject area framed out from the first image of the image sequence And the subject area framed in the second image in the image sequence is determined based on the extracted information, and is determined to be the subject area due to the same subject. As the imaging information for imaging the subject area framed in the second image, the subject area framed out from the first image is used. A procedure for selecting the imaging information attached response, an area determination program for execution.
本発明によれば、領域判定装置は、撮像された画像にフレームインした被写体領域を精度よく判定することができる。 According to the present invention, the area determination device can accurately determine a subject area framed in a captured image.
本発明の一実施形態について図面を参照して詳細に説明する。図1には、レンズ鏡筒と、撮像装置と、記憶媒体との構成が、ブロック図により表されている。撮像装置100は、レンズ鏡筒111から入射される光学像を撮像し、静止画形式の画像、又は動画形式の画像列を、記憶媒体200に記憶させる。
An embodiment of the present invention will be described in detail with reference to the drawings. FIG. 1 is a block diagram illustrating configurations of a lens barrel, an imaging device, and a storage medium. The
まず、レンズ鏡筒111の構成を説明する。
レンズ鏡筒111は、焦点調整レンズ(以下、「AF(Auto Focus)レンズ」という)112と、レンズ駆動部116と、AFエンコーダ117と、鏡筒制御部118を備える。なお、レンズ鏡筒111は、撮像装置100に着脱可能に接続されてもよいし、撮像装置100と一体であってもよい。
First, the configuration of the
The
AFレンズ112は、レンズ駆動部116により駆動され、撮像部110(後述)の撮像素子119の受光面(光電変換面)に、光学像を導く。
The AF lens 112 is driven by a
AFエンコーダ117は、AFレンズ112の移動を検出し、AFレンズ112の移動量に応じた信号を、鏡筒制御部118に出力する。ここで、AFレンズ112の移動量に応じた信号とは、例えば、AFレンズ112の移動量に応じて位相が変化するサイン(sin)波信号であってもよい。
The
鏡筒制御部118は、撮像装置100のCPU190(後述)から入力される駆動制御信号に応じて、レンズ駆動部116を制御する。ここで、駆動制御信号とは、AFレンズ112を光軸方向に駆動させる制御信号である。鏡筒制御部118は、駆動制御信号に応じて、例えば、レンズ駆動部116に出力するパルス電圧のステップ数を変更する。
The lens
また、鏡筒制御部118は、AFレンズ112の移動量に応じた信号に基づいて、レンズ鏡筒111におけるAFレンズ112の位置(フォーカスポジション)を、撮像装置100のCPU190に出力する。ここで、鏡筒制御部118は、例えば、AFレンズ112の移動量に応じた信号を、AFレンズ112の移動方向に応じて積算することで、レンズ鏡筒111におけるAFレンズ112の移動量(位置)を算出してもよい。
Further, the lens
レンズ駆動部116は、鏡筒制御部118の制御に応じてAFレンズ112を駆動し、AFレンズ112をレンズ鏡筒111内で光軸方向に移動させる。
The
次に、撮像装置100の構成を説明する。
撮像装置100は、撮像部110と、画像処理部140と、領域判定装置141と、表示部150と、バッファメモリ部130と、操作部180と、記憶部160と、CPU190と、通信部170とを備える。
Next, the configuration of the
The
撮像部110は、撮像素子119と、A/D(Analog/Digital)変換部120とを備える。撮像部110は、設定された撮像条件(例えば、絞り値、露光量)に基づいて、CPU190により制御される。
The
撮像素子119は、光電変換面を備え、レンズ鏡筒111(光学系)により光電変換面に結像された光学像を電気信号に変換して、A/D変換部120に出力する。撮像素子119は、例えば、CMOS(Complementary Metal Oxide Semiconductor)で構成されていてもよい。また、撮像素子119は、光電変換面の一部の領域について、光学像を電気信号に変換するようにしてもよい(画像切り出し)。
The
また、撮像素子119は、操作部180を介してユーザからの撮影指示を受け付けた際に得られる画像を、A/D変換部120を介して記憶媒体200に記憶させる。一方、撮像素子119は、操作部180を介してユーザからの撮影指示を受け付けていない状態において、連続的に得られる画像をスルー画像として、バッファメモリ部130及び表示部150に、A/D変換部120を介して出力する。
Further, the
A/D変換部120は、撮像素子119によって変換された電気信号をデジタル化して、デジタル信号である画像をバッファメモリ部130に出力する。
The A /
操作部180は、例えば、電源スイッチ、シャッタボタン、マルチセレクタ(十字キー)、又はその他の操作キーを備え、ユーザによって操作されることでユーザの操作入力を受け付け、受け付けた操作入力に応じた信号をCPU190に出力する。
The
画像処理部140は、記憶部160に記憶されている画像処理条件に基づいて、バッファメモリ部130に一時的に記憶されている画像を画像処理する。画像処理された画像は、通信部170を介して記憶媒体200に記憶される。
The
領域判定装置141は、バッファメモリ部130に一時的に記憶されている画像列から、画像特徴量に基づいて被写体領域を抽出する。また、領域判定装置141は、抽出した被写体領域について、第1画像からフレームアウトした被写体領域と、この第1画像とは異なる時刻に撮像された第2画像にフレームインした被写体領域とが、同じ被写体による被写体領域であるか否かを、被写体領域に対応付けた属性情報(属性データ)に基づいて判定する。
The
この属性情報には、抽出された被写体領域同士が同じ被写体による被写体領域であるか否かを判定するための条件を示す抽出情報と、被写体領域を撮像するための設定を示す撮像情報とがある。 The attribute information includes extraction information indicating conditions for determining whether or not the extracted subject areas are subject areas of the same subject, and imaging information indicating settings for capturing the subject area. .
抽出情報には、例えば、被写体領域の輝度と、被写体領域の色情報と、被写体領域のテクスチャと、被写体領域の面積と、被写体領域に外接する矩形と、その矩形に対する被写体領域の占有率と、画像フレームにおける被写体領域の重心位置と、画角中心から被写体領域までの距離と、被写体領域の慣性モーメントと、被写体領域のAF評価値(例えば、コントラスト、位相差)と、被写体領域の境界(エッジ)を表す情報と、ズーム倍率と、画像における被写体領域の動きと、被写体領域が背景による被写体領域であるか否かを示す情報と、センサにより測定された撮像装置の向き(例えば、撮像装置100に対する被写体の向き)を示す情報とがある。例えば、抽出された被写体領域同士が同じ被写体による被写体領域であるか否かは、被写体領域同士の抽出情報の近似度に基づいて判定されてもよい。 The extracted information includes, for example, the brightness of the subject area, the color information of the subject area, the texture of the subject area, the area of the subject area, the rectangle circumscribing the subject area, the occupation ratio of the subject area with respect to the rectangle, The gravity center position of the subject area in the image frame, the distance from the center of the angle of view to the subject area, the moment of inertia of the subject area, the AF evaluation value (for example, contrast and phase difference) of the subject area, and the boundary (edge) of the subject area ), Zoom magnification, movement of the subject area in the image, information indicating whether or not the subject area is a background subject area, and the orientation of the imaging apparatus measured by the sensor (for example, the imaging apparatus 100). Information indicating the orientation of the subject with respect to. For example, whether or not the extracted subject areas are subject areas of the same subject may be determined based on the degree of approximation of the extraction information between the subject areas.
また、撮像情報には、例えば、合焦位置(焦点距離)と、絞り値と、露光量と、アクション情報(アクションデータ)とがある。ここで、アクション情報とは、被写体に対して実行した撮像装置のアクション(例えば、動作、移動、向き)を表す情報である。例えば、アクション情報は、画像にフレームインした複数の被写体領域に順次合焦させるための優先度を定めるために参照されてもよい。 The imaging information includes, for example, a focus position (focal distance), an aperture value, an exposure amount, and action information (action data). Here, the action information is information representing an action (for example, operation, movement, direction) of the imaging apparatus performed on the subject. For example, the action information may be referred to in order to determine a priority for sequentially focusing on a plurality of subject areas framed in the image.
領域判定装置141は、被写体領域に対応付けた属性情報(抽出情報、撮像情報)を記憶部160に記憶させる。また、領域判定装置141は、バッファメモリ部130に一時的に記憶されている画像から抽出した被写体領域に、被写体領域に合焦させるための優先度を設定する。領域判定装置141の詳細については、後述する。
The
表示部150は、撮像部110によって得られた画像、及び操作画面等を表示する。表示部150は、例えば、液晶ディスプレイである。
The
バッファメモリ部130は、撮像部110によって撮像された画像を、一時的に記憶する。
The
記憶部160は、シーン判定の際にCPU190によって参照される判定条件と、シーン判定によって判断されたシーン毎に対応付けられた撮像条件と、被写体領域毎に定まる属性情報(抽出情報、撮像情報)とを記憶する。
The
CPU190は、設定された撮像条件(例えば、絞り値、露光量)に基づいて、撮像部110を制御する。また、CPU190は、領域判定装置141から属性情報(抽出情報、撮像情報)を取得する。
The
CPU190は、撮像情報に基づいて、画像処理のプレ処理又はポスト処理として、焦点調整(AF)の設定、露出調整(AE)の設定、ホワイトバランス調整(AWB)の設定、被写体像(オブジェクト)の追尾の設定、夜景か否かの判定の設定、色補正処理の設定、被写体像の拡大表示の設定、パンニング表示の設定、ズーム倍率に連動した明るさの最適化の設定、などを制御する。また、CPU190は、撮像情報に基づいて、トーンカーブ(階調カーブ)の設定、静止画及び動画による同時撮像を実行するか否かの設定などを制御する。
Based on the imaging information, the
また、CPU190は、撮像情報に基づいて、プレ処理又はポスト処理として、連写するか否かの設定、及び、連写において、合焦させる被写体像の切り替えの設定、焦点距離の連続変更の設定、撮像装置100の発光部(不図示)が発光する閃光の発光量の変更の設定、露光量の変更の設定、又はシャッタスピードの変更を実行するか否かの設定などを制御する。また、CPU190は、操作部180から入力された「操作入力に応じた信号」に基づいて、静止画形式又は動画形式の画像を、画像処理部140に画像処理させる。
Further, the
また、CPU190(焦点調節部)は、撮像情報に基づいてレンズ鏡筒111の鏡筒制御部118に駆動制御信号を出力することで、被写体領域に合焦させるよう焦点を調節する。
Further, the CPU 190 (focus adjustment unit) outputs a drive control signal to the lens
例えば、CPU190は、第1画像からフレームアウトした被写体領域と、第2画像にフレームインした被写体領域とが同じ被写体による被写体領域である、と領域判定装置141により判定された場合、次のように動作する。
For example, when the
CPU190は、撮像情報として記憶部160に記憶されている合焦位置に基づいて、第1画像からフレームアウトした被写体領域の合焦位置に、AFレンズ112を移動させることにより、第2画像にフレームインした被写体領域に合焦させる。
The
また、CPU190は、抽出情報として色情報が記憶されている場合、記憶されている色情報に基づいてコントラストスキャンを実行してもよい。また、CPU190は、撮像情報として露光量が記憶されている場合、その露光量で露光するよう撮像部110を制御する。これにより、画像列は、記憶されている露光量に応じて撮像部110により撮像される。
In addition, when color information is stored as extraction information, the
通信部170は、取り外し可能な記憶媒体200(カードメモリ等)と接続され、この記憶媒体200への情報(画像データ、属性情報など)の書込み、読み出し、あるいは消去を行う。
The
記憶媒体200は、撮像装置100に対して着脱可能に接続される記憶部であって、情報(画像データ、属性情報など)を記憶する。なお、記憶媒体200は、撮像装置100と一体であってもよい。
The
センサ500は、撮像装置100に対する被写体の方位、すなわち、領域判定装置141の向きを測定し、その測定結果を表す情報を領域判定装置141に出力する。
The
次に、領域判定装置141の詳細について説明する。
領域判定装置141は、特徴量算出部142と、領域抽出部143と、領域処理部144と、優先度設定部145とを備える。
Next, details of the
The
特徴量算出部142は、撮像部110が撮像した画像を、バッファメモリ部130から取得する。また、特徴量算出部142は、バッファメモリ部130から取得した画像における複数の特徴(例えば、色相、彩度、明度、テクスチャ、エッジ)毎に、その特徴量(例えば、輝度情報に基づく特徴量、色情報に基づく特徴量)を算出し、算出した特徴量を領域抽出部142に出力する。
The feature
領域抽出部143は、特徴量算出部142が算出した特徴量を取得する。また、領域抽出部143は、異なる時刻に撮像部110が撮像した画像列を、バッファメモリ部130から取得する。また、領域抽出部143は、取得した画像列から、画像特徴量に基づいて被写体領域を抽出する。ここで、領域抽出部143は、画像列を構成する全ての画像から被写体領域を抽出するようにしてもよいし、画像列を構成する画像に変化があった場合のみ、変化があった画像から被写体領域を抽出するようにしてもよい。
The
領域抽出部143は、例えば、画像特徴量である輝度(Y)、色情報(Cr,Cb、RGB)に基づいて、被写体領域を抽出する。また、領域抽出部143は、一定範囲の画像特徴量と、その一定範囲外の画像特徴量とに2値化された画像から、被写体領域を抽出する。また、領域抽出部143は、被写体領域にラベルを割り当てる(ラベリング)。
The
また、領域抽出部143は、被写体領域に対応付けた属性情報(抽出情報、撮像情報)を、記憶部160に記憶させる。ここで、領域抽出部143は、例えば、被写体領域に対する合焦位置を、撮像情報として記憶部160に記憶させる。また、領域抽出部143は、例えば、被写体領域に対する露光量、ゲイン及び階調カーブのうち少なくとも一つを、撮像情報として記憶部160に記憶させる。また、領域抽出部143は、例えば、被写体に対する撮像装置の動作、移動又は向きのうち少なくとも一つを表すアクション情報を、撮像情報として記憶部160に記憶させる。また、領域抽出部143は、例えば、センサ500により測定された撮像装置100の向きを、抽出情報として記憶部160に記憶させる。また、領域抽出部143は、例えば、被写体領域の色情報を、抽出情報として記憶部160に記憶させる。
The
領域判定部144は、撮像装置100が移動(例えば、ブームアップ、ブームダウン)、又は向きを変更(例えば、パンニング、チルト)したか否かを判定する。
The
また、領域判定部144は、第1画像からフレームアウトした被写体領域と、第1画像とは異なる時刻に撮像された第2画像にフレームインした被写体領域とが、同じ被写体による被写体領域であるか否かを、抽出情報に基づいて判定する。また、領域判定部144は、同じ被写体による被写体領域であると判定した場合、その同じ被写体による被写体領域に対応付けられた最新の撮像情報を選択する。
Further, the
また、領域判定部144は、抽出情報として記憶部160に記憶された、被写体領域に対するズーム倍率に基づいて、第1画像からフレームアウトした被写体領域と、第2画像にフレームインした被写体領域とが同じ被写体の被写体領域であるか否かを判定する。
The
また、領域判定部144は、第1画像が撮像された時刻から、第2画像が撮像された時刻までの時間が、予め定められた時間内である場合、第1画像からフレームアウトした被写体領域と、第2画像にフレームインした被写体領域とが同じ被写体の被写体領域であるか否かを、抽出情報に基づいて判定する。また、領域判定部144は、抽出情報が被写体領域同士で一致している度合いに基づいて、第1画像からフレームアウトした被写体領域と、第2画像にフレームインした被写体領域とが同じ被写体の被写体領域であるか否かを判定する。
In addition, the
図1に戻り、領域判定装置141の説明を続ける。優先度設定部145は、予め定められた条件(例えば、面積が閾値以上であること)を満たす被写体領域に、画像における「領域の優先度」を定める。この「領域の優先度」とは、人がより注目しているであろう領域の優先度である。優先度設定部144は、設定した「領域の優先度」を被写体領域に対応付けて、属性情報(抽出情報、撮像情報)として記憶部160に記憶させる。
Returning to FIG. 1, the description of the
領域の優先度は、次のように定められてもよい。以下では、優先度を示す数字が小さいほど、領域の優先度が高いものとする。また、以下に示す優先度は、一例である。 The priority of the area may be determined as follows. In the following, it is assumed that the priority of a region is higher as the number indicating the priority is smaller. Moreover, the priority shown below is an example.
優先度1.
動いている領域(動いている領域が画像に複数ある場合、画角からはみ出していない領域、又は画角の中央に分布する領域)。また、パンニングしたことにより、動いている領域が画像に広く分布している場合は、動いていない領域。
これらの領域は、優先度「1」に設定される。
人は、動いている領域及びパンニングした際に変化量の少ない領域に注目するためである。
Priority 1.
A moving area (when there are a plurality of moving areas in the image, an area that does not protrude from the angle of view or an area that is distributed in the center of the angle of view). Also, if the moving area is widely distributed in the image due to panning, the area is not moving.
These areas are set to priority “1”.
This is because a person pays attention to a moving area and an area having a small amount of change when panning.
なお、画像からフレームアウトするまで優先度1に設定されていた被写体領域が、画像に再びフレームインしたと判定された場合、その被写体領域には、優先度1が設定されるようにしてもよい。 Note that if it is determined that a subject area that has been set to priority 1 until it is framed out of the image has been framed in the image again, priority 1 may be set for the subject area. .
優先度2.
画角(構図)、奥行(パースペクト)、被写体距離(デプス、深度)に関する領域。画角の中央付近に分布する領域。画像に奥行がある場合、至近側に分布する領域のうち、画角からはみ出していない領域であって、面積が所定の範囲内である(極端に大きくない)領域。
これらの領域は、優先度「2」に設定される。
主要な被写体像の領域が、至近から無限までの広い範囲に存在する可能性があるためである。
Areas related to angle of view (composition), depth (perspective), and subject distance (depth, depth). An area distributed near the center of the angle of view. When there is a depth in the image, among the regions distributed on the closest side, the region does not protrude from the angle of view and has an area within a predetermined range (not extremely large).
These areas are set to priority “2”.
This is because the main subject image area may exist in a wide range from close to infinity.
優先度3.
人の顔検出、動物(ペット)の顔検出、顔が検出された領域における肌色検出、動物の毛並みのテクスチャ(模様)、又は植物のテクスチャに基づいて抽出された領域。
これらの領域は、優先度「3」に設定される。
人または動物が撮像されている場合、人は、その顔に注目するためである。
Regions extracted based on human face detection, animal (pet) face detection, skin color detection in the area where the face is detected, animal fur texture (pattern), or plant texture.
These areas are set to priority “3”.
This is because when a person or animal is imaged, the person pays attention to the face.
優先度4.
特異である特徴量(例えば、色相環において不連続である色相)がある領域。背景の領域とそれ以外の領域とに分割された領域。彩度が高い領域。周囲と比較して明度が著しく異なる領域。周囲と比較して色相(色合い)が著しく異なる領域。テクスチャ(模様)が周囲と異なる領域。周囲と比較して空間周波数(画像周波数)が高い領域。ある特徴量において不連続な分布が一定量あり、その特徴量に基づいてラベリングされた結果、領域が形成された場合に、画像において違和感がある領域。
これらの領域は、優先度「4」に設定される。
A region having a characteristic amount that is unique (for example, a hue that is discontinuous in the hue circle). An area divided into a background area and other areas. Highly saturated area. An area where the brightness is significantly different from the surrounding area. An area where the hue (hue) is significantly different from the surrounding area. An area where the texture (pattern) is different from the surrounding area. An area where the spatial frequency (image frequency) is higher than the surrounding area. A region in which an image has a sense of incongruity when a certain amount of discontinuous distribution has a certain amount and a region is formed as a result of labeling based on the feature amount.
These areas are set to priority “4”.
優先度5.
特定の色相又は彩度に基づいて抽出された領域。
これらの領域は、優先度「5」に設定される。
人は、赤色、黄色、肌色の領域に注目するためである。
An area extracted based on a specific hue or saturation.
These areas are set to the priority “5”.
This is because a person pays attention to red, yellow, and flesh-colored areas.
優先度6.
明度(明暗)に基づいて抽出された領域。
これらの領域は、優先度「6」に設定される。
An area extracted based on brightness (brightness).
These areas are set to priority “6”.
優先度7.
テクスチャ(模様)に基づいて抽出された領域。
これらの領域は、優先度「7」に設定される。
Priority 7.
An area extracted based on a texture (pattern).
These areas are set to priority “7”.
優先度8.
空間周波数(画像周波数)に基づいて抽出された領域。
これらの領域は、優先度「8」に設定される。
A region extracted based on the spatial frequency (image frequency).
These areas are set to priority “8”.
優先度9.
縦又は横に延びたエッジで囲まれた領域であって、一定以上の太さがある領域。
これらの領域は、優先度「9」に設定される。
An area surrounded by edges extending vertically or horizontally and having a certain thickness or more.
These areas are set to the priority “9”.
次に、領域判定装置の処理の手順を説明する。
<被写体領域の撮像情報を撮影設定(例えば、焦点調整(コントラストAF))に活用する場合について>
図2は、被写体領域の撮像情報に基づいてコントラストAFを実行する動作手順を示すフローチャート(前半)である。また、図3は、被写体領域の撮像情報に基づいてコントラストAFを実行する動作手順を示すフローチャート(後半)である。また、図4には、被写体領域の撮像情報に基づいてコントラストAFを実行する動作手順を説明するための図が表されている。
Next, the processing procedure of the area determination device will be described.
<When the imaging information of the subject area is used for shooting settings (for example, focus adjustment (contrast AF))>
FIG. 2 is a flowchart (first half) showing an operation procedure for executing contrast AF based on imaging information of a subject area. FIG. 3 is a flowchart (second half) showing an operation procedure for executing contrast AF based on imaging information of the subject area. FIG. 4 shows a diagram for explaining an operation procedure for executing contrast AF based on imaging information of the subject area.
撮像部110(図1を参照)は、動画モードに遷移し、動画形式の画像列を撮像する(ステップS1)。CPU190(図1を参照)は、動画モードにおける合焦(AF)駆動(例えば、ウォブリング)を、仮の合焦駆動として実行する(ステップS2)。領域判定部144は、撮像装置100が移動(例えば、ブームアップ、ブームダウン)、又は向きを変更(例えば、パンニング、チルト)したか否かを判定する(ステップS3)。
The imaging unit 110 (see FIG. 1) transitions to the moving image mode and images a moving image format image sequence (step S1). The CPU 190 (see FIG. 1) executes focus (AF) drive (for example, wobbling) in the moving image mode as temporary focus drive (step S2). The
撮像装置100が移動していない、且つ、向きを変更していない場合(ステップS3−No)、領域抽出部143は、特徴量算出部142が前回算出した画像特徴量に基づいて、被写体領域を抽出して属性情報(抽出情報、撮像情報)を算出し、算出した属性情報を記憶部160に記憶させる(ステップS4)。領域抽出部143は、有効な(例えば、面積が閾値以上である)被写体領域が画像に在るか否かを判定する。
When the
有効な被写体領域が画像に在る場合(ステップS5−Yes)、且つ、有効な被写体領域が複数である場合、優先度設定部145(図1を参照)は、それら有効な被写体領域に優先度を定める(ステップS6)。CPU190は、優先度が最も高い被写体領域について、コントラストAFを実行する。本フローチャートでは、優先度が最も高い被写体領域が、被写体領域400(図4(A)を参照)と定められたものとして説明を続ける。なお、被写体領域400には、コントラスト評価値が算出される領域である評価領域300が定められてもよい(ステップS7)。
When there are valid subject areas in the image (step S5-Yes) and there are a plurality of valid subject areas, the priority setting unit 145 (see FIG. 1) gives priority to these valid subject areas. Is determined (step S6). The
領域抽出部143は、被写体領域400により定まる属性情報(撮像情報)として、被写体領域400に対する合焦位置を示す情報を、記憶部160に記憶させる(ステップS8)。特徴量算出部142は、画像列における後続の画像フレームを取り込む(ステップS9)。領域抽出部143は、特徴量算出部142が前回算出した画像特徴量に基づいて、被写体領域を抽出して属性情報(抽出情報、撮像情報)を算出し、算出した属性情報を記憶部160に記憶させる(ステップS10)。
The
領域判定部144は、被写体領域400が画像の規定範囲に在るか否かを判定する。ここで、規定範囲とは、例えば、前回読み込んだ画像における被写体領域400の位置の周辺範囲、又は、画像フレーム(画角)の少し内側に定められた範囲である(図4(B)の規定範囲600を参照)(ステップS11)。
The
被写体領域400が画像の規定範囲に無い場合(ステップS11−No)、領域判定部144は、撮像装置100が移動又は向きを変更したか否かを判定する(ステップS12)。撮像装置100が移動していない、且つ、向きを変更していない場合(ステップS12−No)、特徴量算出部142は、画像列における後続の画像フレームを取り込む(ステップS13)。領域抽出部143は、特徴量算出部142が前回算出した画像特徴量に基づいて、被写体領域を抽出して属性情報(抽出情報、撮像情報)を算出し、算出した属性情報を記憶部160に記憶させる(ステップS14)。
When the
領域判定部144(図1を参照)は、有効な被写体領域が画像に在るか否かを判定する(ステップS15)。有効な被写体領域が画像に在る場合(ステップS15−Yes)、領域判定部144は、画像に在る有効な被写体領域が被写体領域400(既存ラベル)である可能性が高いか否かを判定する。ここで、方位を測定することが可能なセンサ500が撮像装置100に備えられている場合、領域判定部144は、撮像装置100に対する被写体の方位が一致するか否かに基づいて、画像に在る有効な被写体領域が被写体領域400である可能性が高いか否かを判定する。
The area determination unit 144 (see FIG. 1) determines whether or not an effective subject area exists in the image (step S15). When an effective subject area exists in the image (step S15—Yes), the
なお、画像に在る有効な被写体領域が既存ラベルである可能性が高いか否かを判定する方法は、上記の方法に限らなくてよい。例えば、領域判定部144は、方位を測定することが可能なセンサ500が撮像装置100に備えられていない場合、画像に在る有効な被写体領域が被写体領域400である可能性が高いか否かを、領域形状に基づいて判定してもよい(ステップS16)。
The method for determining whether or not there is a high possibility that an effective subject area in the image is an existing label is not limited to the above method. For example, the
画像に在る有効な被写体領域が被写体領域400(既存ラベル)である可能性が高い場合(ステップS16−Yes)、領域判定部144は、被写体領域400により定まる属性情報(抽出情報)を、記憶部160から読み込む(ステップS17)。そして、領域判定部144は、被写体領域400により定まる属性情報(抽出情報)と、抽出した領域により定まる属性情報(抽出情報)との近似度を算出し、算出した近似度が所定閾値よりも高いか否かを判定する(ステップS18)。
When there is a high possibility that an effective subject area in the image is the subject area 400 (existing label) (step S16—Yes), the
近似度が所定閾値よりも高い場合(ステップS18−Yes)、CPU190は、被写体領域400に対する合焦位置に、AFレンズ112(図1を参照)を移動させる。属性情報(撮像情報)である合焦位置は、このようにAFレンズ112の移動に活用される(ステップS19)。特徴量算出部142は、画像列における後続の画像フレームを取り込む(ステップS20)。領域抽出部143は、特徴量算出部142が算出した画像特徴量に基づいて、被写体領域を抽出して属性情報(抽出情報、撮像情報)を算出し、算出した属性情報を記憶部160に記憶させる(ステップS21)。
When the degree of approximation is higher than the predetermined threshold (step S18—Yes), the
領域判定部144は、前回に最優先であった被写体領域400が画像の規定範囲に在るか否かを判定する(ステップS22)。前回に最優先であった被写体領域400が画像の規定範囲に無い場合(ステップS22−No)、領域判定部144は、撮像装置100が移動又は向きを変更したか否かを判定する(ステップS23)。撮像装置100が移動していない、且つ、向きを変更していない場合(ステップS23−No)、特徴量算出部142は、ステップ13に処理を戻す。
The
一方、ステップS3において、撮像装置100が移動又は向きを変更している場合(ステップS3−Yes)、領域判定部144は、ステップS3における判定処理を繰り返す。また、ステップS5において、有効な被写体領域が画像に無い場合(ステップS5−No)、CPU190は、ステップ2に処理を戻す。また、ステップS11において、被写体領域400が画像の規定範囲に在る場合(ステップS11−Yes)、特徴量算出部142は、ステップ9に処理を戻す。
On the other hand, in step S3, when the
また、ステップS12において、撮像装置100が移動又は向きを変更している場合(ステップS12−Yes)、領域判定部144は、ステップS12における判定処理を繰り返す。また、ステップS15において、有効な被写体領域が画像に無い場合(ステップS15−No)、且つ、一定時間が経過した場合、CPU190は、コントラストAFを実行する(ステップS24)。そして、特徴量算出部142は、ステップ13に処理を戻す。
In Step S12, when image pick-up
また、ステップS16において、画像に在る有効な被写体領域が被写体領域400(既存ラベル)である可能性が高くない場合(ステップS16−No)、且つ、有効な被写体領域が複数である場合、優先度設定部145(図1を参照)は、それら有効な被写体領域に優先度を定める(ステップS25)。また、CPU190は、優先度が最も高い被写体領域について、コントラストAFを実行する。本フローチャートでは、ここで優先度が最も高い被写体領域が、被写体領域410(図4(C)を参照)と定められたものとして説明を続ける。なお、被写体領域410には、コントラスト評価値が算出される領域である評価領域310が定められてもよい(ステップS26)。領域抽出部143は、被写体領域410により定まる属性情報(撮像情報)として、被写体領域410に対する合焦位置を示す情報を、記憶部160に記憶させる(ステップS27)。そして、領域抽出部143は、ステップS20に処理を戻す。
In step S16, if there is no high possibility that the effective subject area in the image is the subject area 400 (existing label) (step S16-No), and there are a plurality of effective subject areas, priority is given. The degree setting unit 145 (see FIG. 1) determines priorities for these effective subject areas (step S25). Further, the
また、ステップS18において、近似度が所定閾値よりも高くない場合(ステップS18−No)、CPU190は、被写体領域400に対する合焦位置の付近に定められた、AFレンズ112(図1を参照)の駆動範囲の手前に、AFレンズ112を移動させる(ステップS28)。そして、CPU190は、被写体領域400により定まる属性情報(撮像情報)に基づいて、狭い駆動範囲でコントラストAFを実行する。属性情報(撮像情報)である合焦位置は、このようにコントラストAFに活用される(ステップS29)。そして、CPU190は、ステップS20に処理を戻す。
In step S18, when the degree of approximation is not higher than the predetermined threshold (step S18-No), the
また、ステップS22において、前回に最優先であった被写体領域400が画像の規定範囲に在る場合(ステップS22−Yes)、特徴量算出部142は、ステップS20に処理を戻す。
In step S22, if the
図5には、被写体領域の撮像情報に基づいてコントラストAFを実行する動作例を説明するための図が表されている。ここで、横軸は、時刻を表す。また、縦軸は、AFレンズ112の位置を表す。 FIG. 5 shows a diagram for explaining an operation example in which contrast AF is executed based on imaging information of a subject area. Here, the horizontal axis represents time. The vertical axis represents the position of the AF lens 112.
まず、時刻t1から時刻t2までの間に、CPU190は、AFレンズ112(図1を参照)を駆動させながらコントラスト評価値を算出することにより、コントラストスキャンを実行したとする。また、これにより、被写体領域400(図4(A)を参照)に合焦させることができる合焦位置Aが定まったとする。領域抽出部143は、被写体領域400に対する合焦位置Aを、被写体領域400により定まる属性情報(撮像情報)として記憶部160に記憶させる。
First, it is assumed that the
時刻t3において、CPU190は、被写体領域400に対する合焦位置Aに、AFレンズ112を移動させる。その後、被写体領域400は、画像からフレームアウトしたとする。そして、CPU190は、コントラストスキャンを実行し、被写体領域410(図4(C)を参照)に対する合焦位置Bに、AFレンズ112を移動させる。領域抽出部143は、被写体領域410に対する合焦位置Bを、被写体領域410により定まる属性情報(撮像情報)として記憶部160に記憶させる。
At time t <b> 3, the
その後、被写体領域400が画像に再びフレームインしたとする。領域判定部144は、時刻t1から時刻t2までの間に撮像された画像からフレームアウトした被写体領域と、時刻t4までに撮像された画像にフレームインした被写体領域とが、同じ被写体による被写体領域400であるか否かを、属性情報(抽出情報)に基づいて判定する。ここで、領域判定部144は、同じ被写体による被写体領域400であると判定したとする。
After that, it is assumed that the
時刻t4から時刻t5までの間に、CPU190は、コントラストスキャンを実行することなく属性情報(撮像情報=合焦位置A)に基づいて、被写体領域400(図4(A)を参照)に対する合焦位置Aに、AFレンズ112を移動させる。
Between time t4 and time t5, the
<画像に在る複数の被写体領域に、順次合焦させる場合について>
図6は、被写体領域の撮像情報に基づいてコントラストAFを順次実行する動作手順を示すフローチャートである。撮像部110(図1を参照)は、動画モードに遷移し、動画形式の画像列を撮像する(ステップSa1)。領域抽出部143は、特徴量算出部142が算出した画像特徴量に基づいて、被写体領域を抽出する。ここで、被写体領域400、410及び420(図4には不図示)が抽出されたとする(ステップSa2)。領域抽出部143は、抽出した各被写体領域の属性情報(抽出情報、撮像情報)を算出し、算出した属性情報を被写体領域毎に記憶部160に記憶させる(ステップSa3)。
<When focusing on multiple subject areas in an image sequentially>
FIG. 6 is a flowchart showing an operation procedure for sequentially executing contrast AF based on imaging information of the subject area. The imaging unit 110 (see FIG. 1) transitions to the moving image mode and images a moving image format image sequence (step Sa1). The
特徴量算出部142は、画像列における後続の画像フレームを取り込む(ステップSa4)。領域抽出部143は、特徴量算出部142が算出した画像特徴量に基づいて、被写体領域を抽出して属性情報(抽出情報、撮像情報)を算出し、算出した属性情報を記憶部160に記憶させる(ステップSa5)。領域判定部144(図1を参照)は、前回までに抽出した被写体領域(既存ラベル)が画像に在るか否かを判定する(ステップSa6)。
The feature
前回までに抽出した被写体領域(既存ラベル)が画像に無い場合(ステップSa6−No)、領域判定部144は、撮像装置100が移動又は向きを変更したか否かを判定する(ステップSa7)。撮像装置100が移動していない、且つ、向きを変更していない場合(ステップSa7−No)、領域判定部144は、前回合焦させた被写体領域が1番中心域に在るか否か、すなわち、画角中心に最も近い領域に在るか否かを判定する(ステップSa8)。
When the subject area (existing label) extracted up to the previous time does not exist in the image (step Sa6-No), the
前回合焦させた被写体領域(既存ラベル)が1番中心域に在る場合(ステップSa8−Yes)、CPU190は、その1番中心域に在る被写体領域(例えば、被写体領域400)により定まる属性情報(撮像情報)に基づいて、その被写体領域に対する合焦位置にAFレンズ112を移動させる。属性情報(撮像情報)である合焦位置は、このようにAFレンズ112の移動に活用される(ステップSa9)。そして、特徴量算出部142は、一定時間が経過するのを待ってから(ステップSa10)、ステップSa4に処理を戻す。
When the previously focused subject area (existing label) is in the first center area (step Sa8-Yes), the
一方、ステップSa8において、前回合焦させた被写体領域が1番中心域に無い場合(ステップSa8−No)、領域判定部144は、前回合焦させた被写体領域が2番中心域に在るか否か、すなわち、1番中心域のすぐ外側の領域に在るか否かを判定する(ステップSa11)。
On the other hand, in step Sa8, when the subject area focused last time is not in the first center area (step Sa8-No), the
前回合焦させた被写体領域(既存ラベル)が2番中心域に在る場合(ステップSa11−Yes)、CPU190は、その2番中心域に在る被写体領域(例えば、被写体領域410)により定まる属性情報(撮像情報)に基づいて、その被写体領域に対する合焦位置にAFレンズ112を移動させる。属性情報(撮像情報)である合焦位置は、このようにAFレンズ112の移動に活用される(ステップSa12)。そして、特徴量算出部142は、一定時間が経過するのを待ってから(ステップSa10)、ステップSa4に処理を戻す。
When the previously focused subject area (existing label) is in the second center area (step Sa11-Yes), the
また、ステップSa11において、前回合焦させた被写体領域(既存ラベル)が2番中心域に無い場合(ステップSa11−No)、CPU190は、その2番中心域のすぐ外側の3番中心域に在る被写体領域(例えば、被写体領域420(図4には不図示))により定まる属性情報(撮像情報)に基づいて、その被写体領域に対する合焦位置にAFレンズ112を移動させる。属性情報(撮像情報)である合焦位置は、このようにAFレンズ112の移動に活用される(ステップSa13)。そして、特徴量算出部142は、一定時間が経過するのを待ってから(ステップSa10)、ステップSa4に処理を戻す。
In step Sa11, if the subject area (existing label) focused last time is not in the second central area (step Sa11-No), the
また、ステップSa6において、前回までに抽出した被写体領域(既存ラベル)が画像に在る場合(ステップSa6−Yes)、特徴量算出部142は、ステップSa4に処理を戻す。また、ステップSa7において、撮像装置100が移動又は向きを変更した場合(ステップSa7−Yes)、領域判定部144は、ステップSa7における判定処理を繰り返す。
In step Sa6, if the subject region (existing label) extracted up to the previous time is present in the image (step Sa6-Yes), the feature
<被写体領域に対する撮像装置のアクション情報に基づいて、被写体領域の優先度(注目フラグ)を変更する場合について>
図7は、被写体領域の撮像情報であるアクション情報に基づいてコントラストAFを実行する動作手順を示すフローチャート(前半)である。また、図8は、被写体領域の撮像情報であるアクション情報に基づいてコントラストAFを実行する動作手順を示すフローチャート(前半の続き)である。また、図9は、被写体領域の撮像情報であるアクション情報に基づいてコントラストAFを実行する動作手順を示すフローチャート(後半)である。
<Changing the priority (attention flag) of the subject area based on the action information of the imaging device for the subject area>
FIG. 7 is a flowchart (first half) showing an operation procedure for executing contrast AF based on action information that is imaging information of a subject area. FIG. 8 is a flowchart (continuation of the first half) showing an operation procedure for executing contrast AF based on action information that is imaging information of a subject area. FIG. 9 is a flowchart (second half) showing an operation procedure for executing contrast AF based on action information that is imaging information of a subject area.
また、図10には、被写体領域の撮像情報であるアクション情報に基づいてコントラストAFを実行する動作手順を説明するための図が表されている。また、図11には、被写体領域の撮像情報であるアクション情報に基づいてコントラストAFを実行する動作手順を説明するための図が表されている。 FIG. 10 is a diagram for explaining an operation procedure for executing contrast AF based on action information that is imaging information of a subject area. FIG. 11 is a diagram for explaining an operation procedure for executing contrast AF based on action information that is imaging information of a subject area.
撮像部110(図1を参照)は、動画モードに遷移し、動画形式の画像列を撮像する(ステップSb1)。CPU190(図1を参照)は、動画モードにおける合焦(AF)駆動(例えば、ウォブリング)を、仮の合焦駆動として実行する(ステップSb2)。領域判定部144は、撮像装置100が移動(例えば、ブームアップ、ブームダウン)、又は向きを変更(例えば、パンニング、チルト)したか否かを判定する(ステップSb3)。
The imaging unit 110 (see FIG. 1) transitions to the moving image mode and images a moving image format image sequence (step Sb1). The CPU 190 (see FIG. 1) executes focus (AF) drive (for example, wobbling) in the moving image mode as temporary focus drive (step Sb2). The
撮像装置100が移動していない、且つ、向きを変更していない場合(ステップSb3−No)、領域抽出部143は、特徴量算出部142が前回算出した画像特徴量に基づいて、被写体領域を抽出して属性情報(抽出情報、撮像情報)を算出し、算出した属性情報を記憶部160に記憶させる(ステップSb4)。領域抽出部143は、有効な(例えば、面積が閾値以上である)被写体領域が画像に在るか否かを判定する(ステップSb5)。
When the
有効な被写体領域が画像に在る場合(ステップSb5−Yes)、且つ、有効な被写体領域が複数である場合、優先度設定部145(図1を参照)は、それら有効な被写体領域に優先度を定める(ステップSb6)。CPU190は、優先度が最も高い被写体領域について、コントラストAFを実行する。本フローチャートでは、ここで優先度が最も高い被写体領域が、被写体領域420(図10(A)を参照)と定められたものとして説明を続ける。なお、被写体領域420には、コントラスト評価値が算出される領域である評価領域320が定められてもよい(ステップSb7)。
When there are valid subject areas in the image (step Sb5-Yes) and there are a plurality of valid subject areas, the priority setting unit 145 (see FIG. 1) gives priority to these valid subject areas. Is determined (step Sb6). The
領域抽出部143は、被写体領域420により定まる属性情報(撮像情報)として、被写体領域420に対する合焦位置を示す情報を、記憶部160に記憶させる(ステップSb8)。特徴量算出部142は、画像列における後続の画像フレームを取り込む(ステップSb9)。領域抽出部143は、特徴量算出部142が前回算出した画像特徴量に基づいて、被写体領域を抽出して属性情報(抽出情報、撮像情報)を算出し、算出した属性情報を記憶部160に記憶させる(ステップSb10)。領域判定部144は、被写体領域420が画像の規定範囲に在るか否かを判定する(ステップSb11)。
The
被写体領域420が画像の規定範囲に無い場合(ステップSb11−No)、領域判定部144は、撮像装置100が移動又は向きを変更したか否かを判定する(ステップSb12)。撮像装置100が移動していない、且つ、向きを変更していない場合(ステップSb12−No)、特徴量算出部142は、画像列における後続の画像フレームを取り込む(ステップSb13)。領域抽出部143は、特徴量算出部142が前回算出した画像特徴量に基づいて、被写体領域を抽出して属性情報(抽出情報、撮像情報)を算出し、算出した属性情報を記憶部160に記憶させる(ステップSb14)。
When the
領域判定部144(図1を参照)は、被写体領域420ではない有効な被写体領域が画像に在るか否か、を判定する。本フローチャートでは、被写体領域420ではない有効な被写体領域が被写体領域430(図10(B)を参照)と定められたものとして、説明を続ける(ステップSb15)。有効な被写体領域が画像に在る場合(ステップSb15−Yes)、特徴量算出部142は、画像列における後続の画像フレームを取り込む(ステップSb16)。
The area determination unit 144 (see FIG. 1) determines whether an effective subject area that is not the
領域抽出部143は、特徴量算出部142が前回算出した画像特徴量に基づいて、被写体領域を抽出して属性情報(抽出情報、撮像情報)を算出し、算出した属性情報を記憶部160に記憶させる(ステップSb17)。領域判定部144は、被写体領域430が画像に在るか否かを判定する(ステップSb18)。
The
被写体領域430(図10(C)を参照)が画像に無い場合(ステップSb18−No)、領域判定部144は、撮像装置100が移動又は向きを変更したか否かを判定する(ステップSb19)。撮像装置100が移動していない、且つ、向きを変更していない場合(ステップSb19−No)、特徴量算出部142は、画像列における後続の画像フレームを取り込む(ステップSb20)。
When the subject region 430 (see FIG. 10C) is not present in the image (step Sb18—No), the
領域抽出部143は、特徴量算出部142が算出した画像特徴量に基づいて、被写体領域を抽出して属性情報(抽出情報、撮像情報)を算出し、算出した属性情報を記憶部160に記憶させる(ステップSb21)。領域判定部144(図1を参照)は、有効な被写体領域が画像に在るか否かを判定する(ステップSb22)。有効な被写体領域が画像に在る場合(ステップSb22−Yes)、領域判定部144は、画像に在る有効な被写体領域が被写体領域420又は被写体領域430であるか否かを判定する(ステップSb23)。
The
画像に在る有効な被写体領域が被写体領域420でない、且つ、被写体領域430でない場合(ステップSb23−No)、特徴量算出部142は、画像列における後続の画像フレームを取り込む(ステップSb24)。
When the effective subject area in the image is not the
領域抽出部143は、特徴量算出部142が算出した画像特徴量に基づいて、被写体領域を抽出して属性情報(抽出情報、撮像情報)を算出し、算出した属性情報を記憶部160に記憶させる。本フローチャートでは、移動している被写体領域440(図11(A)を参照)が抽出されたものとして説明を続ける。ここで、被写体領域440が移動している場合、領域判定部144は、撮像装置100が移動又は向きを変更することにより(図11(B)を参照)、被写体領域440を追尾しているか否か(図11(C)を参照)を判定する(ステップSb25)。
The
撮像装置100が移動又は向きを変更することにより、被写体領域440を追尾している場合(ステップSb25−Yes)、領域判定部144は、被写体領域440が画像の規定範囲に在るか否かを判定する(ステップSb26)。被写体領域440が画像の規定範囲に無い場合(ステップSb26−No)、領域判定部144は、撮像装置100が移動又は向きを変更したか否かを判定する(ステップSb27)。
When the
撮像装置100が移動していない、且つ、向きを変更していない場合(ステップSb27−No)、特徴量算出部142は、画像列における後続の画像フレームを取り込む(ステップSb28)。領域抽出部143は、特徴量算出部142が算出した画像特徴量に基づいて、被写体領域を抽出して属性情報(抽出情報、撮像情報)を算出し、算出した属性情報を記憶部160に記憶させる(ステップSb29)。
When the
領域判定部144(図1を参照)は、有効な被写体領域が画像に在るか否かを判定する(ステップSb30)。有効な被写体領域が画像に在る場合(ステップSb30−Yes)、領域判定部144は、画像に在る有効な被写体領域が被写体領域420、被写体領域430又は被写体領域440であるか否かを判定する(ステップSb31)。
The area determination unit 144 (see FIG. 1) determines whether or not an effective subject area exists in the image (step Sb30). When there is an effective subject area in the image (step Sb30-Yes), the
画像に在る有効な被写体領域が被写体領域420、被写体領域430又は被写体領域440である場合(ステップSb31−Yes)、領域判定部144は、撮像装置100が移動又は向きを変更したか否かを判定する(ステップSb32)。撮像装置100が移動していない、且つ、向きを変更していない場合(ステップS32−No)、領域抽出部143は、複数の被写体領域が画像に在れば、画像フレームの一定の内側領域(例えば、中心域)から被写体領域を抽出する(ステップSb33)。
When the effective subject area in the image is the
領域抽出部143は、画像フレームの一定の内側領域以外に在る被写体領域を、処理対象から除外する(ステップSb34)。領域判定部144(図1を参照)は、有効な被写体領域が被写体領域430(図10(B)を参照)のみであるか否かを判定する(ステップSb35)。
The
有効な被写体領域が被写体領域430のみである場合(ステップSb35−Yes)、領域抽出部143は、特徴量算出部142が算出した画像特徴量に基づいて、被写体領域を抽出して属性情報(抽出情報、撮像情報(例えば、無限合焦位置、各色のコントラスト評価値)を算出し、算出した属性情報を記憶部160に記憶させる。CPU190は、被写体領域430に対する合焦位置に、AFレンズ112(図1を参照)を移動させる。属性情報(撮像情報)である合焦位置は、このようにAFレンズ112の移動に活用される(ステップSb36)。
When the effective subject area is only the subject area 430 (step Sb35-Yes), the
特徴量算出部142は、画像列における後続の画像フレームを取り込む(ステップSb37)。領域抽出部143は、特徴量算出部142が算出した画像特徴量に基づいて、被写体領域を抽出して属性情報(抽出情報、撮像情報)を算出し、算出した属性情報を記憶部160に記憶させる(ステップSb38)。
The feature
領域判定部144は、前回に最優先であった被写体領域が画像の規定範囲に在るか否かを判定する。ここで、規定領域とは、前回の画像フレームにおける被写体領域の位置の周辺か、画像フレーム(画角)より少し内側の範囲である(ステップSb39)。
The
前回に最優先であった被写体領域が画像の規定範囲に無い場合(ステップSb39−No)、領域判定部144は、撮像装置100が移動又は向きを変更したか否かを判定する(ステップSb40)。撮像装置100が移動していない、且つ、向きを変更していない場合(ステップS40−No)、領域抽出部143は、特徴量算出部142が前回算出した画像特徴量に基づいて、被写体領域を抽出する(ステップSb41)。
When the subject area that has been given the highest priority in the previous time is not within the specified range of the image (step Sb39-No), the
領域抽出部143は、有効な(例えば、面積が閾値以上である)被写体領域が画像に在るか否かを判定する(ステップSb42)。有効な被写体領域が画像に在る場合(ステップS42−Yes)、領域抽出部143は、被写体領域を解析し、解析した被写体領域により定まる属性情報(抽出情報、撮像情報)を、記憶部160に記憶させる。CPU190は、優先度が最も高い被写体領域について、コントラストAFを実行する。属性情報(撮像情報)である合焦位置は、このようにAFレンズ112の移動に活用される(ステップSb43)。そして、領域抽出部143は、ステップSb3に処理を進める。
The
一方、ステップSb11において、被写体領域420(図10(A)を参照)が画像の規定範囲に在る場合(ステップSb11−Yes)、且つ、一定時間以上、被写体領域420が中心域に在る場合、優先度設定部145は、被写体領域420の優先度を上げる。また、領域抽出部143は、特徴量算出部142が算出した画像特徴量に基づいて、被写体領域を抽出して属性情報(抽出情報、撮像情報)を算出し、算出した属性情報を記憶部160に記憶させる。ここで、領域抽出部143は、「被写体領域を中心域に据えることを示すアクション情報」を記憶させる。また、領域抽出部143は、撮影者による被写体領域の注目度を表すフラグである注目フラグに、値1を設定する(ステップSb44)。
On the other hand, in step Sb11, when the subject area 420 (see FIG. 10A) is within the prescribed range of the image (step Sb11-Yes), and when the
また、ステップSb18において、被写体領域430(図10(C)を参照)が画像に在る場合(ステップSb18−Yes)、且つ、被写体領域430が画像に在る時間が所定時間以下である場合、優先度設定部145は、被写体領域430の優先度を下げる。また、領域抽出部143は、特徴量算出部142が算出した画像特徴量に基づいて、被写体領域を抽出して属性情報(抽出情報、撮像情報)を算出し、算出した属性情報を記憶部160に記憶させる。ここで、領域抽出部143は、「被写体領域を無視したことを示すアクション情報」を記憶させる。また、領域抽出部143は、撮影者による被写体領域の注目度を表すフラグである注目フラグに、値0を設定する(ステップSb45)。
In step Sb18, when the subject region 430 (see FIG. 10C) is present in the image (step Sb18-Yes), and when the
また、ステップSb26において、被写体領域440(図11(A)を参照)が画像の規定範囲に在る場合(ステップSb26−Yes)、領域判定部144は、領域440が画像に在る時間を計測し、その計測結果に基づいて、被写体領域440を追尾しているか否かを判定する。
In step Sb26, when the subject region 440 (see FIG. 11A) is within the prescribed range of the image (step Sb26-Yes), the
撮像装置100(図1を参照)が被写体領域440を追尾している場合、優先度設定部145は、被写体領域430の優先度を下げる。また、領域抽出部143は、特徴量算出部142が算出した画像特徴量に基づいて、被写体領域を抽出して属性情報(抽出情報、撮像情報)を算出し、算出した属性情報を記憶部160に記憶させる。ここで、領域抽出部143は、「追尾していることを示すアクション情報」を記憶させる。また、領域抽出部143は、撮影者による被写体領域の注目度を表すフラグである注目フラグに、値2を設定する(ステップSb46)。
When the imaging apparatus 100 (see FIG. 1) is tracking the
また、ステップSb30において、有効な被写体領域が画像に在る場合(ステップSb30−No)、CPU190は、優先度が最も高い被写体領域について、コントラストAFを実行する(ステップSb47)。
In step Sb30, if an effective subject area exists in the image (step Sb30-No), the
また、ステップSb35において、有効な被写体領域が被写体領域430でない場合(ステップSb35−No)、領域判定部144は、有効な被写体領域が被写体領域420(図10(A)を参照)のみ、又は、有効な被写体領域が被写体領域420及び被写体領域430であるか否かを判定する(ステップSb48)。
In step Sb35, when the effective subject area is not the subject area 430 (step Sb35-No), the
有効な被写体領域が被写体領域420のみ、又は、有効な被写体領域が被写体領域420及び被写体領域430である場合(ステップSb48−Yes)、領域抽出部143は、特徴量算出部142が算出した画像特徴量に基づいて、被写体領域420を抽出して属性情報(抽出情報、撮像情報)を算出し、算出した属性情報を記憶部160に記憶させる。CPU190は、被写体領域420に対する合焦位置に、AFレンズ112(図1を参照)を移動させる。属性情報(撮像情報)である合焦位置は、このようにAFレンズ112の移動に活用される(ステップSb49)。
When the effective subject area is only the
一方、ステップSb48において、有効な被写体領域が被写体領域420のみでない、且つ、有効な被写体領域が被写体領域420及び被写体領域430でない場合(ステップSb48−No)、領域判定部144は、有効な被写体領域が被写体領域440(図11を参照)のみ、又は、有効な被写体領域が被写体領域420、被写体領域430及び被写体領域440であるか否かを判定する(ステップSb50)。
On the other hand, in step Sb48, when the effective subject area is not only the
有効な被写体領域が被写体領域440のみ、又は、有効な被写体領域が被写体領域420、被写体領域430及び被写体領域440である場合(ステップSb50−Yes)、領域抽出部143は、特徴量算出部142が算出した画像特徴量に基づいて、被写体領域420を抽出して属性情報(抽出情報、撮像情報)を算出し、算出した属性情報を記憶部160に記憶させる。CPU190は、被写体領域440に対する合焦位置に、AFレンズ112(図1を参照)を移動させる。属性情報(撮像情報)である合焦位置は、このようにAFレンズ112の移動に活用される(ステップSb51)。
When the effective subject area is only the
一方、ステップSb50において、有効な被写体領域が被写体領域440のみでない、且つ、有効な被写体領域が被写体領域420、被写体領域430及び被写体領域440でない場合(ステップSb50−No)、領域抽出部143及びCPU190は、処理をステップSb43に進める。
On the other hand, when the effective subject area is not only the
また、ステップSb3において、撮像装置100が移動又は向きを変更している場合(ステップSb3−No)、領域判定部144は、ステップSb3における判定処理を繰り返す。また、ステップSb5において、有効な被写体領域が画像に無い場合(ステップSb5−No)、CPU190(図1を参照)は、ステップSb2に処理を戻す。
In Step Sb3, when the
また、ステップSb12において、撮像装置100が移動又は向きを変更している場合(ステップSb12−Yes)、領域判定部144は、ステップSb12における判定処理を繰り返す。また、ステップSb15において、有効な被写体領域が画像に無い場合(ステップSb15−No)、特徴量算出部142は、ステップSb13に処理を戻す。
In step Sb12, when the
また、ステップSb19において、撮像装置100が移動又は向きを変更している場合(ステップSb19−Yes)、領域判定部144は、ステップSb19における判定処理を繰り返す。また、ステップSb22において、有効な被写体領域が画像に無い場合(ステップSb22−No)、特徴量算出部142は、ステップSb20に処理を戻す。
In step Sb19, when the
また、ステップSb23において、画像に在る有効な被写体領域が被写体領域420又は被写体領域430である場合(ステップSb23−Yes)、領域判定部144は、ステップSb32に処理を進める。また、ステップSb32において、撮像装置100が移動又は向きを変更している場合(ステップS32−Yes)、領域判定部144は、ステップSb32における判定処理を繰り返す。
In step Sb23, when the effective subject area in the image is the
また、ステップSb39において、前回に最優先であった被写体領域が画像の規定範囲に在る場合(ステップSb39−Yes)、特徴量算出部142は、ステップSb37に処理を戻す。また、ステップSb40において、撮像装置100が移動又は向きを変更している場合(ステップS40−Yes)、領域判定部144は、ステップSb40における判定処理を繰り返す。また、ステップSb42において、有効な被写体領域が画像に無い場合(ステップS42−No)、領域抽出部143は、ステップSb41に処理を戻す。
In step Sb39, when the subject area that has been given the highest priority in the previous time is within the specified range of the image (step Sb39-Yes), the feature
<被写体領域が抽出された後にズーム倍率が変更された場合について>
図12は、ズーム倍率が変更された場合に、被写体領域の撮像情報に基づいてコントラストAFを実行する動作手順を示すフローチャートである。撮像部110(図1を参照)は、動画モードに遷移し、動画形式の画像列を撮像する(ステップSc1)。領域抽出部143は、特徴量算出部142が算出した画像特徴量に基づいて、被写体領域を抽出する。ここで、被写体領域400(図4(A)を参照)が抽出されたとする(ステップSc2)。領域抽出部143は、抽出した被写体領域400の属性情報(抽出情報、撮像情報)を算出し、算出した属性情報を被写体領域400に対応付けて記憶部160に記憶させる(ステップSc3)。そして、被写体領域400が、画像からフレームアウトしたとする。
<When the zoom magnification is changed after the subject area is extracted>
FIG. 12 is a flowchart illustrating an operation procedure for executing contrast AF based on imaging information of the subject area when the zoom magnification is changed. The imaging unit 110 (see FIG. 1) transitions to the moving image mode and images a moving image format image sequence (step Sc1). The
特徴量算出部142は、画像列における後続の画像フレームを取り込む(ステップSc4)。領域抽出部143は、CPU190からズーム倍率を取得して、取得したズーム倍率を記憶する(ステップSc5)。領域抽出部143は、特徴量算出部142が算出した画像特徴量に基づいて、被写体領域を抽出する。領域抽出部143は、抽出した被写体領域の属性情報(抽出情報、撮像情報)を算出し、算出した属性情報を被写体領域毎に記憶部160に記憶させる(ステップSc6)。
The feature
領域抽出部143は、記憶したズーム倍率に応じて、抽出情報(例えば、被写体領域のサイズ及び位置)を換算する。例えば、抽出情報が被写体領域のサイズを表す場合、領域抽出部143は、記憶したズーム倍率の二乗に応じて、被写体領域のサイズを換算(例えば、ズーム倍率を乗算又は除算)する(ステップSc7)。領域判定部144は、前回までに抽出した被写体領域(既存ラベル)を含む有効な被写体領域が、画像の規定領域に在るか否かを判定する。ここで、規定領域とは、前回の画像フレームにおける被写体領域のズーム倍率に応じて換算した位置の周辺か、ズーム倍率に応じて換算した画像フレーム(画角)より少し内側の範囲である(ステップSc8)。前回までに抽出した被写体領域を含む有効な被写体領域が、画像の規定領域に在る場合(ステップSc8−Yes)、領域判定部144は、撮像装置100が移動又は向きを変更したか否かを判定する(ステップSc9)。
The
撮像装置100が移動していない、且つ、向きを変更していない場合(ステップSc10−No)、有効な被写体領域が被写体領域400であれば、CPU190は、被写体領域400により定まる属性情報(撮像情報)に基づいて、被写体領域400に対する合焦位置にAFレンズ112を移動させる。一方、有効な被写体領域が被写体領域400以外であれば、領域抽出部143は、その被写体領域により定まる属性情報(撮像情報)を更新し、更新した属性情報(撮像情報)を記憶部160に記憶させる。
If the
また、特徴量算出部142は、画像列における後続の画像フレームを取り込む(ステップSc11)。領域抽出部143は、特徴量算出部142が算出した画像特徴量に基づいて、被写体領域を抽出する。領域抽出部143は、抽出した被写体領域の属性情報(抽出情報、撮像情報)を算出し、算出した属性情報を被写体領域毎に記憶部160に記憶させる(ステップSc12)。
In addition, the feature
領域判定部144は、被写体領域400が画像の規定範囲に在るか否かを判定する(ステップSc13)。被写体領域400が画像の規定範囲に在る場合(ステップSc13−Yes)、領域判定部144は、撮像装置100が移動又は向きを変更したか否かを判定する(ステップSc14)。撮像装置100が移動していない、且つ、向きを変更していない場合(ステップSc14−No)、領域抽出部143は、特徴量算出部142が算出した画像特徴量に基づいて、被写体領域を抽出する(ステップSc15)。
The
領域判定部144は、有効な被写体領域が画像に在るか否かを判定する(ステップSc16)。有効な被写体領域が画像に在る場合(ステップSc16−Yes)、領域抽出部143は、被写体領域を解析し、解析した被写体領域により定まる属性情報(抽出情報、撮像情報)を、記憶部160に記憶させる。CPU190は、優先度が最も高い被写体領域について、コントラストAFを実行する。属性情報(撮像情報)である合焦位置は、このようにAFレンズ112の移動に活用される(ステップSc17)。そして、領域抽出部143は、ステップSc4に処理を戻す。
The
一方、ステップSc8において、前回までに抽出した被写体領域を含む有効な被写体領域が、画像の規定領域に無い場合(ステップSc8−No)、特徴量算出部142は、ステップSc4に処理を進める。また、ステップSc9において、撮像装置100が移動又は向きを変更している場合(ステップSc9−Yes)、領域判定部144は、ステップSc9における判定処理を繰り返す。また、ステップSc13において、被写体領域400が画像の規定範囲に無い場合(ステップSc13−No)、特徴量算出部142は、ステップSc11に処理を戻す。
On the other hand, in step Sc8, when there is no effective subject area including the subject area extracted so far in the prescribed area of the image (step Sc8-No), the feature
また、ステップSc14において、撮像装置100が移動又は向きを変更している場合(ステップSc14−Yes)、領域判定部144は、ステップSc14における判定処理を繰り返す。また、ステップSc16において、有効な被写体領域が画像に無い場合(ステップSc16−No)、領域抽出部143は、ステップSc15に処理を戻す。
In Step Sc14, when the
<コントラスト評価値を算出(隣接画素差を加算)する際、コントラスト評価値が最大である色チャネルを記憶し、その色チャネルのコントラスト評価値を次回のコントラストAFに活用する場合について>
図13は、被写体領域の抽出情報である色チャネルに基づいてコントラストAFを実行する動作手順を示すフローチャートである。また、図14には、AFレンズ位置とコントラスト評価値との関係が示されている。ここで、横軸は、AFレンズ位置を表す。また、縦軸は、コントラスト評価値を表す。図14では、コントラスト評価値のピーク値が、赤(R)チャネル、緑(G)チャネル、青(B)チャネルの順に高いものとする。
<When calculating the contrast evaluation value (adding adjacent pixel differences), storing the color channel with the maximum contrast evaluation value and utilizing the contrast evaluation value of that color channel for the next contrast AF>
FIG. 13 is a flowchart showing an operation procedure for executing contrast AF based on a color channel which is subject area extraction information. FIG. 14 shows the relationship between the AF lens position and the contrast evaluation value. Here, the horizontal axis represents the AF lens position. The vertical axis represents the contrast evaluation value. In FIG. 14, the peak value of the contrast evaluation value is assumed to be higher in the order of the red (R) channel, the green (G) channel, and the blue (B) channel.
図13に戻り、動作手順の説明を続ける。撮像部110(図1を参照)は、動画モードに遷移し、動画形式の画像列を撮像する(ステップSd1)。CPU190(図1を参照)は、動画モードにおける合焦(AF)駆動(例えば、ウォブリング)を、仮の合焦駆動として実行する(ステップSd2)。CPU190は、画像に定められたコントラスト評価値ウィンドウに対して、コントラストAFを実行する。領域抽出部143は、複数の被写体領域における、コントラスト評価値が最大である色チャネルを示す情報、コントラスト評価値の順位、コントラスト評価値の比率を、属性情報(抽出情報)として被写体領域毎に記憶部160に記憶させる、また、領域抽出部143は、属性情報(撮像情報)として、合焦位置を被写体領域毎に記憶部160に記憶させる(ステップSd3)。
Returning to FIG. 13, the description of the operation procedure is continued. The imaging unit 110 (see FIG. 1) transitions to the moving image mode and images a moving image format image sequence (step Sd1). The CPU 190 (see FIG. 1) executes focus (AF) drive (for example, wobbling) in the moving image mode as temporary focus drive (step Sd2). The
領域判定部144は、露光量が大きく変化してから一定時間が経過したか否かを判定する(ステップSd4)。露光量が大きく変化してから一定時間が経過した場合(ステップSd4−Yes)、領域判定部144は、記憶された合焦位置と、被写体領域により定まる合焦位置との類似度が高いか否かを判定する。
The
ここで、例えば、コントラスト評価値のピーク値の順位が、R>G>Bである場合、コントラスト評価値が類似であると判定される。また、例えば、コントラスト評価値のピーク値(R/G)及び(B/G)に基づいて、コントラスト評価値が類似であると判定されてもよい。また、例えば、画像に定められたコントラスト評価値ウィンドウ内のRGBの統計量(例えば、平均値、分散)に基づいて、コントラスト評価値が類似であると判定されてもよい(ステップSd5)。 Here, for example, when the order of the peak values of the contrast evaluation values is R> G> B, it is determined that the contrast evaluation values are similar. Further, for example, the contrast evaluation values may be determined to be similar based on the peak values (R / G) and (B / G) of the contrast evaluation values. Further, for example, it may be determined that the contrast evaluation values are similar based on the RGB statistics (for example, average value, variance) in the contrast evaluation value window defined for the image (step Sd5).
記憶された合焦位置と、被写体領域により定まる合焦位置との類似度が高い場合(ステップSd5−Yes)、CPU190は、記憶された合焦位置に基づいて、コントラスト評価値のピーク(合焦位置P1)付近に限定したコントラストAF(合焦駆動)を実行する。属性情報(撮像情報)である合焦位置は、このようにAFレンズ112の移動に活用される(ステップSd6)。そして、領域判定部144は、ステップSd4に処理を戻す。
When the similarity between the stored in-focus position and the in-focus position determined by the subject area is high (step Sd5-Yes), the
一方、ステップSd4において、露光量が大きく変化してから一定時間が経過していない場合(ステップSd4−No)、領域判定部144は、ステップSd4における判定処理を繰り返す。また、ステップSd5において、記憶された合焦位置と、被写体領域により定まる合焦位置との類似度が高くない場合(ステップSd5−No)、CPU190は、ステップSd2に処理を戻す。
On the other hand, in step Sd4, when a certain amount of time has not elapsed since the exposure amount changed significantly (step Sd4-No), the
以上のように、領域判定装置141は、異なる時刻に撮像された画像列から、画像特徴量に基づいて被写体領域をそれぞれ抽出し、抽出された被写体領域同士が同じ被写体による被写体領域であるか否かを判定するための条件を示す抽出情報と、被写体領域を撮像するための設定を示す撮像情報とを、抽出された被写体領域にそれぞれ対応付ける領域抽出部143と、前記画像列の第1画像からフレームアウトした被写体領域と、前記画像列の第2画像にフレームインした被写体領域とが、同じ被写体による被写体領域であるか否かを、前記抽出情報に基づいて判定し、同じ被写体による被写体領域であると判定した場合、前記第2画像にフレームインした被写体領域を撮像するための前記撮像情報として、前記第1画像からフレームアウトした被写体領域に対応付けられた前記撮像情報を選択する領域判定部144と、を備える。
この構成により、領域判定部144は、同じ被写体による被写体領域であると判定した場合、前記第2画像にフレームインした被写体領域を撮像するための前記撮像情報として、前記第1画像からフレームアウトした被写体領域に対応付けられた前記撮像情報を選択する。これにより、領域判定装置141は、撮像された画像にフレームインした被写体領域を精度よく判定し、選択した前記撮像情報に基づいて、被写体を適切に撮像させることができる。
As described above, the
With this configuration, when the
また、領域抽出部143は、前記被写体領域の合焦位置を、前記撮像情報として前記被写体領域に対応付ける。
これにより、領域判定装置141は、選択した前記合焦位置に基づいて短時間で合焦させた被写体領域を撮像させることができる。
Further, the
Thereby, the
また、領域抽出部143は、露光量、ゲイン及び階調カーブのうち少なくとも一つを、前記撮像情報として被写体領域に対応付ける。
これにより、領域判定装置141は、選択した前記露光量、ゲイン及び階調カーブのうち少なくとも一つに基づいて適切に露光等させた被写体領域を撮像させることができる。
Further, the
Thereby, the
また、領域抽出部143は、被写体に対する撮像装置の動作、移動又は向きのうち少なくとも一つを表すアクション情報を、前記撮像情報として被写体領域に対応付ける。
これにより、領域判定装置141は、選択した前記アクション情報に基づいて適切に追尾等させた被写体領域を撮像させることができる。
In addition, the
Thereby, the
また、領域抽出部143は、センサにより測定された撮像装置の向きを、前記抽出情報として被写体領域に対応付ける。
これにより、領域判定装置141は、撮像された画像にフレームインした被写体領域が前記同じ被写体であるか否かを、撮像装置の向きに基づいて精度よく判定することができる。
In addition, the
Thereby, the
また、領域抽出部143は、撮像された被写体領域の色情報を、前記抽出情報として被写体領域に対応付ける。
これにより、領域判定装置141は、撮像された画像にフレームインした被写体領域が前記同じ被写体であるか否かを、被写体領域の色情報に基づいて精度よく判定することができる。
The
Thereby, the
また、領域判定部144は、前記抽出情報であるズーム倍率に基づいて、前記同じ被写体の被写体領域であるか否かを判定する。
これにより、領域判定装置141は、撮像された画像にフレームインした被写体領域が前記同じ被写体であるか否かを、ズーム倍率に基づいて精度よく判定することができる。
Further, the
Thereby, the
また、領域判定部144は、前記第1画像が撮像された時刻から、前記第2画像が撮像された時刻までが、予め定められた時間内である場合、前記同じ被写体の被写体領域であるか否かを判定する。
これにより、領域判定装置141は、撮像時刻の間隔が離れすぎている画像に基づくことなく、撮像された画像にフレームインした被写体領域を精度よく判定することができる。
In addition, the
Thereby, the
また、領域判定部144は、前記抽出情報が被写体領域同士で一致している度合いに基づいて、同じ被写体の被写体領域であるか否かを判定する。
これにより、領域判定装置141は、撮像された画像にフレームインした被写体領域が前記同じ被写体であるか否かを、前記抽出情報が被写体領域同士で一致している度合いに基づいて、精度よく判定することができる。
Further, the
Thereby, the
また、撮像装置100は、領域判定装置と、前記領域判定装置が選択した前記撮像情報である合焦位置に基づいて、光学系により被写体領域に合焦させる焦点調節部と、被写体領域に合焦した状態の画像を撮像する撮像部と、を備える。
この構成により、CPU190は、記憶されている撮像情報(合焦位置)に基づいて、光学系(AFレンズ112)により被写体領域に合焦させる。これにより、撮像装置100は、領域判定装置141に精度良く判定された被写体領域に合焦した状態の画像を撮像することができる。
In addition, the
With this configuration, the
また、撮像部110は、前記領域判定装置が選択した前記撮像情報である露光量に応じて画像を撮像する。
この構成により、CPU190は、記憶されている撮像情報(露光量)に基づいて、撮像素子119における露光量を制御する。これにより、撮像装置100は、領域判定装置141に精度良く判定された被写体領域が最適に露光された状態の画像を撮像することができる。
In addition, the
With this configuration, the
また、CPU190は、前記抽出情報である色情報に基づいてコントラストスキャンを実行する。
この構成により、CPU190は、記憶されている色情報(色チャネル)に基づいて、コントラストスキャン(コントラストAF)を実行する。これにより、撮像装置100は、領域判定装置141に精度良く判定された被写体領域に合焦した状態の画像を撮像することができる。
Further, the
With this configuration, the
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。 The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes designs and the like that do not depart from the gist of the present invention.
例えば、属性情報(撮像情報)は、焦点調整のみならず、露光量調整、ホワイトバランス調整などの撮影設定に活用されてもよい。 For example, the attribute information (imaging information) may be used not only for focus adjustment but also for shooting settings such as exposure adjustment and white balance adjustment.
また、上記に説明した領域判定装置、撮像装置を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより、実行処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものであってもよい。 Further, by recording the program for realizing the area determination device and the imaging device described above on a computer-readable recording medium, causing the computer system to read and execute the program recorded on the recording medium, Execution processing may be performed. Here, the “computer system” may include an OS and hardware such as peripheral devices.
また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、フラッシュメモリ等の書き込み可能な不揮発性メモリ、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。 Further, the “computer system” includes a homepage providing environment (or display environment) if a WWW system is used. The “computer-readable recording medium” means a flexible disk, a magneto-optical disk, a ROM, a writable nonvolatile memory such as a flash memory, a portable medium such as a CD-ROM, a hard disk built in a computer system, etc. This is a storage device.
さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(例えばDRAM(Dynamic Random Access Memory))のように、一定時間プログラムを保持しているものも含むものとする。
また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。
また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。
さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。
Further, the “computer-readable recording medium” refers to a volatile memory (for example, DRAM (Dynamic) in a computer system serving as a server or a client when a program is transmitted via a network such as the Internet or a communication line such as a telephone line. Random Access Memory)) that holds a program for a certain period of time is also included.
The program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the “transmission medium” for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line.
The program may be for realizing a part of the functions described above.
Furthermore, what can implement | achieve the function mentioned above in combination with the program already recorded on the computer system, and what is called a difference file (difference program) may be sufficient.
100…撮像装置、110…撮像部、111…レンズ鏡筒、140…画像処理部、141…領域判定装置、142…特徴量算出部、143…領域抽出部、144…領域判定部、145…優先度設定部、160…記憶部、190…CPU、500…センサ
DESCRIPTION OF
Claims (13)
前記画像列の第1画像からフレームアウトした被写体領域と、前記画像列の第2画像にフレームインした被写体領域とが、同じ被写体による被写体領域であるか否かを、前記抽出情報に基づいて判定し、同じ被写体による被写体領域であると判定した場合、前記第2画像にフレームインした被写体領域を撮像するための前記撮像情報として、前記第1画像からフレームアウトした被写体領域に対応付けられた前記撮像情報を選択する領域判定部と、
を備えることを特徴とする領域判定装置。 Extraction information indicating conditions for extracting subject areas from image sequences captured at different times based on image feature amounts and determining whether the extracted subject areas are subject areas of the same subject. And an area extraction unit that associates imaging information indicating settings for imaging the subject area with each of the extracted subject areas;
Based on the extracted information, it is determined whether the subject area framed out from the first image in the image sequence and the subject area framed in the second image in the image sequence are subject areas of the same subject. When it is determined that the subject area is the same subject, the imaging information for capturing the subject area framed in the second image is associated with the subject area framed out from the first image. An area determination unit for selecting imaging information;
An area determination apparatus comprising:
前記領域判定装置が選択した前記撮像情報である合焦位置に基づいて、光学系により被写体領域に合焦させる焦点調節部と、
被写体領域に合焦した状態の画像を撮像する撮像部と、
を備えることを特徴とする撮像装置。 The region determination device according to any one of claims 1 to 9,
A focus adjustment unit that focuses on a subject area by an optical system based on a focus position that is the imaging information selected by the area determination device;
An imaging unit that captures an image focused on the subject area;
An imaging apparatus comprising:
異なる時刻に撮像された画像列から、画像特徴量に基づいて被写体領域をそれぞれ抽出し、抽出された被写体領域同士が同じ被写体による被写体領域であるか否かを判定するための条件を示す抽出情報と、被写体領域を撮像するための設定を示す撮像情報とを、抽出された被写体領域にそれぞれ対応付ける手順と、
前記画像列の第1画像からフレームアウトした被写体領域と、前記画像列の第2画像にフレームインした被写体領域とが、同じ被写体による被写体領域であるか否かを、前記抽出情報に基づいて判定し、同じ被写体による被写体領域であると判定した場合、前記第2画像にフレームインした被写体領域を撮像するための前記撮像情報として、前記第1画像からフレームアウトした被写体領域に対応付けられた前記撮像情報を選択する手順と、
を実行させるための領域判定プログラム。 On the computer,
Extraction information indicating conditions for extracting subject areas from image sequences captured at different times based on image feature amounts and determining whether the extracted subject areas are subject areas of the same subject. And a procedure for associating imaging information indicating settings for imaging a subject area with each of the extracted subject areas;
Based on the extracted information, it is determined whether the subject area framed out from the first image in the image sequence and the subject area framed in the second image in the image sequence are subject areas of the same subject. When it is determined that the subject area is the same subject, the imaging information for capturing the subject area framed in the second image is associated with the subject area framed out from the first image. A procedure for selecting imaging information;
An area determination program for executing
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012083245A JP5888069B2 (en) | 2012-03-30 | 2012-03-30 | Area determination apparatus, imaging apparatus, and area determination program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012083245A JP5888069B2 (en) | 2012-03-30 | 2012-03-30 | Area determination apparatus, imaging apparatus, and area determination program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013214833A true JP2013214833A (en) | 2013-10-17 |
JP5888069B2 JP5888069B2 (en) | 2016-03-16 |
Family
ID=49587881
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012083245A Active JP5888069B2 (en) | 2012-03-30 | 2012-03-30 | Area determination apparatus, imaging apparatus, and area determination program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5888069B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014095893A (en) * | 2012-10-12 | 2014-05-22 | Panasonic Corp | Imaging apparatus |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006101186A (en) * | 2004-09-29 | 2006-04-13 | Nikon Corp | Camera |
JP2008187231A (en) * | 2007-01-26 | 2008-08-14 | Nikon Corp | Image tracking device and imaging device |
JP2009017271A (en) * | 2007-07-05 | 2009-01-22 | Nikon Corp | Imaging apparatus |
JP2010016544A (en) * | 2008-07-02 | 2010-01-21 | Nikon Corp | Image capturing apparatus and image processing apparatus, and image processing program |
JP2011004152A (en) * | 2009-06-18 | 2011-01-06 | Fujifilm Corp | Target tracking device, image tracking device, method for controlling operation of the same, and digital camera |
-
2012
- 2012-03-30 JP JP2012083245A patent/JP5888069B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006101186A (en) * | 2004-09-29 | 2006-04-13 | Nikon Corp | Camera |
JP2008187231A (en) * | 2007-01-26 | 2008-08-14 | Nikon Corp | Image tracking device and imaging device |
JP2009017271A (en) * | 2007-07-05 | 2009-01-22 | Nikon Corp | Imaging apparatus |
JP2010016544A (en) * | 2008-07-02 | 2010-01-21 | Nikon Corp | Image capturing apparatus and image processing apparatus, and image processing program |
JP2011004152A (en) * | 2009-06-18 | 2011-01-06 | Fujifilm Corp | Target tracking device, image tracking device, method for controlling operation of the same, and digital camera |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014095893A (en) * | 2012-10-12 | 2014-05-22 | Panasonic Corp | Imaging apparatus |
Also Published As
Publication number | Publication date |
---|---|
JP5888069B2 (en) | 2016-03-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR20080002667A (en) | Imaging apparatus and computer readable recording medium | |
JP5195660B2 (en) | Imaging apparatus, focusing method, and program | |
JP2007215091A (en) | Imaging apparatus and program therefor | |
JP2010165012A (en) | Imaging apparatus, image retrieval method, and program | |
JP2014127963A (en) | Image processing system and image processing method | |
JP2009111716A (en) | Imaging apparatus, program and template generating method | |
JP2017201818A (en) | Area extraction device | |
JP2006025311A (en) | Imaging apparatus and image acquisition method | |
JP6156532B2 (en) | Region extraction device, imaging device, and region extraction program | |
KR20120011920A (en) | Digital image signal processing apparatus, digital image signal processing method and medium for recording the method | |
JP5888069B2 (en) | Area determination apparatus, imaging apparatus, and area determination program | |
JP2009253925A (en) | Imaging apparatus and imaging method, and imaging control program | |
JP4807623B2 (en) | Imaging apparatus, imaging method, and imaging program | |
JP5045538B2 (en) | Imaging apparatus and program | |
JP5278483B2 (en) | Imaging apparatus, imaging method, and imaging program | |
JP5786460B2 (en) | Region extraction device, imaging device, and region extraction program | |
JP5397426B2 (en) | Imaging apparatus, focusing method, and program | |
JP5871175B2 (en) | Region extraction device, imaging device, and region extraction program | |
JP5899693B2 (en) | Region extraction device, imaging device, and region extraction program | |
JP2011003057A (en) | Image composition device, image specifying method, image composition method, and program | |
JP6131519B2 (en) | Image processing apparatus, imaging apparatus, and image processing program | |
JP5899700B2 (en) | Region extraction device, imaging device, and region extraction program | |
JP4810440B2 (en) | IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM | |
JP5163333B2 (en) | CAMERA DEVICE, IMAGE DISPLAY METHOD, AND IMAGE DISPLAY PROGRAM | |
KR20060067797A (en) | Image pickup apparatus, and method for fixing photographic information |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150320 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20151225 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160119 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160201 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5888069 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |