JP2013214833A - Area determination device, image pickup device, and area determination program - Google Patents

Area determination device, image pickup device, and area determination program Download PDF

Info

Publication number
JP2013214833A
JP2013214833A JP2012083245A JP2012083245A JP2013214833A JP 2013214833 A JP2013214833 A JP 2013214833A JP 2012083245 A JP2012083245 A JP 2012083245A JP 2012083245 A JP2012083245 A JP 2012083245A JP 2013214833 A JP2013214833 A JP 2013214833A
Authority
JP
Japan
Prior art keywords
subject
area
image
region
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012083245A
Other languages
Japanese (ja)
Other versions
JP5888069B2 (en
Inventor
Itsuhito Hokoi
逸人 鉾井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2012083245A priority Critical patent/JP5888069B2/en
Publication of JP2013214833A publication Critical patent/JP2013214833A/en
Application granted granted Critical
Publication of JP5888069B2 publication Critical patent/JP5888069B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an area determination device, an image pickup device and an area determination program which can determine a subject area framed in a picked-up image with high accuracy and thereby pick up the image of the subject properly.SOLUTION: An area determination device 141 includes: an area extraction unit 143 in which extraction information indicating a condition for determining whether extracted subject areas which were each extracted from a row of images picked up at different times of day on the basis of image feature amounts are those of the same subject and image pickup information indicating settings needed for picking up the image of a subject area are correlated to each other for each of the extracted subject areas; and an area determination unit 144 which, when a subject area framed out from a first image in the row of images and a subject area framed into a second image in the row of images are those of the same subject, selects the image pickup information correlated to the subject area framed out from the first image as image pickup information for picking up the image of the subject area framed into the second image.

Description

本発明は、領域を判定する領域判定装置、撮像装置、及び領域判定プログラムに関する。   The present invention relates to an area determination apparatus, an imaging apparatus, and an area determination program for determining an area.

被写体がカメラ方向に移動する場合でも、その被写体に対して最適に焦点調節することを目的とした撮像装置が開示されている(特許文献1参照)。   There has been disclosed an imaging apparatus for the purpose of optimal focus adjustment with respect to a subject even when the subject moves in the camera direction (see Patent Document 1).

特開2009−69748号公報JP 2009-69748 A

しかしながら、特許文献1に開示された撮像装置は、撮像された画像にフレームインした被写体領域を精度よく判定することができないという問題がある。被写体領域を精度よく判定することができない場合、撮像装置は、被写体領域が画像にフレームインする度に合焦レンズを光軸方向に大きく移動させて、被写体領域に合焦させなければならない等、被写体を適切に撮像することができない。   However, the imaging device disclosed in Patent Document 1 has a problem that it cannot accurately determine a subject area framed in a captured image. If the subject area cannot be accurately determined, the imaging apparatus must move the focusing lens greatly in the optical axis direction every time the subject area is framed into the image, and focus on the subject area. The subject cannot be imaged properly.

本発明は、前記の点に鑑みてなされたものであり、撮像された画像にフレームインした被写体領域を精度よく判定し、被写体を適切に撮像させることができる領域判定装置、撮像装置、及び領域判定プログラムを提供することを目的とする。   The present invention has been made in view of the above points, and is an area determination device, an imaging apparatus, and an area that can accurately determine a subject area framed in a captured image and appropriately capture the subject. An object is to provide a judgment program.

本発明は、上記の課題を解決するためになされたものであり、異なる時刻に撮像された画像列から、画像特徴量に基づいて被写体領域をそれぞれ抽出し、抽出された被写体領域同士が同じ被写体による被写体領域であるか否かを判定するための条件を示す抽出情報と、被写体領域を撮像するための設定を示す撮像情報とを、抽出された被写体領域にそれぞれ対応付ける領域抽出部と、前記画像列の第1画像からフレームアウトした被写体領域と、前記画像列の第2画像にフレームインした被写体領域とが、同じ被写体による被写体領域であるか否かを、前記抽出情報に基づいて判定し、同じ被写体による被写体領域であると判定した場合、前記第2画像にフレームインした被写体領域を撮像するための前記撮像情報として、前記第1画像からフレームアウトした被写体領域に対応付けられた前記撮像情報を選択する領域判定部と、を備えることを特徴とする領域判定装置である。   The present invention has been made to solve the above-described problem, and extracts subject areas based on image feature amounts from image sequences captured at different times, and the extracted subject areas are the same subject. A region extracting unit that associates extraction information indicating a condition for determining whether or not the subject region is determined and imaging information indicating a setting for capturing the subject region with the extracted subject region, and the image Determining whether the subject area framed out from the first image in the column and the subject region framed in to the second image in the image sequence are subject regions of the same subject based on the extraction information; When it is determined that the subject area is the same subject, the imaging information for capturing the subject area framed in the second image is used as the imaging information. A region determining unit that selects the imaging information associated with the object regions frame out, a region judging device, characterized in that it comprises a.

また、本発明は、領域判定装置と、前記領域判定装置が選択した前記撮像情報である合焦位置に基づいて、光学系により被写体領域に合焦させる焦点調節部と、被写体領域に合焦した状態の画像を撮像する撮像部と、を備えることを特徴とする撮像装置である。   In addition, the present invention focuses on a subject determination region, a focus adjustment unit that focuses on the subject region with an optical system based on the focus position that is the imaging information selected by the region determination device, and the subject region. An imaging apparatus comprising: an imaging unit that captures an image of a state.

また、本発明は、コンピュータに、異なる時刻に撮像された画像列から、画像特徴量に基づいて被写体領域をそれぞれ抽出し、抽出された被写体領域同士が同じ被写体による被写体領域であるか否かを判定するための条件を示す抽出情報と、被写体領域を撮像するための設定を示す撮像情報とを、抽出された被写体領域にそれぞれ対応付ける手順と、前記画像列の第1画像からフレームアウトした被写体領域と、前記画像列の第2画像にフレームインした被写体領域とが、同じ被写体による被写体領域であるか否かを、前記抽出情報に基づいて判定し、同じ被写体による被写体領域であると判定した場合、前記第2画像にフレームインした被写体領域を撮像するための前記撮像情報として、前記第1画像からフレームアウトした被写体領域に対応付けられた前記撮像情報を選択する手順と、を実行させるための領域判定プログラムである。   The present invention also allows a computer to extract subject areas based on image feature amounts from image sequences captured at different times, and to determine whether the extracted subject areas are subject areas of the same subject. A procedure for associating the extracted information indicating the condition for determination and the imaging information indicating the setting for imaging the subject area with the extracted subject area, and the subject area framed out from the first image of the image sequence And the subject area framed in the second image in the image sequence is determined based on the extracted information, and is determined to be the subject area due to the same subject. As the imaging information for imaging the subject area framed in the second image, the subject area framed out from the first image is used. A procedure for selecting the imaging information attached response, an area determination program for execution.

本発明によれば、領域判定装置は、撮像された画像にフレームインした被写体領域を精度よく判定することができる。   According to the present invention, the area determination device can accurately determine a subject area framed in a captured image.

本発明の一実施形態における、レンズ鏡筒と、撮像装置と、記憶媒体との構成を表すブロック図である。It is a block diagram showing the structure of the lens barrel, imaging device, and storage medium in one Embodiment of this invention. 本発明の一実施形態における、被写体領域の撮像情報に基づいてコントラストAFを実行する動作手順を示すフローチャート(前半)である。6 is a flowchart (first half) showing an operation procedure for executing contrast AF based on imaging information of a subject area in an embodiment of the present invention. 本発明の一実施形態における、被写体領域の撮像情報に基づいてコントラストAFを実行する動作手順を示すフローチャート(後半)である。6 is a flowchart (second half) showing an operation procedure for executing contrast AF based on imaging information of a subject area in an embodiment of the present invention. 本発明の一実施形態における、被写体領域の撮像情報に基づいてコントラストAFを実行する動作手順を説明するための図である。It is a figure for demonstrating the operation | movement procedure which performs contrast AF based on the imaging information of a to-be-photographed area | region in one Embodiment of this invention. 本発明の一実施形態における、被写体領域の撮像情報に基づいてコントラストAFを実行する動作例を説明するための図である。It is a figure for demonstrating the operation example which performs contrast AF based on the imaging information of a to-be-photographed area | region in one Embodiment of this invention. 本発明の一実施形態における、被写体領域の撮像情報に基づいてコントラストAFを順次実行する動作手順を示すフローチャートである。6 is a flowchart showing an operation procedure for sequentially executing contrast AF based on imaging information of a subject area in an embodiment of the present invention. 本発明の一実施形態における、被写体領域の撮像情報であるアクション情報に基づいてコントラストAFを実行する動作手順を示すフローチャート(前半)である。6 is a flowchart (first half) illustrating an operation procedure for executing contrast AF based on action information that is imaging information of a subject area in an embodiment of the present invention. 本発明の一実施形態における、被写体領域の撮像情報であるアクション情報に基づいてコントラストAFを実行する動作手順を示すフローチャート(前半の続き)である。6 is a flowchart (continuation of the first half) showing an operation procedure for executing contrast AF based on action information that is imaging information of a subject area in an embodiment of the present invention. 本発明の一実施形態における、被写体領域の撮像情報であるアクション情報に基づいてコントラストAFを実行する動作手順を示すフローチャート(後半)である。7 is a flowchart (second half) showing an operation procedure for executing contrast AF based on action information that is imaging information of a subject area in an embodiment of the present invention. 本発明の一実施形態における、被写体領域の撮像情報であるアクション情報に基づいてコントラストAFを実行する動作手順を説明するための図である。It is a figure for demonstrating the operation | movement procedure which performs contrast AF based on the action information which is the imaging information of a to-be-photographed area | region in one Embodiment of this invention. 本発明の一実施形態における、被写体領域の撮像情報であるアクション情報に基づいてコントラストAFを実行する動作手順を説明するための図である。It is a figure for demonstrating the operation | movement procedure which performs contrast AF based on the action information which is the imaging information of a to-be-photographed area | region in one Embodiment of this invention. 本発明の一実施形態における、ズーム倍率が変更された場合に、被写体領域の撮像情報に基づいてコントラストAFを実行する動作手順を示すフローチャートである。6 is a flowchart illustrating an operation procedure for executing contrast AF based on imaging information of a subject area when the zoom magnification is changed according to an embodiment of the present invention. 本発明の一実施形態における、被写体領域の抽出情報である色チャネルに基づいてコントラストAFを実行する動作手順を示すフローチャートである。6 is a flowchart illustrating an operation procedure for executing contrast AF based on a color channel that is subject area extraction information according to an embodiment of the present invention. 本発明の一実施形態における、AFレンズ位置とコントラスト評価値との関係を示す図である。It is a figure which shows the relationship between AF lens position and contrast evaluation value in one Embodiment of this invention.

本発明の一実施形態について図面を参照して詳細に説明する。図1には、レンズ鏡筒と、撮像装置と、記憶媒体との構成が、ブロック図により表されている。撮像装置100は、レンズ鏡筒111から入射される光学像を撮像し、静止画形式の画像、又は動画形式の画像列を、記憶媒体200に記憶させる。   An embodiment of the present invention will be described in detail with reference to the drawings. FIG. 1 is a block diagram illustrating configurations of a lens barrel, an imaging device, and a storage medium. The imaging apparatus 100 captures an optical image incident from the lens barrel 111 and stores a still image format image or a moving image format image sequence in the storage medium 200.

まず、レンズ鏡筒111の構成を説明する。
レンズ鏡筒111は、焦点調整レンズ(以下、「AF(Auto Focus)レンズ」という)112と、レンズ駆動部116と、AFエンコーダ117と、鏡筒制御部118を備える。なお、レンズ鏡筒111は、撮像装置100に着脱可能に接続されてもよいし、撮像装置100と一体であってもよい。
First, the configuration of the lens barrel 111 will be described.
The lens barrel 111 includes a focus adjustment lens (hereinafter referred to as “AF (Auto Focus) lens”) 112, a lens driving unit 116, an AF encoder 117, and a lens barrel control unit 118. The lens barrel 111 may be detachably connected to the imaging device 100 or may be integrated with the imaging device 100.

AFレンズ112は、レンズ駆動部116により駆動され、撮像部110(後述)の撮像素子119の受光面(光電変換面)に、光学像を導く。   The AF lens 112 is driven by a lens driving unit 116 and guides an optical image to a light receiving surface (photoelectric conversion surface) of an imaging element 119 of an imaging unit 110 (described later).

AFエンコーダ117は、AFレンズ112の移動を検出し、AFレンズ112の移動量に応じた信号を、鏡筒制御部118に出力する。ここで、AFレンズ112の移動量に応じた信号とは、例えば、AFレンズ112の移動量に応じて位相が変化するサイン(sin)波信号であってもよい。   The AF encoder 117 detects the movement of the AF lens 112 and outputs a signal corresponding to the movement amount of the AF lens 112 to the lens barrel control unit 118. Here, the signal corresponding to the movement amount of the AF lens 112 may be a sine wave signal whose phase changes according to the movement amount of the AF lens 112, for example.

鏡筒制御部118は、撮像装置100のCPU190(後述)から入力される駆動制御信号に応じて、レンズ駆動部116を制御する。ここで、駆動制御信号とは、AFレンズ112を光軸方向に駆動させる制御信号である。鏡筒制御部118は、駆動制御信号に応じて、例えば、レンズ駆動部116に出力するパルス電圧のステップ数を変更する。   The lens barrel control unit 118 controls the lens driving unit 116 in accordance with a drive control signal input from a CPU 190 (described later) of the imaging apparatus 100. Here, the drive control signal is a control signal for driving the AF lens 112 in the optical axis direction. The lens barrel control unit 118 changes the number of steps of the pulse voltage output to the lens driving unit 116, for example, according to the drive control signal.

また、鏡筒制御部118は、AFレンズ112の移動量に応じた信号に基づいて、レンズ鏡筒111におけるAFレンズ112の位置(フォーカスポジション)を、撮像装置100のCPU190に出力する。ここで、鏡筒制御部118は、例えば、AFレンズ112の移動量に応じた信号を、AFレンズ112の移動方向に応じて積算することで、レンズ鏡筒111におけるAFレンズ112の移動量(位置)を算出してもよい。   Further, the lens barrel control unit 118 outputs the position (focus position) of the AF lens 112 in the lens barrel 111 to the CPU 190 of the imaging device 100 based on a signal corresponding to the movement amount of the AF lens 112. Here, the lens barrel control unit 118 integrates, for example, signals according to the movement amount of the AF lens 112 according to the movement direction of the AF lens 112, thereby moving the AF lens 112 in the lens barrel 111 (the movement amount ( Position) may be calculated.

レンズ駆動部116は、鏡筒制御部118の制御に応じてAFレンズ112を駆動し、AFレンズ112をレンズ鏡筒111内で光軸方向に移動させる。   The lens driving unit 116 drives the AF lens 112 in accordance with the control of the lens barrel control unit 118 and moves the AF lens 112 in the optical axis direction within the lens barrel 111.

次に、撮像装置100の構成を説明する。
撮像装置100は、撮像部110と、画像処理部140と、領域判定装置141と、表示部150と、バッファメモリ部130と、操作部180と、記憶部160と、CPU190と、通信部170とを備える。
Next, the configuration of the imaging device 100 will be described.
The imaging device 100 includes an imaging unit 110, an image processing unit 140, an area determination device 141, a display unit 150, a buffer memory unit 130, an operation unit 180, a storage unit 160, a CPU 190, and a communication unit 170. Is provided.

撮像部110は、撮像素子119と、A/D(Analog/Digital)変換部120とを備える。撮像部110は、設定された撮像条件(例えば、絞り値、露光量)に基づいて、CPU190により制御される。   The imaging unit 110 includes an imaging element 119 and an A / D (Analog / Digital) conversion unit 120. The imaging unit 110 is controlled by the CPU 190 based on the set imaging conditions (for example, aperture value, exposure amount).

撮像素子119は、光電変換面を備え、レンズ鏡筒111(光学系)により光電変換面に結像された光学像を電気信号に変換して、A/D変換部120に出力する。撮像素子119は、例えば、CMOS(Complementary Metal Oxide Semiconductor)で構成されていてもよい。また、撮像素子119は、光電変換面の一部の領域について、光学像を電気信号に変換するようにしてもよい(画像切り出し)。   The image sensor 119 includes a photoelectric conversion surface, converts an optical image formed on the photoelectric conversion surface by the lens barrel 111 (optical system) into an electric signal, and outputs the electric signal to the A / D conversion unit 120. The image sensor 119 may be configured by, for example, a CMOS (Complementary Metal Oxide Semiconductor). Further, the image sensor 119 may convert an optical image into an electrical signal for a partial region of the photoelectric conversion surface (image clipping).

また、撮像素子119は、操作部180を介してユーザからの撮影指示を受け付けた際に得られる画像を、A/D変換部120を介して記憶媒体200に記憶させる。一方、撮像素子119は、操作部180を介してユーザからの撮影指示を受け付けていない状態において、連続的に得られる画像をスルー画像として、バッファメモリ部130及び表示部150に、A/D変換部120を介して出力する。   Further, the image sensor 119 stores an image obtained when a shooting instruction from the user is received via the operation unit 180 in the storage medium 200 via the A / D conversion unit 120. On the other hand, the imaging device 119 performs A / D conversion on the buffer memory unit 130 and the display unit 150 as images that are continuously obtained in a state where a shooting instruction from the user is not received via the operation unit 180. Output via the unit 120.

A/D変換部120は、撮像素子119によって変換された電気信号をデジタル化して、デジタル信号である画像をバッファメモリ部130に出力する。   The A / D converter 120 digitizes the electrical signal converted by the image sensor 119 and outputs an image that is a digital signal to the buffer memory unit 130.

操作部180は、例えば、電源スイッチ、シャッタボタン、マルチセレクタ(十字キー)、又はその他の操作キーを備え、ユーザによって操作されることでユーザの操作入力を受け付け、受け付けた操作入力に応じた信号をCPU190に出力する。   The operation unit 180 includes, for example, a power switch, a shutter button, a multi selector (cross key), or other operation keys. The operation unit 180 receives a user operation input when operated by the user, and a signal corresponding to the received operation input. Is output to the CPU 190.

画像処理部140は、記憶部160に記憶されている画像処理条件に基づいて、バッファメモリ部130に一時的に記憶されている画像を画像処理する。画像処理された画像は、通信部170を介して記憶媒体200に記憶される。   The image processing unit 140 performs image processing on the image temporarily stored in the buffer memory unit 130 based on the image processing conditions stored in the storage unit 160. The processed image is stored in the storage medium 200 via the communication unit 170.

領域判定装置141は、バッファメモリ部130に一時的に記憶されている画像列から、画像特徴量に基づいて被写体領域を抽出する。また、領域判定装置141は、抽出した被写体領域について、第1画像からフレームアウトした被写体領域と、この第1画像とは異なる時刻に撮像された第2画像にフレームインした被写体領域とが、同じ被写体による被写体領域であるか否かを、被写体領域に対応付けた属性情報(属性データ)に基づいて判定する。   The area determination device 141 extracts a subject area from the image sequence temporarily stored in the buffer memory unit 130 based on the image feature amount. In addition, the area determination device 141 has the same subject area framed out from the first image and subject area framed in the second image captured at a different time from the first image for the extracted subject area. Whether or not the subject area is a subject area is determined based on attribute information (attribute data) associated with the subject area.

この属性情報には、抽出された被写体領域同士が同じ被写体による被写体領域であるか否かを判定するための条件を示す抽出情報と、被写体領域を撮像するための設定を示す撮像情報とがある。   The attribute information includes extraction information indicating conditions for determining whether or not the extracted subject areas are subject areas of the same subject, and imaging information indicating settings for capturing the subject area. .

抽出情報には、例えば、被写体領域の輝度と、被写体領域の色情報と、被写体領域のテクスチャと、被写体領域の面積と、被写体領域に外接する矩形と、その矩形に対する被写体領域の占有率と、画像フレームにおける被写体領域の重心位置と、画角中心から被写体領域までの距離と、被写体領域の慣性モーメントと、被写体領域のAF評価値(例えば、コントラスト、位相差)と、被写体領域の境界(エッジ)を表す情報と、ズーム倍率と、画像における被写体領域の動きと、被写体領域が背景による被写体領域であるか否かを示す情報と、センサにより測定された撮像装置の向き(例えば、撮像装置100に対する被写体の向き)を示す情報とがある。例えば、抽出された被写体領域同士が同じ被写体による被写体領域であるか否かは、被写体領域同士の抽出情報の近似度に基づいて判定されてもよい。   The extracted information includes, for example, the brightness of the subject area, the color information of the subject area, the texture of the subject area, the area of the subject area, the rectangle circumscribing the subject area, the occupation ratio of the subject area with respect to the rectangle, The gravity center position of the subject area in the image frame, the distance from the center of the angle of view to the subject area, the moment of inertia of the subject area, the AF evaluation value (for example, contrast and phase difference) of the subject area, and the boundary (edge) of the subject area ), Zoom magnification, movement of the subject area in the image, information indicating whether or not the subject area is a background subject area, and the orientation of the imaging apparatus measured by the sensor (for example, the imaging apparatus 100). Information indicating the orientation of the subject with respect to. For example, whether or not the extracted subject areas are subject areas of the same subject may be determined based on the degree of approximation of the extraction information between the subject areas.

また、撮像情報には、例えば、合焦位置(焦点距離)と、絞り値と、露光量と、アクション情報(アクションデータ)とがある。ここで、アクション情報とは、被写体に対して実行した撮像装置のアクション(例えば、動作、移動、向き)を表す情報である。例えば、アクション情報は、画像にフレームインした複数の被写体領域に順次合焦させるための優先度を定めるために参照されてもよい。   The imaging information includes, for example, a focus position (focal distance), an aperture value, an exposure amount, and action information (action data). Here, the action information is information representing an action (for example, operation, movement, direction) of the imaging apparatus performed on the subject. For example, the action information may be referred to in order to determine a priority for sequentially focusing on a plurality of subject areas framed in the image.

領域判定装置141は、被写体領域に対応付けた属性情報(抽出情報、撮像情報)を記憶部160に記憶させる。また、領域判定装置141は、バッファメモリ部130に一時的に記憶されている画像から抽出した被写体領域に、被写体領域に合焦させるための優先度を設定する。領域判定装置141の詳細については、後述する。   The area determination device 141 causes the storage unit 160 to store attribute information (extraction information, imaging information) associated with the subject area. In addition, the area determination device 141 sets a priority for focusing the subject area on the subject area extracted from the image temporarily stored in the buffer memory unit 130. Details of the area determination device 141 will be described later.

表示部150は、撮像部110によって得られた画像、及び操作画面等を表示する。表示部150は、例えば、液晶ディスプレイである。   The display unit 150 displays an image obtained by the imaging unit 110, an operation screen, and the like. The display unit 150 is, for example, a liquid crystal display.

バッファメモリ部130は、撮像部110によって撮像された画像を、一時的に記憶する。   The buffer memory unit 130 temporarily stores the image captured by the imaging unit 110.

記憶部160は、シーン判定の際にCPU190によって参照される判定条件と、シーン判定によって判断されたシーン毎に対応付けられた撮像条件と、被写体領域毎に定まる属性情報(抽出情報、撮像情報)とを記憶する。   The storage unit 160 has a determination condition referred to by the CPU 190 in scene determination, an imaging condition associated with each scene determined by the scene determination, and attribute information (extraction information and imaging information) determined for each subject area. And remember.

CPU190は、設定された撮像条件(例えば、絞り値、露光量)に基づいて、撮像部110を制御する。また、CPU190は、領域判定装置141から属性情報(抽出情報、撮像情報)を取得する。   The CPU 190 controls the imaging unit 110 based on the set imaging conditions (for example, aperture value, exposure amount). In addition, the CPU 190 acquires attribute information (extraction information, imaging information) from the area determination device 141.

CPU190は、撮像情報に基づいて、画像処理のプレ処理又はポスト処理として、焦点調整(AF)の設定、露出調整(AE)の設定、ホワイトバランス調整(AWB)の設定、被写体像(オブジェクト)の追尾の設定、夜景か否かの判定の設定、色補正処理の設定、被写体像の拡大表示の設定、パンニング表示の設定、ズーム倍率に連動した明るさの最適化の設定、などを制御する。また、CPU190は、撮像情報に基づいて、トーンカーブ(階調カーブ)の設定、静止画及び動画による同時撮像を実行するか否かの設定などを制御する。   Based on the imaging information, the CPU 190 performs focus adjustment (AF) setting, exposure adjustment (AE) setting, white balance adjustment (AWB) setting, subject image (object) setting as pre-processing or post-processing of image processing. Controls tracking settings, night scene determination settings, color correction processing settings, subject image enlarged display settings, panning display settings, brightness optimization settings linked to zoom magnification, and the like. Further, the CPU 190 controls setting of a tone curve (gradation curve), setting whether to perform simultaneous imaging with a still image and a moving image, and the like based on the imaging information.

また、CPU190は、撮像情報に基づいて、プレ処理又はポスト処理として、連写するか否かの設定、及び、連写において、合焦させる被写体像の切り替えの設定、焦点距離の連続変更の設定、撮像装置100の発光部(不図示)が発光する閃光の発光量の変更の設定、露光量の変更の設定、又はシャッタスピードの変更を実行するか否かの設定などを制御する。また、CPU190は、操作部180から入力された「操作入力に応じた信号」に基づいて、静止画形式又は動画形式の画像を、画像処理部140に画像処理させる。   Further, the CPU 190 sets whether to perform continuous shooting as pre-processing or post-processing based on the imaging information, setting for switching the subject image to be focused in continuous shooting, and setting for continuously changing the focal length. The control unit controls the setting for changing the amount of flash light emitted from the light emitting unit (not shown) of the imaging apparatus 100, the setting for changing the exposure amount, or the setting for whether or not to change the shutter speed. Further, the CPU 190 causes the image processing unit 140 to perform image processing on an image in a still image format or a moving image format based on the “signal according to the operation input” input from the operation unit 180.

また、CPU190(焦点調節部)は、撮像情報に基づいてレンズ鏡筒111の鏡筒制御部118に駆動制御信号を出力することで、被写体領域に合焦させるよう焦点を調節する。   Further, the CPU 190 (focus adjustment unit) outputs a drive control signal to the lens barrel control unit 118 of the lens barrel 111 based on the imaging information, thereby adjusting the focus so as to focus on the subject area.

例えば、CPU190は、第1画像からフレームアウトした被写体領域と、第2画像にフレームインした被写体領域とが同じ被写体による被写体領域である、と領域判定装置141により判定された場合、次のように動作する。   For example, when the region determination device 141 determines that the subject region framed out from the first image and the subject region framed in the second image are subject regions by the same subject, the CPU 190 is as follows. Operate.

CPU190は、撮像情報として記憶部160に記憶されている合焦位置に基づいて、第1画像からフレームアウトした被写体領域の合焦位置に、AFレンズ112を移動させることにより、第2画像にフレームインした被写体領域に合焦させる。   The CPU 190 moves the AF lens 112 to the in-focus position of the subject area framed out from the first image based on the in-focus position stored in the storage unit 160 as the imaging information, so that the second image is framed. Focus on the subject area.

また、CPU190は、抽出情報として色情報が記憶されている場合、記憶されている色情報に基づいてコントラストスキャンを実行してもよい。また、CPU190は、撮像情報として露光量が記憶されている場合、その露光量で露光するよう撮像部110を制御する。これにより、画像列は、記憶されている露光量に応じて撮像部110により撮像される。   In addition, when color information is stored as extraction information, the CPU 190 may execute a contrast scan based on the stored color information. Further, when the exposure amount is stored as the imaging information, the CPU 190 controls the imaging unit 110 to perform exposure with the exposure amount. Thereby, an image sequence is imaged by the imaging unit 110 according to the stored exposure amount.

通信部170は、取り外し可能な記憶媒体200(カードメモリ等)と接続され、この記憶媒体200への情報(画像データ、属性情報など)の書込み、読み出し、あるいは消去を行う。   The communication unit 170 is connected to a removable storage medium 200 (such as a card memory), and writes, reads, or deletes information (image data, attribute information, etc.) on the storage medium 200.

記憶媒体200は、撮像装置100に対して着脱可能に接続される記憶部であって、情報(画像データ、属性情報など)を記憶する。なお、記憶媒体200は、撮像装置100と一体であってもよい。   The storage medium 200 is a storage unit that is detachably connected to the imaging apparatus 100 and stores information (image data, attribute information, etc.). Note that the storage medium 200 may be integrated with the imaging device 100.

センサ500は、撮像装置100に対する被写体の方位、すなわち、領域判定装置141の向きを測定し、その測定結果を表す情報を領域判定装置141に出力する。   The sensor 500 measures the orientation of the subject with respect to the imaging device 100, that is, the direction of the region determination device 141, and outputs information representing the measurement result to the region determination device 141.

次に、領域判定装置141の詳細について説明する。
領域判定装置141は、特徴量算出部142と、領域抽出部143と、領域処理部144と、優先度設定部145とを備える。
Next, details of the area determination device 141 will be described.
The region determination device 141 includes a feature amount calculation unit 142, a region extraction unit 143, a region processing unit 144, and a priority setting unit 145.

特徴量算出部142は、撮像部110が撮像した画像を、バッファメモリ部130から取得する。また、特徴量算出部142は、バッファメモリ部130から取得した画像における複数の特徴(例えば、色相、彩度、明度、テクスチャ、エッジ)毎に、その特徴量(例えば、輝度情報に基づく特徴量、色情報に基づく特徴量)を算出し、算出した特徴量を領域抽出部142に出力する。   The feature amount calculation unit 142 acquires the image captured by the imaging unit 110 from the buffer memory unit 130. The feature amount calculation unit 142 also has a feature amount (for example, a feature amount based on luminance information) for each of a plurality of features (for example, hue, saturation, brightness, texture, edge) in the image acquired from the buffer memory unit 130. , The feature amount based on the color information) is calculated, and the calculated feature amount is output to the region extraction unit 142.

領域抽出部143は、特徴量算出部142が算出した特徴量を取得する。また、領域抽出部143は、異なる時刻に撮像部110が撮像した画像列を、バッファメモリ部130から取得する。また、領域抽出部143は、取得した画像列から、画像特徴量に基づいて被写体領域を抽出する。ここで、領域抽出部143は、画像列を構成する全ての画像から被写体領域を抽出するようにしてもよいし、画像列を構成する画像に変化があった場合のみ、変化があった画像から被写体領域を抽出するようにしてもよい。   The region extraction unit 143 acquires the feature amount calculated by the feature amount calculation unit 142. In addition, the area extraction unit 143 acquires image sequences captured by the imaging unit 110 at different times from the buffer memory unit 130. Further, the region extraction unit 143 extracts a subject region from the acquired image sequence based on the image feature amount. Here, the region extraction unit 143 may extract the subject region from all the images constituting the image sequence, or from the image that has changed only when the image constituting the image sequence has changed. A subject area may be extracted.

領域抽出部143は、例えば、画像特徴量である輝度(Y)、色情報(Cr,Cb、RGB)に基づいて、被写体領域を抽出する。また、領域抽出部143は、一定範囲の画像特徴量と、その一定範囲外の画像特徴量とに2値化された画像から、被写体領域を抽出する。また、領域抽出部143は、被写体領域にラベルを割り当てる(ラベリング)。   The region extraction unit 143 extracts a subject region based on, for example, luminance (Y) and color information (Cr, Cb, RGB) that are image feature amounts. Further, the region extraction unit 143 extracts a subject region from an image binarized into an image feature amount within a certain range and an image feature amount outside the certain range. The area extraction unit 143 assigns a label to the subject area (labeling).

また、領域抽出部143は、被写体領域に対応付けた属性情報(抽出情報、撮像情報)を、記憶部160に記憶させる。ここで、領域抽出部143は、例えば、被写体領域に対する合焦位置を、撮像情報として記憶部160に記憶させる。また、領域抽出部143は、例えば、被写体領域に対する露光量、ゲイン及び階調カーブのうち少なくとも一つを、撮像情報として記憶部160に記憶させる。また、領域抽出部143は、例えば、被写体に対する撮像装置の動作、移動又は向きのうち少なくとも一つを表すアクション情報を、撮像情報として記憶部160に記憶させる。また、領域抽出部143は、例えば、センサ500により測定された撮像装置100の向きを、抽出情報として記憶部160に記憶させる。また、領域抽出部143は、例えば、被写体領域の色情報を、抽出情報として記憶部160に記憶させる。   The area extraction unit 143 also causes the storage unit 160 to store attribute information (extraction information, imaging information) associated with the subject area. Here, the region extraction unit 143 stores, for example, the in-focus position with respect to the subject region in the storage unit 160 as imaging information. In addition, the region extraction unit 143 stores, for example, at least one of the exposure amount, gain, and gradation curve for the subject region in the storage unit 160 as imaging information. In addition, the area extraction unit 143 stores, for example, action information representing at least one of the operation, movement, and orientation of the imaging device with respect to the subject in the storage unit 160 as imaging information. In addition, the area extraction unit 143 stores, for example, the orientation of the imaging device 100 measured by the sensor 500 in the storage unit 160 as extraction information. Further, the area extraction unit 143 stores, for example, the color information of the subject area in the storage unit 160 as extraction information.

領域判定部144は、撮像装置100が移動(例えば、ブームアップ、ブームダウン)、又は向きを変更(例えば、パンニング、チルト)したか否かを判定する。   The area determination unit 144 determines whether or not the imaging apparatus 100 has moved (for example, boom up or boom down) or has changed its direction (for example, panning or tilting).

また、領域判定部144は、第1画像からフレームアウトした被写体領域と、第1画像とは異なる時刻に撮像された第2画像にフレームインした被写体領域とが、同じ被写体による被写体領域であるか否かを、抽出情報に基づいて判定する。また、領域判定部144は、同じ被写体による被写体領域であると判定した場合、その同じ被写体による被写体領域に対応付けられた最新の撮像情報を選択する。   Further, the region determination unit 144 determines whether the subject region framed out from the first image and the subject region framed in the second image captured at a different time from the first image are subject regions due to the same subject. Whether or not is determined based on the extracted information. If the area determination unit 144 determines that the subject area is the same subject, the area determination unit 144 selects the latest imaging information associated with the subject area of the same subject.

また、領域判定部144は、抽出情報として記憶部160に記憶された、被写体領域に対するズーム倍率に基づいて、第1画像からフレームアウトした被写体領域と、第2画像にフレームインした被写体領域とが同じ被写体の被写体領域であるか否かを判定する。   The area determination unit 144 also includes a subject area framed out from the first image and a subject area framed in to the second image based on the zoom magnification with respect to the subject area stored in the storage unit 160 as extraction information. It is determined whether or not the subject area is the same subject.

また、領域判定部144は、第1画像が撮像された時刻から、第2画像が撮像された時刻までの時間が、予め定められた時間内である場合、第1画像からフレームアウトした被写体領域と、第2画像にフレームインした被写体領域とが同じ被写体の被写体領域であるか否かを、抽出情報に基づいて判定する。また、領域判定部144は、抽出情報が被写体領域同士で一致している度合いに基づいて、第1画像からフレームアウトした被写体領域と、第2画像にフレームインした被写体領域とが同じ被写体の被写体領域であるか否かを判定する。   In addition, the region determination unit 144 determines that the subject region framed out from the first image when the time from the time when the first image is captured to the time when the second image is captured is within a predetermined time. Whether the subject area framed in the second image is the subject area of the same subject is determined based on the extracted information. In addition, the area determination unit 144 determines that the subject area framed out from the first image and the subject area framed in the second image have the same subject based on the degree to which the extracted information matches between the subject areas. It is determined whether it is an area.

図1に戻り、領域判定装置141の説明を続ける。優先度設定部145は、予め定められた条件(例えば、面積が閾値以上であること)を満たす被写体領域に、画像における「領域の優先度」を定める。この「領域の優先度」とは、人がより注目しているであろう領域の優先度である。優先度設定部144は、設定した「領域の優先度」を被写体領域に対応付けて、属性情報(抽出情報、撮像情報)として記憶部160に記憶させる。   Returning to FIG. 1, the description of the area determination device 141 will be continued. The priority setting unit 145 determines “region priority” in an image for a subject region that satisfies a predetermined condition (for example, the area is equal to or greater than a threshold). The “region priority” is a region priority that a person will be more interested in. The priority setting unit 144 associates the set “region priority” with the subject region and causes the storage unit 160 to store the attribute information (extraction information, imaging information).

領域の優先度は、次のように定められてもよい。以下では、優先度を示す数字が小さいほど、領域の優先度が高いものとする。また、以下に示す優先度は、一例である。   The priority of the area may be determined as follows. In the following, it is assumed that the priority of a region is higher as the number indicating the priority is smaller. Moreover, the priority shown below is an example.

優先度1.
動いている領域(動いている領域が画像に複数ある場合、画角からはみ出していない領域、又は画角の中央に分布する領域)。また、パンニングしたことにより、動いている領域が画像に広く分布している場合は、動いていない領域。
これらの領域は、優先度「1」に設定される。
人は、動いている領域及びパンニングした際に変化量の少ない領域に注目するためである。
Priority 1.
A moving area (when there are a plurality of moving areas in the image, an area that does not protrude from the angle of view or an area that is distributed in the center of the angle of view). Also, if the moving area is widely distributed in the image due to panning, the area is not moving.
These areas are set to priority “1”.
This is because a person pays attention to a moving area and an area having a small amount of change when panning.

なお、画像からフレームアウトするまで優先度1に設定されていた被写体領域が、画像に再びフレームインしたと判定された場合、その被写体領域には、優先度1が設定されるようにしてもよい。   Note that if it is determined that a subject area that has been set to priority 1 until it is framed out of the image has been framed in the image again, priority 1 may be set for the subject area. .

優先度2.
画角(構図)、奥行(パースペクト)、被写体距離(デプス、深度)に関する領域。画角の中央付近に分布する領域。画像に奥行がある場合、至近側に分布する領域のうち、画角からはみ出していない領域であって、面積が所定の範囲内である(極端に大きくない)領域。
これらの領域は、優先度「2」に設定される。
主要な被写体像の領域が、至近から無限までの広い範囲に存在する可能性があるためである。
Priority 2.
Areas related to angle of view (composition), depth (perspective), and subject distance (depth, depth). An area distributed near the center of the angle of view. When there is a depth in the image, among the regions distributed on the closest side, the region does not protrude from the angle of view and has an area within a predetermined range (not extremely large).
These areas are set to priority “2”.
This is because the main subject image area may exist in a wide range from close to infinity.

優先度3.
人の顔検出、動物(ペット)の顔検出、顔が検出された領域における肌色検出、動物の毛並みのテクスチャ(模様)、又は植物のテクスチャに基づいて抽出された領域。
これらの領域は、優先度「3」に設定される。
人または動物が撮像されている場合、人は、その顔に注目するためである。
Priority 3.
Regions extracted based on human face detection, animal (pet) face detection, skin color detection in the area where the face is detected, animal fur texture (pattern), or plant texture.
These areas are set to priority “3”.
This is because when a person or animal is imaged, the person pays attention to the face.

優先度4.
特異である特徴量(例えば、色相環において不連続である色相)がある領域。背景の領域とそれ以外の領域とに分割された領域。彩度が高い領域。周囲と比較して明度が著しく異なる領域。周囲と比較して色相(色合い)が著しく異なる領域。テクスチャ(模様)が周囲と異なる領域。周囲と比較して空間周波数(画像周波数)が高い領域。ある特徴量において不連続な分布が一定量あり、その特徴量に基づいてラベリングされた結果、領域が形成された場合に、画像において違和感がある領域。
これらの領域は、優先度「4」に設定される。
Priority 4
A region having a characteristic amount that is unique (for example, a hue that is discontinuous in the hue circle). An area divided into a background area and other areas. Highly saturated area. An area where the brightness is significantly different from the surrounding area. An area where the hue (hue) is significantly different from the surrounding area. An area where the texture (pattern) is different from the surrounding area. An area where the spatial frequency (image frequency) is higher than the surrounding area. A region in which an image has a sense of incongruity when a certain amount of discontinuous distribution has a certain amount and a region is formed as a result of labeling based on the feature amount.
These areas are set to priority “4”.

優先度5.
特定の色相又は彩度に基づいて抽出された領域。
これらの領域は、優先度「5」に設定される。
人は、赤色、黄色、肌色の領域に注目するためである。
Priority 5.
An area extracted based on a specific hue or saturation.
These areas are set to the priority “5”.
This is because a person pays attention to red, yellow, and flesh-colored areas.

優先度6.
明度(明暗)に基づいて抽出された領域。
これらの領域は、優先度「6」に設定される。
Priority 6.
An area extracted based on brightness (brightness).
These areas are set to priority “6”.

優先度7.
テクスチャ(模様)に基づいて抽出された領域。
これらの領域は、優先度「7」に設定される。
Priority 7.
An area extracted based on a texture (pattern).
These areas are set to priority “7”.

優先度8.
空間周波数(画像周波数)に基づいて抽出された領域。
これらの領域は、優先度「8」に設定される。
Priority 8.
A region extracted based on the spatial frequency (image frequency).
These areas are set to priority “8”.

優先度9.
縦又は横に延びたエッジで囲まれた領域であって、一定以上の太さがある領域。
これらの領域は、優先度「9」に設定される。
Priority 9.
An area surrounded by edges extending vertically or horizontally and having a certain thickness or more.
These areas are set to the priority “9”.

次に、領域判定装置の処理の手順を説明する。
<被写体領域の撮像情報を撮影設定(例えば、焦点調整(コントラストAF))に活用する場合について>
図2は、被写体領域の撮像情報に基づいてコントラストAFを実行する動作手順を示すフローチャート(前半)である。また、図3は、被写体領域の撮像情報に基づいてコントラストAFを実行する動作手順を示すフローチャート(後半)である。また、図4には、被写体領域の撮像情報に基づいてコントラストAFを実行する動作手順を説明するための図が表されている。
Next, the processing procedure of the area determination device will be described.
<When the imaging information of the subject area is used for shooting settings (for example, focus adjustment (contrast AF))>
FIG. 2 is a flowchart (first half) showing an operation procedure for executing contrast AF based on imaging information of a subject area. FIG. 3 is a flowchart (second half) showing an operation procedure for executing contrast AF based on imaging information of the subject area. FIG. 4 shows a diagram for explaining an operation procedure for executing contrast AF based on imaging information of the subject area.

撮像部110(図1を参照)は、動画モードに遷移し、動画形式の画像列を撮像する(ステップS1)。CPU190(図1を参照)は、動画モードにおける合焦(AF)駆動(例えば、ウォブリング)を、仮の合焦駆動として実行する(ステップS2)。領域判定部144は、撮像装置100が移動(例えば、ブームアップ、ブームダウン)、又は向きを変更(例えば、パンニング、チルト)したか否かを判定する(ステップS3)。   The imaging unit 110 (see FIG. 1) transitions to the moving image mode and images a moving image format image sequence (step S1). The CPU 190 (see FIG. 1) executes focus (AF) drive (for example, wobbling) in the moving image mode as temporary focus drive (step S2). The area determination unit 144 determines whether or not the imaging apparatus 100 has moved (for example, boom-up, boom-down) or has changed its direction (for example, panning or tilting) (step S3).

撮像装置100が移動していない、且つ、向きを変更していない場合(ステップS3−No)、領域抽出部143は、特徴量算出部142が前回算出した画像特徴量に基づいて、被写体領域を抽出して属性情報(抽出情報、撮像情報)を算出し、算出した属性情報を記憶部160に記憶させる(ステップS4)。領域抽出部143は、有効な(例えば、面積が閾値以上である)被写体領域が画像に在るか否かを判定する。   When the imaging apparatus 100 has not moved and the orientation has not been changed (step S3-No), the region extraction unit 143 selects a subject region based on the image feature amount previously calculated by the feature amount calculation unit 142. The attribute information (extraction information, imaging information) is calculated by extraction, and the calculated attribute information is stored in the storage unit 160 (step S4). The region extraction unit 143 determines whether or not a valid subject region (for example, the area is equal to or greater than a threshold value) exists in the image.

有効な被写体領域が画像に在る場合(ステップS5−Yes)、且つ、有効な被写体領域が複数である場合、優先度設定部145(図1を参照)は、それら有効な被写体領域に優先度を定める(ステップS6)。CPU190は、優先度が最も高い被写体領域について、コントラストAFを実行する。本フローチャートでは、優先度が最も高い被写体領域が、被写体領域400(図4(A)を参照)と定められたものとして説明を続ける。なお、被写体領域400には、コントラスト評価値が算出される領域である評価領域300が定められてもよい(ステップS7)。   When there are valid subject areas in the image (step S5-Yes) and there are a plurality of valid subject areas, the priority setting unit 145 (see FIG. 1) gives priority to these valid subject areas. Is determined (step S6). The CPU 190 executes contrast AF for the subject area with the highest priority. In this flowchart, the description will be continued assuming that the subject area with the highest priority is defined as the subject area 400 (see FIG. 4A). Note that an evaluation area 300 that is an area in which a contrast evaluation value is calculated may be defined in the subject area 400 (step S7).

領域抽出部143は、被写体領域400により定まる属性情報(撮像情報)として、被写体領域400に対する合焦位置を示す情報を、記憶部160に記憶させる(ステップS8)。特徴量算出部142は、画像列における後続の画像フレームを取り込む(ステップS9)。領域抽出部143は、特徴量算出部142が前回算出した画像特徴量に基づいて、被写体領域を抽出して属性情報(抽出情報、撮像情報)を算出し、算出した属性情報を記憶部160に記憶させる(ステップS10)。   The region extraction unit 143 stores information indicating the in-focus position with respect to the subject region 400 in the storage unit 160 as attribute information (imaging information) determined by the subject region 400 (step S8). The feature amount calculation unit 142 captures subsequent image frames in the image sequence (step S9). The area extraction unit 143 extracts subject areas based on the image feature amount previously calculated by the feature amount calculation unit 142 to calculate attribute information (extraction information and imaging information), and stores the calculated attribute information in the storage unit 160. Store (step S10).

領域判定部144は、被写体領域400が画像の規定範囲に在るか否かを判定する。ここで、規定範囲とは、例えば、前回読み込んだ画像における被写体領域400の位置の周辺範囲、又は、画像フレーム(画角)の少し内側に定められた範囲である(図4(B)の規定範囲600を参照)(ステップS11)。   The area determination unit 144 determines whether or not the subject area 400 is within the specified range of the image. Here, the specified range is, for example, a peripheral range around the position of the subject region 400 in the previously read image or a range defined slightly inside the image frame (view angle) (the specified range in FIG. 4B). (See range 600) (step S11).

被写体領域400が画像の規定範囲に無い場合(ステップS11−No)、領域判定部144は、撮像装置100が移動又は向きを変更したか否かを判定する(ステップS12)。撮像装置100が移動していない、且つ、向きを変更していない場合(ステップS12−No)、特徴量算出部142は、画像列における後続の画像フレームを取り込む(ステップS13)。領域抽出部143は、特徴量算出部142が前回算出した画像特徴量に基づいて、被写体領域を抽出して属性情報(抽出情報、撮像情報)を算出し、算出した属性情報を記憶部160に記憶させる(ステップS14)。   When the subject region 400 is not within the specified range of the image (step S11—No), the region determination unit 144 determines whether the imaging device 100 has moved or changed its orientation (step S12). When the imaging device 100 has not moved and the orientation has not been changed (step S12—No), the feature amount calculation unit 142 captures the subsequent image frame in the image sequence (step S13). The area extraction unit 143 extracts subject areas based on the image feature amount previously calculated by the feature amount calculation unit 142 to calculate attribute information (extraction information and imaging information), and stores the calculated attribute information in the storage unit 160. Store (step S14).

領域判定部144(図1を参照)は、有効な被写体領域が画像に在るか否かを判定する(ステップS15)。有効な被写体領域が画像に在る場合(ステップS15−Yes)、領域判定部144は、画像に在る有効な被写体領域が被写体領域400(既存ラベル)である可能性が高いか否かを判定する。ここで、方位を測定することが可能なセンサ500が撮像装置100に備えられている場合、領域判定部144は、撮像装置100に対する被写体の方位が一致するか否かに基づいて、画像に在る有効な被写体領域が被写体領域400である可能性が高いか否かを判定する。   The area determination unit 144 (see FIG. 1) determines whether or not an effective subject area exists in the image (step S15). When an effective subject area exists in the image (step S15—Yes), the area determination unit 144 determines whether or not there is a high possibility that the effective subject area in the image is the subject area 400 (existing label). To do. Here, when the imaging apparatus 100 includes the sensor 500 capable of measuring the orientation, the region determination unit 144 is present in the image based on whether the orientation of the subject with respect to the imaging apparatus 100 matches. It is determined whether there is a high possibility that the effective subject area is the subject area 400.

なお、画像に在る有効な被写体領域が既存ラベルである可能性が高いか否かを判定する方法は、上記の方法に限らなくてよい。例えば、領域判定部144は、方位を測定することが可能なセンサ500が撮像装置100に備えられていない場合、画像に在る有効な被写体領域が被写体領域400である可能性が高いか否かを、領域形状に基づいて判定してもよい(ステップS16)。   The method for determining whether or not there is a high possibility that an effective subject area in the image is an existing label is not limited to the above method. For example, the area determination unit 144 determines whether or not there is a high possibility that the effective subject area in the image is the subject area 400 when the imaging apparatus 100 is not provided with the sensor 500 capable of measuring the orientation. May be determined based on the region shape (step S16).

画像に在る有効な被写体領域が被写体領域400(既存ラベル)である可能性が高い場合(ステップS16−Yes)、領域判定部144は、被写体領域400により定まる属性情報(抽出情報)を、記憶部160から読み込む(ステップS17)。そして、領域判定部144は、被写体領域400により定まる属性情報(抽出情報)と、抽出した領域により定まる属性情報(抽出情報)との近似度を算出し、算出した近似度が所定閾値よりも高いか否かを判定する(ステップS18)。   When there is a high possibility that an effective subject area in the image is the subject area 400 (existing label) (step S16—Yes), the area determination unit 144 stores attribute information (extraction information) determined by the subject area 400. Reading from the unit 160 (step S17). Then, the area determination unit 144 calculates the degree of approximation between the attribute information (extraction information) determined by the subject area 400 and the attribute information (extraction information) determined by the extracted area, and the calculated degree of approximation is higher than a predetermined threshold value. Is determined (step S18).

近似度が所定閾値よりも高い場合(ステップS18−Yes)、CPU190は、被写体領域400に対する合焦位置に、AFレンズ112(図1を参照)を移動させる。属性情報(撮像情報)である合焦位置は、このようにAFレンズ112の移動に活用される(ステップS19)。特徴量算出部142は、画像列における後続の画像フレームを取り込む(ステップS20)。領域抽出部143は、特徴量算出部142が算出した画像特徴量に基づいて、被写体領域を抽出して属性情報(抽出情報、撮像情報)を算出し、算出した属性情報を記憶部160に記憶させる(ステップS21)。   When the degree of approximation is higher than the predetermined threshold (step S18—Yes), the CPU 190 moves the AF lens 112 (see FIG. 1) to the in-focus position with respect to the subject region 400. The focus position, which is attribute information (imaging information), is used for the movement of the AF lens 112 in this way (step S19). The feature amount calculation unit 142 captures subsequent image frames in the image sequence (step S20). The area extraction unit 143 extracts subject areas based on the image feature amounts calculated by the feature amount calculation unit 142 to calculate attribute information (extraction information, imaging information), and stores the calculated attribute information in the storage unit 160. (Step S21).

領域判定部144は、前回に最優先であった被写体領域400が画像の規定範囲に在るか否かを判定する(ステップS22)。前回に最優先であった被写体領域400が画像の規定範囲に無い場合(ステップS22−No)、領域判定部144は、撮像装置100が移動又は向きを変更したか否かを判定する(ステップS23)。撮像装置100が移動していない、且つ、向きを変更していない場合(ステップS23−No)、特徴量算出部142は、ステップ13に処理を戻す。   The region determination unit 144 determines whether or not the subject region 400 that has been given the highest priority in the previous time is within the specified range of the image (step S22). When the subject area 400 that was the highest priority last time is not within the specified range of the image (step S22—No), the area determination unit 144 determines whether the imaging apparatus 100 has moved or changed its orientation (step S23). ). When the imaging device 100 has not moved and the orientation has not been changed (step S23—No), the feature amount calculation unit 142 returns the process to step 13.

一方、ステップS3において、撮像装置100が移動又は向きを変更している場合(ステップS3−Yes)、領域判定部144は、ステップS3における判定処理を繰り返す。また、ステップS5において、有効な被写体領域が画像に無い場合(ステップS5−No)、CPU190は、ステップ2に処理を戻す。また、ステップS11において、被写体領域400が画像の規定範囲に在る場合(ステップS11−Yes)、特徴量算出部142は、ステップ9に処理を戻す。   On the other hand, in step S3, when the imaging device 100 is moving or changing the direction (step S3-Yes), the region determination unit 144 repeats the determination process in step S3. In step S5, if there is no effective subject area in the image (step S5-No), the CPU 190 returns the process to step 2. In step S11, when the subject region 400 is within the specified range of the image (step S11-Yes), the feature amount calculation unit 142 returns the process to step 9.

また、ステップS12において、撮像装置100が移動又は向きを変更している場合(ステップS12−Yes)、領域判定部144は、ステップS12における判定処理を繰り返す。また、ステップS15において、有効な被写体領域が画像に無い場合(ステップS15−No)、且つ、一定時間が経過した場合、CPU190は、コントラストAFを実行する(ステップS24)。そして、特徴量算出部142は、ステップ13に処理を戻す。   In Step S12, when image pick-up device 100 has moved or changed the direction (Step S12-Yes), region judgment part 144 repeats judgment processing in Step S12. In step S15, when there is no effective subject area in the image (step S15-No), and when a predetermined time has elapsed, the CPU 190 executes contrast AF (step S24). Then, the feature amount calculation unit 142 returns the process to step 13.

また、ステップS16において、画像に在る有効な被写体領域が被写体領域400(既存ラベル)である可能性が高くない場合(ステップS16−No)、且つ、有効な被写体領域が複数である場合、優先度設定部145(図1を参照)は、それら有効な被写体領域に優先度を定める(ステップS25)。また、CPU190は、優先度が最も高い被写体領域について、コントラストAFを実行する。本フローチャートでは、ここで優先度が最も高い被写体領域が、被写体領域410(図4(C)を参照)と定められたものとして説明を続ける。なお、被写体領域410には、コントラスト評価値が算出される領域である評価領域310が定められてもよい(ステップS26)。領域抽出部143は、被写体領域410により定まる属性情報(撮像情報)として、被写体領域410に対する合焦位置を示す情報を、記憶部160に記憶させる(ステップS27)。そして、領域抽出部143は、ステップS20に処理を戻す。   In step S16, if there is no high possibility that the effective subject area in the image is the subject area 400 (existing label) (step S16-No), and there are a plurality of effective subject areas, priority is given. The degree setting unit 145 (see FIG. 1) determines priorities for these effective subject areas (step S25). Further, the CPU 190 executes contrast AF for the subject area having the highest priority. In this flowchart, the description will be continued assuming that the subject region with the highest priority is defined as the subject region 410 (see FIG. 4C). In the subject area 410, an evaluation area 310 that is an area in which a contrast evaluation value is calculated may be defined (step S26). The region extraction unit 143 stores information indicating the in-focus position with respect to the subject region 410 in the storage unit 160 as attribute information (imaging information) determined by the subject region 410 (step S27). Then, the region extraction unit 143 returns the process to step S20.

また、ステップS18において、近似度が所定閾値よりも高くない場合(ステップS18−No)、CPU190は、被写体領域400に対する合焦位置の付近に定められた、AFレンズ112(図1を参照)の駆動範囲の手前に、AFレンズ112を移動させる(ステップS28)。そして、CPU190は、被写体領域400により定まる属性情報(撮像情報)に基づいて、狭い駆動範囲でコントラストAFを実行する。属性情報(撮像情報)である合焦位置は、このようにコントラストAFに活用される(ステップS29)。そして、CPU190は、ステップS20に処理を戻す。   In step S18, when the degree of approximation is not higher than the predetermined threshold (step S18-No), the CPU 190 determines the AF lens 112 (see FIG. 1) set near the focus position with respect to the subject region 400. The AF lens 112 is moved before the driving range (step S28). Then, the CPU 190 executes contrast AF in a narrow drive range based on attribute information (imaging information) determined by the subject area 400. The focus position, which is attribute information (imaging information), is used for contrast AF in this way (step S29). Then, the CPU 190 returns the process to step S20.

また、ステップS22において、前回に最優先であった被写体領域400が画像の規定範囲に在る場合(ステップS22−Yes)、特徴量算出部142は、ステップS20に処理を戻す。   In step S22, if the subject area 400 that has been given the highest priority in the previous time is within the specified range of the image (step S22-Yes), the feature amount calculation unit 142 returns the process to step S20.

図5には、被写体領域の撮像情報に基づいてコントラストAFを実行する動作例を説明するための図が表されている。ここで、横軸は、時刻を表す。また、縦軸は、AFレンズ112の位置を表す。   FIG. 5 shows a diagram for explaining an operation example in which contrast AF is executed based on imaging information of a subject area. Here, the horizontal axis represents time. The vertical axis represents the position of the AF lens 112.

まず、時刻t1から時刻t2までの間に、CPU190は、AFレンズ112(図1を参照)を駆動させながらコントラスト評価値を算出することにより、コントラストスキャンを実行したとする。また、これにより、被写体領域400(図4(A)を参照)に合焦させることができる合焦位置Aが定まったとする。領域抽出部143は、被写体領域400に対する合焦位置Aを、被写体領域400により定まる属性情報(撮像情報)として記憶部160に記憶させる。   First, it is assumed that the CPU 190 executes a contrast scan by calculating a contrast evaluation value while driving the AF lens 112 (see FIG. 1) between time t1 and time t2. Further, it is assumed that an in-focus position A that can be focused on the subject area 400 (see FIG. 4A) is determined. The area extracting unit 143 stores the in-focus position A with respect to the subject area 400 in the storage unit 160 as attribute information (imaging information) determined by the subject area 400.

時刻t3において、CPU190は、被写体領域400に対する合焦位置Aに、AFレンズ112を移動させる。その後、被写体領域400は、画像からフレームアウトしたとする。そして、CPU190は、コントラストスキャンを実行し、被写体領域410(図4(C)を参照)に対する合焦位置Bに、AFレンズ112を移動させる。領域抽出部143は、被写体領域410に対する合焦位置Bを、被写体領域410により定まる属性情報(撮像情報)として記憶部160に記憶させる。   At time t <b> 3, the CPU 190 moves the AF lens 112 to the focus position A with respect to the subject area 400. Thereafter, it is assumed that the subject region 400 is out of the frame from the image. Then, the CPU 190 executes a contrast scan, and moves the AF lens 112 to the in-focus position B with respect to the subject area 410 (see FIG. 4C). The area extraction unit 143 stores the in-focus position B with respect to the subject area 410 in the storage unit 160 as attribute information (imaging information) determined by the subject area 410.

その後、被写体領域400が画像に再びフレームインしたとする。領域判定部144は、時刻t1から時刻t2までの間に撮像された画像からフレームアウトした被写体領域と、時刻t4までに撮像された画像にフレームインした被写体領域とが、同じ被写体による被写体領域400であるか否かを、属性情報(抽出情報)に基づいて判定する。ここで、領域判定部144は、同じ被写体による被写体領域400であると判定したとする。   After that, it is assumed that the subject area 400 is again framed into the image. The area determination unit 144 has a subject area 400 of the same subject in which the subject area framed out from the image captured between time t1 and time t2 and the subject area framed in the image captured until time t4 are the same. It is determined based on attribute information (extraction information). Here, it is assumed that the region determination unit 144 determines that the subject region 400 is the same subject.

時刻t4から時刻t5までの間に、CPU190は、コントラストスキャンを実行することなく属性情報(撮像情報=合焦位置A)に基づいて、被写体領域400(図4(A)を参照)に対する合焦位置Aに、AFレンズ112を移動させる。   Between time t4 and time t5, the CPU 190 focuses on the subject region 400 (see FIG. 4A) based on the attribute information (imaging information = focus position A) without executing contrast scan. The AF lens 112 is moved to the position A.

<画像に在る複数の被写体領域に、順次合焦させる場合について>
図6は、被写体領域の撮像情報に基づいてコントラストAFを順次実行する動作手順を示すフローチャートである。撮像部110(図1を参照)は、動画モードに遷移し、動画形式の画像列を撮像する(ステップSa1)。領域抽出部143は、特徴量算出部142が算出した画像特徴量に基づいて、被写体領域を抽出する。ここで、被写体領域400、410及び420(図4には不図示)が抽出されたとする(ステップSa2)。領域抽出部143は、抽出した各被写体領域の属性情報(抽出情報、撮像情報)を算出し、算出した属性情報を被写体領域毎に記憶部160に記憶させる(ステップSa3)。
<When focusing on multiple subject areas in an image sequentially>
FIG. 6 is a flowchart showing an operation procedure for sequentially executing contrast AF based on imaging information of the subject area. The imaging unit 110 (see FIG. 1) transitions to the moving image mode and images a moving image format image sequence (step Sa1). The region extraction unit 143 extracts a subject region based on the image feature amount calculated by the feature amount calculation unit 142. Here, it is assumed that the subject areas 400, 410, and 420 (not shown in FIG. 4) are extracted (step Sa2). The area extraction unit 143 calculates attribute information (extraction information, imaging information) of each extracted subject area, and stores the calculated attribute information in the storage unit 160 for each subject area (step Sa3).

特徴量算出部142は、画像列における後続の画像フレームを取り込む(ステップSa4)。領域抽出部143は、特徴量算出部142が算出した画像特徴量に基づいて、被写体領域を抽出して属性情報(抽出情報、撮像情報)を算出し、算出した属性情報を記憶部160に記憶させる(ステップSa5)。領域判定部144(図1を参照)は、前回までに抽出した被写体領域(既存ラベル)が画像に在るか否かを判定する(ステップSa6)。   The feature amount calculation unit 142 captures the subsequent image frame in the image sequence (step Sa4). The area extraction unit 143 extracts subject areas based on the image feature amounts calculated by the feature amount calculation unit 142 to calculate attribute information (extraction information, imaging information), and stores the calculated attribute information in the storage unit 160. (Step Sa5). The area determination unit 144 (see FIG. 1) determines whether the subject area (existing label) extracted up to the previous time is present in the image (step Sa6).

前回までに抽出した被写体領域(既存ラベル)が画像に無い場合(ステップSa6−No)、領域判定部144は、撮像装置100が移動又は向きを変更したか否かを判定する(ステップSa7)。撮像装置100が移動していない、且つ、向きを変更していない場合(ステップSa7−No)、領域判定部144は、前回合焦させた被写体領域が1番中心域に在るか否か、すなわち、画角中心に最も近い領域に在るか否かを判定する(ステップSa8)。   When the subject area (existing label) extracted up to the previous time does not exist in the image (step Sa6-No), the area determination unit 144 determines whether the imaging device 100 has moved or changed its direction (step Sa7). When the imaging apparatus 100 has not moved and the orientation has not been changed (step Sa7-No), the area determination unit 144 determines whether or not the subject area focused last time is in the first central area. That is, it is determined whether or not the area is closest to the center of the angle of view (step Sa8).

前回合焦させた被写体領域(既存ラベル)が1番中心域に在る場合(ステップSa8−Yes)、CPU190は、その1番中心域に在る被写体領域(例えば、被写体領域400)により定まる属性情報(撮像情報)に基づいて、その被写体領域に対する合焦位置にAFレンズ112を移動させる。属性情報(撮像情報)である合焦位置は、このようにAFレンズ112の移動に活用される(ステップSa9)。そして、特徴量算出部142は、一定時間が経過するのを待ってから(ステップSa10)、ステップSa4に処理を戻す。   When the previously focused subject area (existing label) is in the first center area (step Sa8-Yes), the CPU 190 determines the attribute determined by the subject area (for example, the subject area 400) in the first center area. Based on the information (imaging information), the AF lens 112 is moved to the in-focus position for the subject area. The in-focus position, which is attribute information (imaging information), is used for the movement of the AF lens 112 in this way (step Sa9). Then, after waiting for a certain period of time to elapse (step Sa10), the feature amount calculation unit 142 returns the process to step Sa4.

一方、ステップSa8において、前回合焦させた被写体領域が1番中心域に無い場合(ステップSa8−No)、領域判定部144は、前回合焦させた被写体領域が2番中心域に在るか否か、すなわち、1番中心域のすぐ外側の領域に在るか否かを判定する(ステップSa11)。   On the other hand, in step Sa8, when the subject area focused last time is not in the first center area (step Sa8-No), the area determination unit 144 determines whether the subject area focused last time is in the second center area. It is determined whether it is in the area immediately outside the first central area (step Sa11).

前回合焦させた被写体領域(既存ラベル)が2番中心域に在る場合(ステップSa11−Yes)、CPU190は、その2番中心域に在る被写体領域(例えば、被写体領域410)により定まる属性情報(撮像情報)に基づいて、その被写体領域に対する合焦位置にAFレンズ112を移動させる。属性情報(撮像情報)である合焦位置は、このようにAFレンズ112の移動に活用される(ステップSa12)。そして、特徴量算出部142は、一定時間が経過するのを待ってから(ステップSa10)、ステップSa4に処理を戻す。   When the previously focused subject area (existing label) is in the second center area (step Sa11-Yes), the CPU 190 determines the attribute determined by the subject area in the second center area (for example, the subject area 410). Based on the information (imaging information), the AF lens 112 is moved to the in-focus position for the subject area. The focus position, which is attribute information (imaging information), is used for the movement of the AF lens 112 in this way (step Sa12). Then, after waiting for a certain period of time to elapse (step Sa10), the feature amount calculation unit 142 returns the process to step Sa4.

また、ステップSa11において、前回合焦させた被写体領域(既存ラベル)が2番中心域に無い場合(ステップSa11−No)、CPU190は、その2番中心域のすぐ外側の3番中心域に在る被写体領域(例えば、被写体領域420(図4には不図示))により定まる属性情報(撮像情報)に基づいて、その被写体領域に対する合焦位置にAFレンズ112を移動させる。属性情報(撮像情報)である合焦位置は、このようにAFレンズ112の移動に活用される(ステップSa13)。そして、特徴量算出部142は、一定時間が経過するのを待ってから(ステップSa10)、ステップSa4に処理を戻す。   In step Sa11, if the subject area (existing label) focused last time is not in the second central area (step Sa11-No), the CPU 190 exists in the third central area just outside the second central area. The AF lens 112 is moved to the in-focus position for the subject area based on attribute information (imaging information) determined by the subject area (for example, the subject area 420 (not shown in FIG. 4)). The focus position, which is attribute information (imaging information), is used for the movement of the AF lens 112 in this way (step Sa13). Then, after waiting for a certain period of time to elapse (step Sa10), the feature amount calculation unit 142 returns the process to step Sa4.

また、ステップSa6において、前回までに抽出した被写体領域(既存ラベル)が画像に在る場合(ステップSa6−Yes)、特徴量算出部142は、ステップSa4に処理を戻す。また、ステップSa7において、撮像装置100が移動又は向きを変更した場合(ステップSa7−Yes)、領域判定部144は、ステップSa7における判定処理を繰り返す。   In step Sa6, if the subject region (existing label) extracted up to the previous time is present in the image (step Sa6-Yes), the feature amount calculation unit 142 returns the process to step Sa4. In Step Sa7, when the imaging device 100 has moved or changed its direction (Step Sa7-Yes), the region determination unit 144 repeats the determination process in Step Sa7.

<被写体領域に対する撮像装置のアクション情報に基づいて、被写体領域の優先度(注目フラグ)を変更する場合について>
図7は、被写体領域の撮像情報であるアクション情報に基づいてコントラストAFを実行する動作手順を示すフローチャート(前半)である。また、図8は、被写体領域の撮像情報であるアクション情報に基づいてコントラストAFを実行する動作手順を示すフローチャート(前半の続き)である。また、図9は、被写体領域の撮像情報であるアクション情報に基づいてコントラストAFを実行する動作手順を示すフローチャート(後半)である。
<Changing the priority (attention flag) of the subject area based on the action information of the imaging device for the subject area>
FIG. 7 is a flowchart (first half) showing an operation procedure for executing contrast AF based on action information that is imaging information of a subject area. FIG. 8 is a flowchart (continuation of the first half) showing an operation procedure for executing contrast AF based on action information that is imaging information of a subject area. FIG. 9 is a flowchart (second half) showing an operation procedure for executing contrast AF based on action information that is imaging information of a subject area.

また、図10には、被写体領域の撮像情報であるアクション情報に基づいてコントラストAFを実行する動作手順を説明するための図が表されている。また、図11には、被写体領域の撮像情報であるアクション情報に基づいてコントラストAFを実行する動作手順を説明するための図が表されている。   FIG. 10 is a diagram for explaining an operation procedure for executing contrast AF based on action information that is imaging information of a subject area. FIG. 11 is a diagram for explaining an operation procedure for executing contrast AF based on action information that is imaging information of a subject area.

撮像部110(図1を参照)は、動画モードに遷移し、動画形式の画像列を撮像する(ステップSb1)。CPU190(図1を参照)は、動画モードにおける合焦(AF)駆動(例えば、ウォブリング)を、仮の合焦駆動として実行する(ステップSb2)。領域判定部144は、撮像装置100が移動(例えば、ブームアップ、ブームダウン)、又は向きを変更(例えば、パンニング、チルト)したか否かを判定する(ステップSb3)。   The imaging unit 110 (see FIG. 1) transitions to the moving image mode and images a moving image format image sequence (step Sb1). The CPU 190 (see FIG. 1) executes focus (AF) drive (for example, wobbling) in the moving image mode as temporary focus drive (step Sb2). The area determination unit 144 determines whether or not the imaging apparatus 100 has moved (for example, boom-up, boom-down) or has changed its direction (for example, panning or tilting) (step Sb3).

撮像装置100が移動していない、且つ、向きを変更していない場合(ステップSb3−No)、領域抽出部143は、特徴量算出部142が前回算出した画像特徴量に基づいて、被写体領域を抽出して属性情報(抽出情報、撮像情報)を算出し、算出した属性情報を記憶部160に記憶させる(ステップSb4)。領域抽出部143は、有効な(例えば、面積が閾値以上である)被写体領域が画像に在るか否かを判定する(ステップSb5)。   When the imaging device 100 has not moved and the orientation has not been changed (step Sb3-No), the region extraction unit 143 selects a subject region based on the image feature amount previously calculated by the feature amount calculation unit 142. The attribute information (extraction information, imaging information) is calculated by extraction, and the calculated attribute information is stored in the storage unit 160 (step Sb4). The region extraction unit 143 determines whether or not a valid subject region (for example, the area is equal to or greater than a threshold) is present in the image (step Sb5).

有効な被写体領域が画像に在る場合(ステップSb5−Yes)、且つ、有効な被写体領域が複数である場合、優先度設定部145(図1を参照)は、それら有効な被写体領域に優先度を定める(ステップSb6)。CPU190は、優先度が最も高い被写体領域について、コントラストAFを実行する。本フローチャートでは、ここで優先度が最も高い被写体領域が、被写体領域420(図10(A)を参照)と定められたものとして説明を続ける。なお、被写体領域420には、コントラスト評価値が算出される領域である評価領域320が定められてもよい(ステップSb7)。   When there are valid subject areas in the image (step Sb5-Yes) and there are a plurality of valid subject areas, the priority setting unit 145 (see FIG. 1) gives priority to these valid subject areas. Is determined (step Sb6). The CPU 190 executes contrast AF for the subject area with the highest priority. In this flowchart, the description will be continued assuming that the subject area with the highest priority is defined as the subject area 420 (see FIG. 10A). In the subject area 420, an evaluation area 320 that is an area in which a contrast evaluation value is calculated may be defined (step Sb7).

領域抽出部143は、被写体領域420により定まる属性情報(撮像情報)として、被写体領域420に対する合焦位置を示す情報を、記憶部160に記憶させる(ステップSb8)。特徴量算出部142は、画像列における後続の画像フレームを取り込む(ステップSb9)。領域抽出部143は、特徴量算出部142が前回算出した画像特徴量に基づいて、被写体領域を抽出して属性情報(抽出情報、撮像情報)を算出し、算出した属性情報を記憶部160に記憶させる(ステップSb10)。領域判定部144は、被写体領域420が画像の規定範囲に在るか否かを判定する(ステップSb11)。   The area extraction unit 143 stores information indicating the in-focus position with respect to the subject area 420 in the storage unit 160 as attribute information (imaging information) determined by the subject area 420 (step Sb8). The feature amount calculation unit 142 captures subsequent image frames in the image sequence (step Sb9). The area extraction unit 143 extracts subject areas based on the image feature amount previously calculated by the feature amount calculation unit 142 to calculate attribute information (extraction information and imaging information), and stores the calculated attribute information in the storage unit 160. Store (step Sb10). The region determination unit 144 determines whether or not the subject region 420 is within the specified range of the image (step Sb11).

被写体領域420が画像の規定範囲に無い場合(ステップSb11−No)、領域判定部144は、撮像装置100が移動又は向きを変更したか否かを判定する(ステップSb12)。撮像装置100が移動していない、且つ、向きを変更していない場合(ステップSb12−No)、特徴量算出部142は、画像列における後続の画像フレームを取り込む(ステップSb13)。領域抽出部143は、特徴量算出部142が前回算出した画像特徴量に基づいて、被写体領域を抽出して属性情報(抽出情報、撮像情報)を算出し、算出した属性情報を記憶部160に記憶させる(ステップSb14)。   When the subject area 420 is not within the specified range of the image (step Sb11-No), the area determination unit 144 determines whether the imaging apparatus 100 has moved or changed its orientation (step Sb12). When the imaging device 100 has not moved and the orientation has not been changed (step Sb12-No), the feature amount calculation unit 142 captures the subsequent image frame in the image sequence (step Sb13). The area extraction unit 143 extracts subject areas based on the image feature amount previously calculated by the feature amount calculation unit 142 to calculate attribute information (extraction information and imaging information), and stores the calculated attribute information in the storage unit 160. Store (step Sb14).

領域判定部144(図1を参照)は、被写体領域420ではない有効な被写体領域が画像に在るか否か、を判定する。本フローチャートでは、被写体領域420ではない有効な被写体領域が被写体領域430(図10(B)を参照)と定められたものとして、説明を続ける(ステップSb15)。有効な被写体領域が画像に在る場合(ステップSb15−Yes)、特徴量算出部142は、画像列における後続の画像フレームを取り込む(ステップSb16)。   The area determination unit 144 (see FIG. 1) determines whether an effective subject area that is not the subject area 420 exists in the image. In this flowchart, the description is continued assuming that an effective subject area that is not the subject area 420 is defined as the subject area 430 (see FIG. 10B) (step Sb15). When an effective subject area exists in the image (step Sb15-Yes), the feature amount calculation unit 142 captures the subsequent image frame in the image sequence (step Sb16).

領域抽出部143は、特徴量算出部142が前回算出した画像特徴量に基づいて、被写体領域を抽出して属性情報(抽出情報、撮像情報)を算出し、算出した属性情報を記憶部160に記憶させる(ステップSb17)。領域判定部144は、被写体領域430が画像に在るか否かを判定する(ステップSb18)。   The area extraction unit 143 extracts subject areas based on the image feature amount previously calculated by the feature amount calculation unit 142 to calculate attribute information (extraction information and imaging information), and stores the calculated attribute information in the storage unit 160. Store (step Sb17). The region determination unit 144 determines whether or not the subject region 430 is present in the image (step Sb18).

被写体領域430(図10(C)を参照)が画像に無い場合(ステップSb18−No)、領域判定部144は、撮像装置100が移動又は向きを変更したか否かを判定する(ステップSb19)。撮像装置100が移動していない、且つ、向きを変更していない場合(ステップSb19−No)、特徴量算出部142は、画像列における後続の画像フレームを取り込む(ステップSb20)。   When the subject region 430 (see FIG. 10C) is not present in the image (step Sb18—No), the region determination unit 144 determines whether the imaging device 100 has moved or changed its direction (step Sb19). . When the imaging apparatus 100 has not moved and the orientation has not been changed (step Sb19-No), the feature amount calculation unit 142 captures the subsequent image frame in the image sequence (step Sb20).

領域抽出部143は、特徴量算出部142が算出した画像特徴量に基づいて、被写体領域を抽出して属性情報(抽出情報、撮像情報)を算出し、算出した属性情報を記憶部160に記憶させる(ステップSb21)。領域判定部144(図1を参照)は、有効な被写体領域が画像に在るか否かを判定する(ステップSb22)。有効な被写体領域が画像に在る場合(ステップSb22−Yes)、領域判定部144は、画像に在る有効な被写体領域が被写体領域420又は被写体領域430であるか否かを判定する(ステップSb23)。   The area extraction unit 143 extracts subject areas based on the image feature amounts calculated by the feature amount calculation unit 142 to calculate attribute information (extraction information, imaging information), and stores the calculated attribute information in the storage unit 160. (Step Sb21). The area determination unit 144 (see FIG. 1) determines whether or not an effective subject area exists in the image (step Sb22). When the effective subject area exists in the image (step Sb22-Yes), the area determination unit 144 determines whether the effective subject area in the image is the subject area 420 or the subject area 430 (step Sb23). ).

画像に在る有効な被写体領域が被写体領域420でない、且つ、被写体領域430でない場合(ステップSb23−No)、特徴量算出部142は、画像列における後続の画像フレームを取り込む(ステップSb24)。   When the effective subject area in the image is not the subject area 420 and not the subject area 430 (step Sb23-No), the feature amount calculation unit 142 captures the subsequent image frame in the image sequence (step Sb24).

領域抽出部143は、特徴量算出部142が算出した画像特徴量に基づいて、被写体領域を抽出して属性情報(抽出情報、撮像情報)を算出し、算出した属性情報を記憶部160に記憶させる。本フローチャートでは、移動している被写体領域440(図11(A)を参照)が抽出されたものとして説明を続ける。ここで、被写体領域440が移動している場合、領域判定部144は、撮像装置100が移動又は向きを変更することにより(図11(B)を参照)、被写体領域440を追尾しているか否か(図11(C)を参照)を判定する(ステップSb25)。   The area extraction unit 143 extracts subject areas based on the image feature amounts calculated by the feature amount calculation unit 142 to calculate attribute information (extraction information, imaging information), and stores the calculated attribute information in the storage unit 160. Let In this flowchart, the description will be continued assuming that the moving subject area 440 (see FIG. 11A) has been extracted. Here, when the subject area 440 is moving, the area determination unit 144 determines whether or not the imaging apparatus 100 is tracking the subject area 440 by moving or changing the direction (see FIG. 11B). (See FIG. 11C) is determined (step Sb25).

撮像装置100が移動又は向きを変更することにより、被写体領域440を追尾している場合(ステップSb25−Yes)、領域判定部144は、被写体領域440が画像の規定範囲に在るか否かを判定する(ステップSb26)。被写体領域440が画像の規定範囲に無い場合(ステップSb26−No)、領域判定部144は、撮像装置100が移動又は向きを変更したか否かを判定する(ステップSb27)。   When the imaging apparatus 100 is tracking the subject area 440 by changing the movement or orientation (step Sb25-Yes), the area determination unit 144 determines whether the subject area 440 is within the specified range of the image. Determination is made (step Sb26). When the subject area 440 is not within the specified range of the image (step Sb26-No), the area determination unit 144 determines whether the imaging device 100 has moved or changed its direction (step Sb27).

撮像装置100が移動していない、且つ、向きを変更していない場合(ステップSb27−No)、特徴量算出部142は、画像列における後続の画像フレームを取り込む(ステップSb28)。領域抽出部143は、特徴量算出部142が算出した画像特徴量に基づいて、被写体領域を抽出して属性情報(抽出情報、撮像情報)を算出し、算出した属性情報を記憶部160に記憶させる(ステップSb29)。   When the imaging device 100 has not moved and the orientation has not been changed (step Sb27-No), the feature amount calculation unit 142 captures the subsequent image frame in the image sequence (step Sb28). The area extraction unit 143 extracts subject areas based on the image feature amounts calculated by the feature amount calculation unit 142 to calculate attribute information (extraction information, imaging information), and stores the calculated attribute information in the storage unit 160. (Step Sb29).

領域判定部144(図1を参照)は、有効な被写体領域が画像に在るか否かを判定する(ステップSb30)。有効な被写体領域が画像に在る場合(ステップSb30−Yes)、領域判定部144は、画像に在る有効な被写体領域が被写体領域420、被写体領域430又は被写体領域440であるか否かを判定する(ステップSb31)。   The area determination unit 144 (see FIG. 1) determines whether or not an effective subject area exists in the image (step Sb30). When there is an effective subject area in the image (step Sb30-Yes), the area determination unit 144 determines whether the effective subject area in the image is the subject area 420, the subject area 430, or the subject area 440. (Step Sb31).

画像に在る有効な被写体領域が被写体領域420、被写体領域430又は被写体領域440である場合(ステップSb31−Yes)、領域判定部144は、撮像装置100が移動又は向きを変更したか否かを判定する(ステップSb32)。撮像装置100が移動していない、且つ、向きを変更していない場合(ステップS32−No)、領域抽出部143は、複数の被写体領域が画像に在れば、画像フレームの一定の内側領域(例えば、中心域)から被写体領域を抽出する(ステップSb33)。   When the effective subject area in the image is the subject area 420, the subject area 430, or the subject area 440 (step Sb31-Yes), the area determination unit 144 determines whether the imaging apparatus 100 has moved or changed its orientation. Determination is made (step Sb32). When the imaging apparatus 100 has not moved and the orientation has not been changed (step S32—No), the region extracting unit 143 determines that a certain inner region (image area) of the image frame is present if a plurality of subject regions are present in the image. For example, the subject area is extracted from the center area) (step Sb33).

領域抽出部143は、画像フレームの一定の内側領域以外に在る被写体領域を、処理対象から除外する(ステップSb34)。領域判定部144(図1を参照)は、有効な被写体領域が被写体領域430(図10(B)を参照)のみであるか否かを判定する(ステップSb35)。   The area extraction unit 143 excludes subject areas that exist outside the fixed inner area of the image frame from the processing target (step Sb34). The area determination unit 144 (see FIG. 1) determines whether or not the effective subject area is only the subject area 430 (see FIG. 10B) (step Sb35).

有効な被写体領域が被写体領域430のみである場合(ステップSb35−Yes)、領域抽出部143は、特徴量算出部142が算出した画像特徴量に基づいて、被写体領域を抽出して属性情報(抽出情報、撮像情報(例えば、無限合焦位置、各色のコントラスト評価値)を算出し、算出した属性情報を記憶部160に記憶させる。CPU190は、被写体領域430に対する合焦位置に、AFレンズ112(図1を参照)を移動させる。属性情報(撮像情報)である合焦位置は、このようにAFレンズ112の移動に活用される(ステップSb36)。   When the effective subject area is only the subject area 430 (step Sb35-Yes), the area extracting unit 143 extracts the subject area based on the image feature amount calculated by the feature amount calculating unit 142 and extracts attribute information (extraction). Information, imaging information (for example, infinite focus position, contrast evaluation value of each color) is calculated, and the calculated attribute information is stored in the storage unit 160. The CPU 190 is placed at the focus position with respect to the subject region 430 at the AF lens 112 ( The focus position, which is attribute information (imaging information), is used for the movement of the AF lens 112 in this way (step Sb36).

特徴量算出部142は、画像列における後続の画像フレームを取り込む(ステップSb37)。領域抽出部143は、特徴量算出部142が算出した画像特徴量に基づいて、被写体領域を抽出して属性情報(抽出情報、撮像情報)を算出し、算出した属性情報を記憶部160に記憶させる(ステップSb38)。   The feature amount calculation unit 142 captures subsequent image frames in the image sequence (step Sb37). The area extraction unit 143 extracts subject areas based on the image feature amounts calculated by the feature amount calculation unit 142 to calculate attribute information (extraction information, imaging information), and stores the calculated attribute information in the storage unit 160. (Step Sb38).

領域判定部144は、前回に最優先であった被写体領域が画像の規定範囲に在るか否かを判定する。ここで、規定領域とは、前回の画像フレームにおける被写体領域の位置の周辺か、画像フレーム(画角)より少し内側の範囲である(ステップSb39)。   The area determination unit 144 determines whether or not the subject area having the highest priority last time is within the specified range of the image. Here, the prescribed area is a range around the position of the subject area in the previous image frame or a range slightly inside the image frame (view angle) (step Sb39).

前回に最優先であった被写体領域が画像の規定範囲に無い場合(ステップSb39−No)、領域判定部144は、撮像装置100が移動又は向きを変更したか否かを判定する(ステップSb40)。撮像装置100が移動していない、且つ、向きを変更していない場合(ステップS40−No)、領域抽出部143は、特徴量算出部142が前回算出した画像特徴量に基づいて、被写体領域を抽出する(ステップSb41)。   When the subject area that has been given the highest priority in the previous time is not within the specified range of the image (step Sb39-No), the area determination unit 144 determines whether the imaging device 100 has moved or changed its orientation (step Sb40). . When the imaging apparatus 100 has not moved and the orientation has not been changed (step S40—No), the region extraction unit 143 selects a subject region based on the image feature amount previously calculated by the feature amount calculation unit 142. Extract (step Sb41).

領域抽出部143は、有効な(例えば、面積が閾値以上である)被写体領域が画像に在るか否かを判定する(ステップSb42)。有効な被写体領域が画像に在る場合(ステップS42−Yes)、領域抽出部143は、被写体領域を解析し、解析した被写体領域により定まる属性情報(抽出情報、撮像情報)を、記憶部160に記憶させる。CPU190は、優先度が最も高い被写体領域について、コントラストAFを実行する。属性情報(撮像情報)である合焦位置は、このようにAFレンズ112の移動に活用される(ステップSb43)。そして、領域抽出部143は、ステップSb3に処理を進める。   The region extraction unit 143 determines whether or not a valid subject region (for example, the area is equal to or larger than the threshold) is present in the image (step Sb42). When an effective subject area exists in the image (step S42—Yes), the area extraction unit 143 analyzes the subject area, and attribute information (extraction information, imaging information) determined by the analyzed subject area is stored in the storage unit 160. Remember me. The CPU 190 executes contrast AF for the subject area with the highest priority. The focus position that is the attribute information (imaging information) is used for the movement of the AF lens 112 in this way (step Sb43). Then, the region extraction unit 143 proceeds with the process to step Sb3.

一方、ステップSb11において、被写体領域420(図10(A)を参照)が画像の規定範囲に在る場合(ステップSb11−Yes)、且つ、一定時間以上、被写体領域420が中心域に在る場合、優先度設定部145は、被写体領域420の優先度を上げる。また、領域抽出部143は、特徴量算出部142が算出した画像特徴量に基づいて、被写体領域を抽出して属性情報(抽出情報、撮像情報)を算出し、算出した属性情報を記憶部160に記憶させる。ここで、領域抽出部143は、「被写体領域を中心域に据えることを示すアクション情報」を記憶させる。また、領域抽出部143は、撮影者による被写体領域の注目度を表すフラグである注目フラグに、値1を設定する(ステップSb44)。   On the other hand, in step Sb11, when the subject area 420 (see FIG. 10A) is within the prescribed range of the image (step Sb11-Yes), and when the subject area 420 is in the central area for a certain time or more. The priority setting unit 145 increases the priority of the subject area 420. Further, the region extraction unit 143 extracts a subject region based on the image feature amount calculated by the feature amount calculation unit 142, calculates attribute information (extraction information, imaging information), and stores the calculated attribute information in the storage unit 160. Remember me. Here, the region extracting unit 143 stores “action information indicating that the subject region is set in the central region”. Further, the region extraction unit 143 sets a value of 1 to the attention flag that is a flag representing the degree of attention of the subject region by the photographer (step Sb44).

また、ステップSb18において、被写体領域430(図10(C)を参照)が画像に在る場合(ステップSb18−Yes)、且つ、被写体領域430が画像に在る時間が所定時間以下である場合、優先度設定部145は、被写体領域430の優先度を下げる。また、領域抽出部143は、特徴量算出部142が算出した画像特徴量に基づいて、被写体領域を抽出して属性情報(抽出情報、撮像情報)を算出し、算出した属性情報を記憶部160に記憶させる。ここで、領域抽出部143は、「被写体領域を無視したことを示すアクション情報」を記憶させる。また、領域抽出部143は、撮影者による被写体領域の注目度を表すフラグである注目フラグに、値0を設定する(ステップSb45)。   In step Sb18, when the subject region 430 (see FIG. 10C) is present in the image (step Sb18-Yes), and when the subject region 430 is present in the image is equal to or shorter than the predetermined time, The priority setting unit 145 lowers the priority of the subject area 430. Further, the region extraction unit 143 extracts a subject region based on the image feature amount calculated by the feature amount calculation unit 142, calculates attribute information (extraction information, imaging information), and stores the calculated attribute information in the storage unit 160. Remember me. Here, the region extracting unit 143 stores “action information indicating that the subject region is ignored”. Further, the region extraction unit 143 sets a value of 0 to the attention flag, which is a flag indicating the degree of attention of the subject region by the photographer (step Sb45).

また、ステップSb26において、被写体領域440(図11(A)を参照)が画像の規定範囲に在る場合(ステップSb26−Yes)、領域判定部144は、領域440が画像に在る時間を計測し、その計測結果に基づいて、被写体領域440を追尾しているか否かを判定する。   In step Sb26, when the subject region 440 (see FIG. 11A) is within the prescribed range of the image (step Sb26-Yes), the region determination unit 144 measures the time that the region 440 is in the image. Whether or not the subject area 440 is tracked is determined based on the measurement result.

撮像装置100(図1を参照)が被写体領域440を追尾している場合、優先度設定部145は、被写体領域430の優先度を下げる。また、領域抽出部143は、特徴量算出部142が算出した画像特徴量に基づいて、被写体領域を抽出して属性情報(抽出情報、撮像情報)を算出し、算出した属性情報を記憶部160に記憶させる。ここで、領域抽出部143は、「追尾していることを示すアクション情報」を記憶させる。また、領域抽出部143は、撮影者による被写体領域の注目度を表すフラグである注目フラグに、値2を設定する(ステップSb46)。   When the imaging apparatus 100 (see FIG. 1) is tracking the subject area 440, the priority setting unit 145 decreases the priority of the subject area 430. Further, the region extraction unit 143 extracts a subject region based on the image feature amount calculated by the feature amount calculation unit 142, calculates attribute information (extraction information, imaging information), and stores the calculated attribute information in the storage unit 160. Remember me. Here, the area extraction unit 143 stores “action information indicating that tracking is being performed”. In addition, the region extraction unit 143 sets a value of 2 to the attention flag, which is a flag indicating the degree of attention of the subject region by the photographer (step Sb46).

また、ステップSb30において、有効な被写体領域が画像に在る場合(ステップSb30−No)、CPU190は、優先度が最も高い被写体領域について、コントラストAFを実行する(ステップSb47)。   In step Sb30, if an effective subject area exists in the image (step Sb30-No), the CPU 190 executes contrast AF for the subject area having the highest priority (step Sb47).

また、ステップSb35において、有効な被写体領域が被写体領域430でない場合(ステップSb35−No)、領域判定部144は、有効な被写体領域が被写体領域420(図10(A)を参照)のみ、又は、有効な被写体領域が被写体領域420及び被写体領域430であるか否かを判定する(ステップSb48)。   In step Sb35, when the effective subject area is not the subject area 430 (step Sb35-No), the area determination unit 144 determines that the effective subject area is only the subject area 420 (see FIG. 10A), or It is determined whether or not the effective subject areas are the subject area 420 and the subject area 430 (step Sb48).

有効な被写体領域が被写体領域420のみ、又は、有効な被写体領域が被写体領域420及び被写体領域430である場合(ステップSb48−Yes)、領域抽出部143は、特徴量算出部142が算出した画像特徴量に基づいて、被写体領域420を抽出して属性情報(抽出情報、撮像情報)を算出し、算出した属性情報を記憶部160に記憶させる。CPU190は、被写体領域420に対する合焦位置に、AFレンズ112(図1を参照)を移動させる。属性情報(撮像情報)である合焦位置は、このようにAFレンズ112の移動に活用される(ステップSb49)。   When the effective subject area is only the subject area 420, or when the effective subject areas are the subject area 420 and the subject area 430 (step Sb48-Yes), the area extracting unit 143 calculates the image feature calculated by the feature amount calculating unit 142. Based on the amount, the subject area 420 is extracted to calculate attribute information (extraction information, imaging information), and the calculated attribute information is stored in the storage unit 160. The CPU 190 moves the AF lens 112 (see FIG. 1) to a focus position with respect to the subject area 420. The focus position that is the attribute information (imaging information) is used for the movement of the AF lens 112 in this way (step Sb49).

一方、ステップSb48において、有効な被写体領域が被写体領域420のみでない、且つ、有効な被写体領域が被写体領域420及び被写体領域430でない場合(ステップSb48−No)、領域判定部144は、有効な被写体領域が被写体領域440(図11を参照)のみ、又は、有効な被写体領域が被写体領域420、被写体領域430及び被写体領域440であるか否かを判定する(ステップSb50)。   On the other hand, in step Sb48, when the effective subject area is not only the subject area 420 and the effective subject areas are not the subject area 420 and the subject area 430 (step Sb48-No), the area determination unit 144 It is determined whether or not only the subject area 440 (see FIG. 11) or the effective subject areas are the subject area 420, the subject area 430, and the subject area 440 (step Sb50).

有効な被写体領域が被写体領域440のみ、又は、有効な被写体領域が被写体領域420、被写体領域430及び被写体領域440である場合(ステップSb50−Yes)、領域抽出部143は、特徴量算出部142が算出した画像特徴量に基づいて、被写体領域420を抽出して属性情報(抽出情報、撮像情報)を算出し、算出した属性情報を記憶部160に記憶させる。CPU190は、被写体領域440に対する合焦位置に、AFレンズ112(図1を参照)を移動させる。属性情報(撮像情報)である合焦位置は、このようにAFレンズ112の移動に活用される(ステップSb51)。   When the effective subject area is only the subject area 440, or when the effective subject areas are the subject area 420, the subject area 430, and the subject area 440 (step Sb50-Yes), the area extracting unit 143 includes the feature amount calculating unit 142. Based on the calculated image feature amount, the subject area 420 is extracted to calculate attribute information (extraction information, imaging information), and the calculated attribute information is stored in the storage unit 160. The CPU 190 moves the AF lens 112 (see FIG. 1) to a focus position with respect to the subject area 440. The focus position that is the attribute information (imaging information) is used for the movement of the AF lens 112 in this way (step Sb51).

一方、ステップSb50において、有効な被写体領域が被写体領域440のみでない、且つ、有効な被写体領域が被写体領域420、被写体領域430及び被写体領域440でない場合(ステップSb50−No)、領域抽出部143及びCPU190は、処理をステップSb43に進める。   On the other hand, when the effective subject area is not only the subject area 440 and the effective subject areas are not the subject area 420, the subject area 430, and the subject area 440 in step Sb50 (step Sb50-No), the area extracting unit 143 and the CPU 190 Advances the process to step Sb43.

また、ステップSb3において、撮像装置100が移動又は向きを変更している場合(ステップSb3−No)、領域判定部144は、ステップSb3における判定処理を繰り返す。また、ステップSb5において、有効な被写体領域が画像に無い場合(ステップSb5−No)、CPU190(図1を参照)は、ステップSb2に処理を戻す。   In Step Sb3, when the imaging device 100 has moved or changed its direction (Step Sb3-No), the region determination unit 144 repeats the determination process in Step Sb3. In step Sb5, if there is no effective subject area in the image (step Sb5-No), the CPU 190 (see FIG. 1) returns the process to step Sb2.

また、ステップSb12において、撮像装置100が移動又は向きを変更している場合(ステップSb12−Yes)、領域判定部144は、ステップSb12における判定処理を繰り返す。また、ステップSb15において、有効な被写体領域が画像に無い場合(ステップSb15−No)、特徴量算出部142は、ステップSb13に処理を戻す。   In step Sb12, when the imaging apparatus 100 has moved or changed the direction (step Sb12-Yes), the region determination unit 144 repeats the determination process in step Sb12. In step Sb15, when there is no effective subject area in the image (step Sb15-No), the feature amount calculating unit 142 returns the process to step Sb13.

また、ステップSb19において、撮像装置100が移動又は向きを変更している場合(ステップSb19−Yes)、領域判定部144は、ステップSb19における判定処理を繰り返す。また、ステップSb22において、有効な被写体領域が画像に無い場合(ステップSb22−No)、特徴量算出部142は、ステップSb20に処理を戻す。   In step Sb19, when the imaging device 100 has moved or changed the direction (step Sb19-Yes), the region determination unit 144 repeats the determination process in step Sb19. In step Sb22, when there is no effective subject area in the image (step Sb22-No), the feature amount calculating unit 142 returns the process to step Sb20.

また、ステップSb23において、画像に在る有効な被写体領域が被写体領域420又は被写体領域430である場合(ステップSb23−Yes)、領域判定部144は、ステップSb32に処理を進める。また、ステップSb32において、撮像装置100が移動又は向きを変更している場合(ステップS32−Yes)、領域判定部144は、ステップSb32における判定処理を繰り返す。   In step Sb23, when the effective subject area in the image is the subject area 420 or the subject area 430 (step Sb23-Yes), the area determination unit 144 advances the process to step Sb32. In step Sb32, when the imaging device 100 has moved or changed the direction (step S32—Yes), the region determination unit 144 repeats the determination process in step Sb32.

また、ステップSb39において、前回に最優先であった被写体領域が画像の規定範囲に在る場合(ステップSb39−Yes)、特徴量算出部142は、ステップSb37に処理を戻す。また、ステップSb40において、撮像装置100が移動又は向きを変更している場合(ステップS40−Yes)、領域判定部144は、ステップSb40における判定処理を繰り返す。また、ステップSb42において、有効な被写体領域が画像に無い場合(ステップS42−No)、領域抽出部143は、ステップSb41に処理を戻す。   In step Sb39, when the subject area that has been given the highest priority in the previous time is within the specified range of the image (step Sb39-Yes), the feature amount calculation unit 142 returns the process to step Sb37. In Step Sb40, when image pick-up device 100 has moved or changed the direction (Step S40-Yes), region determination unit 144 repeats the determination process in Step Sb40. In step Sb42, when there is no effective subject area in the image (step S42-No), the area extraction unit 143 returns the process to step Sb41.

<被写体領域が抽出された後にズーム倍率が変更された場合について>
図12は、ズーム倍率が変更された場合に、被写体領域の撮像情報に基づいてコントラストAFを実行する動作手順を示すフローチャートである。撮像部110(図1を参照)は、動画モードに遷移し、動画形式の画像列を撮像する(ステップSc1)。領域抽出部143は、特徴量算出部142が算出した画像特徴量に基づいて、被写体領域を抽出する。ここで、被写体領域400(図4(A)を参照)が抽出されたとする(ステップSc2)。領域抽出部143は、抽出した被写体領域400の属性情報(抽出情報、撮像情報)を算出し、算出した属性情報を被写体領域400に対応付けて記憶部160に記憶させる(ステップSc3)。そして、被写体領域400が、画像からフレームアウトしたとする。
<When the zoom magnification is changed after the subject area is extracted>
FIG. 12 is a flowchart illustrating an operation procedure for executing contrast AF based on imaging information of the subject area when the zoom magnification is changed. The imaging unit 110 (see FIG. 1) transitions to the moving image mode and images a moving image format image sequence (step Sc1). The region extraction unit 143 extracts a subject region based on the image feature amount calculated by the feature amount calculation unit 142. Here, it is assumed that the subject region 400 (see FIG. 4A) has been extracted (step Sc2). The area extraction unit 143 calculates the attribute information (extraction information, imaging information) of the extracted subject area 400, and stores the calculated attribute information in the storage unit 160 in association with the subject area 400 (step Sc3). Then, it is assumed that the subject area 400 is out of frame from the image.

特徴量算出部142は、画像列における後続の画像フレームを取り込む(ステップSc4)。領域抽出部143は、CPU190からズーム倍率を取得して、取得したズーム倍率を記憶する(ステップSc5)。領域抽出部143は、特徴量算出部142が算出した画像特徴量に基づいて、被写体領域を抽出する。領域抽出部143は、抽出した被写体領域の属性情報(抽出情報、撮像情報)を算出し、算出した属性情報を被写体領域毎に記憶部160に記憶させる(ステップSc6)。   The feature amount calculation unit 142 takes in the subsequent image frame in the image sequence (step Sc4). The area extraction unit 143 acquires the zoom magnification from the CPU 190 and stores the acquired zoom magnification (step Sc5). The region extraction unit 143 extracts a subject region based on the image feature amount calculated by the feature amount calculation unit 142. The region extraction unit 143 calculates attribute information (extraction information, imaging information) of the extracted subject region, and stores the calculated attribute information in the storage unit 160 for each subject region (step Sc6).

領域抽出部143は、記憶したズーム倍率に応じて、抽出情報(例えば、被写体領域のサイズ及び位置)を換算する。例えば、抽出情報が被写体領域のサイズを表す場合、領域抽出部143は、記憶したズーム倍率の二乗に応じて、被写体領域のサイズを換算(例えば、ズーム倍率を乗算又は除算)する(ステップSc7)。領域判定部144は、前回までに抽出した被写体領域(既存ラベル)を含む有効な被写体領域が、画像の規定領域に在るか否かを判定する。ここで、規定領域とは、前回の画像フレームにおける被写体領域のズーム倍率に応じて換算した位置の周辺か、ズーム倍率に応じて換算した画像フレーム(画角)より少し内側の範囲である(ステップSc8)。前回までに抽出した被写体領域を含む有効な被写体領域が、画像の規定領域に在る場合(ステップSc8−Yes)、領域判定部144は、撮像装置100が移動又は向きを変更したか否かを判定する(ステップSc9)。   The region extraction unit 143 converts the extraction information (for example, the size and position of the subject region) according to the stored zoom magnification. For example, when the extracted information represents the size of the subject area, the area extraction unit 143 converts the size of the subject area (for example, multiplies or divides the zoom magnification) according to the stored square of the zoom magnification (step Sc7). . The region determination unit 144 determines whether an effective subject region including the subject region (existing label) extracted up to the previous time is in the prescribed region of the image. Here, the prescribed region is a region around the position converted according to the zoom magnification of the subject region in the previous image frame, or a range slightly inside the image frame (view angle) converted according to the zoom magnification (step) Sc8). When an effective subject area including the subject area extracted up to the previous time is in the prescribed area of the image (step Sc8-Yes), the area determination unit 144 determines whether the imaging apparatus 100 has moved or changed its orientation. Determination is made (step Sc9).

撮像装置100が移動していない、且つ、向きを変更していない場合(ステップSc10−No)、有効な被写体領域が被写体領域400であれば、CPU190は、被写体領域400により定まる属性情報(撮像情報)に基づいて、被写体領域400に対する合焦位置にAFレンズ112を移動させる。一方、有効な被写体領域が被写体領域400以外であれば、領域抽出部143は、その被写体領域により定まる属性情報(撮像情報)を更新し、更新した属性情報(撮像情報)を記憶部160に記憶させる。   If the imaging apparatus 100 has not moved and the orientation has not been changed (step Sc10-No), if the effective subject area is the subject area 400, the CPU 190 determines attribute information (imaging information) determined by the subject area 400. ), The AF lens 112 is moved to the in-focus position with respect to the subject area 400. On the other hand, if the effective subject area is other than the subject area 400, the area extracting unit 143 updates attribute information (imaging information) determined by the subject area, and stores the updated attribute information (imaging information) in the storage unit 160. Let

また、特徴量算出部142は、画像列における後続の画像フレームを取り込む(ステップSc11)。領域抽出部143は、特徴量算出部142が算出した画像特徴量に基づいて、被写体領域を抽出する。領域抽出部143は、抽出した被写体領域の属性情報(抽出情報、撮像情報)を算出し、算出した属性情報を被写体領域毎に記憶部160に記憶させる(ステップSc12)。   In addition, the feature amount calculation unit 142 captures a subsequent image frame in the image sequence (step Sc11). The region extraction unit 143 extracts a subject region based on the image feature amount calculated by the feature amount calculation unit 142. The area extraction unit 143 calculates attribute information (extraction information, imaging information) of the extracted subject area, and stores the calculated attribute information in the storage unit 160 for each subject area (step Sc12).

領域判定部144は、被写体領域400が画像の規定範囲に在るか否かを判定する(ステップSc13)。被写体領域400が画像の規定範囲に在る場合(ステップSc13−Yes)、領域判定部144は、撮像装置100が移動又は向きを変更したか否かを判定する(ステップSc14)。撮像装置100が移動していない、且つ、向きを変更していない場合(ステップSc14−No)、領域抽出部143は、特徴量算出部142が算出した画像特徴量に基づいて、被写体領域を抽出する(ステップSc15)。   The region determination unit 144 determines whether or not the subject region 400 is within the specified range of the image (step Sc13). When the subject region 400 is within the specified range of the image (step Sc13—Yes), the region determination unit 144 determines whether the imaging device 100 has moved or changed its orientation (step Sc14). When the imaging apparatus 100 has not moved and the orientation has not changed (step Sc14-No), the region extraction unit 143 extracts a subject region based on the image feature amount calculated by the feature amount calculation unit 142. (Step Sc15).

領域判定部144は、有効な被写体領域が画像に在るか否かを判定する(ステップSc16)。有効な被写体領域が画像に在る場合(ステップSc16−Yes)、領域抽出部143は、被写体領域を解析し、解析した被写体領域により定まる属性情報(抽出情報、撮像情報)を、記憶部160に記憶させる。CPU190は、優先度が最も高い被写体領域について、コントラストAFを実行する。属性情報(撮像情報)である合焦位置は、このようにAFレンズ112の移動に活用される(ステップSc17)。そして、領域抽出部143は、ステップSc4に処理を戻す。   The region determination unit 144 determines whether or not a valid subject region exists in the image (step Sc16). When there is an effective subject area in the image (step Sc16-Yes), the area extraction unit 143 analyzes the subject area, and attribute information (extraction information, imaging information) determined by the analyzed subject area is stored in the storage unit 160. Remember. The CPU 190 executes contrast AF for the subject area with the highest priority. The in-focus position, which is attribute information (imaging information), is used for the movement of the AF lens 112 in this way (step Sc17). Then, the region extraction unit 143 returns the process to Step Sc4.

一方、ステップSc8において、前回までに抽出した被写体領域を含む有効な被写体領域が、画像の規定領域に無い場合(ステップSc8−No)、特徴量算出部142は、ステップSc4に処理を進める。また、ステップSc9において、撮像装置100が移動又は向きを変更している場合(ステップSc9−Yes)、領域判定部144は、ステップSc9における判定処理を繰り返す。また、ステップSc13において、被写体領域400が画像の規定範囲に無い場合(ステップSc13−No)、特徴量算出部142は、ステップSc11に処理を戻す。   On the other hand, in step Sc8, when there is no effective subject area including the subject area extracted so far in the prescribed area of the image (step Sc8-No), the feature amount calculation unit 142 advances the process to step Sc4. In Step Sc9, when the imaging device 100 has moved or changed its direction (Step Sc9-Yes), the region determination unit 144 repeats the determination process in Step Sc9. In step Sc13, when the subject area 400 is not within the specified range of the image (step Sc13-No), the feature amount calculation unit 142 returns the process to step Sc11.

また、ステップSc14において、撮像装置100が移動又は向きを変更している場合(ステップSc14−Yes)、領域判定部144は、ステップSc14における判定処理を繰り返す。また、ステップSc16において、有効な被写体領域が画像に無い場合(ステップSc16−No)、領域抽出部143は、ステップSc15に処理を戻す。   In Step Sc14, when the imaging apparatus 100 has moved or changed its direction (Step Sc14-Yes), the region determination unit 144 repeats the determination process in Step Sc14. In Step Sc16, when there is no effective subject area in the image (Step Sc16-No), the area extracting unit 143 returns the process to Step Sc15.

<コントラスト評価値を算出(隣接画素差を加算)する際、コントラスト評価値が最大である色チャネルを記憶し、その色チャネルのコントラスト評価値を次回のコントラストAFに活用する場合について>
図13は、被写体領域の抽出情報である色チャネルに基づいてコントラストAFを実行する動作手順を示すフローチャートである。また、図14には、AFレンズ位置とコントラスト評価値との関係が示されている。ここで、横軸は、AFレンズ位置を表す。また、縦軸は、コントラスト評価値を表す。図14では、コントラスト評価値のピーク値が、赤(R)チャネル、緑(G)チャネル、青(B)チャネルの順に高いものとする。
<When calculating the contrast evaluation value (adding adjacent pixel differences), storing the color channel with the maximum contrast evaluation value and utilizing the contrast evaluation value of that color channel for the next contrast AF>
FIG. 13 is a flowchart showing an operation procedure for executing contrast AF based on a color channel which is subject area extraction information. FIG. 14 shows the relationship between the AF lens position and the contrast evaluation value. Here, the horizontal axis represents the AF lens position. The vertical axis represents the contrast evaluation value. In FIG. 14, the peak value of the contrast evaluation value is assumed to be higher in the order of the red (R) channel, the green (G) channel, and the blue (B) channel.

図13に戻り、動作手順の説明を続ける。撮像部110(図1を参照)は、動画モードに遷移し、動画形式の画像列を撮像する(ステップSd1)。CPU190(図1を参照)は、動画モードにおける合焦(AF)駆動(例えば、ウォブリング)を、仮の合焦駆動として実行する(ステップSd2)。CPU190は、画像に定められたコントラスト評価値ウィンドウに対して、コントラストAFを実行する。領域抽出部143は、複数の被写体領域における、コントラスト評価値が最大である色チャネルを示す情報、コントラスト評価値の順位、コントラスト評価値の比率を、属性情報(抽出情報)として被写体領域毎に記憶部160に記憶させる、また、領域抽出部143は、属性情報(撮像情報)として、合焦位置を被写体領域毎に記憶部160に記憶させる(ステップSd3)。   Returning to FIG. 13, the description of the operation procedure is continued. The imaging unit 110 (see FIG. 1) transitions to the moving image mode and images a moving image format image sequence (step Sd1). The CPU 190 (see FIG. 1) executes focus (AF) drive (for example, wobbling) in the moving image mode as temporary focus drive (step Sd2). The CPU 190 executes contrast AF on the contrast evaluation value window defined for the image. The area extraction unit 143 stores information indicating the color channel with the maximum contrast evaluation value, the rank of the contrast evaluation values, and the ratio of the contrast evaluation values for each object area as attribute information (extraction information). The area extraction unit 143 stores the in-focus position in the storage unit 160 for each subject area as attribute information (imaging information) (step Sd3).

領域判定部144は、露光量が大きく変化してから一定時間が経過したか否かを判定する(ステップSd4)。露光量が大きく変化してから一定時間が経過した場合(ステップSd4−Yes)、領域判定部144は、記憶された合焦位置と、被写体領域により定まる合焦位置との類似度が高いか否かを判定する。   The area determination unit 144 determines whether or not a certain time has elapsed since the exposure amount has changed significantly (step Sd4). When a certain time has elapsed since the exposure amount has changed significantly (step Sd4-Yes), the area determination unit 144 determines whether the similarity between the stored focus position and the focus position determined by the subject area is high. Determine whether.

ここで、例えば、コントラスト評価値のピーク値の順位が、R>G>Bである場合、コントラスト評価値が類似であると判定される。また、例えば、コントラスト評価値のピーク値(R/G)及び(B/G)に基づいて、コントラスト評価値が類似であると判定されてもよい。また、例えば、画像に定められたコントラスト評価値ウィンドウ内のRGBの統計量(例えば、平均値、分散)に基づいて、コントラスト評価値が類似であると判定されてもよい(ステップSd5)。   Here, for example, when the order of the peak values of the contrast evaluation values is R> G> B, it is determined that the contrast evaluation values are similar. Further, for example, the contrast evaluation values may be determined to be similar based on the peak values (R / G) and (B / G) of the contrast evaluation values. Further, for example, it may be determined that the contrast evaluation values are similar based on the RGB statistics (for example, average value, variance) in the contrast evaluation value window defined for the image (step Sd5).

記憶された合焦位置と、被写体領域により定まる合焦位置との類似度が高い場合(ステップSd5−Yes)、CPU190は、記憶された合焦位置に基づいて、コントラスト評価値のピーク(合焦位置P1)付近に限定したコントラストAF(合焦駆動)を実行する。属性情報(撮像情報)である合焦位置は、このようにAFレンズ112の移動に活用される(ステップSd6)。そして、領域判定部144は、ステップSd4に処理を戻す。   When the similarity between the stored in-focus position and the in-focus position determined by the subject area is high (step Sd5-Yes), the CPU 190 determines the peak of the contrast evaluation value (in-focus) based on the stored in-focus position. Contrast AF (focus drive) limited to the vicinity of position P1) is executed. The focus position, which is attribute information (imaging information), is used for the movement of the AF lens 112 in this way (step Sd6). Then, the area determination unit 144 returns the process to step Sd4.

一方、ステップSd4において、露光量が大きく変化してから一定時間が経過していない場合(ステップSd4−No)、領域判定部144は、ステップSd4における判定処理を繰り返す。また、ステップSd5において、記憶された合焦位置と、被写体領域により定まる合焦位置との類似度が高くない場合(ステップSd5−No)、CPU190は、ステップSd2に処理を戻す。   On the other hand, in step Sd4, when a certain amount of time has not elapsed since the exposure amount changed significantly (step Sd4-No), the region determination unit 144 repeats the determination process in step Sd4. In step Sd5, when the similarity between the stored focus position and the focus position determined by the subject area is not high (step Sd5-No), the CPU 190 returns the process to step Sd2.

以上のように、領域判定装置141は、異なる時刻に撮像された画像列から、画像特徴量に基づいて被写体領域をそれぞれ抽出し、抽出された被写体領域同士が同じ被写体による被写体領域であるか否かを判定するための条件を示す抽出情報と、被写体領域を撮像するための設定を示す撮像情報とを、抽出された被写体領域にそれぞれ対応付ける領域抽出部143と、前記画像列の第1画像からフレームアウトした被写体領域と、前記画像列の第2画像にフレームインした被写体領域とが、同じ被写体による被写体領域であるか否かを、前記抽出情報に基づいて判定し、同じ被写体による被写体領域であると判定した場合、前記第2画像にフレームインした被写体領域を撮像するための前記撮像情報として、前記第1画像からフレームアウトした被写体領域に対応付けられた前記撮像情報を選択する領域判定部144と、を備える。
この構成により、領域判定部144は、同じ被写体による被写体領域であると判定した場合、前記第2画像にフレームインした被写体領域を撮像するための前記撮像情報として、前記第1画像からフレームアウトした被写体領域に対応付けられた前記撮像情報を選択する。これにより、領域判定装置141は、撮像された画像にフレームインした被写体領域を精度よく判定し、選択した前記撮像情報に基づいて、被写体を適切に撮像させることができる。
As described above, the area determination device 141 extracts subject areas from image sequences captured at different times based on the image feature amounts, and whether the extracted subject areas are subject areas based on the same subject. A region extracting unit 143 that associates the extracted information indicating the condition for determining whether or not the imaging information indicating the setting for capturing the subject region with the extracted subject region, and the first image of the image sequence. It is determined based on the extracted information whether the subject area framed out and the subject area framed in the second image of the image sequence are subject areas based on the same subject. If it is determined that there is a frame out from the first image as the imaging information for imaging the subject area framed in the second image Comprising the the area determination unit 144 for selecting the imaging information associated with the object region.
With this configuration, when the region determination unit 144 determines that the subject region is the same subject, the region determination unit 144 has framed out the first image as the imaging information for capturing the subject region framed in the second image. The imaging information associated with the subject area is selected. Thereby, the area determination device 141 can accurately determine the subject area framed in the captured image, and appropriately capture the subject based on the selected imaging information.

また、領域抽出部143は、前記被写体領域の合焦位置を、前記撮像情報として前記被写体領域に対応付ける。
これにより、領域判定装置141は、選択した前記合焦位置に基づいて短時間で合焦させた被写体領域を撮像させることができる。
Further, the area extracting unit 143 associates the focus position of the subject area with the subject area as the imaging information.
Thereby, the area determination device 141 can capture an image of a subject area focused in a short time based on the selected focus position.

また、領域抽出部143は、露光量、ゲイン及び階調カーブのうち少なくとも一つを、前記撮像情報として被写体領域に対応付ける。
これにより、領域判定装置141は、選択した前記露光量、ゲイン及び階調カーブのうち少なくとも一つに基づいて適切に露光等させた被写体領域を撮像させることができる。
Further, the region extraction unit 143 associates at least one of the exposure amount, the gain, and the gradation curve with the subject region as the imaging information.
Thereby, the area determination device 141 can image a subject area that is appropriately exposed based on at least one of the selected exposure amount, gain, and gradation curve.

また、領域抽出部143は、被写体に対する撮像装置の動作、移動又は向きのうち少なくとも一つを表すアクション情報を、前記撮像情報として被写体領域に対応付ける。
これにより、領域判定装置141は、選択した前記アクション情報に基づいて適切に追尾等させた被写体領域を撮像させることができる。
In addition, the area extraction unit 143 associates action information representing at least one of the operation, movement, and orientation of the imaging device with respect to the subject as the imaging information with the subject area.
Thereby, the area determination device 141 can capture an image of a subject area appropriately tracked based on the selected action information.

また、領域抽出部143は、センサにより測定された撮像装置の向きを、前記抽出情報として被写体領域に対応付ける。
これにより、領域判定装置141は、撮像された画像にフレームインした被写体領域が前記同じ被写体であるか否かを、撮像装置の向きに基づいて精度よく判定することができる。
In addition, the region extraction unit 143 associates the orientation of the imaging device measured by the sensor with the subject region as the extraction information.
Thereby, the area determination device 141 can accurately determine whether or not the subject region framed in the captured image is the same subject, based on the orientation of the imaging device.

また、領域抽出部143は、撮像された被写体領域の色情報を、前記抽出情報として被写体領域に対応付ける。
これにより、領域判定装置141は、撮像された画像にフレームインした被写体領域が前記同じ被写体であるか否かを、被写体領域の色情報に基づいて精度よく判定することができる。
The area extracting unit 143 associates the color information of the captured subject area with the subject area as the extraction information.
Thereby, the area determination device 141 can accurately determine whether the subject area framed in the captured image is the same subject or not based on the color information of the subject area.

また、領域判定部144は、前記抽出情報であるズーム倍率に基づいて、前記同じ被写体の被写体領域であるか否かを判定する。
これにより、領域判定装置141は、撮像された画像にフレームインした被写体領域が前記同じ被写体であるか否かを、ズーム倍率に基づいて精度よく判定することができる。
Further, the region determination unit 144 determines whether or not the subject region is the same subject based on the zoom magnification that is the extraction information.
Thereby, the area determination device 141 can accurately determine whether the subject area framed in the captured image is the same subject or not based on the zoom magnification.

また、領域判定部144は、前記第1画像が撮像された時刻から、前記第2画像が撮像された時刻までが、予め定められた時間内である場合、前記同じ被写体の被写体領域であるか否かを判定する。
これにより、領域判定装置141は、撮像時刻の間隔が離れすぎている画像に基づくことなく、撮像された画像にフレームインした被写体領域を精度よく判定することができる。
In addition, the area determination unit 144 determines whether the area of the same subject is within a predetermined time from the time when the first image is captured to the time when the second image is captured. Determine whether or not.
Thereby, the area determination device 141 can accurately determine the subject area that is framed in the captured image without being based on an image whose imaging time interval is too far.

また、領域判定部144は、前記抽出情報が被写体領域同士で一致している度合いに基づいて、同じ被写体の被写体領域であるか否かを判定する。
これにより、領域判定装置141は、撮像された画像にフレームインした被写体領域が前記同じ被写体であるか否かを、前記抽出情報が被写体領域同士で一致している度合いに基づいて、精度よく判定することができる。
Further, the area determination unit 144 determines whether or not the extracted information is a subject area of the same subject based on the degree to which the extracted information matches between the subject areas.
Thereby, the area determination device 141 accurately determines whether or not the subject area framed in the captured image is the same subject based on the degree to which the extracted information matches between the subject areas. can do.

また、撮像装置100は、領域判定装置と、前記領域判定装置が選択した前記撮像情報である合焦位置に基づいて、光学系により被写体領域に合焦させる焦点調節部と、被写体領域に合焦した状態の画像を撮像する撮像部と、を備える。
この構成により、CPU190は、記憶されている撮像情報(合焦位置)に基づいて、光学系(AFレンズ112)により被写体領域に合焦させる。これにより、撮像装置100は、領域判定装置141に精度良く判定された被写体領域に合焦した状態の画像を撮像することができる。
In addition, the imaging apparatus 100 includes an area determination device, a focus adjustment unit that focuses the subject area using an optical system based on the focus position that is the imaging information selected by the area determination apparatus, and a focus on the subject area. An imaging unit that captures an image in a state of being performed.
With this configuration, the CPU 190 uses the optical system (AF lens 112) to focus on the subject area based on the stored imaging information (focus position). Thereby, the imaging apparatus 100 can capture an image in a state where the subject area determined by the area determination apparatus 141 with high accuracy is in focus.

また、撮像部110は、前記領域判定装置が選択した前記撮像情報である露光量に応じて画像を撮像する。
この構成により、CPU190は、記憶されている撮像情報(露光量)に基づいて、撮像素子119における露光量を制御する。これにより、撮像装置100は、領域判定装置141に精度良く判定された被写体領域が最適に露光された状態の画像を撮像することができる。
In addition, the imaging unit 110 captures an image according to an exposure amount that is the imaging information selected by the area determination device.
With this configuration, the CPU 190 controls the exposure amount in the image sensor 119 based on the stored imaging information (exposure amount). Thereby, the imaging device 100 can capture an image in a state where the subject region determined with high accuracy by the region determination device 141 is optimally exposed.

また、CPU190は、前記抽出情報である色情報に基づいてコントラストスキャンを実行する。
この構成により、CPU190は、記憶されている色情報(色チャネル)に基づいて、コントラストスキャン(コントラストAF)を実行する。これにより、撮像装置100は、領域判定装置141に精度良く判定された被写体領域に合焦した状態の画像を撮像することができる。
Further, the CPU 190 executes a contrast scan based on the color information that is the extraction information.
With this configuration, the CPU 190 executes contrast scanning (contrast AF) based on the stored color information (color channel). Thereby, the imaging apparatus 100 can capture an image in a state where the subject area determined by the area determination apparatus 141 with high accuracy is in focus.

以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。   The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes designs and the like that do not depart from the gist of the present invention.

例えば、属性情報(撮像情報)は、焦点調整のみならず、露光量調整、ホワイトバランス調整などの撮影設定に活用されてもよい。   For example, the attribute information (imaging information) may be used not only for focus adjustment but also for shooting settings such as exposure adjustment and white balance adjustment.

また、上記に説明した領域判定装置、撮像装置を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより、実行処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものであってもよい。   Further, by recording the program for realizing the area determination device and the imaging device described above on a computer-readable recording medium, causing the computer system to read and execute the program recorded on the recording medium, Execution processing may be performed. Here, the “computer system” may include an OS and hardware such as peripheral devices.

また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、フラッシュメモリ等の書き込み可能な不揮発性メモリ、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。   Further, the “computer system” includes a homepage providing environment (or display environment) if a WWW system is used. The “computer-readable recording medium” means a flexible disk, a magneto-optical disk, a ROM, a writable nonvolatile memory such as a flash memory, a portable medium such as a CD-ROM, a hard disk built in a computer system, etc. This is a storage device.

さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(例えばDRAM(Dynamic Random Access Memory))のように、一定時間プログラムを保持しているものも含むものとする。
また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。
また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。
さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。
Further, the “computer-readable recording medium” refers to a volatile memory (for example, DRAM (Dynamic) in a computer system serving as a server or a client when a program is transmitted via a network such as the Internet or a communication line such as a telephone line. Random Access Memory)) that holds a program for a certain period of time is also included.
The program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the “transmission medium” for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line.
The program may be for realizing a part of the functions described above.
Furthermore, what can implement | achieve the function mentioned above in combination with the program already recorded on the computer system, and what is called a difference file (difference program) may be sufficient.

100…撮像装置、110…撮像部、111…レンズ鏡筒、140…画像処理部、141…領域判定装置、142…特徴量算出部、143…領域抽出部、144…領域判定部、145…優先度設定部、160…記憶部、190…CPU、500…センサ DESCRIPTION OF SYMBOLS 100 ... Imaging device, 110 ... Imaging part, 111 ... Lens barrel, 140 ... Image processing part, 141 ... Area | region determination apparatus, 142 ... Feature-value calculation part, 143 ... Area extraction part, 144 ... Area | region determination part, 145 ... Priority Degree setting unit, 160 ... storage unit, 190 ... CPU, 500 ... sensor

Claims (13)

異なる時刻に撮像された画像列から、画像特徴量に基づいて被写体領域をそれぞれ抽出し、抽出された被写体領域同士が同じ被写体による被写体領域であるか否かを判定するための条件を示す抽出情報と、被写体領域を撮像するための設定を示す撮像情報とを、抽出された被写体領域にそれぞれ対応付ける領域抽出部と、
前記画像列の第1画像からフレームアウトした被写体領域と、前記画像列の第2画像にフレームインした被写体領域とが、同じ被写体による被写体領域であるか否かを、前記抽出情報に基づいて判定し、同じ被写体による被写体領域であると判定した場合、前記第2画像にフレームインした被写体領域を撮像するための前記撮像情報として、前記第1画像からフレームアウトした被写体領域に対応付けられた前記撮像情報を選択する領域判定部と、
を備えることを特徴とする領域判定装置。
Extraction information indicating conditions for extracting subject areas from image sequences captured at different times based on image feature amounts and determining whether the extracted subject areas are subject areas of the same subject. And an area extraction unit that associates imaging information indicating settings for imaging the subject area with each of the extracted subject areas;
Based on the extracted information, it is determined whether the subject area framed out from the first image in the image sequence and the subject area framed in the second image in the image sequence are subject areas of the same subject. When it is determined that the subject area is the same subject, the imaging information for capturing the subject area framed in the second image is associated with the subject area framed out from the first image. An area determination unit for selecting imaging information;
An area determination apparatus comprising:
前記領域抽出部は、前記被写体領域の合焦位置を、前記撮像情報として前記被写体領域に対応付けることを特徴とする請求項1に記載の領域判定装置。   The region determination apparatus according to claim 1, wherein the region extraction unit associates a focus position of the subject region with the subject region as the imaging information. 前記領域抽出部は、露光量、ゲイン及び階調カーブのうち少なくとも一つを、前記撮像情報として被写体領域に対応付けることを特徴とする請求項1又は請求項2に記載の領域判定装置。   The region determination apparatus according to claim 1, wherein the region extraction unit associates at least one of an exposure amount, a gain, and a gradation curve with the subject region as the imaging information. 前記領域抽出部は、被写体に対する撮像装置の動作、移動又は向きのうち少なくとも一つを表すアクション情報を、前記撮像情報として被写体領域に対応付けることを特徴とする請求項1から請求項3のいずれか一項に記載の領域判定装置。   4. The method according to claim 1, wherein the region extraction unit associates action information representing at least one of an operation, a movement, and a direction of the imaging apparatus with respect to the subject as the imaging information with the subject region. The area determination device according to one item. 前記領域抽出部は、センサにより測定された撮像装置の向きを、前記抽出情報として被写体領域に対応付けることを特徴とする請求項4に記載の領域判定装置。   The region determination device according to claim 4, wherein the region extraction unit associates the orientation of the imaging device measured by the sensor with the subject region as the extraction information. 前記領域抽出部は、撮像された被写体領域の色情報を、前記抽出情報として被写体領域に対応付けることを特徴とする請求項1から請求項5のいずれか一項に記載の領域判定装置。   6. The region determination device according to claim 1, wherein the region extraction unit associates color information of the captured subject region with the subject region as the extraction information. 前記領域判定部は、前記抽出情報であるズーム倍率に基づいて、前記同じ被写体の被写体領域であるか否かを判定することを特徴とする請求項1から請求項6のいずれか一項に記載の領域判定装置。   The said area | region determination part determines whether it is a subject area | region of the said same subject based on the zoom magnification which is the said extraction information, It is any one of Claims 1-6 characterized by the above-mentioned. Area determination device. 前記領域判定部は、前記第1画像が撮像された時刻から、前記第2画像が撮像された時刻までが、予め定められた時間内である場合、前記同じ被写体の被写体領域であるか否かを判定することを特徴とする請求項1から請求項7のいずれか一項に記載の領域判定装置。   The region determination unit determines whether or not the region is the subject region of the same subject when the time from when the first image is captured to the time when the second image is captured is within a predetermined time. The region determination device according to any one of claims 1 to 7, wherein the region determination device includes: 前記領域判定部は、前記抽出情報が被写体領域同士で一致している度合いに基づいて、同じ被写体の被写体領域であるか否かを判定することを特徴とする請求項8に記載の領域判定装置。   9. The region determination device according to claim 8, wherein the region determination unit determines whether or not the extracted information is a subject region of the same subject based on a degree of coincidence between the subject regions. . 請求項1から請求項9のいずれか一つに記載の領域判定装置と、
前記領域判定装置が選択した前記撮像情報である合焦位置に基づいて、光学系により被写体領域に合焦させる焦点調節部と、
被写体領域に合焦した状態の画像を撮像する撮像部と、
を備えることを特徴とする撮像装置。
The region determination device according to any one of claims 1 to 9,
A focus adjustment unit that focuses on a subject area by an optical system based on a focus position that is the imaging information selected by the area determination device;
An imaging unit that captures an image focused on the subject area;
An imaging apparatus comprising:
前記撮像部は、前記領域判定装置が選択した前記撮像情報である露光量に応じて画像を撮像することを特徴とする請求項10に記載の撮像装置。   The imaging apparatus according to claim 10, wherein the imaging unit captures an image according to an exposure amount that is the imaging information selected by the area determination device. 前記焦点調節部は、前記抽出情報である色情報に基づいてコントラストスキャンを実行することを特徴とする請求項10又は請求項11に記載の撮像装置。   The imaging apparatus according to claim 10, wherein the focus adjustment unit executes a contrast scan based on color information that is the extraction information. コンピュータに、
異なる時刻に撮像された画像列から、画像特徴量に基づいて被写体領域をそれぞれ抽出し、抽出された被写体領域同士が同じ被写体による被写体領域であるか否かを判定するための条件を示す抽出情報と、被写体領域を撮像するための設定を示す撮像情報とを、抽出された被写体領域にそれぞれ対応付ける手順と、
前記画像列の第1画像からフレームアウトした被写体領域と、前記画像列の第2画像にフレームインした被写体領域とが、同じ被写体による被写体領域であるか否かを、前記抽出情報に基づいて判定し、同じ被写体による被写体領域であると判定した場合、前記第2画像にフレームインした被写体領域を撮像するための前記撮像情報として、前記第1画像からフレームアウトした被写体領域に対応付けられた前記撮像情報を選択する手順と、
を実行させるための領域判定プログラム。
On the computer,
Extraction information indicating conditions for extracting subject areas from image sequences captured at different times based on image feature amounts and determining whether the extracted subject areas are subject areas of the same subject. And a procedure for associating imaging information indicating settings for imaging a subject area with each of the extracted subject areas;
Based on the extracted information, it is determined whether the subject area framed out from the first image in the image sequence and the subject area framed in the second image in the image sequence are subject areas of the same subject. When it is determined that the subject area is the same subject, the imaging information for capturing the subject area framed in the second image is associated with the subject area framed out from the first image. A procedure for selecting imaging information;
An area determination program for executing
JP2012083245A 2012-03-30 2012-03-30 Area determination apparatus, imaging apparatus, and area determination program Active JP5888069B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012083245A JP5888069B2 (en) 2012-03-30 2012-03-30 Area determination apparatus, imaging apparatus, and area determination program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012083245A JP5888069B2 (en) 2012-03-30 2012-03-30 Area determination apparatus, imaging apparatus, and area determination program

Publications (2)

Publication Number Publication Date
JP2013214833A true JP2013214833A (en) 2013-10-17
JP5888069B2 JP5888069B2 (en) 2016-03-16

Family

ID=49587881

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012083245A Active JP5888069B2 (en) 2012-03-30 2012-03-30 Area determination apparatus, imaging apparatus, and area determination program

Country Status (1)

Country Link
JP (1) JP5888069B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014095893A (en) * 2012-10-12 2014-05-22 Panasonic Corp Imaging apparatus

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006101186A (en) * 2004-09-29 2006-04-13 Nikon Corp Camera
JP2008187231A (en) * 2007-01-26 2008-08-14 Nikon Corp Image tracking device and imaging device
JP2009017271A (en) * 2007-07-05 2009-01-22 Nikon Corp Imaging apparatus
JP2010016544A (en) * 2008-07-02 2010-01-21 Nikon Corp Image capturing apparatus and image processing apparatus, and image processing program
JP2011004152A (en) * 2009-06-18 2011-01-06 Fujifilm Corp Target tracking device, image tracking device, method for controlling operation of the same, and digital camera

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006101186A (en) * 2004-09-29 2006-04-13 Nikon Corp Camera
JP2008187231A (en) * 2007-01-26 2008-08-14 Nikon Corp Image tracking device and imaging device
JP2009017271A (en) * 2007-07-05 2009-01-22 Nikon Corp Imaging apparatus
JP2010016544A (en) * 2008-07-02 2010-01-21 Nikon Corp Image capturing apparatus and image processing apparatus, and image processing program
JP2011004152A (en) * 2009-06-18 2011-01-06 Fujifilm Corp Target tracking device, image tracking device, method for controlling operation of the same, and digital camera

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014095893A (en) * 2012-10-12 2014-05-22 Panasonic Corp Imaging apparatus

Also Published As

Publication number Publication date
JP5888069B2 (en) 2016-03-16

Similar Documents

Publication Publication Date Title
KR20080002667A (en) Imaging apparatus and computer readable recording medium
JP5195660B2 (en) Imaging apparatus, focusing method, and program
JP2007215091A (en) Imaging apparatus and program therefor
JP2010165012A (en) Imaging apparatus, image retrieval method, and program
JP2014127963A (en) Image processing system and image processing method
JP2009111716A (en) Imaging apparatus, program and template generating method
JP2017201818A (en) Area extraction device
JP2006025311A (en) Imaging apparatus and image acquisition method
JP6156532B2 (en) Region extraction device, imaging device, and region extraction program
KR20120011920A (en) Digital image signal processing apparatus, digital image signal processing method and medium for recording the method
JP5888069B2 (en) Area determination apparatus, imaging apparatus, and area determination program
JP2009253925A (en) Imaging apparatus and imaging method, and imaging control program
JP4807623B2 (en) Imaging apparatus, imaging method, and imaging program
JP5045538B2 (en) Imaging apparatus and program
JP5278483B2 (en) Imaging apparatus, imaging method, and imaging program
JP5786460B2 (en) Region extraction device, imaging device, and region extraction program
JP5397426B2 (en) Imaging apparatus, focusing method, and program
JP5871175B2 (en) Region extraction device, imaging device, and region extraction program
JP5899693B2 (en) Region extraction device, imaging device, and region extraction program
JP2011003057A (en) Image composition device, image specifying method, image composition method, and program
JP6131519B2 (en) Image processing apparatus, imaging apparatus, and image processing program
JP5899700B2 (en) Region extraction device, imaging device, and region extraction program
JP4810440B2 (en) IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
JP5163333B2 (en) CAMERA DEVICE, IMAGE DISPLAY METHOD, AND IMAGE DISPLAY PROGRAM
KR20060067797A (en) Image pickup apparatus, and method for fixing photographic information

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150320

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151225

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160119

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160201

R150 Certificate of patent or registration of utility model

Ref document number: 5888069

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250