JP5871175B2 - Region extraction device, imaging device, and region extraction program - Google Patents

Region extraction device, imaging device, and region extraction program Download PDF

Info

Publication number
JP5871175B2
JP5871175B2 JP2011160754A JP2011160754A JP5871175B2 JP 5871175 B2 JP5871175 B2 JP 5871175B2 JP 2011160754 A JP2011160754 A JP 2011160754A JP 2011160754 A JP2011160754 A JP 2011160754A JP 5871175 B2 JP5871175 B2 JP 5871175B2
Authority
JP
Japan
Prior art keywords
region
image
area
subject
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011160754A
Other languages
Japanese (ja)
Other versions
JP2013025614A (en
Inventor
鉾井 逸人
逸人 鉾井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2011160754A priority Critical patent/JP5871175B2/en
Publication of JP2013025614A publication Critical patent/JP2013025614A/en
Application granted granted Critical
Publication of JP5871175B2 publication Critical patent/JP5871175B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像から領域を抽出する領域抽出装置、撮像装置、及び領域抽出プログラムに関する。   The present invention relates to a region extraction device, an imaging device, and a region extraction program that extract a region from an image.

画像の特徴量のヒストグラムに基づいて、撮像された画像から領域を抽出し、抽出した領域を識別する画像処理装置が開示されている(特許文献1参照)。   An image processing apparatus that extracts a region from a captured image and identifies the extracted region based on a histogram of image feature values is disclosed (see Patent Document 1).

特開平4−10079号公報Japanese Patent Laid-Open No. 4-10079

しかしながら、特許文献1に開示された画像処理装置は、撮像された画像から人が注目する領域を抽出すること、すなわち、主要被写体の領域を抽出することができなかった。   However, the image processing device disclosed in Patent Document 1 cannot extract a region that is noticed by a person from a captured image, that is, a region of a main subject.

本発明は、前記の点に鑑みてなされたものであり、撮像された画像から主要被写体の領域を抽出することができる領域抽出装置、撮像装置、及び領域抽出プログラムを提供することを目的とする。   The present invention has been made in view of the above points, and an object of the present invention is to provide a region extraction device, an imaging device, and a region extraction program that can extract a region of a main subject from a captured image. .

本発明は、上記の課題を解決するためになされたものであり、焦点調整レンズの位置調節に用いるコントラスト値を算出する領域を抽出する領域抽出装置であって、画像に含まれる複数の被写体領域のうち、色情報又は輝度情報により第1被写体領域を抽出する第1領域抽出部と、複数の前記被写体領域のうち、前記画像の画角中心を含む領域に前記被写体領域の少なくとも一部の領域が含まれている第2被写体領域を抽出する第2領域抽出部と、前記第1被写体領域及び前記第2被写体領域のうち、前記コントラスト値を算出する特定被写体領域を選択する判定部と、を備える領域抽出装置である。 The present invention has been made to solve the above problem, and is an area extraction device that extracts an area for calculating a contrast value used for position adjustment of a focus adjustment lens, and includes a plurality of object areas included in an image. A first region extraction unit that extracts a first subject region based on color information or luminance information, and at least a part of the subject region in a region including a center of an angle of view of the image among the plurality of subject regions a second region extracting unit that extracts the second object region that contains a pre-SL of the first object region and the second object region determination unit for selecting a specific object region for calculating the contrast value, a realm extraction device Ru comprising a.

また、本発明は、領域抽出装置を備える撮像装置である。 Further, the present invention is that an imaging device includes a realm extraction equipment.

また、本発明は、コンピュータに、画像に含まれる複数の被写体領域のうち、色情報又は輝度情報により第1被写体領域を抽出する手順と、複数の前記被写体領域のうち、前記画像の画角中心を含む領域に前記被写体領域の少なくとも一部の領域が含まれている第2被写体領域を抽出する手順と、前記第1被写体領域及び前記第2被写体領域のうち、焦点調整レンズの位置調節に用いるコントラスト値を算出する特定被写体領域を選択する手順と、を実行させるための領域抽出プログラムである。 Further, the present invention causes a computer, among a plurality of the subject region contained in the images, the procedure by the color information or luminance information extracting a first object region, among the plurality of the object area, the angle of view of the image For extracting a second subject area in which at least a part of the subject area is included in an area including the center, and for adjusting the position of the focus adjustment lens among the first subject area and the second subject area. And a procedure for selecting a specific subject area for calculating a contrast value to be used .

本発明によれば、領域抽出装置は、撮像された画像から主要被写体の領域を抽出することができる。   According to the present invention, the region extraction device can extract the region of the main subject from the captured image.

本発明の一実施形態における、レンズ鏡筒111と、領域抽出装置140を備える撮像装置100と、記憶媒体200との構成を表すブロック図である。1 is a block diagram illustrating a configuration of a lens barrel 111, an imaging device 100 including a region extraction device 140, and a storage medium 200 in an embodiment of the present invention. 本発明の一実施形態における、画像から領域を抽出する方法を説明するための図である。It is a figure for demonstrating the method to extract an area | region from the image in one Embodiment of this invention. 本発明の一実施形態における、画角中心から領域を抽出する方法を説明するための図である。It is a figure for demonstrating the method to extract an area | region from the center of an angle of view in one Embodiment of this invention. 本発明の一実施形態における、画角中心の近傍から領域を抽出する方法を説明するための図である。It is a figure for demonstrating the method to extract an area | region from the vicinity of the view angle center in one Embodiment of this invention. 本発明の一実施形態における、彩度S(C)のヒストグラムと、その部分拡大図である。It is the histogram of saturation S (C) in one Embodiment of this invention, and its partial enlarged view. 本発明の一実施形態における、画角中心の近傍の色相ヒストグラムの一例が表された図である。FIG. 6 is a diagram illustrating an example of a hue histogram near the center of an angle of view according to an embodiment of the present invention. 本発明の一実施形態における、画角中心の近傍から抽出した領域の一例が表された図である。It is a figure showing an example of the area | region extracted from the vicinity of the view angle center in one Embodiment of this invention. 本発明の一実施形態における、指定された位置から抽出した領域の一例が表された図である。It is a figure showing an example of the area | region extracted from the designated position in one Embodiment of this invention. 本発明の一実施形態における、指定された位置から抽出した領域に合焦させる場合の撮像装置100の操作例を表す図である。It is a figure showing the example of operation of the imaging device 100 in the case of making it focus on the area | region extracted from the designated position in one Embodiment of this invention. 本発明の一実施形態における、被写体を検出した位置に基づいて、抽出した領域の一例が表された図である。It is a figure showing an example of the extracted field based on the position which detected the subject in one embodiment of the present invention. 本発明の一実施形態における、人及び動物が撮像された画像から領域を抽出する処理の手順を表すフローチャートである。It is a flowchart showing the procedure of the process which extracts an area | region from the image where the person and the animal were imaged in one Embodiment of this invention. 本発明の一実施形態における、領域に合焦させるまでの処理の手順を表すフローチャートである。It is a flowchart showing the procedure of the process until it focuses on an area | region in one Embodiment of this invention.

本発明の一実施形態について図面を参照して詳細に説明する。図1には、レンズ鏡筒111と、領域抽出装置140を備える撮像装置100と、記憶媒体200との構成が、ブロック図により表されている。撮像装置100は、レンズ鏡筒111から入射される光学像を撮像し、得られた画像を静止画又は動画の画像として、記憶媒体200に記憶させる。   An embodiment of the present invention will be described in detail with reference to the drawings. FIG. 1 is a block diagram illustrating the configuration of the lens barrel 111, the imaging device 100 including the region extraction device 140, and the storage medium 200. The imaging device 100 captures an optical image incident from the lens barrel 111 and stores the obtained image in the storage medium 200 as a still image or a moving image.

まず、レンズ鏡筒111の構成を説明する。
レンズ鏡筒111は、焦点調整レンズ(以下、「AF(Auto Focus)レンズ」という)112と、レンズ駆動部116と、AFエンコーダ117と、鏡筒制御部118を備える。なお、レンズ鏡筒111は、撮像装置100に着脱可能に接続されてもよいし、撮像装置100と一体であってもよい。
First, the configuration of the lens barrel 111 will be described.
The lens barrel 111 includes a focus adjustment lens (hereinafter referred to as “AF (Auto Focus) lens”) 112, a lens driving unit 116, an AF encoder 117, and a lens barrel control unit 118. The lens barrel 111 may be detachably connected to the imaging device 100 or may be integrated with the imaging device 100.

AFレンズ112は、レンズ駆動部116により駆動され、後述する撮像部110の撮像素子119の受光面(光電変換面)に、光学像を導く。   The AF lens 112 is driven by a lens driving unit 116 and guides an optical image to a light receiving surface (photoelectric conversion surface) of an image sensor 119 of the image capturing unit 110 described later.

AFエンコーダ117は、AFレンズ112の移動を検出し、AFレンズ112の移動量に応じた信号を、鏡筒制御部118に出力する。ここで、AFレンズ112の移動量に応じた信号とは、例えば、AFレンズ112の移動量に応じて位相が変化するサイン(sin)波信号であってもよい。   The AF encoder 117 detects the movement of the AF lens 112 and outputs a signal corresponding to the movement amount of the AF lens 112 to the lens barrel control unit 118. Here, the signal corresponding to the movement amount of the AF lens 112 may be a sine wave signal whose phase changes according to the movement amount of the AF lens 112, for example.

鏡筒制御部118は、撮像装置100のCPU190から入力される駆動制御信号に応じて、レンズ駆動部116を制御する。ここで、駆動制御信号とは、AFレンズ112を光軸方向に駆動させる制御信号である。鏡筒制御部118は、駆動制御信号に応じて、例えば、レンズ駆動部116に出力するパルス電圧のステップ数を変更する。   The lens barrel control unit 118 controls the lens driving unit 116 in accordance with a drive control signal input from the CPU 190 of the imaging apparatus 100. Here, the drive control signal is a control signal for driving the AF lens 112 in the optical axis direction. The lens barrel control unit 118 changes the number of steps of the pulse voltage output to the lens driving unit 116, for example, according to the drive control signal.

また、鏡筒制御部118は、AFレンズ112の移動量に応じた信号に基づいて、レンズ鏡筒111におけるAFレンズ112の位置(フォーカスポジション)を、CPU190に出力する。ここで、鏡筒制御部118は、例えば、AFレンズ112の移動量に応じた信号を、AFレンズ112の移動方向に応じて積算することで、レンズ鏡筒111におけるAFレンズ112の移動量(位置)を算出してもよい。   Further, the lens barrel control unit 118 outputs the position (focus position) of the AF lens 112 in the lens barrel 111 to the CPU 190 based on a signal corresponding to the movement amount of the AF lens 112. Here, the lens barrel control unit 118 integrates, for example, signals according to the movement amount of the AF lens 112 according to the movement direction of the AF lens 112, thereby moving the AF lens 112 in the lens barrel 111 (the movement amount ( Position) may be calculated.

レンズ駆動部116は、鏡筒制御部118の制御に応じてAFレンズ112を駆動し、AFレンズ112をレンズ鏡筒111内で光軸方向に移動させる。   The lens driving unit 116 drives the AF lens 112 in accordance with the control of the lens barrel control unit 118 and moves the AF lens 112 in the optical axis direction within the lens barrel 111.

次に、撮像装置100の構成を説明する。
撮像装置100は、撮像部110と、領域抽出装置140と、表示部150と、バッファメモリ部130と、操作部180と、記憶部160と、CPU190と、通信部170とを備える。
Next, the configuration of the imaging device 100 will be described.
The imaging device 100 includes an imaging unit 110, a region extraction device 140, a display unit 150, a buffer memory unit 130, an operation unit 180, a storage unit 160, a CPU 190, and a communication unit 170.

撮像部110は、撮像素子119と、A/D(Analog/Digital)変換部120とを備える。撮像部110は、設定された撮像条件(例えば絞り値、露出値等)に従って、CPU190により制御される。   The imaging unit 110 includes an imaging element 119 and an A / D (Analog / Digital) conversion unit 120. The imaging unit 110 is controlled by the CPU 190 in accordance with the set imaging conditions (for example, aperture value, exposure value, etc.).

撮像素子119は、光電変換面を備え、レンズ鏡筒111(光学系)により光電変換面に結像された光学像を電気信号に変換して、A/D変換部120に出力する。撮像素子119は、例えば、CMOS(Complementary Metal Oxide Semiconductor)で構成されていてもよい。また、撮像素子119は、光電変換面の一部の領域について、光学像を電気信号に変換するようにしてもよい(画像切り出し)。   The image sensor 119 includes a photoelectric conversion surface, converts an optical image formed on the photoelectric conversion surface by the lens barrel 111 (optical system) into an electric signal, and outputs the electric signal to the A / D conversion unit 120. The image sensor 119 may be configured by, for example, a CMOS (Complementary Metal Oxide Semiconductor). Further, the image sensor 119 may convert an optical image into an electrical signal for a partial region of the photoelectric conversion surface (image clipping).

また、撮像素子119は、操作部180を介してユーザからの撮影指示を受け付けた際に得られる画像を、A/D変換部120を介して記憶媒体200に記憶させる。一方、撮像素子119は、操作部180を介してユーザからの撮影指示を受け付けていない状態において、連続的に得られる画像をスルー画像として、バッファメモリ部130及び表示部150に、A/D変換部120を介して出力する。   Further, the image sensor 119 stores an image obtained when a shooting instruction from the user is received via the operation unit 180 in the storage medium 200 via the A / D conversion unit 120. On the other hand, the imaging device 119 performs A / D conversion on the buffer memory unit 130 and the display unit 150 as images that are continuously obtained in a state where a shooting instruction from the user is not received via the operation unit 180. Output via the unit 120.

A/D変換部120は、撮像素子119によって変換された電気信号をデジタル化して、デジタル信号である画像をバッファメモリ部130に出力する。   The A / D converter 120 digitizes the electrical signal converted by the image sensor 119 and outputs an image that is a digital signal to the buffer memory unit 130.

操作部180は、例えば、電源スイッチ、シャッタボタン、マルチセレクタ(十字キー)、又はその他の操作キーを備え、ユーザによって操作されることでユーザの操作入力を受け付け、受け付けた操作入力に応じた信号をCPU190に出力する。また、操作部180は、画像内の所定位置をユーザが指定するための操作入力を受け付け、受け付けた操作入力に応じた信号を領域抽出装置140に出力する。なお、操作部180は、領域抽出装置140に備えられていてもよい。   The operation unit 180 includes, for example, a power switch, a shutter button, a multi selector (cross key), or other operation keys. The operation unit 180 receives a user operation input when operated by the user, and a signal corresponding to the received operation input. Is output to the CPU 190. In addition, the operation unit 180 receives an operation input for the user to specify a predetermined position in the image, and outputs a signal corresponding to the received operation input to the region extraction device 140. Note that the operation unit 180 may be provided in the region extraction device 140.

領域抽出装置140は、記憶部160に記憶されている画像処理条件に基づいて、バッファメモリ部130に一時的に記憶されている画像を画像処理する。画像処理された画像は、通信部170を介して記憶媒体200に記憶される。また、領域抽出装置140は、画像の特徴量により定まる領域を、バッファメモリ部130に一時的に記憶されている画像から抽出する。また、領域抽出装置140は、抽出した領域を示す情報を記憶部160などに記憶させる。ここで、領域を示す情報とは、例えば、領域の分布を表す情報、及び領域の特徴量を表す情報などである。また、領域抽出装置140は、画像から抽出した領域に優先度を設定する。領域抽出装置140の詳細については、後述する。   The area extraction device 140 performs image processing on the image temporarily stored in the buffer memory unit 130 based on the image processing conditions stored in the storage unit 160. The processed image is stored in the storage medium 200 via the communication unit 170. The region extraction device 140 extracts a region determined by the feature amount of the image from the image temporarily stored in the buffer memory unit 130. Further, the region extraction device 140 stores information indicating the extracted region in the storage unit 160 or the like. Here, the information indicating the region includes, for example, information indicating the distribution of the region and information indicating the feature amount of the region. Further, the region extraction device 140 sets a priority for the region extracted from the image. Details of the region extraction device 140 will be described later.

表示部150は、撮像部110によって得られた画像、及び操作画面等を表示する。表示部150は、例えば、液晶ディスプレイである。   The display unit 150 displays an image obtained by the imaging unit 110, an operation screen, and the like. The display unit 150 is, for example, a liquid crystal display.

バッファメモリ部130は、撮像部110によって撮像された画像を、一時的に記憶する。   The buffer memory unit 130 temporarily stores the image captured by the imaging unit 110.

記憶部160は、シーン判定の際にCPU190によって参照される判定条件と、シーン判定によって判断されたシーン毎に対応付けられた撮像条件と、領域を示す情報等とを記憶する。   The storage unit 160 stores determination conditions referred to by the CPU 190 in scene determination, imaging conditions associated with each scene determined by scene determination, information indicating a region, and the like.

CPU190は、設定された撮像条件(例えば、絞り値、露出値)に従って、撮像部110を制御する。また、CPU190は、領域を示す情報を、領域抽出装置140から取得する。また、CPU190は、領域を示す情報に基づいてレンズ鏡筒111の鏡筒制御部118に駆動制御信号を出力することで、画像から抽出された領域のうち、領域抽出装置140が設定した優先度が高い領域に合焦させるよう焦点を調節する。   The CPU 190 controls the imaging unit 110 according to the set imaging conditions (for example, aperture value, exposure value). In addition, the CPU 190 acquires information indicating a region from the region extraction device 140. In addition, the CPU 190 outputs a drive control signal to the lens barrel control unit 118 of the lens barrel 111 based on the information indicating the region, so that the priority set by the region extracting device 140 among the regions extracted from the image is set. Adjust the focus to focus on a high area.

また、CPU190は、領域を示す情報に基づいて、画像処理のプレ処理又はポスト処理として、焦点調整(AF)の設定、露出調整(AE)の設定、ホワイトバランス調整(AWB)の設定、被写体像(オブジェクト)の追尾の設定、夜景か否かの判定の設定、色補正処理の設定、被写体像の拡大表示の設定、パンニング表示の設定、ズーム倍率に連動した明るさの最適化の設定、などを制御する。   Also, the CPU 190 performs focus adjustment (AF) setting, exposure adjustment (AE) setting, white balance adjustment (AWB) setting, subject image as pre-processing or post-processing of image processing based on the information indicating the area. (Object) tracking setting, night scene judgment setting, color correction processing setting, subject image enlarged display setting, panning display setting, brightness optimization setting linked with zoom magnification, etc. To control.

また、CPU190は、領域を示す情報に基づいて、トーンカーブ(階調カーブ)の設定、静止画及び動画の同時撮影を実行するか否かの設定などを制御する。   Further, the CPU 190 controls setting of a tone curve (gradation curve), whether or not to execute simultaneous shooting of a still image and a moving image, and the like based on information indicating a region.

また、CPU190は、領域を示す情報に基づいて、プレ処理又はポスト処理として、連写するか否かの設定、及び、連写において、合焦させる被写体像の切り替えの設定、焦点距離の連続変更の設定、撮像装置100の発光部(不図示)が発光する閃光の発光量の変更の設定、露光量の変更の設定、又はシャッタスピードの変更を実行するか否かの設定などを制御する。   In addition, the CPU 190 sets whether to perform continuous shooting as pre-processing or post-processing based on information indicating the area, setting for switching the subject image to be focused in continuous shooting, and continuously changing the focal length. , Setting for changing the amount of flash light emitted from the light emitting unit (not shown) of the image capturing apparatus 100, setting for changing the exposure amount, setting for whether to change the shutter speed, and the like.

また、CPU190は、操作部180から入力された「操作入力に応じた信号」に基づいて、静止画形式又は動画形式の画像を、領域抽出装置140に画像処理させる。   In addition, the CPU 190 causes the region extraction device 140 to perform image processing on an image in a still image format or a moving image format based on the “signal according to the operation input” input from the operation unit 180.

通信部170は、カードメモリ等の取り外しが可能な記憶媒体200と接続され、この記憶媒体200への情報(画像データ、領域を示す情報など)の書込み、読み出し、あるいは消去を行う。   The communication unit 170 is connected to a removable storage medium 200 such as a card memory, and writes, reads, or deletes information (image data, information indicating an area, etc.) on the storage medium 200.

記憶媒体200は、撮像装置100に対して着脱可能に接続される記憶部であって、情報(画像データ、領域を示す情報など)を記憶する。なお、記憶媒体200は、撮像装置100と一体であってもよい。   The storage medium 200 is a storage unit that is detachably connected to the imaging apparatus 100, and stores information (image data, information indicating an area, and the like). Note that the storage medium 200 may be integrated with the imaging device 100.

次に、領域抽出装置140の詳細について説明する。
領域抽出装置140は、特徴量算出部141と、領域抽出部142と、判定部143と、優先度設定部144と、記憶部145とを備える。
Next, details of the region extraction device 140 will be described.
The region extraction device 140 includes a feature amount calculation unit 141, a region extraction unit 142, a determination unit 143, a priority setting unit 144, and a storage unit 145.

特徴量算出部141は、撮像部110が撮像した画像を、バッファメモリ部130から取得する。また、特徴量算出部141は、バッファメモリ部130から取得した画像における複数の特徴(例えば、色相、彩度、明度、テクスチャ、エッジ)毎に、その特徴量を算出し、算出した特徴量を領域抽出部142に出力する。   The feature amount calculation unit 141 acquires the image captured by the imaging unit 110 from the buffer memory unit 130. The feature amount calculation unit 141 calculates the feature amount for each of a plurality of features (for example, hue, saturation, brightness, texture, and edge) in the image acquired from the buffer memory unit 130, and calculates the calculated feature amount. The data is output to the area extraction unit 142.

領域抽出部142は、特徴量算出部141が算出した特徴量を取得する。また、領域抽出部142は、撮像部110が撮像した画像を、バッファメモリ部130から取得する。また、領域抽出部142は、取得した画像に含まれる領域であって特徴量毎に定まる領域を、画像から抽出する。ここで、領域抽出部142が抽出する領域は、例えば、撮像部110が撮像した画像に含まれる被写体像の領域である。   The region extraction unit 142 acquires the feature amount calculated by the feature amount calculation unit 141. Further, the region extraction unit 142 acquires an image captured by the imaging unit 110 from the buffer memory unit 130. Further, the region extraction unit 142 extracts a region included in the acquired image and determined for each feature amount from the image. Here, the region extracted by the region extraction unit 142 is, for example, a region of a subject image included in an image captured by the imaging unit 110.

領域抽出部142は、特徴量算出部141が算出した画像特徴量を取得する。また、領域抽出部142は、撮像部110が撮像した画像を、バッファメモリ部130から取得する。領域抽出部142は、撮像部110により撮像された画像から、画像特徴量(例えば、色情報(色相、色差)、彩度、輝度)に基づいて領域を抽出する。   The region extraction unit 142 acquires the image feature amount calculated by the feature amount calculation unit 141. Further, the region extraction unit 142 acquires an image captured by the imaging unit 110 from the buffer memory unit 130. The region extraction unit 142 extracts a region from the image captured by the imaging unit 110 based on image feature amounts (for example, color information (hue, color difference), saturation, luminance).

また、領域抽出部142は、画像特徴量に定められた一定範囲(区分)と、その範囲外とに2値化された画像(以下、「2値画像」という)から領域(以下、「第1領域」という)を抽出し、抽出した第1領域にラベルを割り当てる(ラベリング)。また、領域抽出部142は、抽出した第1領域の位置にAF評価領域を定める。ここで、AF評価領域とは、コントラスト・オートフォーカス(AF)により、コントラスト値が評価される領域である。   The region extraction unit 142 also includes a region (hereinafter referred to as a “second image”) from a certain range (section) defined for the image feature amount and an image binarized outside the range (hereinafter referred to as “binary image”). 1 area ”) and a label is assigned to the extracted first area (labeling). The area extracting unit 142 determines an AF evaluation area at the position of the extracted first area. Here, the AF evaluation area is an area where the contrast value is evaluated by contrast autofocus (AF).

領域抽出部142は、撮像された画像内の所定位置から領域(以下、「第2領域」という)を抽出する(特例的マスク)。例えば、領域抽出部142は、画角中心又は画角中心の近傍における画像特徴量に基づいて、画角中心又は画角中心の近傍から第2領域を抽出する。また、領域抽出部142は、固有種別の被写体が撮像された領域を検出する処理(例えば、顔検出処理)により検出された領域の位置に基づいて、第2領域を抽出し、抽出した第2領域にラベルを割り当てる(ラベリング)。また、領域抽出部142は、操作入力により操作部180を介して指定された画像内の位置から、第2領域を抽出する。領域抽出部142の動作の詳細ついては、後述する。   The region extraction unit 142 extracts a region (hereinafter referred to as “second region”) from a predetermined position in the captured image (special mask). For example, the region extraction unit 142 extracts the second region from the center of the view angle or the vicinity of the view angle center based on the image feature amount at the view angle center or the vicinity of the view angle center. In addition, the area extraction unit 142 extracts the second area based on the position of the area detected by the process (for example, face detection process) for detecting the area where the unique type of subject is imaged, and extracts the extracted second area. Assign a label to the area (labeling). In addition, the region extraction unit 142 extracts a second region from the position in the image designated through the operation unit 180 by the operation input. Details of the operation of the region extraction unit 142 will be described later.

判定部143は、各領域の分布に基づいて、複数の第1領域及び第2領域のうちから、優先度を設定する対象として、1つ以上の領域を選択する(最終マスク)。   The determination unit 143 selects one or more regions as a target for setting the priority from the plurality of first regions and the second region based on the distribution of each region (final mask).

より具体的には、判定部143は、予め定められた条件(例えば、領域の分布条件)を、第1領域又は第2領域が満たすか否かを判定する。例えば、判定部143は、ノイズと推定される領域(例えば、所定閾値よりも面積が小さい領域)が画像にある場合、それらの領域を、画像から除去(足きり)する。また、例えば、判定部143は、背景と推定される領域(例えば、所定閾値よりも面積が大きい領域)が画像にある場合、その領域を画像から除去する。また、例えば、判定部143は、例えば、固まりの度合いが大きい領域、すなわち、重心からの慣性モーメントが小さい領域を選択し、他の領域(慣性モーメントが小さくない領域)を足きりする。判定部143は、除去されていない第1領域及び第2領域の分布を表す情報を、記憶部145、記憶部160及び記憶媒体200のうち少なくとも1つに記憶させる。   More specifically, the determination unit 143 determines whether or not the first region or the second region satisfies a predetermined condition (for example, a region distribution condition). For example, when there are regions that are estimated to be noise (for example, regions having an area smaller than a predetermined threshold) in the image, the determination unit 143 removes (adds) those regions from the image. Further, for example, when the region estimated as the background (for example, a region having an area larger than the predetermined threshold) is included in the image, the determination unit 143 removes the region from the image. Further, for example, the determination unit 143 selects, for example, a region having a large degree of mass, that is, a region having a small moment of inertia from the center of gravity, and adds another region (a region where the moment of inertia is not small). The determination unit 143 stores information representing the distribution of the first region and the second region that have not been removed in at least one of the storage unit 145, the storage unit 160, and the storage medium 200.

優先度設定部144は、予め定められた条件を満たす第1領域及び第2領域に、画像における「領域の優先度」を定める。この「領域の優先度」とは、人がより注目しているであろう領域の優先度である。優先度設定部144は、設定した「領域の優先度」を、領域を示す情報として、記憶部145、記憶部160及び記憶媒体200に、領域毎に記憶させる。   The priority setting unit 144 determines “region priority” in the image in the first region and the second region that satisfy a predetermined condition. The “region priority” is a region priority that a person will be more interested in. The priority setting unit 144 stores the set “region priority” in the storage unit 145, the storage unit 160, and the storage medium 200 for each region as information indicating the region.

領域の優先度は、次のように定められてもよい。以下では、優先度を示す数字が小さいほど、領域の優先度が高いものとする。また、以下に示す優先度は、一例である。   The priority of the area may be determined as follows. In the following, it is assumed that the priority of a region is higher as the number indicating the priority is smaller. Moreover, the priority shown below is an example.

優先度1.
動いている領域(動いている領域が画像に複数ある場合、画角からはみ出していない領域、又は画角の中央に分布する領域)。また、パンニングしたことにより、動いている領域が画像に広く分布している場合は、動いていない領域。
これらの領域は、優先度「1」に設定される。
人は、動いている領域及びパンニングした際に変化量の少ない領域に注目するためである。
Priority 1.
A moving area (when there are a plurality of moving areas in the image, an area that does not protrude from the angle of view or an area that is distributed in the center of the angle of view). Also, if the moving area is widely distributed in the image due to panning, the area is not moving.
These areas are set to priority “1”.
This is because a person pays attention to a moving area and an area having a small amount of change when panning.

優先度2.
画角(構図)、奥行(パースペクト)、被写体距離(デプス、深度)に関する領域。画角の中央付近に分布する領域。画像に奥行がある場合、至近側に分布する領域のうち、画角からはみ出していない領域であって、面積が所定の範囲内である(極端に大きくない)領域。
これらの領域は、優先度「2」に設定される。
主要な被写体像の領域が、至近から無限までの広い範囲に存在する可能性があるためである。
Priority 2.
Areas related to angle of view (composition), depth (perspective), and subject distance (depth, depth). An area distributed near the center of the angle of view. When there is a depth in the image, among the regions distributed on the closest side, the region does not protrude from the angle of view and has an area within a predetermined range (not extremely large).
These areas are set to priority “2”.
This is because the main subject image area may exist in a wide range from close to infinity.

優先度3.
人の顔検出、動物(ペット)の顔検出、顔が検出された領域における肌色検出、動物の毛並みのテクスチャ(模様)、又は植物のテクスチャに基づいて抽出された領域。
これらの領域は、優先度「3」に設定される。
人または動物が撮像されている場合、人は、その顔に注目するためである。
Priority 3.
Regions extracted based on human face detection, animal (pet) face detection, skin color detection in the area where the face is detected, animal fur texture (pattern), or plant texture.
These areas are set to priority “3”.
This is because when a person or animal is imaged, the person pays attention to the face.

優先度4.
特異である特徴量(例えば、色相環において不連続である色相)がある領域。背景の領域とそれ以外の領域とに分割された領域。彩度が高い領域。周囲と比較して明度が著しく異なる領域。周囲と比較して色相(色合い)が著しく異なる領域。テクスチャ(模様)が周囲と異なる領域。周囲と比較して空間周波数(画像周波数)が高い領域。ある特徴量において不連続な分布が一定量あり、その特徴量に基づいてラベリングされた結果、領域が形成された場合に、画像において違和感がある領域。
これらの領域は、優先度「4」に設定される。
Priority 4.
A region having a characteristic amount that is unique (for example, a hue that is discontinuous in the hue circle). An area divided into a background area and other areas. Highly saturated area. An area where the brightness is significantly different from the surrounding area. An area where the hue (hue) is significantly different from the surrounding area. An area where the texture (pattern) is different from the surrounding area. An area where the spatial frequency (image frequency) is higher than the surrounding area. A region in which an image has a sense of incongruity when a certain amount of discontinuous distribution has a certain amount and a region is formed as a result of labeling based on the feature amount.
These areas are set to priority “4”.

優先度5.
特定の色相又は彩度に基づいて抽出された領域。
これらの領域は、優先度「5」に設定される。
人は、赤色、黄色、肌色の領域に注目するためである。
Priority 5.
An area extracted based on a specific hue or saturation.
These areas are set to the priority “5”.
This is because a person pays attention to red, yellow, and flesh-colored areas.

優先度6.
明度(明暗)に基づいて抽出された領域。
これらの領域は、優先度「6」に設定される。
Priority 6.
An area extracted based on brightness (brightness).
These areas are set to priority “6”.

優先度7.
テクスチャ(模様)に基づいて抽出された領域。
これらの領域は、優先度「7」に設定される。
Priority 7.
An area extracted based on a texture (pattern).
These areas are set to priority “7”.

優先度8.
空間周波数(画像周波数)に基づいて抽出された領域。
これらの領域は、優先度「8」に設定される。
Priority 8.
A region extracted based on the spatial frequency (image frequency).
These areas are set to priority “8”.

優先度9.
縦又は横に延びたエッジで囲まれた領域であって、一定以上の太さがある領域。
これらの領域は、優先度「9」に設定される。
Priority 9.
An area surrounded by edges extending vertically or horizontally and having a certain thickness or more.
These areas are set to the priority “9”.

次に、領域抽出部142及び判定部143の動作の詳細を説明する。
領域抽出部142は、特徴量算出部141が算出した画像特徴量を取得する。また、領域抽出部142は、撮像部110が撮像した画像を、バッファメモリ部130から取得する。領域抽出部142は、撮像部110により撮像された画像から、画像特徴量(例えば、色情報(色相、色差)、彩度、輝度)に基づいて領域を抽出する。ここで、領域抽出部142が抽出する領域は、バッファメモリ部130から取得した画像に含まれる、被写体の領域である。
Next, details of operations of the region extraction unit 142 and the determination unit 143 will be described.
The region extraction unit 142 acquires the image feature amount calculated by the feature amount calculation unit 141. Further, the region extraction unit 142 acquires an image captured by the imaging unit 110 from the buffer memory unit 130. The region extraction unit 142 extracts a region from the image captured by the imaging unit 110 based on image feature amounts (for example, color information (hue, color difference), saturation, luminance). Here, the region extracted by the region extraction unit 142 is a region of the subject included in the image acquired from the buffer memory unit 130.

また、領域抽出部142は、2値画像から第1領域を抽出し、抽出した第1領域にラベルを割り当てる(ラベリング)。ここで、2値画像は、画像特徴量が閾値(上限及び下限)により区分されることで生成された画像である。また、この閾値は、画像における画像特徴量のヒストグラムの平均値(Ave)及び標準偏差(σ)に基づいて、例えば、「平均値+係数×標準偏差」と定められてもよい。   The area extraction unit 142 extracts a first area from the binary image and assigns a label to the extracted first area (labeling). Here, the binary image is an image generated by dividing the image feature amount by a threshold (upper limit and lower limit). Further, this threshold value may be defined as, for example, “average value + coefficient × standard deviation” based on the average value (Ave) and standard deviation (σ) of the histogram of the image feature amount in the image.

図2には、画像から領域を抽出する方法を説明するための図が表されている。領域抽出部142は、撮像部110が撮像した画像から、輝度に基づく画像(以下、「Y画像」という)300Yを抽出する。領域抽出部142は、撮像部110が撮像した画像の輝度(入力値)を補正(例えば、ガンマ補正)し、補正した輝度(出力値)を算出する。   FIG. 2 shows a diagram for explaining a method of extracting a region from an image. The area extraction unit 142 extracts an image 300 </ b> Y based on luminance (hereinafter referred to as “Y image”) from the image captured by the imaging unit 110. The area extraction unit 142 corrects the luminance (input value) of the image captured by the imaging unit 110 (for example, gamma correction), and calculates the corrected luminance (output value).

領域抽出部142は、補正した輝度(出力値)を、複数の範囲に区分する。図2では、一例として、補正した輝度は、区分1〜4に区分されたとする。領域抽出部142は、区分毎に2値画像を生成する。区分1の上限が「平均値+K1×標準偏差」であり、区分1の下限が「平均値+K2×標準偏差」である場合、区分1の2値画像には、高輝度領域が含まれる。   The area extraction unit 142 divides the corrected luminance (output value) into a plurality of ranges. In FIG. 2, as an example, it is assumed that the corrected luminance is divided into sections 1 to 4. The area extraction unit 142 generates a binary image for each section. When the upper limit of the category 1 is “average value + K1 × standard deviation” and the lower limit of the category 1 is “average value + K2 × standard deviation”, the binary image of the category 1 includes a high luminance area.

領域抽出部142は、区分1の2値画像に含まれている高輝度領域の分布を探索することにより、この探索結果を表す領域画像に、高輝度領域を抽出する。同様に、領域抽出部142は、区分2の2値画像に含まれている中輝度領域を探索することにより、領域画像に中輝度領域を抽出する。また、領域抽出部142は、区分4の2値画像に含まれている低輝度領域を探索することにより、領域画像に低輝度領域を抽出する。   The region extraction unit 142 searches the distribution of the high-intensity region included in the binary image of section 1 and extracts the high-intensity region from the region image representing the search result. Similarly, the region extracting unit 142 extracts a medium luminance region from the region image by searching for a medium luminance region included in the binary image of category 2. In addition, the region extraction unit 142 extracts a low luminance region from the region image by searching for a low luminance region included in the binary image of category 4.

同様に、領域抽出部142は、補正した色情報Crを、複数の範囲に区分する。図2では、一例として、補正した色情報Crは、区分5〜8に区分されたとする。領域抽出部142は、区分毎に2値画像を生成する。区分5の上限が「平均値+K3×標準偏差」であり、区分5の下限が「平均値+K4×標準偏差」である場合、区分5の2値画像には、赤色系領域が含まれる。   Similarly, the area extraction unit 142 divides the corrected color information Cr into a plurality of ranges. In FIG. 2, as an example, it is assumed that the corrected color information Cr is divided into sections 5 to 8. The area extraction unit 142 generates a binary image for each section. When the upper limit of the category 5 is “average value + K3 × standard deviation” and the lower limit of the category 5 is “average value + K4 × standard deviation”, the binary image of the category 5 includes a red-based region.

領域抽出部142は、区分5の2値画像に含まれる赤色系領域の分布を探索することにより、この探索結果を表す領域画像に、赤色系領域(不図示)を抽出する。同様に、領域抽出部142は、区分6の2値画像に含まれる桃色系領域を探索することにより、この探索結果を表す領域画像に、桃色系領域(不図示)を抽出する。また、領域抽出部142は、区分8の2値画像に含まれる緑色系領域を探索することにより、領域画像に緑色系領域(不図示)を抽出する。   The area extraction unit 142 searches for a red-type area (not shown) in the area image representing the search result by searching for the distribution of the red-type area included in the binary image of category 5. Similarly, the area extraction unit 142 searches for a pink area included in the binary image of section 6 and extracts a pink area (not shown) from the area image representing the search result. In addition, the region extraction unit 142 extracts a green region (not shown) from the region image by searching for a green region included in the binary image of category 8.

同様に、領域抽出部142は、補正した色情報Cbを、複数の範囲に区分する。図2では、一例として、補正した色情報Cbは、区分9〜12に区分されたとする。領域抽出部142は、区分毎に2値画像を生成する。区分9の上限が「平均値+K5×標準偏差」であり、区分9の下限が「平均値+K6×標準偏差」である場合、区分9の2値画像には、青色系領域が含まれる。   Similarly, the area extraction unit 142 divides the corrected color information Cb into a plurality of ranges. In FIG. 2, as an example, it is assumed that the corrected color information Cb is divided into sections 9 to 12. The area extraction unit 142 generates a binary image for each section. When the upper limit of the category 9 is “average value + K5 × standard deviation” and the lower limit of the category 9 is “average value + K6 × standard deviation”, the binary image of the category 9 includes a blue region.

領域抽出部142は、区分9の2値画像に含まれる青色系領域の分布を探索することにより、この探索結果を表す領域画像に、青色系領域(不図示)を抽出する。同様に、領域抽出部142は、区分10の2値画像に含まれる水色系領域を探索することにより、この探索結果を表す領域画像に、水色系領域(不図示)抽出する。また、領域抽出部142は、区分12の2値画像に含まれる黄色系領域を探索することにより、この探索結果を表す領域画像に、黄色系領域(不図示)を抽出する。   The region extraction unit 142 searches for the distribution of the blue region included in the binary image of section 9 and extracts a blue region (not shown) from the region image representing the search result. Similarly, the region extraction unit 142 searches for a light blue system region included in the binary image of the category 10, and extracts a light blue system region (not shown) from the region image representing the search result. In addition, the region extraction unit 142 searches for a yellow region included in the binary image of the category 12, thereby extracting a yellow region (not shown) from the region image representing the search result.

判定部143は、各領域の分布に基づいて、複数の第1領域及び第2領域のうちから、優先度を設定する対象として、1つ以上の領域を選択する。図2では、領域画像に抽出された複数の第1領域のうち、一例として、第1領域340Y及び第1領域350Yが、優先度を設定する対象として、判定部143により選択されたとする。領域抽出部142は、AF評価領域360を第1領域340Yの位置に定め、AF評価領域370を第1領域350Yの位置に定める。   The determination unit 143 selects one or more regions as targets for setting priority from the plurality of first regions and second regions based on the distribution of the regions. In FIG. 2, it is assumed that, as an example, the first region 340Y and the first region 350Y are selected by the determination unit 143 as targets for setting priority among the plurality of first regions extracted in the region image. The area extraction unit 142 sets the AF evaluation area 360 at the position of the first area 340Y and sets the AF evaluation area 370 at the position of the first area 350Y.

さらに、領域抽出部142及び判定部143は、以下に説明する1つ以上の場合の領域抽出処理を実行する。
<画像の画角中心から領域を抽出する場合>
図3には、画角中心から領域を抽出する方法を説明するための図が表されている。領域抽出部142は、Y(輝度)画像300Yの画角中心310Yから、輝度分布における一定範囲の輝度(Y±K・α)を有する画素により構成される第2領域320Yを抽出する。また、領域抽出部142は、Cr(色差)画像300Crの画角中心310Crから、色差分布における一定範囲の色差(Cr±K・β)を有する画素により構成される第2領域330Crを抽出する。また、領域抽出部142は、Cb(色差)画像300Cbの画角中心310Cbから、色差分布における一定範囲の色差(Cb±K・γ)を有する画素により構成される第2領域を抽出する。ここで、輝度(Y)又は色差(Cr,Cb)などの特徴量を有する画素が画像に無いなどの理由により、いずかの特徴量による第2領域が抽出されないことがあってもよい。
Furthermore, the region extraction unit 142 and the determination unit 143 perform region extraction processing in one or more cases described below.
<When extracting an area from the center of the angle of view of the image>
FIG. 3 shows a diagram for explaining a method of extracting a region from the center of the angle of view. The region extraction unit 142 extracts a second region 320Y including pixels having a certain range of luminance (Y ± K · α) in the luminance distribution from the angle-of-view center 310Y of the Y (luminance) image 300Y. Further, the region extraction unit 142 extracts a second region 330Cr including pixels having a certain range of color differences (Cr ± K · β) in the color difference distribution from the field angle center 310Cr of the Cr (color difference) image 300Cr. Further, the region extraction unit 142 extracts a second region composed of pixels having a certain range of color difference (Cb ± K · γ) in the color difference distribution from the angle-of-view center 310Cb of the Cb (color difference) image 300Cb. Here, the second region based on any feature amount may not be extracted because a pixel having a feature amount such as luminance (Y) or color difference (Cr, Cb) is not included in the image.

なお、画像の特徴量は、Y・Cr・Cbに限る必要はなく、例えば、RGB、テクスチャ(模様)、又は画像における空間周波数など、領域を抽出することができる特徴量であればよい。   Note that the feature amount of the image is not limited to Y, Cr, and Cb, and may be any feature amount that can extract a region, such as RGB, texture (pattern), or spatial frequency in the image.

判定部143は、複数の第2領域のうち、固まりの度合いが大きい第2領域、すなわち、重心からの慣性モーメントが小さい第2領域を選択する。ここで、図3では、判定部143は、画像300Yから抽出した第2領域320Yの固まりの度合いと、画像300Crから抽出した第2領域330Crの固まりの度合いとを比較し、固まりの度合いがより大きい第2領域320Yを選択したとする。   The determination unit 143 selects a second region having a large degree of mass, that is, a second region having a small moment of inertia from the center of gravity among the plurality of second regions. Here, in FIG. 3, the determination unit 143 compares the degree of mass of the second area 320Y extracted from the image 300Y with the degree of mass of the second area 330Cr extracted from the image 300Cr, and the degree of mass is greater. It is assumed that the large second area 320Y is selected.

また、領域抽出部142は、判定部143が選択した第2領域を抽出した際に用いた特徴量と同じ特徴量に基づいて、選択した第2領域の近傍から、更に精度良く第2領域を抽出してもよい。例えば、図3では、輝度に基づいて第2領域320Yが抽出されているので、領域抽出部142は、判定部143が選択した第2領域320Yの近傍から、強調された輝度に基づいて更に精度良く第2領域を抽出してもよい。   In addition, the region extraction unit 142 further accurately extracts the second region from the vicinity of the selected second region based on the same feature amount used when the second region selected by the determination unit 143 is extracted. It may be extracted. For example, in FIG. 3, since the second region 320Y is extracted based on the luminance, the region extracting unit 142 further increases the accuracy based on the emphasized luminance from the vicinity of the second region 320Y selected by the determination unit 143. The second region may be extracted well.

また、判定部143は、第1領域及び第2領域のうち評価が高い領域(例えば、面積が大きい領域)を、画像特徴量の種別毎に選択する。   Also, the determination unit 143 selects a region having a high evaluation (for example, a region having a large area) among the first region and the second region for each type of image feature amount.

<画像の画角中心の近傍から領域を抽出する場合>
領域抽出部142は、画角中心の近傍(例えば、画角中心から、予め定められた距離までの範囲)から第2領域を抽出する。図4には、画角中心の近傍から領域を抽出する方法を説明するための図が表されている。領域抽出部142は、画角中心の近傍に定められた領域410内に複数の位置を定める。図4では、一例として、5つの位置が予め定められている。
<When extracting an area from the vicinity of the center of the image angle>
The region extraction unit 142 extracts the second region from the vicinity of the center of the angle of view (for example, a range from the center of the angle of view to a predetermined distance). FIG. 4 is a diagram for explaining a method of extracting a region from the vicinity of the center of the angle of view. The region extraction unit 142 determines a plurality of positions in the region 410 defined in the vicinity of the center of the angle of view. In FIG. 4, as an example, five positions are determined in advance.

領域抽出部142は、予め定められた各位置におけるY(輝度)に基づいて、各位置から領域をそれぞれ抽出する。また、領域抽出部142は、各位置におけるCr(色差)に基づいて、各位置から領域を抽出する。また、領域抽出部142は、各位置におけるCb(色差)に基づいて、各位置から領域を抽出する。ここで、輝度又は色差などの画像特徴量を有する画素が無いなどの理由により、いずかの画像特徴量による第2領域が抽出されないことがあってもよい。   The region extraction unit 142 extracts regions from each position based on Y (luminance) at each predetermined position. Further, the region extraction unit 142 extracts a region from each position based on Cr (color difference) at each position. Further, the region extraction unit 142 extracts a region from each position based on Cb (color difference) at each position. Here, the second region based on any image feature amount may not be extracted because there is no pixel having an image feature amount such as luminance or color difference.

判定部143は、領域410内の位置470aにおける画像の各特徴量に基づいて抽出した各第2領域のうち、最も評価が高い(例えば、最も密度が高い)第2領域を選択する。位置470b〜位置470eについても同様である。図4では、輝度に基づいて抽出された第2領域420Y及び第2領域430Yが、領域抽出部142により選択されたとする。   The determination unit 143 selects the second region having the highest evaluation (for example, the highest density) among the second regions extracted based on the feature amounts of the image at the position 470a in the region 410. The same applies to the positions 470b to 470e. In FIG. 4, it is assumed that the second region 420Y and the second region 430Y extracted based on the luminance are selected by the region extraction unit 142.

また、領域抽出部142は、判定部143が選択した第2領域の近傍から、その第2領域を抽出した際に用いた特徴量と同じ画像特徴量に基づいて、更に精度良く第2領域を抽出してもよい。例えば、図4では、輝度に基づいて第2領域420Yが抽出されているので、領域抽出部142は、選択した第2領域420Y及び第2領域430Yの近傍から、強調された輝度に基づいて更に精度良く第2領域を抽出してもよい。   Further, the region extraction unit 142 selects the second region with higher accuracy based on the same image feature amount used when the second region is extracted from the vicinity of the second region selected by the determination unit 143. It may be extracted. For example, in FIG. 4, since the second region 420Y is extracted based on the luminance, the region extracting unit 142 further performs the detection based on the emphasized luminance from the vicinity of the selected second region 420Y and the second region 430Y. The second region may be extracted with high accuracy.

また、判定部143は、第1領域及び第2領域のうち評価が高い領域(例えば、至近側に分布する領域)を、画像特徴量の種別毎に選択する。   In addition, the determination unit 143 selects a region having a high evaluation (for example, a region distributed on the close side) among the first region and the second region for each type of image feature amount.

<ヒストグラムに基づいて領域を抽出する場合>
領域抽出部142は、画角中心の近傍における画像の特徴量について、ヒストグラムを生成する。図5には、彩度S(C)のヒストグラムと、その部分拡大図とが表されている。横軸は彩度S(C)を表す。また、横軸は頻度を表す。また、領域抽出部142は、画像の特徴量のヒストグラムに基づいて、第2領域を抽出する。
<When extracting an area based on a histogram>
The region extraction unit 142 generates a histogram for the feature amount of the image near the center of the angle of view. FIG. 5 shows a histogram of saturation S (C) and a partially enlarged view thereof. The horizontal axis represents the saturation S (C). The horizontal axis represents frequency. Further, the region extraction unit 142 extracts the second region based on the histogram of the feature amount of the image.

領域抽出部142は、彩度Sのヒストグラムを走査することにより、相対的に頻度が高い彩度ピークS1をヒストグラムから検出し、検出した彩度ピークS1を部分拡大する。領域抽出部142は、部分拡大した彩度ピークS1を更に走査することにより、彩度ピークS1の偏差σを算出する。また、領域抽出部142は、彩度ピークS1を中心とする3σ範囲に含まれる彩度を有する隣接画素からなる第2領域を、画像から抽出する。   The region extraction unit 142 scans the histogram of saturation S to detect a saturation peak S1 having a relatively high frequency from the histogram, and partially enlarges the detected saturation peak S1. The region extracting unit 142 further calculates the deviation σ of the saturation peak S1 by further scanning the partially enlarged saturation peak S1. In addition, the region extraction unit 142 extracts, from the image, a second region including adjacent pixels having saturation included in the 3σ range centered on the saturation peak S1.

図6には、画角中心の近傍の色相ヒストグラムの一例が表されている。横軸は色相hを表す。また、横軸は頻度を表す。領域抽出部142は、色相ヒストグラムを走査することにより、相対的に頻度が高い(特異な色相と予測される)色相ピークh1を、ヒストグラムから検出する。また、領域抽出部142は、色相ピークh1の偏差σを算出し、色相ピークh1を中心とする3σ範囲に含まれる色相を有する隣接画素からなる第2領域を、画像から抽出する。   FIG. 6 shows an example of a hue histogram near the center of the angle of view. The horizontal axis represents the hue h. The horizontal axis represents frequency. The region extraction unit 142 scans the hue histogram to detect a hue peak h1 having a relatively high frequency (predicted as a unique hue) from the histogram. In addition, the region extraction unit 142 calculates a deviation σ of the hue peak h1, and extracts, from the image, a second region including adjacent pixels having hues included in the 3σ range centered on the hue peak h1.

また、領域抽出部142は、色相ヒストグラムを更に走査することにより、不連続となっているヒストグラム領域(不連続領域)に含まれる色相h2を検出する。また、領域抽出部142は、色相h2の偏差σを算出し、色相h2を中心とする「h2±Δ/2」範囲に含まれる色相を有する隣接画素からなる第2領域を、画像から抽出する。   The region extraction unit 142 further scans the hue histogram to detect the hue h2 included in the discontinuous histogram region (discontinuous region). Further, the region extraction unit 142 calculates a deviation σ of the hue h2, and extracts from the image a second region composed of adjacent pixels having a hue included in the “h2 ± Δ / 2” range centered on the hue h2. .

図7には、画角中心の近傍から抽出した領域の一例が表されている。第2領域520は、画像500の画角中心の近傍に定められた領域510における画像の特徴量のヒストグラムに基づいて、領域抽出部142により抽出される。   FIG. 7 shows an example of a region extracted from the vicinity of the center of the angle of view. The second region 520 is extracted by the region extraction unit 142 based on the histogram of the feature amount of the image in the region 510 defined near the center of the angle of view of the image 500.

<指定された位置から領域を抽出する場合>
領域抽出部142は、操作入力により指定された画像内の所定位置に在る領域から、第2領域を抽出する。領域抽出部142には、操作入力に応じた操作入力信号が、例えば、操作部180から入力される。ここで、所定位置とは、例えば、ユーザが表示部150を押下した画面内の位置、又は、ユーザの視線入力により指定された画面内の位置である。
<When extracting an area from a specified position>
The region extraction unit 142 extracts a second region from a region located at a predetermined position in the image designated by the operation input. For example, an operation input signal corresponding to the operation input is input to the region extraction unit 142 from the operation unit 180. Here, the predetermined position is, for example, a position in the screen where the user presses the display unit 150 or a position in the screen designated by the user's line-of-sight input.

図8には、指定された位置から抽出した領域の一例が表されている。図8では、操作入力により指定された画像600内の位置に、領域610が定められている。領域抽出部142は、階調が細分化された画像特徴量、例えば、階調が細分化された輝度(Y)及び色差(Cr、Cb)に基づいて、領域610の近傍から第2領域620を抽出する。また、領域抽出部142は、領域610を含むAF評価領域630を画像に定める。   FIG. 8 shows an example of a region extracted from the designated position. In FIG. 8, an area 610 is defined at a position in the image 600 designated by the operation input. The region extraction unit 142 performs the second region 620 from the vicinity of the region 610 based on the image feature amount with the gradation subdivided, for example, the luminance (Y) and the color difference (Cr, Cb) with the gradation subdivided. To extract. In addition, the region extraction unit 142 determines an AF evaluation region 630 including the region 610 as an image.

また、領域抽出部142は、第2領域620の輪郭線を全て含むように、AF評価領域630を拡大する。これにより、領域抽出部142は、コントラスト・オートフォーカスに用いられるコントラスト値(信号対雑音比)を高くすることができる。   In addition, the region extraction unit 142 expands the AF evaluation region 630 so as to include all the contour lines of the second region 620. Thereby, the area extraction unit 142 can increase the contrast value (signal-to-noise ratio) used for contrast / autofocus.

図9には、指定された位置から抽出した領域に合焦させる場合の撮像装置100の操作例が表されている。図9(A)に示す一例では、ユーザが、カメラアングルを変更し、撮りたい被写体を画角中心に合わせたとする。領域抽出部142は、その被写体にAF評価領域640を定める。そして、ユーザが操作部180を押下操作した場合、領域抽出部142は、合焦させる対象の領域を定める。例えば、領域抽出部142は、合焦させる対象の領域として、AF評価領域640内の被写体の領域を定めたとする。以降、領域抽出部142は、ユーザがカメラアングルを変更した場合でも、AF評価領域640内の被写体の領域に合焦させる。   FIG. 9 illustrates an operation example of the imaging apparatus 100 when focusing on an area extracted from a designated position. In the example shown in FIG. 9A, it is assumed that the user changes the camera angle and adjusts the subject to be photographed to the center of the angle of view. The area extraction unit 142 defines an AF evaluation area 640 for the subject. When the user presses down the operation unit 180, the region extraction unit 142 determines a target region to be focused. For example, it is assumed that the region extracting unit 142 determines a subject region in the AF evaluation region 640 as a target region to be focused. Thereafter, the area extracting unit 142 focuses on the area of the subject in the AF evaluation area 640 even when the user changes the camera angle.

また、図9(B)に示す一例では、画像内に複数の被写体が撮像されていることにより、AF評価領域650〜AF評価領域670が、各被写体の領域に定められているとする。ユーザが操作部180をダイヤル操作した場合、領域抽出部142は、合焦させる対象の領域を定める。例えば、領域抽出部142は、合焦させる対象の領域として、AF評価領域660内の被写体の領域を定めたとする。以降、領域抽出部142は、ユーザがカメラアングルを変更した場合でも、AF評価領域660内の被写体の領域に合焦させる。   In the example shown in FIG. 9B, it is assumed that an AF evaluation area 650 to an AF evaluation area 670 is defined as an area of each subject because a plurality of subjects are captured in the image. When the user performs a dial operation on the operation unit 180, the region extraction unit 142 determines a region to be focused. For example, it is assumed that the region extraction unit 142 determines a subject region in the AF evaluation region 660 as a target region to be focused. Thereafter, the area extraction unit 142 focuses on the subject area in the AF evaluation area 660 even when the user changes the camera angle.

<被写体を検出した位置に基づいて、領域を抽出する場合>
領域抽出部142は、顔検出処理の結果が示す画像内の位置に基づいて、第2領域を抽出する。ここで、顔検出処理には、人の顔の位置及び向き等を検出するための処理のほか、動物の顔の位置及び向き等を検出するための処理が含まれている。
<When extracting an area based on the position where the subject is detected>
The area extraction unit 142 extracts the second area based on the position in the image indicated by the result of the face detection process. Here, the face detection processing includes processing for detecting the position and orientation of an animal's face in addition to processing for detecting the position and orientation of a human face.

図10には、被写体を検出した位置に基づいて、抽出した領域の一例が表されている。撮像された画面800に対する顔検出処理により、被写体の顔の位置840及び向きが検出されたとする。領域抽出部142は、位置840から第2領域830を抽出し、抽出した第2領域830にラベルを割り当てる(ラベリング)。   FIG. 10 shows an example of the extracted area based on the position where the subject is detected. It is assumed that the face position 840 and the orientation of the subject's face are detected by the face detection process for the imaged screen 800. The region extraction unit 142 extracts the second region 830 from the position 840 and assigns a label to the extracted second region 830 (labeling).

また、領域抽出部142は、被写体の顔の向きと、被写体の顔の位置840とに基づいて、被写体の胴体が撮像されていると推測される位置850〜位置870を定める。ここで、被写体の顔の位置と、被写体の顔の向きと、被写体の胴体が撮像されていると推測される位置との対応関係を表す情報は、記憶部145に予め記憶されているとする。また、領域抽出部142は、位置850〜位置870から、被写体の胴体が撮像されていると推測される第2領域880を抽出し、抽出した第2領域880にラベルを割り当てる。   Further, the region extraction unit 142 determines a position 850 to a position 870 where the subject's body is estimated to be imaged based on the orientation of the subject's face and the position 840 of the subject's face. Here, it is assumed that information representing a correspondence relationship between the position of the subject's face, the orientation of the subject's face, and the position where the subject's body is estimated to be captured is stored in the storage unit 145 in advance. . In addition, the region extraction unit 142 extracts a second region 880 that is estimated that the subject's body is imaged from the position 850 to the position 870, and assigns a label to the extracted second region 880.

<人及び動物が撮像された画像から領域を抽出する場合>
図11は、人及び動物が撮像された画像から領域を抽出する処理の手順を表すフローチャートである。領域抽出部142は、領域を抽出する処理に用いる変数などを初期化する(ステップS1)。特徴量算出部141は、撮像された画像がリサイズされたクロップ画像(64×40画素)を、バッファメモリ部130を介して画像特徴量毎に読み込む(ステップS2)。
<When extracting regions from images of humans and animals>
FIG. 11 is a flowchart illustrating a procedure of processing for extracting a region from an image in which a person and an animal are captured. The area extraction unit 142 initializes variables used for the process of extracting an area (step S1). The feature amount calculation unit 141 reads a cropped image (64 × 40 pixels) obtained by resizing the captured image for each image feature amount via the buffer memory unit 130 (step S2).

特徴量算出部141は、クロップ画像に対して顔検出処理を実行し、処理結果を領域抽出部142に出力する。領域抽出部142は、クロップ画像に人の顔が検出されたか否かを、処理結果に基づいて判定する(ステップS3)。   The feature amount calculation unit 141 performs face detection processing on the cropped image and outputs the processing result to the region extraction unit 142. The region extraction unit 142 determines whether a human face is detected in the cropped image based on the processing result (step S3).

クロップ画像に人の顔が検出された場合(ステップS3−Yes)、領域抽出部142は、人の顔を含む枠画像を表示し、表示した枠の内側の面積が一定値(例えば、クロップ画像の面積に対して、16分の1の面積)以上あるか否かを判定する(ステップS4)。   When a human face is detected in the cropped image (step S3-Yes), the region extracting unit 142 displays a frame image including the human face, and the area inside the displayed frame is a constant value (for example, the cropped image). It is determined whether or not the area is equal to or larger than 1/16 of the area (step S4).

表示した枠の内側の面積が一定値未満である場合(ステップS4−No)、領域抽出部142は、人の顔が撮像されている領域と、胴体が撮像されていると推測される領域とを、人の顔が検出された位置に基づいて抽出する(ステップS5)。また、領域抽出部142は、輝度及び色差(YUV,YCrCb)等に基づいて、クロップ画像の例えば画角中心の近傍から、第2領域を抽出する(ステップS6)。   When the area inside the displayed frame is less than a certain value (step S <b> 4 -No), the region extraction unit 142 includes a region where a human face is imaged and a region where a torso is imaged. Are extracted based on the position where the human face is detected (step S5). Further, the region extraction unit 142 extracts the second region from, for example, the vicinity of the center of the angle of view of the cropped image based on the luminance, the color difference (YUV, YCrCb), and the like (Step S6).

判定部143は、予め定められた条件に基づいて、領域抽出部142が抽出した第1領域及び第2領域に対して、足きり及び統合を実行する。例えば、判定部143は、所定閾値よりも面積が小さい複数の領域が画像内で近接している場合、それらの領域を統合する(ステップS7)。また、判定部143は、第1領域及び第2領域のうち評価が高い順に領域(例えば、1位〜4位の領域)を、画像特徴量の種別毎に選択する(ステップS8)。   Based on a predetermined condition, the determination unit 143 performs the addition and integration on the first region and the second region extracted by the region extraction unit 142. For example, when a plurality of regions having an area smaller than the predetermined threshold are close to each other in the image, the determination unit 143 integrates these regions (step S7). In addition, the determination unit 143 selects a region (for example, the first to fourth regions) in descending order of evaluation among the first region and the second region for each type of image feature amount (step S8).

また、優先度設定部144は、判定部143が選択した第1領域及び第2領域に、優先度を設定する。また、領域抽出部142は、優先度設定部144が設定した優先度が最も高い領域に、AF評価領域を設定する(ステップS9)。CPU190は、AF評価領域のコントラスト値に基づいて、焦点調整(AF)処理を実行する。   Further, the priority setting unit 144 sets priorities for the first area and the second area selected by the determination unit 143. Further, the area extracting unit 142 sets the AF evaluation area in the area having the highest priority set by the priority setting unit 144 (step S9). The CPU 190 executes a focus adjustment (AF) process based on the contrast value of the AF evaluation area.

なお、CPU190は、領域抽出部142が選択した領域の画像特徴量に基づいて、領域を画像から切り出す処理、被写体を分類する処理、ダイナミックレンジを調整する処理、画像を強調する処理、露出調整(AE)、ホワイトバランス調整(AWB)、被写体像(オブジェクト)の追尾、夜景か否かの判定、色補正処理、被写体像の拡大表示、パンニング表示、ズーム倍率に連動した明るさの最適化などを制御する。   It should be noted that the CPU 190 performs processing for extracting a region from the image, processing for classifying a subject, processing for adjusting a dynamic range, processing for enhancing an image, processing for enhancing an image, and exposure adjustment (exposure adjustment) AE), white balance adjustment (AWB), tracking of the subject image (object), determination of whether it is a night scene, color correction processing, enlarged display of the subject image, panning display, optimization of brightness linked to the zoom magnification, etc. Control.

一方、ステップS3において、クロップ画像に人の顔が検出されていない場合(ステップS3−No)、領域抽出部142は、クロップ画像に動物(ペット)の顔が検出されているか否かを判定する(ステップS10)。クロップ画像に動物の顔が検出されている場合(ステップS10−Yes)、領域抽出部142は、胴体が撮像されていると推測される第2領域を、動物の顔の周辺から抽出する(ステップS11)。   On the other hand, if no human face is detected in the cropped image in step S3 (step S3-No), the region extraction unit 142 determines whether an animal (pet) face is detected in the cropped image. (Step S10). When the animal face is detected in the cropped image (step S10-Yes), the region extracting unit 142 extracts the second region in which the torso is imaged from the periphery of the animal face (step S10). S11).

また、領域抽出部142は、動物の顔を含む枠画像を表示し、表示した枠の内側の面積が一定値(例えば、クロップ画像の面積に対して、16分の1の面積)以上あるか否かを判定する(ステップS12)。表示した枠の内側の面積が一定値以上ある場合(ステップS12−Yes)、領域抽出部142は、処理をステップS9に進める。   In addition, the region extraction unit 142 displays a frame image including the animal's face, and whether the area inside the displayed frame is equal to or greater than a certain value (for example, 1/16 of the area of the crop image). It is determined whether or not (step S12). When the area inside the displayed frame is greater than or equal to a certain value (step S12—Yes), the region extraction unit 142 advances the process to step S9.

一方、ステップS4において、表示した枠の内側の面積が一定値以上ある場合(ステップS4−Yes)、領域抽出部142は、上半身が撮像されていると推測される領域を、人の顔の周辺から抽出する(ステップS13)。領域抽出部142は、処理をステップS9に進める。   On the other hand, if the area inside the displayed frame is greater than or equal to a certain value in step S4 (step S4-Yes), the region extraction unit 142 determines the region that is estimated that the upper body has been imaged as the periphery of the human face. (Step S13). The area extracting unit 142 proceeds with the process to step S9.

また、ステップS10において、クロップ画像に動物の顔が検出されていない場合(ステップS10−No)、領域抽出部142は、処理をステップS6に進める。また、ステップS12において、表示した枠の内側の面積が一定値未満である場合(ステップS12−No)、領域抽出部142は、処理をステップS6に進める。   In step S10, if no animal face is detected in the cropped image (step S10-No), the region extraction unit 142 advances the process to step S6. In step S12, when the area inside the displayed frame is less than a certain value (step S12-No), the region extraction unit 142 advances the process to step S6.

次に、領域抽出装置の処理の手順を説明する。
図12は、領域に合焦させるまでの処理の手順を表すフローチャートである。特徴量算出部141は、撮像された画像(スルー画像、又はスルー画像列)を、バッファメモリ部130から取り込み(ステップSa1)、取り込んだ画像に対して、基本的な画像処理を実行する(ステップSa2)。
Next, the processing procedure of the region extraction apparatus will be described.
FIG. 12 is a flowchart illustrating a processing procedure until focusing on an area. The feature amount calculation unit 141 captures a captured image (through image or through image sequence) from the buffer memory unit 130 (Step Sa1), and executes basic image processing on the captured image (Step S1). Sa2).

領域抽出部142は、撮像された画像がリサイズされたクロップ画像(64×40画素)を、バッファメモリ部130を介して画像特徴量毎に読み込む(ステップSa3)。領域抽出部142は、クロップ画像における複数の画像特徴量に基づいて、2値化画像を作成する(ステップSa4)。また、領域抽出部142は、2値化画像から第1領域及び第2領域を抽出し、抽出した領域にラベルを割り当てる(ステップSa5)。   The area extraction unit 142 reads a cropped image (64 × 40 pixels) obtained by resizing the captured image for each image feature amount via the buffer memory unit 130 (step Sa3). The region extraction unit 142 creates a binarized image based on a plurality of image feature amounts in the crop image (step Sa4). In addition, the region extraction unit 142 extracts the first region and the second region from the binarized image, and assigns a label to the extracted region (step Sa5).

判定部143は、ノイズと推定される領域が画像にある場合、それらの領域を画像から除去(足きり)する(ステップSa6)。また、判定部143は、背景と推定される領域が画像にある場合、その領域を画像から除去する(ステップSa7)。   If there are regions estimated to be noise in the image, the determination unit 143 removes (adds) those regions from the image (step Sa6). Further, when the region estimated to be the background is in the image, the determination unit 143 removes the region from the image (step Sa7).

優先度設定部144は、予め定められた条件を満たす第1領域及び第2領域に、画像における「領域の優先度」を定める(ステップSa8)。また、領域抽出部142は、優先度設定部144が優先度を定めた領域を、AF評価領域に合うよう矩形に整形する(ステップSa9)。CPU190は、AF評価領域のコントラスト値に基づいて、コントラスト・スキャン(焦点調整処理)を実行する(ステップSa10)。また、CPU190は、コントラスト・スキャンの結果に基づいて、至近に在る被写体が撮像されている領域を優先し、その領域に合焦させる(ステップSa11)。   The priority setting unit 144 determines “region priority” in the image in the first region and the second region that satisfy a predetermined condition (step Sa8). In addition, the area extraction unit 142 shapes the area for which the priority setting unit 144 determines the priority into a rectangle so as to fit the AF evaluation area (step Sa9). The CPU 190 executes a contrast scan (focus adjustment process) based on the contrast value of the AF evaluation area (step Sa10). Further, the CPU 190 gives priority to the area where the subject in close proximity is imaged based on the result of the contrast scan, and focuses the area (step Sa11).

以上のように、領域抽出装置140は、撮像された画像から画像特徴量(例えば、色情報(色相、色差)、彩度、輝度)に基づいて第1領域(例えば、第1領域340Y、第1領域350Y)を抽出し、且つ、前記画像に定められた位置から画像特徴量に基づいて第2領域(例えば、第2領域320Y、第2領域420Y、第2領域430Y)(特例的マスク)を抽出する領域抽出部142と、予め定められた条件(例えば、領域の分布条件)を前記第1領域及び前記第2領域の少なくとも一方が満たすか否かを判定し、前記第1領域及び前記第2領域のうち、前記予め定められた条件を満たす前記第1領域及び前記第2領域(最終マスク)を選択する判定部143と、判定部143が選択した前記第1領域及び前記第2領域の分布を記憶する記憶部145と、を備える。
この構成により、領域抽出部142は、撮像された画像から画像特徴量に基づいて第1領域を抽出し、前記画像に定められた位置から画像特徴量に基づいて第2領域を抽出する。また、判定部143は、予め定められた条件を満たす前記第1領域及び前記第2領域を選択する。これにより、領域抽出装置は、撮像された画像から主要被写体の領域を抽出することができる。
As described above, the region extraction device 140 uses the first region (for example, the first region 340Y, the first region) based on the image feature amount (for example, color information (hue, color difference), saturation, luminance) from the captured image. 1 region 350Y) and a second region (for example, the second region 320Y, the second region 420Y, the second region 430Y) based on the image feature amount from the position determined in the image (special mask) A region extraction unit 142 that extracts a predetermined condition (for example, a region distribution condition), and determines whether at least one of the first region and the second region satisfies the first region and the second region; Among the second regions, a determination unit 143 that selects the first region and the second region (final mask) satisfying the predetermined condition, and the first region and the second region selected by the determination unit 143 Remember the distribution of A storage unit 145, a.
With this configuration, the region extraction unit 142 extracts a first region from the captured image based on the image feature amount, and extracts a second region from the position determined in the image based on the image feature amount. The determination unit 143 selects the first region and the second region that satisfy a predetermined condition. Thereby, the area extracting apparatus can extract the area of the main subject from the captured image.

また、領域抽出部142は、画角中心(例えば、画角中心310Y)又は前記画角中心の近傍(例えば、位置470a)における画像特徴量に基づいて、前記画角中心の近傍から前記第2領域を抽出する。
これにより、領域抽出装置は、画角中心又は前記画角中心の近傍に撮像された画像から、主要被写体の領域を抽出することができる。
In addition, the region extracting unit 142 performs the second operation from the vicinity of the angle of view based on the image feature amount at the view angle center (for example, the view angle center 310Y) or the vicinity of the view angle center (for example, the position 470a). Extract regions.
Thereby, the area extracting apparatus can extract the area of the main subject from the image captured at the center of the angle of view or near the center of the angle of view.

また、領域抽出部142は、検出された顔の位置(例えば、位置840)に基づいて、前記第2領域(例えば、第2領域830、第2領域880)を抽出する。
これにより、領域抽出装置は、検出された顔の位置に基づいて、撮像された画像から主要被写体の領域を抽出することができる。
Further, the region extraction unit 142 extracts the second region (for example, the second region 830 and the second region 880) based on the detected face position (for example, the position 840).
Thereby, the area extracting apparatus can extract the area of the main subject from the captured image based on the detected face position.

また、領域抽出装置140は、前記画像に定められた位置を指定するための操作入力を受け付ける操作部180を備え、領域抽出部142は、前記操作入力により指定された前記画像に定められた位置に基づいて、前記第2領域を抽出する。
これにより、領域抽出装置は、前記操作入力により指定された前記画像に定められた位置に撮像された画像から、主要被写体の領域を抽出することができる。
In addition, the region extraction device 140 includes an operation unit 180 that receives an operation input for designating a position determined in the image, and the region extraction unit 142 includes a position determined in the image specified by the operation input. Based on the above, the second region is extracted.
Thereby, the area extracting apparatus can extract the area of the main subject from the image captured at the position determined in the image specified by the operation input.

また、判定部143は、前記第1領域及び前記第2領域に予め定められた分布条件(例えば、固まりの度合い)に基づいて、前記分布条件を満たす前記第1領域及び前記第2領域を選択する。
これにより、領域抽出装置は、撮像された画像から主要被写体の領域を、予め定められた分布条件に基づいて抽出することができる。
In addition, the determination unit 143 selects the first region and the second region that satisfy the distribution condition based on distribution conditions (for example, the degree of lumping) that are determined in advance in the first region and the second region. To do.
Thereby, the area extracting apparatus can extract the area of the main subject from the captured image based on a predetermined distribution condition.

また、領域抽出部142は、画像特徴量のヒストグラムに基づいて、前記第2領域を抽出する。
これにより、領域抽出装置は、撮像された画像から主要被写体の領域を、画像特徴量のヒストグラムに基づいて抽出することができる。
Further, the region extraction unit 142 extracts the second region based on a histogram of image feature values.
Thereby, the area extracting apparatus can extract the area of the main subject from the captured image based on the histogram of the image feature amount.

また、撮像装置100は、前記第1領域及び前記第2領域に優先度を定める優先度設定部144を有する領域抽出装置140と、前記第1領域及び前記第2領域のうち、前記優先度設定部が定めた優先度が高い領域に合焦させるよう、焦点を調節するCPU190と、前記優先度が高い領域に合焦した状態の前記画像を撮像する撮像部110と、を備える。
この構成により、撮像装置は、優先度が高い領域に合焦させるよう焦点を調節する。これにより、撮像装置は、撮像された画像から抽出した主要被写体の領域に合焦した状態の画像を、撮像することができる。
In addition, the imaging apparatus 100 includes a region extraction device 140 having a priority setting unit 144 that determines priority in the first region and the second region, and the priority setting among the first region and the second region. A CPU 190 that adjusts the focus so as to focus on a region with a high priority determined by the unit, and an imaging unit 110 that captures the image in a state of focusing on the region with a high priority.
With this configuration, the imaging apparatus adjusts the focal point so as to focus on a high priority area. Thereby, the imaging device can capture an image in a state in which the region of the main subject extracted from the captured image is in focus.

以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。   The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes designs and the like that do not depart from the gist of the present invention.

例えば、領域抽出装置140は、記憶媒体200に記憶されていた画像に含まれる被写体像の領域の分布を表す情報、及びその領域の特徴量を表す情報を、記憶媒体200に記憶させてもよい。   For example, the region extraction device 140 may cause the storage medium 200 to store information indicating the distribution of the region of the subject image included in the image stored in the storage medium 200 and information indicating the feature amount of the region. .

また、上記に説明した領域抽出装置、撮像装置を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより、実行処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものであってもよい。   Further, by recording a program for realizing the region extraction device and the imaging device described above on a computer-readable recording medium, causing the computer system to read and execute the program recorded on the recording medium, Execution processing may be performed. Here, the “computer system” may include an OS and hardware such as peripheral devices.

また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、フラッシュメモリ等の書き込み可能な不揮発性メモリ、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。   Further, the “computer system” includes a homepage providing environment (or display environment) if a WWW system is used. The “computer-readable recording medium” means a flexible disk, a magneto-optical disk, a ROM, a writable nonvolatile memory such as a flash memory, a portable medium such as a CD-ROM, a hard disk built in a computer system, etc. This is a storage device.

さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(例えばDRAM(Dynamic Random Access Memory))のように、一定時間プログラムを保持しているものも含むものとする。
また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。
また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。
さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。
Further, the “computer-readable recording medium” refers to a volatile memory (for example, DRAM (Dynamic) in a computer system serving as a server or a client when a program is transmitted via a network such as the Internet or a communication line such as a telephone line. Random Access Memory)) that holds a program for a certain period of time is also included.
The program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the “transmission medium” for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line.
The program may be for realizing a part of the functions described above.
Furthermore, what can implement | achieve the function mentioned above in combination with the program already recorded on the computer system, and what is called a difference file (difference program) may be sufficient.

100…撮像装置、110…撮像部、111…レンズ鏡筒、140…領域抽出装置、141…特徴量算出部、142…領域抽出部、143…判定部、144…優先度設定部、145…記憶部 DESCRIPTION OF SYMBOLS 100 ... Imaging device, 110 ... Imaging part, 111 ... Lens barrel, 140 ... Area extraction device, 141 ... Feature quantity calculation part, 142 ... Area extraction part, 143 ... Determination part, 144 ... Priority setting part, 145 ... Memory | storage Part

Claims (8)

焦点調整レンズの位置調節に用いるコントラスト値を算出する領域を抽出する領域抽出装置であって、
画像に含まれる複数の被写体領域のうち、色情報又は輝度情報により第1被写体領域を抽出する第1領域抽出部と、
複数の前記被写体領域のうち、前記画像の画角中心を含む領域に前記被写体領域の少なくとも一部の領域が含まれている第2被写体領域を抽出する第2領域抽出部と、
記第1被写体領域及び前記第2被写体領域のうち、前記コントラスト値を算出する特定被写体領域を選択する判定部と
備える領域抽出装置。
An area extraction device for extracting an area for calculating a contrast value used for position adjustment of a focus adjustment lens,
A first region extraction unit that extracts a first subject region from color information or luminance information among a plurality of subject regions included in the image;
A second region extraction unit that extracts a second subject region in which at least a part of the subject region is included in a region including the center of the angle of view of the image among the plurality of subject regions ;
Among pre Symbol first object region and the second object region, and a determination unit for selecting a specific object region for calculating the contrast value,
Ru with a realm extraction device.
前記判定部は、動いている領域を前記特定被写体領域として選択する請求項1に記載の領域抽出装置。 The region extraction device according to claim 1, wherein the determination unit selects a moving region as the specific subject region . 前記判定部は、前記第1被写体領域及び前記第2被写体領域の輝度情報により前記特定被写体領域を選択する請求項1又は請求項2に記載の領域抽出装置。 The area extracting device according to claim 1 , wherein the determination unit selects the specific subject area based on luminance information of the first subject area and the second subject area . 前記判定部は、前記第1被写体領域及び前記第2被写体領域の彩度情報により前記特定被写体領域を選択する請求項1から請求項3のいずれか一項に記載の領域抽出装置。 4. The region extraction device according to claim 1, wherein the determination unit selects the specific subject region based on saturation information of the first subject region and the second subject region . 5. 前記判定部は、前記第1被写体領域及び前記第2被写体領域のうち、特定の色相を有する被写体領域を前記特定被写体領域として選択する請求項1から請求項4のいずれか一項に記載の領域抽出装置。 The determination unit of the first object region and the second object region, according to any one of claims 4 to subject area having a specific hue from Motomeko 1 you select as the specific subject area Area extraction device. 前記判定部は、前記第1被写体領域及び前記第2被写体領域のうち、特定の彩度を有する被写体領域を前記特定被写体領域として選択する請求項1から請求項5のいずれか一項に記載の領域抽出装置。 6. The determination unit according to claim 1 , wherein the determination unit selects, as the specific subject region, a subject region having a specific saturation from the first subject region and the second subject region. Region extraction device. 求項1から請求項6のいずれか一項に記載の領域抽出装置を備える撮像装置。 Provided that imaging device area extraction equipment according to any of claims 6 Motomeko 1. コンピュータに、
像に含まれる複数の被写体領域のうち、色情報又は輝度情報により第1被写体領域を抽出する手順と、
複数の前記被写体領域のうち、前記画像の画角中心を含む領域に前記被写体領域の少なくとも一部の領域が含まれている第2被写体領域を抽出する手順と、
前記第1被写体領域及び前記第2被写体領域のうち、焦点調整レンズの位置調節に用いるコントラスト値を算出する特定被写体領域を選択する手順と、
を実行させるための領域抽出プログラム。
On the computer,
Among a plurality of the subject region contained in the images, the procedure for extracting a first object region by the color information or luminance information,
A procedure for extracting a second subject region in which at least a part of the subject region is included in a region including the center of the angle of view of the image among the plurality of subject regions;
A procedure for selecting a specific subject region for calculating a contrast value used for position adjustment of a focus adjustment lens from among the first subject region and the second subject region ;
Extraction program to execute.
JP2011160754A 2011-07-22 2011-07-22 Region extraction device, imaging device, and region extraction program Active JP5871175B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011160754A JP5871175B2 (en) 2011-07-22 2011-07-22 Region extraction device, imaging device, and region extraction program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011160754A JP5871175B2 (en) 2011-07-22 2011-07-22 Region extraction device, imaging device, and region extraction program

Publications (2)

Publication Number Publication Date
JP2013025614A JP2013025614A (en) 2013-02-04
JP5871175B2 true JP5871175B2 (en) 2016-03-01

Family

ID=47783884

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011160754A Active JP5871175B2 (en) 2011-07-22 2011-07-22 Region extraction device, imaging device, and region extraction program

Country Status (1)

Country Link
JP (1) JP5871175B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6257198B2 (en) * 2013-07-22 2018-01-10 キヤノン株式会社 Optical apparatus, control method therefor, and control program
JP6631161B2 (en) * 2015-10-29 2020-01-15 株式会社ニコン Image processing device, imaging device, control program

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009059326A (en) * 2007-08-06 2009-03-19 Nikon Corp Imaging apparatus
JP2009081530A (en) * 2007-09-25 2009-04-16 Fujifilm Corp Imaging apparatus and imaging method
JP5246078B2 (en) * 2009-07-10 2013-07-24 株式会社ニコン Object location program and camera
JP5395650B2 (en) * 2009-12-24 2014-01-22 キヤノン株式会社 Subject area extraction device and control method thereof, subject tracking device, and program

Also Published As

Publication number Publication date
JP2013025614A (en) 2013-02-04

Similar Documents

Publication Publication Date Title
JP4862930B2 (en) Image processing apparatus, image processing method, and program
US8446488B2 (en) Method and system for focal length-specific color enhancement
US20150208001A1 (en) Imaging device, imaging method, and program
JP6723092B2 (en) Imaging device, control method thereof, and program
KR20130009788A (en) Image processing apparatus, method, and computer program storage device
JP2009053448A (en) Electronic camera
JP2017201818A (en) Area extraction device
JP6156532B2 (en) Region extraction device, imaging device, and region extraction program
US20230386166A1 (en) Image processing apparatus and electronic apparatus
JP5871175B2 (en) Region extraction device, imaging device, and region extraction program
JP5515492B2 (en) Image processing apparatus and method
JP5786460B2 (en) Region extraction device, imaging device, and region extraction program
JP5899693B2 (en) Region extraction device, imaging device, and region extraction program
JP5786544B2 (en) Image processing apparatus, imaging apparatus, and program
JP5278483B2 (en) Imaging apparatus, imaging method, and imaging program
JP6508259B2 (en) Imaging device and program
JP5899700B2 (en) Region extraction device, imaging device, and region extraction program
JP5888069B2 (en) Area determination apparatus, imaging apparatus, and area determination program
JP6131519B2 (en) Image processing apparatus, imaging apparatus, and image processing program
JP6350562B2 (en) Region extraction device, imaging device, and region extraction program
JP2019126090A (en) Imaging apparatus and program
JP5287965B2 (en) Image processing apparatus, image processing method, and program
JP2017118341A (en) Image processing device, imaging device, electronic apparatus, and image processing program
JP5677080B2 (en) Image processing apparatus and control method thereof
JP2018181357A (en) Region extraction device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140624

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150326

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150414

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150612

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151218

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151231

R150 Certificate of patent or registration of utility model

Ref document number: 5871175

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250