JP5609425B2 - Image processing apparatus, imaging apparatus, and image processing program - Google Patents

Image processing apparatus, imaging apparatus, and image processing program Download PDF

Info

Publication number
JP5609425B2
JP5609425B2 JP2010187391A JP2010187391A JP5609425B2 JP 5609425 B2 JP5609425 B2 JP 5609425B2 JP 2010187391 A JP2010187391 A JP 2010187391A JP 2010187391 A JP2010187391 A JP 2010187391A JP 5609425 B2 JP5609425 B2 JP 5609425B2
Authority
JP
Japan
Prior art keywords
region
area
image
detection unit
score
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010187391A
Other languages
Japanese (ja)
Other versions
JP2012049628A (en
Inventor
鉾井 逸人
逸人 鉾井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2010187391A priority Critical patent/JP5609425B2/en
Publication of JP2012049628A publication Critical patent/JP2012049628A/en
Application granted granted Critical
Publication of JP5609425B2 publication Critical patent/JP5609425B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Description

本発明は、画像に含まれる領域を識別する画像処理装置、撮像装置、及び画像処理プログラムに関する。   The present invention relates to an image processing device, an imaging device, and an image processing program for identifying a region included in an image.

画像の特徴量のヒストグラムに基づいて、撮像された画像から領域を抽出し、抽出した領域を識別する画像処理装置が開示されている(特許文献1参照)。   An image processing apparatus that extracts a region from a captured image and identifies the extracted region based on a histogram of image feature values is disclosed (see Patent Document 1).

特開平4−10079号公報Japanese Patent Laid-Open No. 4-10079

しかしながら、特許文献1に開示された画像処理装置は、撮像された画像から人が注目する領域を抽出すること、すなわち、主要被写体の領域を予測することができなかった。   However, the image processing apparatus disclosed in Patent Document 1 cannot extract a region that is noticed by a person from a captured image, that is, cannot predict a region of a main subject.

本発明は、前記の点に鑑みてなされたものであり、撮像された画像から主要被写体の領域を予測することができる画像処理装置、撮像装置、及び画像処理プログラムを提供することを目的とする。   SUMMARY An advantage of some aspects of the invention is that it provides an image processing apparatus, an imaging apparatus, and an image processing program capable of predicting a region of a main subject from a captured image. .

本発明は、上記の課題を解決するためになされたものであり、画像における複数の特徴毎に、当該特徴の特徴量を算出する特徴量算出部と、前記画像に含まれる領域であって前記特徴量毎に定まる領域を前記画像から検出し、識別子を設定する領域検出部と、異なる前記特徴の前記特徴量に基づいて検出された前記領域同士を比較するための評点を、前記領域毎に算出する評点算出部と、前記評点に基づいて、前記画像における前記領域の優先度を設定する優先度設定部と、を備えることを特徴とする画像処理装置である。   The present invention has been made to solve the above-described problem, and for each of a plurality of features in an image, a feature amount calculation unit that calculates a feature amount of the feature, and an area included in the image, An area determined for each feature quantity is detected from the image, and an area detection unit for setting an identifier and a score for comparing the areas detected based on the feature quantities of the different features are provided for each area. An image processing apparatus comprising: a score calculation unit to calculate; and a priority setting unit that sets a priority of the region in the image based on the score.

また、本発明は、光学系による像を撮像し、撮像した画像を出力する撮像部と、前記画像における複数の特徴毎に、当該特徴の特徴量を算出する特徴量算出部と、前記画像に含まれる領域であって前記特徴量毎に定まる領域を前記画像から検出し、識別子を設定する領域検出部と、異なる前記特徴の前記特徴量に基づいて検出された前記領域同士を比較するための評点を、前記領域毎に算出する評点算出部と、前記評点に基づいて、前記画像における前記領域の優先度を設定する優先度設定部と、を備えることを特徴とする撮像装置である。   In addition, the present invention provides an imaging unit that captures an image by an optical system and outputs the captured image, a feature amount calculation unit that calculates a feature amount of the feature for each of a plurality of features in the image, and the image An area that is included and that is determined for each feature quantity is detected from the image, and an area detection unit that sets an identifier is compared with the areas detected based on the feature quantities of different features An imaging apparatus comprising: a score calculation unit that calculates a score for each region; and a priority setting unit that sets a priority of the region in the image based on the score.

また、本発明は、コンピュータに、画像における複数の特徴毎に、当該特徴の特徴量を検出する手順と、前記画像に含まれる領域であって前記特徴量毎に定まる領域を前記画像から検出し、識別子を設定する手順と、異なる前記特徴の前記特徴量に基づいて検出された前記領域同士を比較するための評点を、前記領域毎に算出する評点算出部と、前記評点に基づいて、前記画像における前記領域の優先度を設定する優先度設定部と、を実行させるための画像処理プログラムである。   In addition, the present invention also allows a computer to detect a feature amount of a feature for each of a plurality of features in an image and a region that is included in the image and that is determined for each feature amount from the image. , A procedure for setting an identifier, a score for comparing the areas detected based on the feature quantities of the different features, a score calculation unit that calculates for each area, and based on the scores, An image processing program for executing a priority setting unit that sets the priority of the area in the image.

本発明によれば、画像処理装置は、撮像された画像から主要被写体の領域を予測することができる。   According to the present invention, the image processing apparatus can predict the area of the main subject from the captured image.

レンズ鏡筒111と、画像処理装置140を備える撮像装置100と、記憶媒体200との構成を示すブロック図である。2 is a block diagram illustrating a configuration of a lens barrel 111, an imaging device 100 including an image processing device 140, and a storage medium 200. FIG. 画像処理装置140における画像処理の概要を示すフローチャートである。4 is a flowchart illustrating an outline of image processing in the image processing apparatus 140. スルー画像において被写体をフレーミングし、被写体像をトラッキングする場合における画像処理装置140の画像処理手順を示すフローチャートである。12 is a flowchart illustrating an image processing procedure of the image processing apparatus 140 when framing a subject in a through image and tracking a subject image. CPU190が操作部180を介して撮影指示を受け付けた場合に、画像処理装置140が実行する画像処理の手順を示すフローチャートである。6 is a flowchart illustrating a procedure of image processing executed by the image processing apparatus 140 when the CPU 190 receives a shooting instruction via the operation unit 180. スルー画像において、移動する被写体像の領域に、領域検出部142が「動きラベル」を設定する処理の手順を示すフローチャートである。14 is a flowchart illustrating a procedure of processing in which a region detection unit 142 sets a “motion label” in a moving subject image region in a through image. スルー画像において、移動する被写体像を追尾する場合に、領域検出部142が「動きラベル」を設定する処理の手順を示すフローチャートである。10 is a flowchart illustrating a procedure of processing in which a region detection unit 142 sets a “motion label” when tracking a moving subject image in a through image. スルー画像において、降雪、降雨、又は噴水などが撮像されている場合に、領域検出部142が「動きラベル」を設定する処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the process which the area | region detection part 142 sets a "motion label", when snowfall, rainfall, a fountain, etc. are imaged in a through image. 彩度S(C)及び色相hの特徴量毎に検出した領域にラベル付けするラベリング処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the labeling process which labels the area | region detected for every feature-value of saturation S (C) and hue h. 彩度S(C)のヒストグラムと、その部分拡大図である。It is a histogram of saturation S (C) and its partial enlarged view. 領域毎に評点を算出する処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the process which calculates a score for every area | region. 優先ラベル(高い優先度及び評点)を設定した領域に、合焦させる処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the process which focuses on the area | region which set the priority label (high priority and a score). 領域30と、コントラストAF領域40と、色相コントラストとが示された図である。It is the figure where the area | region 30, the contrast AF area | region 40, and the hue contrast were shown. 領域30と、コントラストAF領域40とが示された図である。It is the figure where the area | region 30 and the contrast AF area | region 40 were shown. 領域30の境界(外周)を含む範囲に設定したコントラストAF領域40においてエッジを検出する処理を説明するための図である。FIG. 6 is a diagram for explaining processing for detecting an edge in a contrast AF area 40 set in a range including a boundary (outer periphery) of an area 30; 領域検出部142が検出した領域31と、領域31に設定したコントラストAF領域41と、領域検出部142が検出した領域32と、領域32に設定したコントラストAF領域42と、が示された図である。The area 31 detected by the area detector 142, the contrast AF area 41 set in the area 31, the area 32 detected by the area detector 142, and the contrast AF area 42 set in the area 32 are shown. is there. 領域検出部142が検出した領域と、評点算出部143が算出した評点と、領域検出部142が設定したコントラストAF領域との一例を示す図である。6 is a diagram illustrating an example of a region detected by a region detection unit 142, a score calculated by a score calculation unit 143, and a contrast AF region set by the region detection unit 142. FIG. 色相に基づいて領域を検出する処理手順を示すフローチャートである。It is a flowchart which shows the process sequence which detects an area | region based on a hue. 色相ヒストグラムの一例が示された図である。It is the figure by which an example of the hue histogram was shown. 明度の特徴量に基づいて領域を検出する処理手順を示すフローチャートである。It is a flowchart which shows the process sequence which detects an area | region based on the feature-value of brightness. 角度検出オペレータにより検出するテクスチャに基づいて、領域を検出する処理手順を示すフローチャートである。It is a flowchart which shows the process sequence which detects an area | region based on the texture detected by an angle detection operator. 角度22.5度ごとにエッジを検出するための8パターンの角度検出オペレータを示す図である。It is a figure which shows the angle detection operator of 8 patterns for detecting an edge for every angle of 22.5 degrees. エッジの角度毎に、エッジの特徴量(パワー値、ΣP)を示すヒストグラムの例を示す図である。It is a figure which shows the example of the histogram which shows the feature-value (power value, (SIGMA) P) of an edge for every angle of an edge. テクスチャに基づいて領域検出部142が検出した領域の例を示す図である。It is a figure which shows the example of the area | region which the area | region detection part 142 detected based on the texture. DCT係数に基づいて、領域検出部142が領域を検出する処理手順を示すフローチャートである。It is a flowchart which shows the process sequence in which the area | region detection part 142 detects an area | region based on a DCT coefficient. DCT係数に基づいて、領域検出部142が領域を検出する処理を説明するための図である。It is a figure for demonstrating the process which the area | region detection part 142 detects an area | region based on a DCT coefficient. 高周波帯域のDCT係数に基づいて、領域検出部142が検出した領域の評点に、評点算出部143が評点を加算する処理を説明するための図である。It is a figure for demonstrating the process in which the score calculation part 143 adds a score to the score of the area | region which the area | region detection part 142 detected based on the DCT coefficient of the high frequency band. エッジの特徴量に基づいて、領域検出部142が領域を検出する処理手順を示すフローチャートである。It is a flowchart which shows the process sequence in which the area | region detection part 142 detects an area | region based on the feature-value of an edge. ラベル又は優先度(評点)に基づく露光(AE)処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the exposure (AE) process based on a label or a priority (score). ラベル又は優先度(評点)に基づくホワイトバランス調整(AWB)処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the white balance adjustment (AWB) process based on a label or a priority (score). 画像処理装置140による画像の再生表示を含めた基本的な画像処理手順を示すフローチャートである。4 is a flowchart illustrating a basic image processing procedure including reproduction display of an image by the image processing apparatus 140. ラベル又は優先度(評点)に基づく再生表示の手順を示すフローチャートである。It is a flowchart which shows the procedure of the reproduction | regeneration display based on a label or a priority (score). ラベル又は優先度(評点)に基づく再生表示の手順を示すフローチャートである。It is a flowchart which shows the procedure of the reproduction | regeneration display based on a label or a priority (score). 領域を結合する処理、及び領域を分割する処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the process which combines an area | region, and the process which divides | segments an area | region. 第1の特徴の特徴量に基づいて検出した第1の領域50と、第2の特徴の特徴量に基づいて検出した第2の領域51とを示す図である。It is a figure which shows the 1st area | region 50 detected based on the feature-value of a 1st feature, and the 2nd area | region 51 detected based on the feature-value of a 2nd feature. デプスマップの例を示す図である。It is a figure which shows the example of a depth map. 領域検出部142が検出した領域の結合処理及びグルーピング処理を説明するための図である。It is a figure for demonstrating the joining process and grouping process of the area | region which the area | region detection part 142 detected. 領域検出部142が検出した領域の分割処理を説明するための図である。It is a figure for demonstrating the division | segmentation process of the area | region which the area | region detection part 142 detected. 領域検出部142が、領域の射影に基づいて、背景を示す領域を検出する処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the process which the area | region detection part 142 detects the area | region which shows a background based on the projection of an area | region. 背景を示す領域を検出する処理を説明するための図である。It is a figure for demonstrating the process which detects the area | region which shows a background. 背景を示す領域を検出する処理を説明するための図である。It is a figure for demonstrating the process which detects the area | region which shows a background. 焦点調整(AF)領域が固定されている場合における合焦動作の手順を示すフローチャートである。It is a flowchart which shows the procedure of the focusing operation | movement in case a focus adjustment (AF) area | region is being fixed. 夜景Pを撮像する場合における合焦動作の手順を示すフローチャートである。It is a flowchart which shows the procedure of the focusing operation | movement in the case of imaging the night view P. 夜景Pを撮像する場合における、顔検出ができる場合と、顔検出ができない場合との合焦動作の手順を示すフローチャートである。It is a flowchart which shows the procedure of the focusing operation | movement with the case where face detection is possible and the case where face detection is impossible in the case of imaging the night view P.

[第1実施形態]
本発明の第1実施形態について図面を参照して詳細に説明する。図1には、レンズ鏡筒111と、画像処理装置140を備える撮像装置100と、記憶媒体200との構成がブロック図で示されている。撮像装置100は、レンズ鏡筒111から入射される光学像を撮像し、得られた画像を静止画又は動画の画像として、記憶媒体200に記憶させる。
[First Embodiment]
A first embodiment of the present invention will be described in detail with reference to the drawings. FIG. 1 is a block diagram illustrating the configuration of a lens barrel 111, an imaging device 100 including an image processing device 140, and a storage medium 200. The imaging device 100 captures an optical image incident from the lens barrel 111 and stores the obtained image in the storage medium 200 as a still image or a moving image.

まず、レンズ鏡筒111の構成を説明する。
レンズ鏡筒111は、焦点調整レンズ(以下、「AF(Auto Focus)レンズ」という)112と、レンズ駆動部116と、AFエンコーダ117と、鏡筒制御部118を備える。なお、レンズ鏡筒111は、撮像装置100に着脱可能に接続されてもよいし、撮像装置100と一体であってもよい。
First, the configuration of the lens barrel 111 will be described.
The lens barrel 111 includes a focus adjustment lens (hereinafter referred to as “AF (Auto Focus) lens”) 112, a lens driving unit 116, an AF encoder 117, and a lens barrel control unit 118. The lens barrel 111 may be detachably connected to the imaging device 100 or may be integrated with the imaging device 100.

AFレンズ112は、レンズ駆動部116により駆動され、後述する撮像部110の撮像素子119の受光面(光電変換面)に、光学像を導く。   The AF lens 112 is driven by a lens driving unit 116 and guides an optical image to a light receiving surface (photoelectric conversion surface) of an image sensor 119 of the image capturing unit 110 described later.

AFエンコーダ117は、AFレンズ112の移動を検出し、AFレンズ112の移動量に応じた信号を、鏡筒制御部118に出力する。ここで、AFレンズ112の移動量に応じた信号とは、例えば、AFレンズ112の移動量に応じて位相が変化するサイン(sin)波信号であってもよい。   The AF encoder 117 detects the movement of the AF lens 112 and outputs a signal corresponding to the movement amount of the AF lens 112 to the lens barrel control unit 118. Here, the signal corresponding to the movement amount of the AF lens 112 may be a sine wave signal whose phase changes according to the movement amount of the AF lens 112, for example.

鏡筒制御部118は、撮像装置100のCPU190から入力される駆動制御信号に応じて、レンズ駆動部116を制御する。ここで、駆動制御信号とは、AFレンズ112を光軸方向に駆動させる制御信号である。鏡筒制御部118は、駆動制御信号に応じて、例えば、レンズ駆動部116に出力するパルス電圧のステップ数を変更する。   The lens barrel control unit 118 controls the lens driving unit 116 in accordance with a drive control signal input from the CPU 190 of the imaging apparatus 100. Here, the drive control signal is a control signal for driving the AF lens 112 in the optical axis direction. The lens barrel control unit 118 changes the number of steps of the pulse voltage output to the lens driving unit 116, for example, according to the drive control signal.

また、鏡筒制御部118は、AFレンズ112の移動量に応じた信号に基づいて、レンズ鏡筒111におけるAFレンズ112の位置(フォーカスポジション)を、CPU190に出力する。ここで、鏡筒制御部118は、例えば、AFレンズ112の移動量に応じた信号を、AFレンズ112の移動方向に応じて積算することで、レンズ鏡筒111におけるAFレンズ112の移動量(位置)を算出してもよい。   Further, the lens barrel control unit 118 outputs the position (focus position) of the AF lens 112 in the lens barrel 111 to the CPU 190 based on a signal corresponding to the movement amount of the AF lens 112. Here, the lens barrel control unit 118 integrates, for example, signals according to the movement amount of the AF lens 112 according to the movement direction of the AF lens 112, thereby moving the AF lens 112 in the lens barrel 111 (the movement amount ( Position) may be calculated.

レンズ駆動部116は、鏡筒制御部118の制御に応じてAFレンズ112を駆動し、AFレンズ112をレンズ鏡筒111内で光軸方向に移動させる。   The lens driving unit 116 drives the AF lens 112 in accordance with the control of the lens barrel control unit 118 and moves the AF lens 112 in the optical axis direction within the lens barrel 111.

次に、撮像装置100の構成を説明する。
撮像装置100は、撮像部110と、画像処理装置140と、表示部150と、バッファメモリ部130と、操作部180と、記憶部160と、CPU190と、通信部170とを備える。
Next, the configuration of the imaging device 100 will be described.
The imaging device 100 includes an imaging unit 110, an image processing device 140, a display unit 150, a buffer memory unit 130, an operation unit 180, a storage unit 160, a CPU 190, and a communication unit 170.

撮像部110は、撮像素子119と、A/D(Analog/Digital)変換部120とを備える。撮像部110は、設定された撮像条件(例えば絞り値、露出値等)に従って、CPU190により制御される。   The imaging unit 110 includes an imaging element 119 and an A / D (Analog / Digital) conversion unit 120. The imaging unit 110 is controlled by the CPU 190 in accordance with the set imaging conditions (for example, aperture value, exposure value, etc.).

撮像素子119は、光電変換面を備え、レンズ鏡筒111(光学系)により光電変換面に結像された光学像を電気信号に変換して、A/D変換部120に出力する。撮像素子119は、例えば、CMOS(Complementary Metal Oxide Semiconductor)で構成されていてもよい。また、撮像素子119は、光電変換面の一部の領域について、光学像を電気信号に変換するようにしてもよい(画像切り出し)。   The image sensor 119 includes a photoelectric conversion surface, converts an optical image formed on the photoelectric conversion surface by the lens barrel 111 (optical system) into an electric signal, and outputs the electric signal to the A / D conversion unit 120. The image sensor 119 may be configured by, for example, a CMOS (Complementary Metal Oxide Semiconductor). Further, the image sensor 119 may convert an optical image into an electrical signal for a partial region of the photoelectric conversion surface (image clipping).

また、撮像素子119は、操作部180を介してユーザからの撮影指示を受け付けた際に得られる画像を、A/D変換部120を介して記憶媒体200に記憶させる。一方、撮像素子119は、操作部180を介してユーザからの撮影指示を受け付けていない状態において、連続的に得られる画像をスルー画像として、バッファメモリ部130及び表示部150に、A/D変換部120を介して出力する。   Further, the image sensor 119 stores an image obtained when a shooting instruction from the user is received via the operation unit 180 in the storage medium 200 via the A / D conversion unit 120. On the other hand, the imaging device 119 performs A / D conversion on the buffer memory unit 130 and the display unit 150 as images that are continuously obtained in a state where a shooting instruction from the user is not received via the operation unit 180. Output via the unit 120.

A/D変換部120は、撮像素子119によって変換された電気信号をデジタル化して、デジタル信号である画像をバッファメモリ部130に出力する。   The A / D converter 120 digitizes the electrical signal converted by the image sensor 119 and outputs an image that is a digital signal to the buffer memory unit 130.

操作部180は、例えば、電源スイッチ、シャッタボタン、マルチセレクタ(十字キー)、又はその他の操作キーを備え、ユーザによって操作されることでユーザの操作入力を受け付け、操作入力に応じた信号をCPU190に出力する。   The operation unit 180 includes, for example, a power switch, a shutter button, a multi-selector (cross key), or other operation keys. The operation unit 180 receives a user operation input when operated by the user, and outputs a signal corresponding to the operation input to the CPU 190. Output to.

画像処理装置140は、記憶部160に記憶されている画像処理条件に基づいて、バッファメモリ部130に一時的に記憶されている画像を画像処理する。そして、画像処理された画像は、通信部170を介して記憶媒体200に記憶される。また、画像処理装置140は、バッファメモリ部130に一時的に記憶されている画像から、画像の特徴の特徴量毎に定まる領域と、後述する「領域の情報(ラベル属性)」とを検出する。そして、画像処理装置140は、画像の特徴の特徴量毎に定まる領域と、領域の情報とを対応付けて、記憶部160及び記憶媒体200に記憶させる。   The image processing device 140 performs image processing on the image temporarily stored in the buffer memory unit 130 based on the image processing conditions stored in the storage unit 160. Then, the image-processed image is stored in the storage medium 200 via the communication unit 170. Further, the image processing apparatus 140 detects, from the image temporarily stored in the buffer memory unit 130, an area determined for each feature amount of the image feature and “area information (label attribute)” to be described later. . Then, the image processing apparatus 140 causes the storage unit 160 and the storage medium 200 to store the region determined for each feature amount of the image feature and the region information in association with each other.

ここで、領域の情報(ラベル属性)とは、例えば、画像における領域の分布(位置、形状(慣性モーメント))、面積、数、被写体距離(デフォーカス量)、動きベクトル(差分データ)、色相、彩度、明度、テクスチャ(模様)、エッジ、AFコントラスト評価値、設定したフラグ、設定したラベル(識別子)、算出した評点、及び設定した優先度などである。これらについては、画像処理装置140の説明で後述する。   Here, the area information (label attribute) is, for example, the distribution (position, shape (moment of inertia)), area, number, subject distance (defocus amount), motion vector (difference data), hue in the image. , Saturation, brightness, texture (pattern), edge, AF contrast evaluation value, set flag, set label (identifier), calculated score, and set priority. These will be described later in the description of the image processing apparatus 140.

なお、特徴量は、例えば、統計的(Statistics)な特徴量、又は動的(Dynamics)な特徴量であってもよい。   Note that the feature amount may be, for example, a statistical feature amount or a dynamic feature amount.

表示部150は、例えば液晶ディスプレイであって、撮像部110によって得られた画像、及び操作画面等を表示する。   The display unit 150 is, for example, a liquid crystal display, and displays an image obtained by the imaging unit 110, an operation screen, and the like.

バッファメモリ部130は、撮像部110によって撮像された画像を、一時的に記憶する。   The buffer memory unit 130 temporarily stores the image captured by the imaging unit 110.

記憶部160は、シーン判定の際にCPU190によって参照される判定条件と、シーン判定によって判断されたシーン毎に対応付けられた撮像条件と、領域の情報等とを記憶する。   The storage unit 160 stores determination conditions referred to by the CPU 190 in scene determination, imaging conditions associated with each scene determined by scene determination, area information, and the like.

CPU190は、設定された撮像条件(例えば絞り値、露出値等)に従って撮像部110を制御する。また、CPU190は、領域の情報を、記憶部160又は記憶媒体200から取得する。   The CPU 190 controls the imaging unit 110 according to the set imaging conditions (for example, aperture value, exposure value, etc.). In addition, the CPU 190 acquires area information from the storage unit 160 or the storage medium 200.

そして、CPU190は、領域の情報に基づいて、プレ処理又はポスト処理として、焦点調整(AF)の設定、露出調整(AE)の設定、ホワイトバランス調整(AWB)の設定、被写体像(オブジェクト)の追尾の設定、夜景か否かの判定の設定、色補正処理の設定、被写体像の拡大表示の設定、パンニング表示の設定、ズーム倍率に連動した明るさの最適化の設定、などを制御する。   Then, based on the area information, the CPU 190 performs focus adjustment (AF) setting, exposure adjustment (AE) setting, white balance adjustment (AWB) setting, subject image (object) setting as pre-processing or post-processing. Controls tracking settings, night scene determination settings, color correction processing settings, subject image enlarged display settings, panning display settings, brightness optimization settings linked to zoom magnification, and the like.

また、CPU190は、領域の情報に基づいて、トーンカーブ(階調カーブ)の設定、静止画及び動画の同時撮影を実行するか否かの設定などを制御する。   Further, the CPU 190 controls setting of a tone curve (gradation curve), whether or not to execute simultaneous shooting of a still image and a moving image, and the like based on area information.

また、CPU190は、領域の情報に基づいて、プレ処理又はポスト処理として、連写するか否かの設定、及び、連写において、合焦させる被写体像の切り替えの設定、焦点距離の連続変更の設定、撮像装置100の発光部(不図示)が発光する閃光の発光量の変更の設定、露光量の変更の設定、又はシャッタスピードの変更を実行するか否かの設定などを制御する。   Further, the CPU 190 sets whether or not continuous shooting is performed as pre-processing or post-processing based on the region information, setting of switching of the subject image to be focused in continuous shooting, and continuous change of the focal length. It controls settings, settings for changing the amount of flash light emitted by the light emitting unit (not shown) of the image capturing apparatus 100, settings for changing the exposure amount, settings for whether to change the shutter speed, and the like.

また、CPU190は、操作部180から入力された「操作入力に応じた信号」に基づいて、静止画又は動画として、画像処理装置140に画像を画像処理させる。   Further, the CPU 190 causes the image processing apparatus 140 to perform image processing as a still image or a moving image based on the “signal according to the operation input” input from the operation unit 180.

通信部170は、カードメモリ等の取り外しが可能な記憶媒体200と接続され、この記憶媒体200への情報(画像データ、領域の情報など)の書込み、読み出し、あるいは消去を行う。   The communication unit 170 is connected to a removable storage medium 200 such as a card memory, and writes, reads, or erases information (image data, area information, etc.) to the storage medium 200.

記憶媒体200は、撮像装置100に対して着脱可能に接続される記憶部であって、情報(画像データ、領域の情報など)を記憶する。なお、記憶媒体200は、撮像装置100と一体であってもよい。   The storage medium 200 is a storage unit that is detachably connected to the imaging apparatus 100 and stores information (image data, area information, and the like). Note that the storage medium 200 may be integrated with the imaging device 100.

次に、画像処理装置140の詳細について説明する。
画像処理装置140は、特徴量算出部141と、領域検出部142と、評点算出部143と、優先度設定部144とを備える。
Next, details of the image processing apparatus 140 will be described.
The image processing apparatus 140 includes a feature amount calculation unit 141, a region detection unit 142, a score calculation unit 143, and a priority setting unit 144.

特徴量算出部141は、撮像部110が撮像した画像を、バッファメモリ部130から取得する。そして、特徴量算出部141は、バッファメモリ部130から取得した画像における複数の特徴(例えば、色相、彩度、明度、テクスチャ、エッジ等)毎に、その特徴量を算出し、算出した特徴量を領域検出部142に出力する。   The feature amount calculation unit 141 acquires the image captured by the imaging unit 110 from the buffer memory unit 130. Then, the feature amount calculation unit 141 calculates the feature amount for each of a plurality of features (for example, hue, saturation, brightness, texture, edge, etc.) in the image acquired from the buffer memory unit 130, and calculates the calculated feature amount. Is output to the area detector 142.

領域検出部142は、特徴量算出部141が算出した特徴量を取得する。また、領域検出部142は、撮像部110が撮像した画像を、バッファメモリ部130から取得する。そして、領域検出部142は、取得した画像に含まれる領域であって特徴量毎に定まる領域を、画像から検出する。ここで、領域検出部142が検出する領域は、例えば、撮像部110が撮像した画像に含まれる被写体像の領域でもよいし、また、例えば、記憶媒体200に記憶されていた画像に含まれる被写体像の領域でもよい。   The region detection unit 142 acquires the feature amount calculated by the feature amount calculation unit 141. In addition, the area detection unit 142 acquires an image captured by the imaging unit 110 from the buffer memory unit 130. Then, the area detection unit 142 detects an area included in the acquired image and determined for each feature amount from the image. Here, the region detected by the region detection unit 142 may be, for example, a region of a subject image included in an image captured by the imaging unit 110, or may be a subject included in an image stored in the storage medium 200, for example. It may be an image area.

さらに、領域検出部142は、特徴量毎に検出した画像に含まれる領域を識別するラベル(識別子)を設定する(ラベリング処理)。ここで、ラベルとは、特徴量が互いに近い画素により構成された領域であって、グループ化された領域(集合)である。また、ラベリングとは、特徴量が互いに近い(例えば、彩度h=0〜20度に該当する)画素に隣接する領域を、順次検出してグループ化することである。例えば、輝度値(Y)=128±30である領域を検出し(ラベリング)、検出したラベルに名称(例えば、ラベル1、ラベル2、…)をつけるのが一般的である。   Furthermore, the region detection unit 142 sets a label (identifier) for identifying a region included in the image detected for each feature amount (labeling process). Here, the label is an area (group) composed of pixels having feature quantities close to each other and grouped. Labeling is to sequentially detect and group areas adjacent to pixels whose feature amounts are close to each other (for example, corresponding to saturation h = 0 to 20 degrees). For example, it is common to detect an area where the luminance value (Y) = 128 ± 30 (labeling) and give a name (for example, label 1, label 2,...) To the detected label.

領域を検出するための特徴量には、動きベクトル、色相、彩度、明度、テクスチャ・エッジ、距離(デプス、デプスマップ、デフォーカス量)、及び、画像におけるコントラスト(例えば、隣接する画素のコントラスト)などがある。領域検出部142は、これら1種類以上の各評価値を特徴量とし、ラベリングすることで、領域(ラベル)を検出する。   Features for detecting a region include a motion vector, hue, saturation, brightness, texture edge, distance (depth, depth map, defocus amount), and contrast in an image (for example, contrast between adjacent pixels). )and so on. The area detection unit 142 detects an area (label) by labeling each one or more evaluation values as feature amounts.

また、例えば、色相を特徴量とした場合に、その特徴量に基づいて複数の領域が検出されたとすると、領域検出部142は、これら複数の領域について、位置、形状、かたまり度(慣性モーメント)、大きさ、異質度・違和感(ある評価値における特異の程度)などを評価する。また、これら評価結果に基づいて、各領域の優先度が設定される。ここで、異質度とは、特徴量のヒストグラムにおける、特異な分布の度合いである。例えば、緑の背景に一輪の赤い花が咲いている画像を、色相に基づいて評価した場合、赤い色相は、色相のヒストグラムにおいて、特異に分布する。   Also, for example, when the hue is a feature amount and a plurality of regions are detected based on the feature amount, the region detection unit 142 determines the position, shape, and degree of mass (moment of inertia) for these regions. , Size, heterogeneity, discomfort (degree of peculiarity in a certain evaluation value), etc. Moreover, the priority of each area | region is set based on these evaluation results. Here, the degree of heterogeneity is the degree of unique distribution in the histogram of feature values. For example, when an image in which a single red flower is blooming on a green background is evaluated based on the hue, the red hue is uniquely distributed in the hue histogram.

また、領域検出部142は、特徴量のコントラスト値に基づいて、特徴量毎に検出した領域をラベリングしてよい。また、領域を識別するラベルは、例えば、主要な被写体像の領域であるか否か、を識別するラベルであってもよい。また、領域検出部142は、各特徴量のヒストグラムの分布について、その特徴量をいくつかの値域に区分し、値域毎に画像をビットマップ(BMP)に変換して、変換したビットマップをラベリングする。   Further, the region detection unit 142 may label the region detected for each feature amount based on the contrast value of the feature amount. Further, the label for identifying the region may be a label for identifying whether the region is a main subject image region, for example. Further, the region detection unit 142 divides the feature amount into several value ranges for the histogram distribution of each feature value, converts the image into a bitmap (BMP) for each value range, and labels the converted bitmap. To do.

ここで、主要な被写体像とは、例えば、奥行のある(パースペクティブ)画像において被写体距離が短い(至近側に撮像された)被写体像、一定時間以上静止している被写体像、色相が肌色である被写体像、画角からはみ出していない被写体像、特徴量のヒストグラムで特異な分布をしている値若しくは値域の被写体像、領域の「かたまり度」が高い(慣性モーメントが小さい)被写体像などである。なお、主要な被写体像の領域であるかの条件は、適宜定められてよい。   Here, the main subject image is, for example, a subject image with a short subject distance (captured on the near side) in a deep (perspective) image, a subject image that has been stationary for a certain period of time, or a hue that is flesh-colored. Subject images, subject images that do not protrude from the angle of view, subject images that have a unique distribution or range of features in the histogram of feature values, subject images that have a high degree of “mass” (small moment of inertia), etc. . Note that the condition as to whether the region is the main subject image region may be determined as appropriate.

そして、領域検出部142は、領域を識別するラベルを、領域の情報として、領域毎に記憶部160及び記憶媒体200に記憶させる。   Then, the region detection unit 142 stores a label for identifying the region in the storage unit 160 and the storage medium 200 for each region as region information.

評点算出部143は、異なる特徴(例えば、色相と彩度)の特徴量毎に基づいてラベリングした領域同士を比較するための評点を、ラベル毎に算出する(評点算出処理)。そして、評点算出部143は、算出した評点を、優先度設定部144に出力する。   The score calculation unit 143 calculates, for each label, a score for comparing regions labeled based on feature amounts of different features (for example, hue and saturation) (score calculation processing). Then, the score calculation unit 143 outputs the calculated score to the priority setting unit 144.

優先度設定部144は、評点算出部143が算出した評点に基づいて、画像における「領域の優先度」を設定する。この「領域の優先度」とは、人がより注目しているであろう領域の優先度である。優先度設定部144は、設定した「領域の優先度」を、領域の情報として、領域毎に記憶部160及び記憶媒体200に記憶させる。   The priority setting unit 144 sets “region priority” in the image based on the score calculated by the score calculation unit 143. The “region priority” is a region priority that a person will be more interested in. The priority setting unit 144 stores the set “region priority” in the storage unit 160 and the storage medium 200 for each region as region information.

領域の優先度は、次のように定められてもよい。以下では、優先度を示す数字が小さいほど、領域の優先度が高いものとする。なお、以下に示す優先度は、一例である。   The priority of the area may be determined as follows. In the following, it is assumed that the priority of a region is higher as the number indicating the priority is smaller. Note that the priority shown below is an example.

優先度1.
動いている領域(動いている領域が画像に複数ある場合、画角からはみ出していない領域、又は画角の中央に分布する領域)。また、パンニングしたことにより、動いている領域が画像に広く分布している場合は、動いていない領域。
これらの領域は、優先度「1」に設定される。
人は、動いている領域及びパンニングした際に変化量の少ない領域に注目するためである。
Priority 1.
A moving area (when there are a plurality of moving areas in the image, an area that does not protrude from the angle of view or an area that is distributed in the center of the angle of view) Also, if the moving area is widely distributed in the image due to panning, the area is not moving.
These areas are set to priority “1”.
This is because a person pays attention to a moving area and an area having a small amount of change when panning.

優先度2.
画角(構図)、奥行(パースペクト)、被写体距離(デプス、深度)に関する領域。画角の中央付近に分布する領域。画像に奥行がある場合、至近側に分布する領域のうち、画角からはみ出していない領域であって、面積が所定の範囲内である(極端に大きくない)領域。
これらの領域は、優先度「2」に設定される。
主要な被写体像の領域が、至近から無限までの広い範囲に存在する可能性があるためである。
Priority 2.
Areas related to angle of view (composition), depth (perspective), and subject distance (depth, depth). An area distributed near the center of the angle of view. When there is a depth in the image, among the regions distributed on the closest side, the region does not protrude from the angle of view and has an area within a predetermined range (not extremely large).
These areas are set to priority “2”.
This is because the main subject image area may exist in a wide range from close to infinity.

優先度3.
顔検出、顔が検出された領域における肌色検出、動物の毛並みのテクスチャ(模様)、又は植物のテクスチャに基づいて検出した領域。
これらの領域は、優先度「3」に設定される。
人や動物が撮像されている場合、人は、顔に注目するためである。
Priority 3.
Area detected based on face detection, skin color detection in the area where the face is detected, texture of animal hair, or plant texture.
These areas are set to priority “3”.
This is because when a person or animal is imaged, the person pays attention to the face.

優先度4.
特異である特徴量(例えば、色相環において不連続である色相)がある領域。背景の領域とそれ以外の領域とに分割された領域。彩度が高い領域。周囲と比較して明度が著しく異なる領域。周囲と比較して色相(色合い)が著しく異なる領域。テクスチャ(模様)が周囲と異なる領域。周囲と比較して空間周波数(画像周波数)が高い領域。ある特徴量において不連続な分布が一定量あり、その特徴量に基づいてラベリングされた結果、領域が形成された場合に、画像において違和感がある領域。
これらの領域は、優先度「4」に設定される。
Priority 4
A region having a characteristic amount that is unique (for example, a hue that is discontinuous in the hue circle). An area divided into a background area and other areas. Highly saturated area. An area where the brightness is significantly different from the surrounding area. An area where the hue (hue) is significantly different from the surrounding area. An area where the texture (pattern) is different from the surrounding area. An area where the spatial frequency (image frequency) is higher than the surrounding area. A region in which an image has a sense of incongruity when a certain amount of discontinuous distribution has a certain amount and a region is formed as a result of labeling based on the feature amount.
These areas are set to priority “4”.

優先度5.
特定の色相又は彩度に基づいて検出した領域。
これらの領域は、優先度「5」に設定される。
人は、赤色、黄色、肌色の領域に注目するためである。
Priority 5.
An area detected based on a specific hue or saturation.
These areas are set to the priority “5”.
This is because a person pays attention to red, yellow, and flesh-colored areas.

優先度6.
明度(明暗)に基づいて検出した領域。
これらの領域は、優先度「6」に設定される。
Priority 6.
Area detected based on brightness (brightness).
These areas are set to priority “6”.

優先度7.
テクスチャ(模様)に基づいて検出した領域。
これらの領域は、優先度「7」に設定される。
Priority 7.
Area detected based on texture (pattern).
These areas are set to priority “7”.

優先度8.
空間周波数(画像周波数)に基づいて検出した領域。
これらの領域は、優先度「8」に設定される。
Priority 8.
A region detected based on the spatial frequency (image frequency).
These areas are set to priority “8”.

優先度9.
縦又は横に延びたエッジで囲まれた領域であって、一定以上の太さがある領域。
これらの領域は、優先度「9」に設定される。
Priority 9.
An area surrounded by edges extending vertically or horizontally and having a certain thickness or more.
These areas are set to the priority “9”.

次に、画像処理装置140における画像処理を説明する。
図2には、画像処理装置140における画像処理の概要が、フローチャートで示されている。まず、画像処理装置140は、スルー画像を取得する。ここで、画像処理装置140は、時間的に連続するスルー画像(スルー画列)を取得してもよい(ステップS1)。そして、画像処理装置140は、プリマティブな画像処理をスルー画像に施す(ステップS2)。ここで、プリマティブな画像処理とは、例えば、簡易的な露出調整(簡易AE)、ホワイトバランス調整(AWB)、ノイズリダクション(NR)である。
Next, image processing in the image processing apparatus 140 will be described.
FIG. 2 is a flowchart showing an outline of image processing in the image processing apparatus 140. First, the image processing apparatus 140 acquires a through image. Here, the image processing apparatus 140 may acquire through images (through image sequences) that are continuous in time (step S1). Then, the image processing apparatus 140 performs primitive image processing on the through image (step S2). Here, the primitive image processing is, for example, simple exposure adjustment (simple AE), white balance adjustment (AWB), and noise reduction (NR).

特徴量算出部141は、画像の特徴から、その特徴毎に特徴量を算出する(ステップS3)。そして、領域検出部142は、特徴量毎(例えば、特徴が色相である場合、緑色、赤色ごと)に画像から領域を検出する。そして、領域検出部142は、「特徴量の相関」又は「領域間の特徴量の相対距離」などに基づいて、領域とその周囲の領域とで特徴量が異なる度合い(違和感)を検出する(ステップS4)。   The feature amount calculation unit 141 calculates a feature amount for each feature from the features of the image (step S3). Then, the region detection unit 142 detects a region from the image for each feature amount (for example, when the feature is a hue, for each of green and red). Then, the region detection unit 142 detects the degree of difference (uncomfortable feeling) between the region and the surrounding region based on “correlation between feature amounts” or “relative distance between feature amounts between regions” or the like ( Step S4).

また、領域検出部142は、特徴量算出部141が算出した特徴量に基づいてラベリングする。例えば、領域検出部142は、色相軸での相対距離が離れている領域の特徴量にてラベリングし、領域とその周囲の領域とで特徴量が異なる度合い(違和感)を検出することで、撮像された緑色の草原に数本の赤色の花を検出する(ステップS4a)。また、特徴量算出部141は、ラベルが有効か否かを判定する(ステップS4b)。   Further, the region detection unit 142 performs labeling based on the feature amount calculated by the feature amount calculation unit 141. For example, the region detection unit 142 performs labeling using the feature amount of a region having a relative distance on the hue axis, and detects the degree of difference (uncomfortable feeling) between the region and the surrounding region, thereby capturing an image. Several red flowers are detected in the green grass field (step S4a). Further, the feature amount calculation unit 141 determines whether the label is valid (step S4b).

さらに、特徴量算出部141は、領域とその周囲とで特徴量が異なる度合いに基づいて、後段処理で使用する特徴量を選択する。例えば、特徴量算出部141は、領域とその周囲とで異なる度合いが大きい特徴量を、後段処理で使用する特徴量とする。例えば、領域とその周囲とで、「色相」が大きく異なる場合、特徴量算出部141は、「色相の特徴量」を後段処理で使用させる(ステップS5)。   Furthermore, the feature amount calculation unit 141 selects a feature amount to be used in the subsequent processing based on the degree of difference in the feature amount between the region and its surroundings. For example, the feature amount calculation unit 141 sets a feature amount having a large degree of difference between a region and its surroundings as a feature amount used in the subsequent processing. For example, when the “hue” is greatly different between the area and the surrounding area, the feature amount calculation unit 141 uses the “hue feature amount” in the subsequent processing (step S5).

領域検出部142は、特徴量毎に検出した領域に、その領域を識別するラベルを設定する。また、領域検出部142は、設定したラベルを、領域の情報として、領域毎に記憶部160に記憶させる(ステップS6)。   The region detection unit 142 sets a label for identifying the region in the region detected for each feature amount. Further, the region detection unit 142 stores the set label in the storage unit 160 for each region as region information (step S6).

また、評点算出部143は、領域検出部142が検出した領域毎に評点を算出し、領域の情報として、記憶部160及び記憶媒体200に記憶させる(ステップS7)。そして、優先度設定部144は、評点算出部143が算出した評点に基づいて、領域検出部142が検出した領域の優先度を設定し、領域毎に記憶部160及び記憶媒体200に記憶させる(ステップS8)。   Further, the score calculation unit 143 calculates a score for each region detected by the region detection unit 142, and stores the score in the storage unit 160 and the storage medium 200 as region information (step S7). And the priority setting part 144 sets the priority of the area | region which the area | region detection part 142 detected based on the score calculated by the score calculation part 143, and memorize | stores it in the memory | storage part 160 and the storage medium 200 for every area | region ( Step S8).

さらに、領域検出部142は、検出した領域を整形する。例えば、領域検出部142は、領域におけるフォーカス用色調のコントラスト評価値が予め定められた閾値以上になるように、領域を整形(拡張)する(ステップS9)。そして、領域検出部142は、「領域の情報」を更新し、記憶部160及び記憶媒体200に記憶させる(ステップS10)。   Furthermore, the area detection unit 142 shapes the detected area. For example, the region detection unit 142 shapes (expands) the region so that the contrast evaluation value of the focus color tone in the region is equal to or greater than a predetermined threshold (step S9). Then, the area detection unit 142 updates “area information” and stores it in the storage unit 160 and the storage medium 200 (step S10).

CPU190は、記憶部160から、領域の情報(ラベル)を取得する。そして、CPU190は、領域検出部142が領域に設定した「ラベル」に基づいて、焦点調整(AF)の設定、露出調整(AE)の設定、ホワイトバランス調整(AWB)の設定、被写体像の追尾の設定、撮影シーン(例えば、夜景か否か)の判定の設定、色補正処理の設定、被写体像の拡大表示の設定、パンニング表示の設定、ズーム倍率に連動した明るさの最適化の設定、などを制御する。   The CPU 190 acquires area information (label) from the storage unit 160. Then, the CPU 190 sets the focus adjustment (AF), the exposure adjustment (AE), the white balance adjustment (AWB), and the subject image tracking based on the “label” set for the area by the area detection unit 142. Settings, shooting scene (for example, night scene) judgment settings, color correction processing settings, enlarged subject image display settings, panning display settings, brightness optimization settings linked to zoom magnification, Control etc.

また、CPU190は、領域検出部142が領域に設定した「ラベル」に基づいて、トーンカーブ(階調カーブ)の設定、静止画及び動画の同時撮影(同時録画)を実行するか否かの設定などを制御する。   Further, the CPU 190 sets whether to execute tone curve (gradation curve) setting and simultaneous shooting (simultaneous recording) of a still image and a moving image based on the “label” set for the region by the region detection unit 142. Control etc.

また、CPU190は、領域検出部142が領域に設定した「ラベル」に基づいて、連写するか否かの設定、及び、連写において、合焦させる被写体像の切り替えの設定、焦点距離の連続変更の設定、撮像装置100の発光部(不図示)が発光する閃光の発光量の変更の設定、露光量の変更の設定、又はシャッタスピードの変更を実行するか否かの設定などを制御する。   Further, the CPU 190 sets whether or not continuous shooting is performed based on the “label” set for the region by the region detection unit 142, setting for switching the subject image to be focused in continuous shooting, and continuous focal length. Settings for changing, settings for changing the amount of flash light emitted from the light emitting unit (not shown) of the imaging apparatus 100, settings for changing the exposure amount, setting for whether to change the shutter speed, and the like are controlled. .

また、CPU190は、記憶部160から、領域の情報(領域の優先度)を取得し、優先度設定部144が設定した「領域の優先度」に基づいて、これらの処理を制御してもよい(ステップS11)。   Further, the CPU 190 may acquire region information (region priority) from the storage unit 160 and control these processes based on the “region priority” set by the priority setting unit 144. (Step S11).

そして、CPU190は、操作部180を介してユーザからの撮影指示を受け付けた場合、撮像部110に撮像させる(ステップS12)。さらに、画像処理装置140は、領域の情報に基づいて、後段処理(画像処理)を実行する(ステップS13)。そして、領域検出部142は、領域の情報を、画像(領域)と対応付けて記憶部160及び記憶媒体200に記憶させる(ステップS14)。   When the CPU 190 receives a shooting instruction from the user via the operation unit 180, the CPU 190 causes the imaging unit 110 to capture an image (step S12). Further, the image processing apparatus 140 performs a subsequent process (image processing) based on the area information (step S13). Then, the region detection unit 142 stores the region information in the storage unit 160 and the storage medium 200 in association with the image (region) (step S14).

図3には、撮像装置100がスルー画像において被写体をフレーミングし、被写体像を追尾(トラッキング)する場合における、画像処理装置140の画像処理の手順が、フローチャートで示されている。なお、優先ラベル、及び評点がある程度高いラベルが画像に無い(主要被写体がどれか判り難い)場合、撮像装置100は、3A(AF、AWB、AE)処理に移行する。又は、撮像装置100は、コントラストAF領域と評点の低いラベルのコントラストAF領域とを併用し、至近に撮像された領域かつAFコントラスト評価値のピークが高い領域を、優先度の高い領域として採用する。   FIG. 3 is a flowchart showing an image processing procedure of the image processing device 140 when the imaging device 100 frames a subject in a through image and tracks (tracks) the subject image. Note that if the image does not have a priority label and a label with a certain high score (it is difficult to determine which main subject is), the imaging apparatus 100 proceeds to 3A (AF, AWB, AE) processing. Alternatively, the imaging apparatus 100 employs the contrast AF area and the contrast AF area of the low-score label in combination, and adopts an area that has been imaged in the vicinity and an area having a high AF contrast evaluation value peak as a high-priority area. .

まず、画像処理装置140は、スルー画像を取得する。ここで、画像処理装置140は、時間的に連続するスルー画像(スルー画列)を取得してもよい(ステップSa1)。そして、画像処理装置140は、プリマティブな画像処理(例えば、簡易的な露出調整)をスルー画像に施す(ステップSa2)。   First, the image processing apparatus 140 acquires a through image. Here, the image processing apparatus 140 may acquire through images (through image sequences) that are continuous in time (step Sa1). Then, the image processing apparatus 140 performs primitive image processing (for example, simple exposure adjustment) on the through image (step Sa2).

CPU190は、焦点調整(AF)を実行する。ここで、CPU190は、コントラストスキャンを実行し、AFコントラスト評価値がピークを示したレンズ位置を、画像の部分(ブロック)毎に、記憶部160に記憶させる(ステップSa3)。   The CPU 190 performs focus adjustment (AF). Here, the CPU 190 executes a contrast scan, and stores the lens position at which the AF contrast evaluation value shows a peak in the storage unit 160 for each part (block) of the image (step Sa3).

なお、CPU190は、AFコントラスト評価値がピークを示したレンズ位置に基づいて、画像における被写体距離の分布を示すデプスマップを作成してもよい。デプスマップについては、図35を用いて後述する。   Note that the CPU 190 may create a depth map indicating the distribution of the subject distance in the image based on the lens position at which the AF contrast evaluation value shows a peak. The depth map will be described later with reference to FIG.

そして、CPU190は、撮像部110に、debayer(色補間)処理を実行させる。また、CPU190は、画像処理装置140に、ノイズ低減処理(NR)、及びホワイトバランス調整(AWB)を実行させる(ステップSa4)。   Then, the CPU 190 causes the imaging unit 110 to execute a debayer (color interpolation) process. In addition, the CPU 190 causes the image processing apparatus 140 to perform noise reduction processing (NR) and white balance adjustment (AWB) (step Sa4).

特徴量算出部141は、撮像部110が撮像した画像を、バッファメモリ部130から取得し、取得した画像における特徴量として、動きベクトル(動き量、及び動き方向)を算出する(ステップSa5)。そして、特徴量算出部141は、動き量が予め定められた閾値以上であるか否かを判定する(ステップSa6)。   The feature amount calculation unit 141 acquires an image captured by the imaging unit 110 from the buffer memory unit 130, and calculates a motion vector (motion amount and motion direction) as a feature amount in the acquired image (step Sa5). Then, the feature amount calculation unit 141 determines whether or not the motion amount is equal to or greater than a predetermined threshold value (step Sa6).

動き量が予め定められた閾値以上である場合(ステップSa6−YES)、領域検出部142は、動き量が予め定められた閾値以上である領域に、「動きラベル」を設定する(ステップSa7)。ここで、動きラベルとは、動きベクトルに基づいて検出した領域であることを示すラベルである。領域検出部142が「動きラベル」を設定する処理については、図5〜7を用いて後述する。さらに、画像処理装置140は、画像処理した画像を、動画として、記憶媒体200に記憶させる(ステップSa8)。そして、画像処理装置140の処理は、ステップSa10に進む。   If the amount of motion is equal to or greater than a predetermined threshold (step Sa6-YES), the region detection unit 142 sets a “motion label” in a region where the amount of motion is equal to or greater than the predetermined threshold (step Sa7). . Here, the motion label is a label indicating a region detected based on a motion vector. The process in which the area detection unit 142 sets the “motion label” will be described later with reference to FIGS. Further, the image processing apparatus 140 stores the image-processed image as a moving image in the storage medium 200 (step Sa8). Then, the processing of the image processing apparatus 140 proceeds to step Sa10.

一方、ステップSa6において、動き量が予め定められた閾値以上でない場合(ステップSa6−NO)、領域検出部142は、特徴量毎に領域を検出し、検出した領域にラベルを設定する(ラベリング処理)。そして、領域検出部142は、ラベル(識別子)を領域の情報として、領域毎に記憶部160に記憶させる。   On the other hand, if the amount of motion is not equal to or greater than a predetermined threshold value in step Sa6 (step Sa6-NO), the region detection unit 142 detects a region for each feature amount and sets a label in the detected region (labeling process). ). Then, the region detection unit 142 stores the label (identifier) as region information in the storage unit 160 for each region.

評点算出部143は、異なる特徴(例えば、色相と彩度)の特徴量に基づいて検出した領域同士を比較するための評点を、領域毎に算出する(ステップSa9)。評点算出部143が領域毎に評点を算出する処理については、図8〜10を用いて後述する。   The score calculation unit 143 calculates, for each region, a score for comparing regions detected based on feature amounts of different features (for example, hue and saturation) (step Sa9). The process in which the score calculation unit 143 calculates the score for each area will be described later with reference to FIGS.

特徴量算出部141は、撮像部110が撮像した画像を、バッファメモリ部130から取得する(ステップSa10)。そして、特徴量算出部141は、取得した画像における動きベクトル(動き量、及び動き方向)を算出する(ステップSa11)。   The feature amount calculation unit 141 acquires the image captured by the imaging unit 110 from the buffer memory unit 130 (step Sa10). Then, the feature amount calculation unit 141 calculates a motion vector (motion amount and motion direction) in the acquired image (step Sa11).

特徴量算出部141は、領域検出部142が検出した領域以外の領域で、画像に変化があるか否かを、算出した動きベクトルに基づいて判定する。領域検出部142が検出した領域以外の領域で、画像に変化がある場合(ステップSa12−YES)、画像処理装置140の処理は、ステップSa7に戻る。特徴量算出部141は、算出した動きベクトルに基づいて、さらに、画像が動いている範囲が画像の全域か否かを判定する。画像が動いている範囲が画像の全域である場合(ステップSa12−YES)も同様に、画像処理装置140の処理は、ステップSa7に戻る。   The feature amount calculation unit 141 determines whether there is a change in the image in a region other than the region detected by the region detection unit 142 based on the calculated motion vector. When there is a change in the image in a region other than the region detected by the region detection unit 142 (step Sa12—YES), the processing of the image processing device 140 returns to step Sa7. Based on the calculated motion vector, the feature amount calculation unit 141 further determines whether or not the range in which the image is moving is the entire image. Similarly, when the range in which the image is moving is the entire image (step Sa12—YES), the processing of the image processing device 140 returns to step Sa7.

一方、ステップSa12において、領域検出部142が検出した領域以外の領域で、画像に変化がなく、かつ、画像が動いている範囲が、画像の全域でない場合(ステップSa12−NO)、特徴量算出部141は、領域検出部142が検出した領域毎に、動きベクトル以外の特徴量を検出し、評点算出部143に出力する。そして、評点算出部143は、領域検出部142がラベルを付けた領域毎に、評点を算出する。   On the other hand, in step Sa12, when there is no change in the image in the region other than the region detected by the region detection unit 142 and the range in which the image is moving is not the entire region of the image (step Sa12-NO), the feature amount calculation is performed. The unit 141 detects a feature quantity other than a motion vector for each region detected by the region detection unit 142 and outputs the feature amount to the score calculation unit 143. And the score calculation part 143 calculates a score for every area | region which the area | region detection part 142 gave the label.

さらに、優先度設定部144は、評点算出部143が算出した評点に基づいて、画像における領域の優先度を設定する(ステップSa13)。優先度設定部144が領域に優先度を設定する処理については、図11〜16を用いて後述する。そして、優先度設定部144は、領域の優先度をCPU190に出力する。   Further, the priority setting unit 144 sets the priority of the area in the image based on the score calculated by the score calculation unit 143 (step Sa13). The process in which the priority setting unit 144 sets the priority for the area will be described later with reference to FIGS. Then, the priority setting unit 144 outputs the region priority to the CPU 190.

CPU190は、領域検出部142が領域に付けた「ラベル」に基づいて、領域検出部142が検出した領域に対して、焦点調整(AF)を制御する。例えば、CPU190は、「主要な被写体像の領域であることを識別するラベル」が付いた領域に対して、優先的に合焦するように、焦点調整を制御する。   The CPU 190 controls focus adjustment (AF) for the region detected by the region detection unit 142 based on the “label” attached to the region by the region detection unit 142. For example, the CPU 190 controls the focus adjustment so as to preferentially focus on an area with a “label identifying the main subject image area”.

また、CPU190は、優先度設定部144が設定した「領域の優先度」に基づいて、領域検出部142が検出した領域に対して、焦点調整(AF)を制御してもよい。例えば、CPU190は、優先度が最も高く設定された領域を、主要な被写体像の領域として、その領域に対して優先的に合焦するように、焦点調整を制御してもよい(ステップSa14)。   Further, the CPU 190 may control the focus adjustment (AF) for the region detected by the region detection unit 142 based on the “region priority” set by the priority setting unit 144. For example, the CPU 190 may control the focus adjustment so that the area set with the highest priority is set as the main subject image area and is focused on the area with priority (step Sa14). .

CPU190は、領域検出部142が明度の階調に基づいて領域に付けたラベルに基づいて、領域検出部142が検出した領域に対して、露出調整(AE)を制御する。例えば、CPU190は、「主要な被写体像の領域であることを識別するラベル」が付いた領域に対して、最適な露出量となるように、露出調整を制御する。   The CPU 190 controls exposure adjustment (AE) for the region detected by the region detection unit 142 based on the label attached to the region by the region detection unit 142 based on the lightness gradation. For example, the CPU 190 controls the exposure adjustment so that the area with the “label identifying the area of the main subject image” has an optimum exposure amount.

また、CPU190は、優先度設定部144が明度の階調に基づいて設定した「領域の優先度」に基づいて、領域検出部142が検出した領域に対して、露出調整(AE)を制御してもよい。例えば、CPU190は、優先度が最も高く設定された領域を、主要な被写体像の領域として、その領域に対して最適な露出量となるように、露出調整を制御してもよい(ステップSa15)。   Further, the CPU 190 controls exposure adjustment (AE) for the area detected by the area detecting unit 142 based on the “area priority” set by the priority setting unit 144 based on the lightness gradation. May be. For example, the CPU 190 may control the exposure adjustment so that the area set with the highest priority is set as the main subject image area and the exposure amount is optimal for the area (step Sa15). .

CPU190は、領域検出部142が「領域の情報(例えば、白色)」に基づいて領域に付けた「ラベル」に基づいて、領域検出部142が検出した領域に対して、ホワイトバランス調整(AWB)を制御する。例えば、CPU190は、「主要な被写体像の領域であることを識別するラベル」が付いた領域に対して、最適なホワイトバランスとなるように、ホワイトバランス調整を制御する。   The CPU 190 adjusts the white balance (AWB) for the area detected by the area detection unit 142 based on the “label” attached to the area based on the “area information (for example, white)” by the area detection unit 142. To control. For example, the CPU 190 controls the white balance adjustment so that the optimum white balance is obtained for the region with the “label identifying the region of the main subject image”.

また、CPU190は、優先度設定部144が「領域の情報(例えば、白色)」に基づいて設定した「領域の優先度」に基づいて、領域検出部142が検出した領域に対して、ホワイトバランス調整(AWB)を制御してもよい。例えば、CPU190は、優先度が最も高く設定された領域を、主要な被写体像の領域として、その領域に対して最適なホワイトバランスとなるように、ホワイトバランス調整を制御してもよい(ステップSa16)。   In addition, the CPU 190 performs white balance on the area detected by the area detection unit 142 based on the “area priority” set by the priority setting unit 144 based on “area information (for example, white)”. Adjustment (AWB) may be controlled. For example, the CPU 190 may control the white balance adjustment so that the region with the highest priority is set as the main subject image region and the white balance is optimal for the region (step Sa16). ).

CPU190は、領域検出部142が明度の階調に基づいて領域に付けた「ラベル」に基づいて、領域検出部142が検出した領域に対して、画像のシーン判定を実行する。例えば、CPU190は、「主要でない被写体像の領域であることを識別するラベル」が付いた領域を、点光源が撮像された領域として、点光源の領域の分布に基づいて、夜景が撮像された画像であるか否かを判定する。   The CPU 190 executes image scene determination for the area detected by the area detection unit 142 based on the “label” attached to the area by the area detection unit 142 based on the lightness gradation. For example, the CPU 190 captures the night scene based on the distribution of the point light source region, with the region with the “label identifying the region of the non-main subject image” as the region where the point light source is captured. It is determined whether it is an image.

また、CPU190は、優先度設定部144が明度の階調に基づいて設定した「領域の優先度」に基づいて、画像のシーンを判定してもよい。例えば、CPU190は、優先度が最も低く設定された領域を、点光源が撮像された領域として、点光源の領域の分布に基づいて、夜景が撮像された画像であるか否かを判定してもよい(ステップSa17)。   Further, the CPU 190 may determine the scene of the image based on the “region priority” set by the priority setting unit 144 based on the lightness gradation. For example, the CPU 190 determines whether or not the night scene is an image based on the distribution of the area of the point light source, with the area having the lowest priority set as the area where the point light source is imaged. (Step Sa17).

そして、画像処理装置140の処理は、ステップSa10及びステップSa18に進む。このようにして、画像処理装置140は、ステップSa10〜ステップSa17の処理を繰り返す。   Then, the processing of the image processing apparatus 140 proceeds to step Sa10 and step Sa18. In this way, the image processing apparatus 140 repeats the processing of Step Sa10 to Step Sa17.

画像処理装置140がステップSa10〜ステップSa17の処理を繰り返す間、CPU190は、撮像部110に、debayer(色補間)処理を実行させる。また、CPU190は、画像処理装置140に、ノイズ低減処理(NR)、ホワイトバランス調整(AWB)、トーンカーブ(階調カーブ)設定、Retinex(階調補正)処理、色補正処理、レンダリング、エッジ強調処理を実行させる(ステップSa18)。   While the image processing apparatus 140 repeats the processing of Step Sa10 to Step Sa17, the CPU 190 causes the imaging unit 110 to execute a debayer (color interpolation) process. The CPU 190 also causes the image processing apparatus 140 to perform noise reduction processing (NR), white balance adjustment (AWB), tone curve (tone curve) setting, Retinex (tone correction) processing, color correction processing, rendering, and edge enhancement. The process is executed (step Sa18).

画像処理装置140は、検出した領域を追尾するための演算を実行する範囲である「トラッキングエリア」を示す枠の画像を、バッファメモリ部130に出力する(ステップSa19)。また、画像処理装置140は、トラッキングエリアを示す枠の画像を重畳(オーバーレイ)させた画像を、表示部150に表示させる。このように、画像処理装置140は、ステップSa10〜17に示す処理と並列に、ステップSa18〜ステップSa20の処理を繰り返す。   The image processing apparatus 140 outputs, to the buffer memory unit 130, an image of a frame indicating a “tracking area” that is a range in which a calculation for tracking the detected area is executed (step Sa19). Further, the image processing apparatus 140 causes the display unit 150 to display an image obtained by superimposing (overlaying) an image of a frame indicating the tracking area. As described above, the image processing apparatus 140 repeats the processes of Step Sa18 to Step Sa20 in parallel with the processes shown in Steps Sa10 to 17.

画像処理装置140がステップSa10〜ステップSa17の処理を繰り返すループにおいて、CPU190は、操作部180を介してユーザからの撮影指示を受け付ける。
図4には、CPU190が操作部180を介して撮影指示を受け付けた場合に、画像処理装置140が実行する画像処理の手順が、フローチャートで示されている。
In a loop in which the image processing apparatus 140 repeats the processing of step Sa10 to step Sa17, the CPU 190 receives a shooting instruction from the user via the operation unit 180.
FIG. 4 is a flowchart showing an image processing procedure executed by the image processing apparatus 140 when the CPU 190 receives a shooting instruction via the operation unit 180.

CPU190は、操作部180を介してユーザからの撮影指示を受け付けた(検出した)場合、撮影指示を受け付けたことを示す信号を、画像処理装置140に出力する(ステップSb1)。撮影指示を受け付けたことを示す信号をCPU190から取得した場合(ステップSb1−YES)、画像処理装置140及びCPU190の処理は、ステップSb2に進む。   When the CPU 190 receives (detects) a shooting instruction from the user via the operation unit 180, the CPU 190 outputs a signal indicating that the shooting instruction has been received to the image processing apparatus 140 (step Sb1). When a signal indicating that the photographing instruction has been received is acquired from the CPU 190 (step Sb1-YES), the processing of the image processing device 140 and the CPU 190 proceeds to step Sb2.

CPU190は、領域検出部142が明度の階調により領域に設定した「ラベル」に基づいて、領域検出部142が検出した領域に対して、露出調整(AE、調光)を制御する。 また、CPU190は、優先度設定部144が明度の階調に基づいて設定した「領域の優先度」に基づいて、領域検出部142が検出した領域に対して、露出調整を制御してもよい(ステップSb2)。   The CPU 190 controls the exposure adjustment (AE, dimming) for the area detected by the area detecting unit 142 based on the “label” set in the area by the brightness gradation by the area detecting unit 142. Further, the CPU 190 may control the exposure adjustment for the region detected by the region detection unit 142 based on the “region priority” set by the priority setting unit 144 based on the lightness gradation. (Step Sb2).

CPU190は、領域検出部142が明度の階調により領域に設定した「ラベル」に基づいて、レンズ鏡筒111から入射される光学像を、撮像部110に撮像(露光)させる。 また、CPU190は、優先度設定部144が明度の階調に基づいて設定した「領域の優先度」に基づいて、レンズ鏡筒111から入射される光学像を、撮像部110に撮像(露光)させてもよい(ステップSb3)。   The CPU 190 causes the imaging unit 110 to capture (exposure) an optical image incident from the lens barrel 111 based on the “label” set in the region by the brightness gradation by the region detection unit 142. Further, the CPU 190 captures (exposures) an optical image incident from the lens barrel 111 on the imaging unit 110 based on the “region priority” set by the priority setting unit 144 based on the lightness gradation. (Step Sb3).

そして、CPU190は、撮像部110に、debayer(色補間)処理を実行させる。また、CPU190は、画像処理装置140に、ノイズ低減処理(NR)を実行させる(ステップSb4)。   Then, the CPU 190 causes the imaging unit 110 to execute a debayer (color interpolation) process. In addition, the CPU 190 causes the image processing apparatus 140 to perform noise reduction processing (NR) (step Sb4).

さらに、CPU190は、領域検出部142が「領域の情報(色相など)」により領域に設定した「ラベル」に基づいて、領域検出部142が検出した領域に対して、ホワイトバランス調整(AWB)を制御する。また、CPU190は、優先度設定部144が「領域の情報(色相など)」に基づいて設定した「領域の優先度」に基づいて、領域検出部142が検出した領域に対して、ホワイトバランス調整を制御してもよい(ステップSb5)。   Further, the CPU 190 performs white balance adjustment (AWB) on the area detected by the area detecting unit 142 based on the “label” set for the area by the “area information (hue etc.)”. Control. Further, the CPU 190 adjusts the white balance for the area detected by the area detection unit 142 based on the “area priority” set based on the “area information (hue, etc.)” by the priority setting unit 144. May be controlled (step Sb5).

画像処理装置140は、画像に対してトーンカーブ(階調カーブ)を設定し、Retinex(領域毎の階調補正)処理を実行する(ステップSb6)。そして、画像処理装置140は、色補正処理、及びレンダリングを実行する(ステップSb7)。さらに、画像処理装置140は、エッジ強調処理を実行する(ステップSb8)。   The image processing apparatus 140 sets a tone curve (gradation curve) for the image, and executes Retinex (gradation correction for each region) process (step Sb6). Then, the image processing apparatus 140 executes color correction processing and rendering (step Sb7). Further, the image processing apparatus 140 executes edge enhancement processing (step Sb8).

画像処理装置140は、画像処理した画像を、表示部150に静止画像(フリーズ画像)として表示させる(ステップSb9)。そして、画像処理装置140は、所定の画像フォーマット(例えば、JPEGフォーマット)に画像を変換する(ステップSb10)。そして、画像処理装置140は、所定の画像フォーマットに変換した画像を、記憶媒体200に記憶させる(ステップSb11)。   The image processing apparatus 140 displays the processed image as a still image (freeze image) on the display unit 150 (step Sb9). Then, the image processing apparatus 140 converts the image into a predetermined image format (for example, JPEG format) (step Sb10). Then, the image processing apparatus 140 stores the image converted into the predetermined image format in the storage medium 200 (step Sb11).

さらに、領域検出部142は、領域の情報を記憶部160及び記憶媒体200に記憶させる。例えば、画像処理装置140は、領域の情報を、「Exchangeable image file format(Exif(登録商標))」のタグ情報として、記憶部160及び記憶媒体200に記憶させてもよい(ステップSb12)。   Furthermore, the region detection unit 142 stores the information on the region in the storage unit 160 and the storage medium 200. For example, the image processing apparatus 140 may store the region information in the storage unit 160 and the storage medium 200 as tag information of “Exchangeable image file format (Exif (registered trademark))” (step Sb12).

次に、画像に大きな動きがある場合、すなわち、動き量が閾値以上である場合(図3のステップSa6を参照)、動き量が閾値以上である領域に、領域検出部142が「動きラベル」を設定する処理(図3のステップSa7を参照)の詳細を説明する。   Next, when there is a large motion in the image, that is, when the amount of motion is greater than or equal to the threshold (see step Sa6 in FIG. 3), the region detection unit 142 displays “motion label” Details of the process of setting (see step Sa7 in FIG. 3) will be described.

図5には、スルー画像において、移動する被写体像の領域に、領域検出部142が「動きラベル」を設定する処理の手順が、フローチャートで示されている。まず、特徴量算出部141は、動き量をヒストグラム化する(ステップSc1)。そして、領域検出部142は、ヒストグラムに基づいて、動き量(平均)が閾値以下である画素の数が、予め定められた画素数以上であり、かつ、動き量にピーク値があるか否かを判定(ピーク値を検出)する(ステップSc2)。   FIG. 5 is a flowchart showing a processing procedure in which the area detection unit 142 sets a “motion label” in the area of the moving subject image in the through image. First, the feature amount calculation unit 141 forms a histogram of the motion amount (step Sc1). Then, based on the histogram, the region detection unit 142 determines whether or not the number of pixels whose motion amount (average) is equal to or less than a threshold value is equal to or greater than a predetermined number of pixels and whether the motion amount has a peak value. Is determined (peak value is detected) (step Sc2).

スルー画像において、動き量(平均)が閾値以下である画素の数が、予め定められた画素数以上であり、かつ、動き量にピーク値がある場合(ステップSc2−YES)、領域検出部142は、動き量がピーク値を示す画像の位置における「動き量」に基づいて、画素ラベリングを実行する(ステップSc3)。そして、領域検出部142は、動き量がピーク値を示す画像の位置における「動き方向」に基づいて、例えば、動き方向を角度45度ずつ8つの角度に分類して、分類した角度ごとに画素ラベリングを実行する(ステップSc4)。   In the through image, when the number of pixels whose motion amount (average) is equal to or less than the threshold is equal to or more than a predetermined number of pixels and the motion amount has a peak value (step Sc2-YES), the region detection unit 142 Performs pixel labeling based on the “motion amount” at the position of the image where the motion amount exhibits a peak value (step Sc3). Then, based on the “movement direction” at the position of the image where the amount of movement shows a peak value, the area detection unit 142 classifies the movement direction into eight angles by 45 degrees, for example. Labeling is executed (step Sc4).

さらに、領域検出部142は、動き量に基づいて検出した領域と、動き方向に基づいて検出した領域との重なる部分(位置的積集合)を検出し、検出した重なる部分の面積を算出する(ステップSc5)。また、領域検出部142は、スルー画像において孤立した領域(ノイズ)を除去する(ステップSc6)。   Furthermore, the region detection unit 142 detects a portion (positional product set) where the region detected based on the amount of motion and the region detected based on the direction of motion overlap, and calculates the area of the detected overlapping portion ( Step Sc5). Further, the region detection unit 142 removes an isolated region (noise) in the through image (step Sc6).

また、領域検出部142は、ラベリングした領域に、動きラベルを設定する。ここで、動きラベルを付けた領域が、複数ある場合、優先度設定部144は、色相、彩度、特異である色相(例えば、色相環において不連続である色相)、特異である明度(例えば、周囲と比較して著しく異なる明度)などに基づいて、画像における領域の優先度を設定する(ステップSc7)。さらに、領域検出部142は、動きラベルを、領域の情報として、領域毎に記憶部160に記憶させる(ステップSc8)。   In addition, the region detection unit 142 sets a motion label in the labeled region. Here, when there are a plurality of regions with motion labels, the priority setting unit 144 determines the hue, saturation, unique hue (for example, discontinuous hue in the hue circle), and unique lightness (for example, The priority of the region in the image is set on the basis of the brightness (which is significantly different from the surroundings) (step Sc7). Further, the region detection unit 142 stores the motion label in the storage unit 160 for each region as region information (step Sc8).

図6には、スルー画像において、移動する被写体像を追尾する場合に、領域検出部142が「動きラベル」を設定する処理の手順が、フローチャートで示されている。
スルー画像において、動き量(平均)が閾値以下である画素の数が、予め定められた画素数より少ない、又は動き量にピーク値がない場合(図5のステップSc2−NO)、さらに、領域検出部142は、動き量(平均)が閾値以上である画素の数が、予め定められた画素数以上であり、かつ、動き量のヒストグラムにおいて、動き量が少ない側にピーク値があるか否か、を判定(ピーク値を検出)する(ステップSc9)。
FIG. 6 is a flowchart showing a processing procedure in which the area detection unit 142 sets a “motion label” when tracking a moving subject image in a through image.
In the through image, when the number of pixels whose motion amount (average) is less than or equal to the threshold is smaller than the predetermined number of pixels or there is no peak value in the motion amount (step Sc2-NO in FIG. 5), the region The detection unit 142 determines whether or not the number of pixels whose motion amount (average) is equal to or greater than a threshold value is equal to or greater than a predetermined number of pixels, and whether or not there is a peak value on the side with a smaller motion amount in the motion amount histogram Is determined (peak value is detected) (step Sc9).

動き量(平均)が閾値以上である画素の数が、予め定められた画素数以上であり、かつ、動き量のヒストグラムにおいて、動き量が少ない側にピーク値がある場合(ステップSc9−YES)、領域検出部142は、動き量がピーク値を示す領域に対して、画素ラベリングを実行する(ステップSc10)。   When the number of pixels whose motion amount (average) is equal to or greater than the threshold is equal to or greater than a predetermined number of pixels, and there is a peak value on the side where the motion amount is small in the motion amount histogram (step Sc9-YES) The region detection unit 142 performs pixel labeling on a region where the amount of motion shows a peak value (step Sc10).

そして、領域検出部142は、動き量に基づいて画素ラベリングした領域を、色相又は明度に基づいて、再びラベリングする(ステップSc11)。また、領域検出部142は、再びラベリングした領域に、動きラベルを設定する(ステップSc12)。さらに、画像処理装置140は、動きラベルを、領域の情報として、領域毎に記憶部160に記憶させる(ステップSc13)。   Then, the region detection unit 142 labels the region labeled with pixels based on the amount of motion again based on the hue or brightness (step Sc11). Further, the region detection unit 142 sets a motion label in the region that has been labeled again (step Sc12). Furthermore, the image processing apparatus 140 stores the motion label in the storage unit 160 for each region as region information (step Sc13).

図7には、スルー画像において、降雪、降雨、又は噴水などが撮像されている場合に、領域検出部142が「動きラベル」を設定する処理の手順が、フローチャートで示されている。動き量(平均)が閾値以上である画素の数が、予め定められた画素数より少ない、又は動き量のヒストグラムにおいて、動き量が少ない側にピーク値がない場合(図6のステップSc9−NO)、領域検出部142は、スルー画像において、動き量が二分され、かつ動き方向が一定であるか否か、を判定する(ステップSc14)。   FIG. 7 is a flowchart showing a procedure of processing in which the region detection unit 142 sets a “motion label” when snowing, raining, or a fountain is captured in the through image. When the number of pixels whose motion amount (average) is equal to or greater than the threshold is smaller than a predetermined number of pixels or there is no peak value on the side where the motion amount is small in the motion amount histogram (step Sc9-NO in FIG. 6) ) The region detection unit 142 determines whether or not the motion amount is divided into two and the motion direction is constant in the through image (step Sc14).

スルー画像において、動き量が二分され、かつ動き方向が一定である場合(ステップSc14−YES)、領域検出部142は、動き量が閾値以上である画素が、画像に分散しているか否かを判定する(ステップSc15)。動き量が閾値以上である画素が、画像に分散している場合(ステップSc15−YES)、領域検出部142は、ヒストグラムにおいて動き量が少ない側のピーク値を示す領域に対して、画素ラベリングを実行する(ステップSc16)。   In the through image, when the motion amount is divided into two and the motion direction is constant (step Sc14-YES), the region detection unit 142 determines whether or not pixels whose motion amount is greater than or equal to the threshold value are dispersed in the image. Determination is made (step Sc15). When pixels whose motion amount is greater than or equal to the threshold value are dispersed in the image (step Sc15-YES), the region detection unit 142 performs pixel labeling on the region that shows the peak value on the side with the smaller motion amount in the histogram. Execute (Step Sc16).

そして、領域検出部142は、検出した領域において面積が大きい色相(平均色相)を算出する(ステップSc17)。さらに、領域検出部142は、時間的に連続するスルー画像(スルー画列)の一部を、動きベクトルによりマスクして、複数のマスク画像を作成する(ステップSc18)。領域検出部142は、スルー画像(スルー画列)の一部を、動きベクトルによりマスクすることで、例えば、雨粒以外の領域を、マスク画像に抽出する。そして、領域検出部142は、作成した複数のマスク画像を合成し、合成したマスク画像を、色相に基づいて、再びラベリングする(ステップSc19)。   Then, the region detection unit 142 calculates a hue (average hue) having a large area in the detected region (step Sc17). Further, the region detection unit 142 masks a part of the temporally continuous through image (through image sequence) with a motion vector to create a plurality of mask images (step Sc18). The region detection unit 142 masks a part of the through image (through image sequence) with a motion vector, thereby extracting, for example, a region other than raindrops into the mask image. Then, the region detection unit 142 combines the plurality of created mask images, and labels the combined mask images again based on the hue (step Sc19).

領域検出部142は、ラベリングした領域に、動き量が少ない領域(例えば、雨粒以外の領域)であることを示すラベル(以下、「通常ラベル」という)を設定する(ステップSc20)。そして、領域検出部142は、領域の情報として、通常ラベルを領域毎に記憶部160に記憶させる(ステップSc21)。   The region detection unit 142 sets a label (hereinafter referred to as “normal label”) indicating that the amount of movement is a region (for example, a region other than raindrops) in the labeled region (step Sc20). And the area | region detection part 142 memorize | stores a normal label in the memory | storage part 160 for every area | region as area | region information (step Sc21).

一方、スルー画像において、動き量が二分されていない、又は動き方向が一定でない場合(ステップSc14−NO)、領域検出部142の処理は、図3のステップSa8に進む。同様に、動き量が閾値以上である画素が、画像に分散していない場合(ステップSc15−NO)、領域検出部142の処理は、図3のステップSa8に進む。   On the other hand, in the through image, when the motion amount is not divided into two or the motion direction is not constant (step Sc14-NO), the processing of the region detection unit 142 proceeds to step Sa8 in FIG. Similarly, when pixels whose motion amount is equal to or greater than the threshold value are not dispersed in the image (step Sc15—NO), the processing of the region detection unit 142 proceeds to step Sa8 in FIG.

次に、画像に大きな動きがない場合、すなわち、動き量が閾値以上でない場合(図3のステップSa6を参照)に、領域検出部142が、特徴量毎に領域を検出し、検出した領域にラベルを設定する処理(図3のステップSa9を参照)の詳細を説明する。   Next, when there is no large motion in the image, that is, when the amount of motion is not equal to or greater than the threshold (see step Sa6 in FIG. 3), the region detection unit 142 detects a region for each feature amount, Details of the process of setting the label (see step Sa9 in FIG. 3) will be described.

図8には、彩度S(C)及び色相hの特徴量毎に検出した領域に、ラベルを設定するラベリング処理の手順が、フローチャートで示されている。なお、ステップSd3〜8と、ステップSd10〜13とは、並列に処理される。   FIG. 8 is a flowchart showing a labeling process procedure for setting a label in an area detected for each feature amount of saturation S (C) and hue h. Steps Sd3-8 and steps Sd10-13 are processed in parallel.

特徴量算出部141は、画像におけるRGB色空間を、Lab色空間に変換する。画像処理装置140は、後段処理において、Lab色空間で表現されたデータを使用する(ステップSd1)。そして、特徴量算出部141は、彩度S(C)及び色相hの特徴量を、画像から算出する(ステップSd2)。   The feature amount calculation unit 141 converts the RGB color space in the image into a Lab color space. The image processing apparatus 140 uses data expressed in the Lab color space in the subsequent processing (step Sd1). Then, the feature amount calculation unit 141 calculates the feature amount of the saturation S (C) and the hue h from the image (Step Sd2).

まず、特徴量算出部141は、彩度S(C)のヒストグラムを算出する(ステップSd3)。そして、領域検出部142は、彩度が特に高い領域を検出する。ここで、領域検出部142は、ヒストグラムの分布に基づいて、高彩度領域にピークがあるか否かを判定する(ピークと谷を検出)。さらに、領域検出部142は、ピーク値と平均彩度との差に基づいて、彩度の特異度を判定する(ステップSd4)。   First, the feature amount calculation unit 141 calculates a histogram of saturation S (C) (step Sd3). Then, the region detection unit 142 detects a region having a particularly high saturation. Here, the region detection unit 142 determines whether or not there is a peak in the high saturation region based on the distribution of the histogram (detects peaks and valleys). Furthermore, the region detection unit 142 determines the saturation specificity based on the difference between the peak value and the average saturation (step Sd4).

図9には、彩度S(C)のヒストグラムと、その部分拡大図とが示されている。領域検出部142は、ヒストグラムにおけるピークS1と谷を検出する。   FIG. 9 shows a histogram of saturation S (C) and a partially enlarged view thereof. The area detection unit 142 detects peaks S1 and valleys in the histogram.

図8に戻り、手順の説明を続ける。さらに、特徴量算出部141は、ピーク波形の標準偏差σを算出する(ステップSd5)。ここで、標準偏差σが予め定められた閾値以下である(鋭いピーク波形である)場合、領域検出部142は、そのピーク波形を示す領域(例えば、3σの範囲)に対して、ラベリング処理を実行する(ステップSd6)。   Returning to FIG. 8, the description of the procedure is continued. Further, the feature amount calculation unit 141 calculates the standard deviation σ of the peak waveform (step Sd5). Here, when the standard deviation σ is equal to or smaller than a predetermined threshold value (a sharp peak waveform), the region detection unit 142 performs a labeling process on a region indicating the peak waveform (for example, a range of 3σ). Execute (step Sd6).

領域検出部142は、彩度に基づいて検出した領域と、ステップSd10〜12に後述する「色相に基づいて検出した領域」とが重なる部分のビットマップ画像を作成する(異なる特徴の組み合わせ)。そして、評点算出部143は、彩度に基づいて検出した領域と、色相に基づいて検出した領域とが重なる部分の評点に、「2」点を加算する。例えば、彩度に基づいて検出した領域と、赤色に基づいて検出した領域(評点=3点)とが重なる部分の評点は、「5=3+2」点となる(ステップSd7)。   The region detection unit 142 creates a bitmap image of a portion where the region detected based on the saturation and the “region detected based on the hue” described later in steps Sd10 to 12 are combined (a combination of different features). Then, the score calculation unit 143 adds “2” to the score of the portion where the region detected based on the saturation and the region detected based on the hue overlap. For example, the score of a portion where the region detected based on the saturation and the region detected based on red (score = 3 points) overlap is “5 = 3 + 2” (step Sd7).

さらに、領域検出部142は、彩度に基づいて検出した領域と、色相に基づいて検出した領域とが重なる部分に、彩度に基づいて検出した領域であることを示す「彩度ラベル」を設定する(ステップSd8)。そして、領域検出部142の処理は、ステップSd9に進む。   Further, the region detection unit 142 displays a “saturation label” indicating that the region detected based on the saturation is in a portion where the region detected based on the saturation overlaps with the region detected based on the hue. Set (step Sd8). Then, the process of the area detection unit 142 proceeds to step Sd9.

一方、領域検出部142は、ステップSd2の次に、色相hに基づいて領域を検出する。このために、特徴量算出部141は、画像から色相hを算出する。そして、領域検出部142は、特徴量算出部141が算出した色相毎に、1枚の画像から複数のビットマップ画像を作成する(ステップSd10)。さらに、領域検出部142は、色相に基づいて検出した領域に対して、ラベリング処理を実行する(ステップSd11)。   On the other hand, the area detection unit 142 detects an area based on the hue h after step Sd2. For this purpose, the feature amount calculation unit 141 calculates the hue h from the image. Then, the region detection unit 142 creates a plurality of bitmap images from one image for each hue calculated by the feature amount calculation unit 141 (step Sd10). Further, the region detection unit 142 performs a labeling process on the region detected based on the hue (step Sd11).

さらに、評点算出部143は、赤又は黄色相の領域の評点を「3」点と、紫、シアン、又はエメラルド色相の領域の評点を「2」点と、その他の色相の領域の評点を「1」点と算出する(ステップSd12)。   Further, the score calculation unit 143 has a score of “3” for the red or yellow hue area, a score of “2” for the purple, cyan, or emerald hue area, and a score of “other” hue area. 1 "point is calculated (step Sd12).

また、領域検出部142は、色相に基づいて検出した領域に、色相に基づいて検出した領域であることを示す「色相ラベル」を設定する(ステップSd13)。そして、領域検出部142の処理は、図8のステップSd9に進む。   Further, the region detection unit 142 sets a “hue label” indicating that the region is detected based on the hue in the region detected based on the hue (step Sd13). Then, the processing of the area detection unit 142 proceeds to step Sd9 in FIG.

優先度設定部144は、画像における領域の優先度を、その領域の評点に応じて設定する。そして、優先度設定部144は、評点に応じて設定した「領域の優先度」を、領域毎に記憶部160に記憶させる。   The priority setting unit 144 sets the priority of the area in the image according to the score of the area. Then, the priority setting unit 144 stores the “region priority” set according to the score in the storage unit 160 for each region.

また、領域検出部142は、優先度設定部144が設定した評点が高い領域に、優先度が高い領域であることを示す「優先ラベル」を設定する。さらに、領域検出部142は、動きラベルを設定した領域のうち、優先度が最も高い領域に、「最優先ラベル」を設定する(ステップSd9)。そして、領域検出部142は、設定したラベル(識別子)を、領域毎に記憶部160に記憶させる。   Further, the area detection unit 142 sets a “priority label” indicating that the area has a high priority in the area having a high score set by the priority setting unit 144. Further, the region detection unit 142 sets “highest priority label” to a region having the highest priority among the regions for which motion labels are set (step Sd9). Then, the region detection unit 142 stores the set label (identifier) in the storage unit 160 for each region.

CPU190は、領域検出部142が設定した「ラベル」に基づいて、領域検出部142が検出した領域に対して、焦点調整(AF)などを制御する(例えば、図2のステップS11と、図3のステップSa14とを参照)。例えば、CPU190は、「最優先ラベル」が設定された領域を、最も主要な被写体像の領域として、その領域に対して優先的に合焦するように、焦点調整(AF)を制御する。   The CPU 190 controls focus adjustment (AF) and the like for the area detected by the area detection unit 142 based on the “label” set by the area detection unit 142 (for example, step S11 in FIG. 2 and FIG. 3). Step Sa14). For example, the CPU 190 controls the focus adjustment (AF) so that the area where the “highest priority label” is set is set as the area of the most main subject image, and the area is preferentially focused.

また、CPU190は、優先度設定部144が設定した「領域の優先度」に基づいて、領域検出部142が検出した領域に対して、焦点調整(AF)などを制御してもよい。例えば、CPU190は、優先度が最も高く設定された領域を、主要な被写体像の領域として、その領域に対して優先的に合焦するように、焦点調整を制御してもよい。   Further, the CPU 190 may control focus adjustment (AF) or the like for the area detected by the area detection unit 142 based on the “area priority” set by the priority setting unit 144. For example, the CPU 190 may control the focus adjustment so that the area set with the highest priority is set as the main subject image area and is focused on the area with priority.

次に、評点算出部143が、領域毎に評点を算出する手順について説明する。
図10には、領域毎に評点を算出する処理(例えば、図8のステップSd7及び12を参照)の手順が、フローチャートで示されている。
Next, a procedure for the score calculation unit 143 to calculate a score for each region will be described.
FIG. 10 is a flowchart showing a procedure of a process for calculating a score for each area (for example, see steps Sd7 and S12 in FIG. 8).

領域検出部142は、特徴量に応じて、ラベリングの条件を設定する(ステップSe1)。この条件は、適宜定められてよい。例えば、領域検出部142は、肌色相に基づいて検出した領域に「最優先ラベル」を設定する、などの条件であってもよい。そして、領域検出部142は、ラベリングの条件に基づいて、画素ラベリングを実行する(ステップSe2)。そして、領域検出部142は、評点を算出する対象から、スルー画像において孤立した領域(孤立点)を除外する(ステップSe3)。   The region detection unit 142 sets a labeling condition according to the feature amount (step Se1). This condition may be determined as appropriate. For example, the condition may be that the region detection unit 142 sets a “highest priority label” to the region detected based on the skin hue. Then, the region detection unit 142 performs pixel labeling based on the labeling conditions (step Se2). Then, the region detection unit 142 excludes an isolated region (isolated point) in the through image from the target for calculating the score (step Se3).

評点算出部143は、領域毎に、その領域の重心を算出する(ステップSe4)。そして、評点算出部143は、画像の中心(画角中心)から領域の重心までの距離を、領域毎に算出する(ステップSe5)。そして、評点算出部143は、画像の中心(画角中心)から領域の重心までの距離に応じて、領域毎に評点を付ける。ここで、評点算出部143は、画像の中心(画角中心)に近い領域ほど、その領域に高い評点を付ける(例えば、評点=2点、1.5点、1点、0.5点の順)(ステップSe6)。   The score calculation unit 143 calculates the center of gravity of each area (step Se4). Then, the score calculation unit 143 calculates the distance from the center of the image (center of angle of view) to the center of gravity of the region for each region (step Se5). And the score calculation part 143 gives a score for every area | region according to the distance from the center (angle of view angle) of an image to the gravity center of an area | region. Here, the score calculation unit 143 assigns a higher score to the region closer to the center of the image (center of view angle) (for example, score = 2 points, 1.5 points, 1 point, 0.5 points). Order) (step Se6).

さらに、評点算出部143は、領域がその重心に集中している度合いを評価するために、領域毎の慣性モーメントを算出する(ステップSe7)。評点算出部143は、慣性モーメントが予め定められた閾値以上である領域、すなわち、重心に集中していない領域を、評点を付ける対象から除外する(ステップSe8)。   Further, the score calculation unit 143 calculates the moment of inertia for each region in order to evaluate the degree of concentration of the region at its center of gravity (step Se7). The score calculation unit 143 excludes a region where the moment of inertia is greater than or equal to a predetermined threshold, that is, a region not concentrated on the center of gravity, from the subject to be scored (step Se8).

評点算出部143は、領域の慣性モーメントに応じて、その領域に評点を付ける。評点算出部143は、慣性モーメントが小さい(重心に集中している)領域には、高い評点を付ける(例えば、評点=2点、1.5点、1点、0.5点の順)(ステップSe9)。   The score calculation unit 143 gives a score to the area according to the moment of inertia of the area. The score calculation unit 143 assigns a high score to a region where the moment of inertia is small (concentrated at the center of gravity) (for example, score = 2 points, 1.5 points, 1 point, 0.5 points in this order) ( Step Se9).

さらに、評点算出部143は、領域検出部142が検出した領域の面積(画素数)を算出し、画像の面積に対して予め定められた比率(例えば、7割)以上の面積がある領域を、評点を付ける対象から除外する(ステップSe10)。これは、そのような領域が、背景を示す領域など、主要な被写体像の領域でない可能性があるためである。   Furthermore, the score calculation unit 143 calculates the area (number of pixels) of the region detected by the region detection unit 142, and selects a region having an area equal to or larger than a predetermined ratio (for example, 70%) with respect to the area of the image. Then, it is excluded from the target to be scored (step Se10). This is because such a region may not be a main subject image region such as a region indicating a background.

そして、評点算出部143は、領域の面積(画素数)に応じて、領域に評点を付ける。例えば、評点は、「2〜0.5」点までの4段階であってもよい。また、評点算出部143は、予め定められた面積に近い領域ほど、その領域に高い評点を付ける(ステップSe11)。さらに、評点算出部143は、領域の情報として、評点を領域毎に記憶部160に記憶させる(ステップSe12)。   Then, the score calculation unit 143 gives a score to the area according to the area (number of pixels) of the area. For example, the grade may be four levels from “2 to 0.5”. Further, the score calculation unit 143 gives a higher score to a region closer to a predetermined area (step Se11). Further, the score calculation unit 143 stores the score in the storage unit 160 for each region as region information (step Se12).

次に、優先ラベル(高い優先度及び評点)が設定された領域に、合焦させる処理の手順について説明する。   Next, a process procedure for focusing on an area where priority labels (high priority and score) are set will be described.

図11には、優先ラベル(高い優先度及び評点)を設定した領域に合焦させる処理の手順が、フローチャートで示されている。この処理は、例えば、図3のステップSa9(より詳しくは、図8のステップSd9)、又は図3のステップSa14で実行される。   FIG. 11 is a flowchart showing a processing procedure for focusing on an area where priority labels (high priority and score) are set. This process is executed, for example, at step Sa9 in FIG. 3 (more specifically, step Sd9 in FIG. 8) or step Sa14 in FIG.

領域検出部142は、同一ラベルにグループ化する色相の上限閾値と下限閾値との差を、所定のコントラスト値を取得できるまで広げ、広げた閾値に基づいて画素ラベリングする(ステップSg1)。これにより、ラベルの面積は拡張される。   The area detection unit 142 widens the difference between the upper and lower thresholds of the hues grouped in the same label until a predetermined contrast value can be acquired, and performs pixel labeling based on the widened threshold (step Sg1). As a result, the area of the label is expanded.

図12には、領域30と、コントラストスキャンする領域であるコントラストAF領域40と、領域30の色相コントラストとが示されている。そして、図12(A)には、図11のステップSg1における、領域30と、コントラストAF領域40とが示されている。また、図12(B)には、図12(A)における色相コントラストであり、コントラストAF領域40における領域30の色相コントラストが示されている。そして、図12(B)には、領域30が拡張されたことにより、コントラストAF領域40における領域30の色相の範囲も拡張されたことが示されている。   FIG. 12 shows a region 30, a contrast AF region 40 that is a region for contrast scanning, and a hue contrast of the region 30. FIG. 12A shows the region 30 and the contrast AF region 40 in step Sg1 of FIG. FIG. 12B shows the hue contrast in FIG. 12A, and the hue contrast of the region 30 in the contrast AF region 40 is shown. FIG. 12B shows that the hue range of the region 30 in the contrast AF region 40 is expanded by expanding the region 30.

図11に戻り、手順の説明を続ける。領域検出部142は、色相の範囲が拡張された色相コントラストにおいて、コントラスト値が優位である(ピーク値を示す)色相(色チャネル等)を検出する(ステップSg2)。所定のコントラスト値を取得できるまで、領域検出部142の処理は、ステップSg1及びステップSg2を繰り返す。   Returning to FIG. 11, the description of the procedure is continued. The region detection unit 142 detects a hue (such as a color channel) in which the contrast value is dominant (shows a peak value) in the hue contrast in which the hue range is expanded (step Sg2). Until the predetermined contrast value can be acquired, the processing of the region detection unit 142 repeats step Sg1 and step Sg2.

図13には、ステップSg2における、領域30と、コントラストAF領域40とが示されている。そして、図13には、コントラストAF領域40は、領域30においてエッジのパワーが強い領域に設定されることが示されている。   FIG. 13 shows the region 30 and the contrast AF region 40 in step Sg2. FIG. 13 shows that the contrast AF area 40 is set in the area 30 where the edge power is strong.

図11に戻り、手順の説明を続ける。領域検出部142は、領域30のテクスチャ(模様)に基づいて、領域30においてエッジのパワーが強い領域を検出する(ステップSg3)。そして、領域検出部142は、領域30の「エッジの色相」を検出する(ステップSg4)。   Returning to FIG. 11, the description of the procedure is continued. The region detection unit 142 detects a region having a strong edge power in the region 30 based on the texture (pattern) of the region 30 (step Sg3). Then, the region detection unit 142 detects the “edge hue” of the region 30 (step Sg4).

領域検出部142は、エッジのパワーが強い領域に、コントラストスキャンする領域である「コントラストAF領域」を設定する。ここで、領域検出部142は、被写体距離が不明である領域であっても、優先ラベル(高い優先度及び評点)が設定されている領域であれば、コントラストAF領域を設定する(ステップSg5)。   The region detection unit 142 sets a “contrast AF region” that is a region for contrast scanning in a region where the edge power is strong. Here, even if the subject distance is unknown, the region detection unit 142 sets the contrast AF region if the priority label (high priority and score) is set (step Sg5). .

領域検出部142は、検出した領域の「領域の情報」と、夜景などの点光源が撮像されていることを示す「点光源フラグ」とに基づいて、コントラストスキャンにおける露光量を設定する(ステップSg6)。   The area detection unit 142 sets the exposure amount in the contrast scan based on the “area information” of the detected area and the “point light source flag” indicating that a point light source such as a night view is captured (step Sg6).

そして、領域検出部142は、検出した領域が、低コントラスト又は低輝度であるか否かを判定する(ステップSg7)。検出した領域が、低コントラスト又は低輝度でない場合(ステップSg7−NO)、CPU190は、コントラストAF領域において、コントラストスキャンを実行する(ステップSg8)。   Then, the region detection unit 142 determines whether or not the detected region has low contrast or low brightness (step Sg7). When the detected area is not low contrast or low brightness (step Sg7-NO), the CPU 190 executes a contrast scan in the contrast AF area (step Sg8).

一方、検出した領域が、低コントラスト(低輝度)である場合(ステップSg7−YES)、領域検出部142は、検出した領域の境界(外周)近傍でエッジを探索し、探索したエッジの色相(色構成)を検出する(ステップSg9)。   On the other hand, when the detected area has low contrast (low brightness) (step Sg7-YES), the area detection unit 142 searches for an edge near the boundary (outer periphery) of the detected area, and the hue of the searched edge ( Color configuration) is detected (step Sg9).

領域検出部142は、領域30の境界(外周)を含む範囲にコントラストAF領域40を設定し、設定したコントラストAF領域40に、エッジがあるか否かを判定(エッジを検出)する(ステップSg10)。   The region detection unit 142 sets the contrast AF region 40 in a range including the boundary (outer periphery) of the region 30, and determines whether there is an edge (detects an edge) in the set contrast AF region 40 (step Sg10). ).

図14には、領域30の境界(外周)を含む範囲に設定したコントラストAF領域40において、エッジを検出する処理を説明するための図が示されている。そして、図14には、コントラストAF領域40が、領域30の境界(外周)を含む範囲に設定されることが示されている。   FIG. 14 is a diagram for explaining processing for detecting an edge in the contrast AF area 40 set in a range including the boundary (outer periphery) of the area 30. FIG. 14 shows that the contrast AF area 40 is set in a range including the boundary (outer periphery) of the area 30.

図11に戻り、手順の説明を続ける。コントラストAF領域40にエッジがない場合(ステップSg10−NO)、領域検出部142は、低コントラストである領域30のコントラストAF領域40にエッジを検出するため、色相及び輝度のコントラストを検出する感度を上げる。例えば、領域検出部142は、露光時間を長くする、又はガンマテーブルを変更することにより、色相及び輝度のコントラストを検出する感度を上げる(ステップSg11)。   Returning to FIG. 11, the description of the procedure is continued. When there is no edge in the contrast AF area 40 (step Sg10-NO), the area detection unit 142 detects the edge in the contrast AF area 40 of the low-contrast area 30, so that the sensitivity for detecting the contrast of hue and luminance is set. increase. For example, the area detection unit 142 increases the sensitivity for detecting the hue and luminance contrast by extending the exposure time or changing the gamma table (step Sg11).

図15には、領域検出部142が検出した領域31と、領域31に設定したコントラストAF領域41と、領域検出部142が検出した領域32と、領域32に設定したコントラストAF領域42と、が示されている。ここで、一例として、領域31の色相及び輝度は、低コントラストでないものとする。一方、領域32の色相及び輝度は、低コントラストであるものとする。   In FIG. 15, the region 31 detected by the region detection unit 142, the contrast AF region 41 set in the region 31, the region 32 detected by the region detection unit 142, and the contrast AF region 42 set in the region 32 are shown. It is shown. Here, as an example, the hue and brightness of the region 31 are not low contrast. On the other hand, the hue and brightness of the region 32 are assumed to be low contrast.

領域検出部142は、領域31のコントラストAF領域41にエッジを検出するため、通常のガンマテーブルを、コントラストAF領域41に設定する。一方、領域検出部142は、低コントラスト(低輝度)である領域32のコントラストAF領域42にエッジを検出するため、感度を上げた高ガンマテーブルを、コントラストAF領域42に設定する。このように、領域検出部142は、低コントラスト又は低輝度である領域32に対して、色相及び輝度のコントラストを検出する感度を上げる。   The area detection unit 142 sets a normal gamma table in the contrast AF area 41 in order to detect an edge in the contrast AF area 41 of the area 31. On the other hand, the area detection unit 142 sets a high gamma table with increased sensitivity in the contrast AF area 42 in order to detect edges in the contrast AF area 42 of the area 32 having low contrast (low luminance). As described above, the region detection unit 142 increases the sensitivity of detecting the contrast of hue and luminance for the region 32 having low contrast or low luminance.

図11に戻り、手順の説明を続ける。コントラストAF領域40にエッジがある場合(ステップSg10−YES)、領域検出部142の処理は、ステップSg8に進む。CPU190は、特徴量算出部141が検出した標本化周波数とコントラスト値とに基づいて、コントラストスキャンを実行する(ステップSg8)。そして、CPU190は、複数のラベルをコントラスト領域に設定した場合、ヒストグラムのピークの高さよりも、評点(優先度)の高さを優先し、評点(優先度)が高い領域に、合焦させる(ステップSg12)。   Returning to FIG. 11, the description of the procedure is continued. When there is an edge in the contrast AF area 40 (step Sg10-YES), the process of the area detection unit 142 proceeds to step Sg8. The CPU 190 executes a contrast scan based on the sampling frequency and the contrast value detected by the feature amount calculation unit 141 (step Sg8). When a plurality of labels are set in the contrast area, the CPU 190 prioritizes the height of the score (priority) over the height of the peak of the histogram and focuses on the area having a high score (priority) ( Step Sg12).

図16には、領域検出部142が検出した領域と、評点算出部143が算出した評点と、領域検出部142が設定したコントラストAF領域との一例が示されている。ここで、コントラストAF領域43は、領域検出部142が領域33に設定したコントラストAF領域である。また、一例として、領域33の評点を「20」点と、領域30の評点を「23」点と、領域31の評点を「15」点と、領域32の評点を「14」点とする。また、領域30には、優先ラベルが設定されているものとする。   FIG. 16 shows an example of the area detected by the area detector 142, the score calculated by the score calculator 143, and the contrast AF area set by the area detector 142. Here, the contrast AF area 43 is a contrast AF area set in the area 33 by the area detection unit 142. Also, as an example, the score of the region 33 is “20”, the score of the region 30 is “23”, the score of the region 31 is “15”, and the score of the region 32 is “14”. Further, it is assumed that a priority label is set in the area 30.

このような場合、CPU190は、優先ラベルが設定された領域30を、主要な被写体像の領域として、領域30に合焦させてもよい。また、CPU190は、評点(優先度)が最も高い領域30を、主要な被写体像の領域として、領域30に合焦させてもよい。また、CPU190は、領域の評点(優先度)が高い順に、合焦させる領域を連続的に変更してもよい。   In such a case, the CPU 190 may focus the area 30 in which the priority label is set as the main subject image area. Further, the CPU 190 may focus the area 30 having the highest score (priority) on the area 30 as the main subject image area. Further, the CPU 190 may continuously change the focused area in descending order of the score (priority) of the area.

また、コントラストが取れない場合、CPU190は、ラベルの内側に設定したコントラストAF領域のほかに、ラベルに外接するコントラストAF領域を設定してもよい。この場合、CPU190は、ラベルの内側に設定したコントラストAF領域とラベルに外接するコントラストAF領域とを併用して、至近側に合焦させてもよい。   When the contrast cannot be obtained, the CPU 190 may set a contrast AF area circumscribing the label in addition to the contrast AF area set inside the label. In this case, the CPU 190 may use the contrast AF area set inside the label and the contrast AF area circumscribing the label to focus on the closest side.

以上のように、画像処理装置140は、画像の特徴毎に、特徴の特徴量を検出する特徴量算出部141と、画像に含まれる領域であって特徴量毎に定まる領域を画像から算出し、ラベル(識別子)を設定する領域検出部142と、異なる特徴の特徴量に基づいて検出した領域同士を比較するための評点を、領域毎に算出する評点算出部143と、評点に基づいて、画像における領域の優先度を設定する優先度設定部144と、を備える。   As described above, the image processing apparatus 140 calculates, from the image, the feature amount calculation unit 141 that detects the feature amount of the feature for each feature of the image, and the region that is included in the image and is determined for each feature amount. Based on the score, the area detector 142 for setting the label (identifier), the score calculator 143 for calculating the score for comparing the areas detected based on the feature quantities of different features, and the score A priority setting unit 144 that sets the priority of the area in the image.

これにより、画像処理装置140は、撮像された画像から主要被写体の領域を予測することができる。例えば、画像処理装置140は、撮像された画像における、主要な被写体像の領域と、主要でない被写体像の領域とを識別することができる。また、画像処理装置140は、複数の特徴(例えば、色相及び彩度)に基づいて領域を検出することで、AF、AE,AWB、追尾、シーン判定、及び色処理の精度を向上させることができる。また、画像処理装置140は、追尾精度を向上させたことで、撮影までのタイムラグ(遅延)を短縮させることができる。これにより、画像処理装置140は、評点(優先度)が最も高い領域30を、主要な被写体像の領域として識別することができる。   Thereby, the image processing apparatus 140 can predict the region of the main subject from the captured image. For example, the image processing apparatus 140 can identify a main subject image region and a non-main subject image region in a captured image. Further, the image processing apparatus 140 can improve the accuracy of AF, AE, AWB, tracking, scene determination, and color processing by detecting a region based on a plurality of features (for example, hue and saturation). it can. In addition, the image processing apparatus 140 can shorten the time lag (delay) until shooting by improving the tracking accuracy. Thereby, the image processing apparatus 140 can identify the region 30 having the highest score (priority) as the main subject image region.

また、画像処理装置140は、コントラストAF領域の面積を可変(拡張)させて、標本化周波数をスイープさせることで、コントラストが拾える標本化周波数を検出し、コントラストの検出に最適な標本化周波数で、コントラストのピークを検出する。   In addition, the image processing device 140 detects the sampling frequency at which contrast can be picked up by varying (expanding) the area of the contrast AF region and sweeping the sampling frequency, and at the sampling frequency optimum for detecting the contrast. , Detect the peak of contrast.

これにより、画像処理装置140は、領域が低コントラストであったとしても、色相、輝度、RGB、及び色差(Cr,Cb)の少なくとも1つのコントラストを検出する感度を上げて、コントラストスキャンを実行するので、撮像された画像における領域を、高精度に識別することができる。例えば、画像処理装置140は、撮像された画像における、主要な被写体像の領域と、主要でない被写体像の領域とを識別することができる。   As a result, even if the region has a low contrast, the image processing apparatus 140 increases the sensitivity for detecting at least one contrast of hue, luminance, RGB, and color difference (Cr, Cb), and executes a contrast scan. Therefore, the region in the captured image can be identified with high accuracy. For example, the image processing apparatus 140 can identify a main subject image region and a non-main subject image region in a captured image.

<特異である色相に基づく領域の検出について>
領域検出部142は、特異である色相(例えば、色相環において不連続である色相)に基づいて、領域を検出してもよい。
<Detection of areas based on unique hues>
The region detection unit 142 may detect a region based on a unique hue (for example, a hue that is discontinuous in the hue circle).

図17には、色相に基づいて領域を検出する処理手順が、フローチャートで示されている。ステップSd14〜17は、図8のステップSd3〜8と、並列に処理される。特徴量算出部141は、図8のステップSd2の次に、画像における色相hのヒストグラムを作成する(ステップSd14)。   FIG. 17 is a flowchart showing a processing procedure for detecting a region based on the hue. Steps Sd14-17 are processed in parallel with steps Sd3-8 of FIG. The feature amount calculation unit 141 creates a histogram of the hue h in the image after step Sd2 in FIG. 8 (step Sd14).

領域検出部142は、ヒストグラムの分布に基づいて、ヒストグラムにピークがあるか否かを判定する。また、領域検出部142は、色相ヒストグラム又は色相環における色相の連続性を検出し、色相ヒストグラムにおいて不連続となる色相があるか否かを判定する(ステップSd15)。   The region detection unit 142 determines whether there is a peak in the histogram based on the histogram distribution. Further, the region detection unit 142 detects the continuity of hues in the hue histogram or hue circle, and determines whether there is a discontinuous hue in the hue histogram (step Sd15).

図18には、色相ヒストグラムの一例が示されている。領域検出部142は、色相ヒストグラムにおいてピークを示す領域と、色相ヒストグラムにおいて不連続となる色相(不連続領域)の領域とを検出する。   FIG. 18 shows an example of a hue histogram. The region detection unit 142 detects a region showing a peak in the hue histogram and a region of a hue (discontinuous region) that is discontinuous in the hue histogram.

図17に戻り、手順の説明を続ける。領域検出部142は、色相ヒストグラムにおいてピークを示す色相、又は不連続となる色相に基づいて、領域を検出する(ステップSd16)。さらに、領域検出部142は、検出した領域をラベリングする(ステップSd17)。   Returning to FIG. 17, the description of the procedure is continued. The region detection unit 142 detects a region based on a hue that shows a peak in the hue histogram or a discontinuous hue (step Sd16). Furthermore, the area detection unit 142 labels the detected area (step Sd17).

領域検出部142は、特異である色相に基づいて検出した領域に、特異である色相に基づいて検出した領域であることを示す「特異色相ラベル」を設定する。また、評点算出部143は、領域検出部142が検出した領域の評点を、「4」点と算出する(ステップSd18)。そして、領域検出部142の処理は、図8のステップSd9に進む。   The region detection unit 142 sets a “single hue label” indicating that the region is detected based on the unique hue in the region detected based on the unique hue. Further, the score calculation unit 143 calculates the score of the region detected by the region detection unit 142 as “4” (step Sd18). Then, the processing of the area detection unit 142 proceeds to step Sd9 in FIG.

これにより、画像処理装置140は、特異である色相に基づいて、領域を検出することができる。   As a result, the image processing apparatus 140 can detect a region based on a unique hue.

<特異である明度に基づく領域の検出について>
領域検出部142は、特異である明度(例えば、周囲と比較して著しく異なる明度)に基づいて、領域を検出してもよい。
<Detection of regions based on unique brightness>
The region detection unit 142 may detect a region based on lightness that is unique (for example, lightness that is significantly different from the surroundings).

図19には、明度に基づいて領域を検出する処理手順が、フローチャートで示されている。ここで、ステップSd19〜23は、図8のステップSd2〜8と、並列に処理される。   FIG. 19 is a flowchart showing a processing procedure for detecting a region based on brightness. Here, steps Sd19 to 23 are processed in parallel with steps Sd2 to 8 of FIG.

特徴量算出部141は、図8のステップSd1の次に、画像における明度Lのヒストグラムを作成する(ステップSd19)。領域検出部142は、ヒストグラムの分布に基づいて、ヒストグラムにピークがあるか否かを判定する(ステップSd20)。   The feature amount calculation unit 141 creates a histogram of lightness L in the image after step Sd1 in FIG. 8 (step Sd19). The region detection unit 142 determines whether or not there is a peak in the histogram based on the histogram distribution (step Sd20).

領域検出部142は、明度ヒストグラムにおいてピークを示す明度、又はヒストグラムの谷によって不連続となる明度に基づいて、領域を検出する(ステップSd21)。そして、領域検出部142は、特異である明度に基づいて検出した領域に、「特異明度ラベル」を設定する(ステップSd22)。   The region detection unit 142 detects a region based on the lightness indicating a peak in the lightness histogram or the lightness discontinuous due to the valley of the histogram (step Sd21). Then, the region detection unit 142 sets a “singular lightness label” in the region detected based on the lightness that is unique (step Sd22).

さらに、領域検出部142は、明度に基づいて検出した領域に、明度に基づいて検出した領域であることを示す「明度ラベル」を設定する。また、評点算出部143は、領域検出部142が検出した領域の評点を、「4」点と算出する(ステップSd23)。そして、領域検出部142の処理は、図8のステップSd9に進む。   Further, the region detection unit 142 sets a “lightness label” indicating that the region is detected based on the lightness in the region detected based on the lightness. Further, the score calculation unit 143 calculates the score of the area detected by the area detection unit 142 as “4” (step Sd23). Then, the processing of the area detection unit 142 proceeds to step Sd9 in FIG.

また、領域検出部142は、ステップSd20の次に、ピーク値を示す明度と、明度の平均値との差が、閾値以上であるか否かを判定する(ステップSd24)。ピーク値を示す明度と、明度の平均値との差が、閾値以上でない場合(ステップSd24−NO)、明度に差がないので、領域検出部142の処理は、ステップSd21に進む。   Moreover, the area | region detection part 142 determines whether the difference of the lightness which shows a peak value, and the average value of lightness is more than a threshold value after step Sd20 (step Sd24). When the difference between the lightness indicating the peak value and the average value of lightness is not equal to or greater than the threshold value (step Sd24-NO), there is no difference in lightness, so the processing of the region detection unit 142 proceeds to step Sd21.

一方、ピーク値を示す明度と、明度の平均値との差が、閾値以上である場合(ステップSd24−YES)、明度に差があるので、領域検出部142は、点光源が撮像されていること(夜景が撮像されていること)を示す「点光源フラグ」をオンにして、点光源フラグを画像(領域)に設定する(シーン判定)(ステップSd25)。   On the other hand, when the difference between the lightness indicating the peak value and the average lightness value is equal to or greater than the threshold value (step Sd24-YES), since there is a difference in lightness, the area detection unit 142 captures the point light source. “Point light source flag” indicating that the image is captured (night scene is captured) is set to an image (region) (scene determination) (step Sd25).

領域検出部142は、明度ヒストグラムにおいてピークを示す明度、又は不連続となる明度に基づいて、領域を検出する。そして、領域検出部142は、明度に基づいて検出した領域をラベリングする(ステップSd24)。そして、領域検出部142の処理は、ステップSd23に進む。   The region detection unit 142 detects a region based on the lightness indicating a peak in the lightness histogram or the lightness that becomes discontinuous. And the area | region detection part 142 labels the area | region detected based on the brightness (step Sd24). Then, the process of the region detection unit 142 proceeds to step Sd23.

これにより、画像処理装置140は、特異である明度に基づいて、領域を検出することができる。   Thereby, the image processing apparatus 140 can detect the region based on the unique brightness.

<角度検出オペレータにより検出するテクスチャ(模様)に基づく、領域の検出について>
領域検出部142は、角度検出オペレータ(空間フィルタ)により検出するテクスチャ(模様)に基づいて、領域を検出してもよい。
<Region detection based on texture (pattern) detected by the angle detection operator>
The region detection unit 142 may detect a region based on a texture (pattern) detected by an angle detection operator (spatial filter).

図20には、角度検出オペレータにより検出するテクスチャに基づいて、領域を検出する処理手順が、フローチャートで示されている。ここで、ステップSd26〜31は、図8のステップSd1〜8と、並列に処理される。   FIG. 20 is a flowchart showing a processing procedure for detecting a region based on the texture detected by the angle detection operator. Here, steps Sd26-31 are processed in parallel with steps Sd1-8 of FIG.

特徴量算出部141は、角度検出オペレータにより画像をスキャン(例えば、ラスタースキャン)して、明度L(輝度Y)又は色相(色成分RGB)の特徴量を算出する。そして、特徴量算出部141は、例えば、角度「22.5」度ごとの8つの領域に、画像を区分する(ステップSd26)。ここで、角度検出オペレータとは、エッジの角度毎に、画像にエッジを検出するための空間フィルタである。図21には、角度「22.5」度ごとにエッジを検出するための8パターンの角度検出オペレータが示されている。   The feature amount calculation unit 141 scans an image (for example, raster scan) by an angle detection operator, and calculates a feature amount of lightness L (luminance Y) or hue (color component RGB). Then, the feature amount calculation unit 141 divides the image into, for example, eight regions for each angle “22.5” degrees (step Sd26). Here, the angle detection operator is a spatial filter for detecting an edge in an image for each angle of the edge. FIG. 21 shows eight patterns of angle detection operators for detecting edges at an angle of “22.5” degrees.

図20に戻り、手順の説明を続ける。特徴量算出部141は、エッジの角度毎に、エッジの特徴量(パワー値、ΣP)を示すヒストグラムを作成する(ステップSd27)。なお、特徴量算出部141は、特徴量算出部141は、エッジの角度毎に、エッジの長さを示すヒストグラムを作成してもよい。   Returning to FIG. 20, the description of the procedure is continued. The feature amount calculation unit 141 creates a histogram indicating the feature amount (power value, ΣP) of the edge for each edge angle (step Sd27). Note that the feature quantity calculation unit 141 may create a histogram indicating the edge length for each edge angle.

領域検出部142は、ヒストグラムの分布に基づいて、ヒストグラムにピークがあるか否かを判定する(ステップSd28)。図22には、エッジの角度毎に、エッジの特徴量(パワー値、ΣP)を示すヒストグラムの例が示されている。領域検出部142は、図22に示されたヒストグラムに、エッジの特徴量のピークA及びBがあると判定したとする。ここで、角度が「22.5」度であるエッジの特徴量(パワー値、ΣP)が、ピークAを示したとする。また、角度が「135」度であるエッジの特徴量(パワー値、ΣP)が、ピークBを示したとする。   The region detection unit 142 determines whether or not there is a peak in the histogram based on the histogram distribution (step Sd28). FIG. 22 shows an example of a histogram indicating edge feature values (power values, ΣP) for each edge angle. Assume that the region detection unit 142 determines that there are peaks A and B of edge feature amounts in the histogram shown in FIG. Here, it is assumed that the feature amount (power value, ΣP) of an edge whose angle is “22.5” indicates the peak A. Further, it is assumed that the feature amount (power value, ΣP) of the edge whose angle is “135” degrees indicates the peak B.

図20に戻り、手順の説明を続ける。領域検出部142は、特徴量がピークを示した角度毎に、その角度のエッジの分布(領域)を示すビットマップ(パワーマップ)を作成する(ステップSd29)。図23には、テクスチャ(エッジの分布)に基づいて領域検出部142が検出した領域の例が示されている。そして、図23(A)には、角度が「22.5」度であるエッジが分布する領域1〜5の例が示されている。また、図23(B)には、角度が「135」度であるエッジが分布する領域6の例が示されている。領域検出部142は、特徴量がピークを示した角度毎に、その角度のエッジが分布する領域を示すビットマップを作成する。さらに、領域検出部142は、テクスチャに基づいて検出した領域をラベリングする。また、評点算出部143は、領域検出部142がテクスチャに基づいて検出した領域の評点を、「2」点と算出する(ステップSd30)。   Returning to FIG. 20, the description of the procedure is continued. The area detection unit 142 creates a bitmap (power map) indicating the distribution (area) of edges at the angle for each angle at which the feature amount shows a peak (step Sd29). FIG. 23 shows an example of a region detected by the region detection unit 142 based on the texture (edge distribution). FIG. 23A shows an example of regions 1 to 5 where edges having an angle of “22.5” degrees are distributed. FIG. 23B shows an example of a region 6 in which edges having an angle of “135” degrees are distributed. For each angle at which the feature amount shows a peak, the region detection unit 142 creates a bitmap that indicates a region in which edges of the angle are distributed. Furthermore, the region detection unit 142 labels the region detected based on the texture. Also, the score calculation unit 143 calculates the score of the area detected by the area detection unit 142 based on the texture as “2” (step Sd30).

また、領域検出部142は、角度検出オペレータにより検出したテクスチャに基づいて検出した領域に、テクスチャに基づいて検出した領域であることを示す「テクスチャラベル」を設定する(ステップSd31)。そして、領域検出部142の処理は、図8のステップSd9に進む。   In addition, the area detection unit 142 sets a “texture label” indicating that the area is detected based on the texture in the area detected based on the texture detected by the angle detection operator (step Sd31). Then, the processing of the area detection unit 142 proceeds to step Sd9 in FIG.

ステップSd32及び33は、ステップSd27〜30と、並列に処理される。領域検出部142は、ヒストグラム(図22を参照)において、特徴量が閾値以上であるエッジの角度毎に、その角度のエッジが分布する領域を示すビットマップ(パワーマップ)を作成する(ステップSd32)。   Steps Sd32 and 33 are processed in parallel with steps Sd27-30. In the histogram (see FIG. 22), the region detection unit 142 creates a bitmap (power map) indicating a region in which the edge of the angle is distributed for each angle of the edge whose feature amount is equal to or greater than the threshold (step Sd32). ).

さらに、領域検出部142は、エッジを細線化する。そして、領域検出部142は、画像の奥行を示す要素(パースペクティブ要素)、すなわち、細線化したエッジの空間周波数、間隔(スパン)、又は分布に基づいて、検出した領域をラベリングする。例えば、領域検出部142は、エッジの間隔が密である領域に、ラベルを付けてもよい。また、評点算出部143は、角度検出オペレータにより領域検出部142が検出した領域の評点を、「1」点と算出する(ステップSd33)。そして、領域検出部142の処理は、ステップSd31に進む。   Further, the region detection unit 142 thins the edge. Then, the area detection unit 142 labels the detected area based on an element (perspective element) indicating the depth of the image, that is, the spatial frequency, interval (span), or distribution of the thinned edge. For example, the region detection unit 142 may add a label to a region where the interval between edges is close. Also, the score calculation unit 143 calculates the score of the area detected by the area detection unit 142 by the angle detection operator as “1” (step Sd33). Then, the process of the area detection unit 142 proceeds to step Sd31.

これにより、画像処理装置140は、角度検出オペレータにより検出するテクスチャに基づいて、領域を検出することができる。   Thereby, the image processing apparatus 140 can detect the region based on the texture detected by the angle detection operator.

<離散コサイン変換(DCT)係数により検出するテクスチャ(模様)に基づく、領域の検出について>
領域検出部142は、JPEG規格に準拠した離散コサイン変換(DCT)係数により検出するテクスチャ(模様)に基づいて、領域を検出してもよい。
<Regarding Region Detection Based on Texture (Pattern) Detected by Discrete Cosine Transform (DCT) Coefficient>
The region detection unit 142 may detect a region based on a texture (pattern) detected by a discrete cosine transform (DCT) coefficient based on the JPEG standard.

図24には、DCT係数に基づいて、領域検出部142が領域を検出する処理手順が、フローチャートで示されている。ここで、ステップSd34〜42は、図8のステップSd1〜8と、並列に処理される。   FIG. 24 is a flowchart showing a processing procedure in which the region detection unit 142 detects a region based on the DCT coefficient. Here, steps Sd34-42 are processed in parallel with steps Sd1-8 of FIG.

特徴量算出部141は、画像に対し、DCTブロック(=8×8画素)単位でDCT演算処理を実行する(ステップSd34)。そして、特徴量算出部141は、量子化テーブル(例えば、JPEG規格に準拠した量子化テーブル)に基づいて、DCT係数を量子化する(ステップSd35)。   The feature quantity calculation unit 141 executes DCT calculation processing on the image in units of DCT blocks (= 8 × 8 pixels) (step Sd34). Then, the feature amount calculation unit 141 quantizes the DCT coefficient based on a quantization table (for example, a quantization table compliant with the JPEG standard) (step Sd35).

特徴量算出部141は、DCTブロックにおける代表値を、そのDCTブロックに予め定められた帯域毎に、算出する。ここで、DCTブロックにおける代表値とは、例えば、帯域毎のDCT係数の2乗値、又は帯域毎のDCT係数の絶対値である。そして、特徴量算出部141は、画像に含まれる全てのDCTブロックについて、各DCTブロックにおける代表値を算出する(ステップSd36)。   The feature amount calculation unit 141 calculates a representative value in the DCT block for each band predetermined for the DCT block. Here, the representative value in the DCT block is, for example, the square value of the DCT coefficient for each band or the absolute value of the DCT coefficient for each band. Then, the feature amount calculation unit 141 calculates a representative value in each DCT block for all DCT blocks included in the image (step Sd36).

なお、DCTブロックにおける代表値は、DCT係数の2乗値、又はDCT係数の絶対値を、複数の帯域にわたって加算した値(総和)であってもよい。   The representative value in the DCT block may be a value obtained by adding the square value of the DCT coefficient or the absolute value of the DCT coefficient over a plurality of bands.

領域検出部142は、代表値が定められたDCTブロックの分布を示すビットマップ(パワーマップ)を、DCTブロックに予め定められた帯域毎に作成する(ステップSd37)。なお、ビットマップ(パワーマップ)を作成する場合、領域検出部142は、DCTブロック毎に、逆離散コサイン変換を実行してもよい。   The region detection unit 142 creates a bitmap (power map) indicating the distribution of the DCT block for which the representative value is determined for each band predetermined for the DCT block (step Sd37). When creating a bitmap (power map), the region detection unit 142 may perform inverse discrete cosine transform for each DCT block.

そして、特徴量算出部141は、DCTブロックにおける代表値を「0〜255」範囲に正規化する(ステップSd38)。さらに、特徴量算出部141は、予め定められた閾値(例えば、値「30」)以下の代表値を、値「0」にする(ステップSd39)。   Then, the feature amount calculation unit 141 normalizes the representative value in the DCT block to the “0 to 255” range (step Sd38). Further, the feature amount calculation unit 141 sets a representative value equal to or less than a predetermined threshold (for example, a value “30”) to a value “0” (step Sd39).

さらに、領域検出部142は、代表値の範囲(例えば、値「31〜100」と、値「101〜170」と、値「171〜255」との3つの範囲)毎に、各ビットマップから複数のビットマップを作成する(ステップSd40)。そして、領域検出部142は、複数のビットマップから領域を検出し、検出した領域をラベリングする(ステップSd41)。   Further, the region detection unit 142 determines whether the representative value ranges (for example, three ranges of values “31 to 100”, values “101 to 170”, and values “171 to 255”) from each bitmap. A plurality of bitmaps are created (step Sd40). Then, the region detection unit 142 detects a region from a plurality of bitmaps, and labels the detected region (step Sd41).

領域検出部142は、作成した全てのビットマップについて、ラベリング処理を実行したか否かを判定する(ステップSd42)。領域をラベリングしていないビットマップがある場合(ステップSd42−NO)、領域検出部142の処理は、ステップSd40に戻る。   The region detection unit 142 determines whether labeling processing has been executed for all the created bitmaps (step Sd42). When there is a bitmap that does not label the region (step Sd42-NO), the processing of the region detection unit 142 returns to step Sd40.

一方、全てのビットマップについて、領域をラベリングした場合(ステップSd42−YES)、領域検出部142は、作成した全てのビットマップを重ねた場合に、領域同士が重なる部分(位置的積集合)の面積を算出する。そして、領域同士が重なる部分の面積が予め定められた面積以上である場合、領域検出部142は、それらの領域を結合してもよい(ステップSd43)。   On the other hand, when the regions are labeled for all the bitmaps (step Sd42-YES), the region detection unit 142, when all the created bitmaps are overlapped, the portion where the regions overlap (positional product set). Calculate the area. And when the area of the part which area | regions overlap is more than a predetermined area, the area | region detection part 142 may combine those area | regions (step Sd43).

そして、評点算出部143は、DCT係数により領域検出部142が検出した領域の評点を、「2」点と算出する(ステップSd44)。   Then, the score calculation unit 143 calculates the score of the area detected by the area detection unit 142 based on the DCT coefficient as “2” (step Sd44).

さらに、領域検出部142は、DCT係数により検出したテクスチャに基づいて検出した領域に、テクスチャに基づいて検出した領域であることを示す「テクスチャラベル」を設定する(ステップSd45)。そして、領域検出部142の処理は、図8のステップSd9に進む。   Furthermore, the region detection unit 142 sets a “texture label” indicating that the region is detected based on the texture in the region detected based on the texture detected based on the DCT coefficient (step Sd45). Then, the processing of the area detection unit 142 proceeds to step Sd9 in FIG.

図25には、DCT係数に基づいて、領域検出部142が領域を検出する処理を説明するための図が示されている。ここで、1枚の画像に、複数のDCTブロック10aが並んでいる。そして、各DCTブロック10aには、一例として、予め定められた帯域11−n(nは、1〜5の整数)があるものとする。特徴量算出部141は、DCTブロック10aにおける代表値を、そのDCTブロックに予め定められた帯域毎に、算出する(図24のステップSd36を参照)。そして、領域検出部142は、DCTブロック10a毎に、逆離散コサイン変換を実行し、DCTブロック10bを作成する。   FIG. 25 is a diagram for explaining processing in which the region detection unit 142 detects a region based on the DCT coefficient. Here, a plurality of DCT blocks 10a are arranged in one image. Each DCT block 10a has a predetermined band 11-n (n is an integer of 1 to 5) as an example. The feature amount calculation unit 141 calculates the representative value in the DCT block 10a for each band predetermined for the DCT block (see step Sd36 in FIG. 24). And the area | region detection part 142 performs inverse discrete cosine transformation for every DCT block 10a, and produces the DCT block 10b.

領域検出部142は、DCTブロック10b−n(予め定められた帯域11−n)の画像における分布を示すビットマップ12−nを、DCTブロック10aに予め定められた帯域11−n毎に作成する(図24のステップSd37を参照)。例えば、領域検出部142は、DCTブロック10b−1を並べることで、予め定められた帯域11−1の画像における分布を示すビットマップ12−1を作成する。   The area detection unit 142 creates a bitmap 12-n indicating the distribution in the image of the DCT block 10b-n (predetermined band 11-n) for each predetermined band 11-n in the DCT block 10a. (See step Sd37 in FIG. 24). For example, the region detection unit 142 creates the bitmap 12-1 indicating the distribution in the image of the predetermined band 11-1 by arranging the DCT blocks 10b-1.

さらに、領域検出部142は、代表値の範囲毎に、各ビットマップから複数のビットマップを作成する(図24のステップSd40を参照)。ここで、一例として、ビットマップ13は、予め定められた帯域11−1の「DCTブロックにおける代表値」が、値「31〜100」である領域16を含むものとする。また、ビットマップ14は、予め定められた帯域11−1の「DCTブロックにおける代表値」が、値「101〜170」である領域17及び18を含むものとする。さらに、ビットマップ15は、予め定められた帯域11−1の「DCTブロックにおける代表値」が、値「171〜255」である領域19及び20を含むものとする。   Further, the region detection unit 142 creates a plurality of bitmaps from each bitmap for each representative value range (see step Sd40 in FIG. 24). Here, as an example, it is assumed that the bitmap 13 includes a region 16 in which the “representative value in the DCT block” of the predetermined band 11-1 is a value “31 to 100”. The bitmap 14 includes regions 17 and 18 in which “representative values in the DCT block” of the predetermined band 11-1 are values “101 to 170”. Further, it is assumed that the bitmap 15 includes regions 19 and 20 in which “representative values in the DCT block” of the predetermined band 11-1 are values “171 to 255”.

そして、領域検出部142は、作成した全てのビットマップを重ねて、ビットマップ21を作成し、領域同士が重なる部分を検出する。図25では、一例として、領域18及び20が重なる部分である領域22と、領域16及び17が重なる部分である領域23とが、ビットマップ21に検出されている。   Then, the region detection unit 142 creates a bitmap 21 by superimposing all the created bitmaps, and detects a portion where the regions overlap each other. In FIG. 25, as an example, a region 22 where the regions 18 and 20 overlap and a region 23 where the regions 16 and 17 overlap are detected in the bitmap 21.

さらに、領域検出部142は、領域22及び23が重なる部分(位置的積集合)の面積を算出し、その重なる部分の面積が予め定められた面積以上である場合には、領域22及び23を結合してもよい(図24のステップSd43を参照)。   Further, the region detection unit 142 calculates the area of the portion where the regions 22 and 23 overlap (positional product set), and if the area of the overlapping portion is equal to or larger than a predetermined area, the region detection unit 142 determines that the regions 22 and 23 are the same. They may be combined (see step Sd43 in FIG. 24).

また、評点算出部143は、領域検出部142が検出した領域の評点に、評点を加算してもよい。図26には、高周波帯域のDCT係数に基づいて、領域検出部142が検出した領域の評点に、評点算出部143が評点を加算する処理が、フローチャートで示されている。ここで、ステップSd46〜56は、図8のステップSd1〜8と、並列に処理される。   The score calculation unit 143 may add the score to the score of the area detected by the area detection unit 142. FIG. 26 is a flowchart showing a process in which the score calculation unit 143 adds the score to the score of the region detected by the region detection unit 142 based on the DCT coefficient in the high frequency band. Here, steps Sd46 to Sd56 are processed in parallel with steps Sd1 to Sd8 of FIG.

特徴量算出部141は、画像に対し、DCTブロック(=8×8画素)単位でDCT演算処理を実行する(ステップSd46)。そして、特徴量算出部141は、量子化テーブルに基づいて、DCT係数を量子化する(ステップSd47)。   The feature amount calculation unit 141 executes DCT calculation processing on the image in units of DCT blocks (= 8 × 8 pixels) (step Sd46). And the feature-value calculation part 141 quantizes a DCT coefficient based on a quantization table (step Sd47).

特徴量算出部141は、DCTブロックから高周波帯域を選択する(ステップSd48)。そして、特徴量算出部141は、選択した高周波帯域のDCT係数に基づいて、そのDCTブロックにおける代表値を算出する。ここで、DCTブロックにおける代表値は、例えば、選択した高周波帯域のDCT係数の2乗値、又は選択した高周波帯域のDCT係数の絶対値である。そして、特徴量算出部141は、画像に含まれる全てのDCTブロックについて、DCTブロックにおける代表値を算出する(ステップSd49)。   The feature amount calculation unit 141 selects a high frequency band from the DCT block (step Sd48). And the feature-value calculation part 141 calculates the representative value in the DCT block based on the DCT coefficient of the selected high frequency band. Here, the representative value in the DCT block is, for example, the square value of the DCT coefficient in the selected high frequency band or the absolute value of the DCT coefficient in the selected high frequency band. And the feature-value calculation part 141 calculates the representative value in a DCT block about all the DCT blocks contained in an image (step Sd49).

領域検出部142は、代表値が定められたDCTブロックの分布(選択した高周波帯域の分布)を示すビットマップ(パワーマップ)を、DCTブロックに予め定められた帯域毎に作成する。そして、特徴量算出部141は、DCTブロックにおける代表値を「0〜255」範囲に正規化する(ステップSd50)。さらに、特徴量算出部141は、予め定められた閾値(例えば、値「30」)以下の代表値を、値「0」にする(ステップSd51)。   The region detection unit 142 creates a bitmap (power map) indicating the distribution of DCT blocks (the distribution of selected high-frequency bands) for which representative values are determined for each band predetermined in the DCT block. Then, the feature amount calculation unit 141 normalizes the representative value in the DCT block to the “0 to 255” range (step Sd50). Further, the feature amount calculation unit 141 sets the representative value equal to or less than a predetermined threshold (for example, the value “30”) to the value “0” (step Sd51).

さらに、領域検出部142は、代表値の範囲(例えば、値「31〜100」と、値「101〜170」と、値「171〜255」との3つの範囲)毎に、各ビットマップから複数のビットマップを作成する(ステップSd52)。そして、領域検出部142は、複数のビットマップから領域を検出し、検出した領域をラベリングする(ステップSd53)。   Further, the region detection unit 142 determines whether the representative value ranges (for example, three ranges of values “31 to 100”, values “101 to 170”, and values “171 to 255”) from each bitmap. A plurality of bitmaps are created (step Sd52). Then, the region detection unit 142 detects a region from a plurality of bitmaps, and labels the detected region (step Sd53).

領域検出部142は、作成した全てのビットマップについて、ラベリング処理を実行したか否かを判定する(ステップSd54)。領域をラベリングしていないビットマップがある場合(ステップSd54−NO)、領域検出部142の処理は、作成した全てのビットマップについて、ラベリング処理を実行するため、ステップSd52に戻る。   The area detection unit 142 determines whether or not the labeling process has been executed for all created bitmaps (step Sd54). When there is a bitmap in which the region is not labeled (step Sd54-NO), the processing of the region detection unit 142 returns to step Sd52 in order to execute the labeling processing for all the created bitmaps.

一方、全てのビットマップについて、領域をラベリングした場合(ステップSd54−YES)、領域検出部142は、作成した全てのビットマップを重ねた場合に、高周波帯域に基づいて検出した領域と、予め定められた他の周波帯域に基づいて検出した領域とが重なる部分(積集合)の面積を算出する。そして、領域同士が重なる部分の面積が予め定められた面積以上である場合、評点算出部143は、重なる部分を含む領域の評点に、「1」点を加算する(ステップSd55)。   On the other hand, when the regions are labeled for all the bitmaps (step Sd54-YES), the region detection unit 142 determines in advance that the regions detected based on the high frequency band when all the created bitmaps are overlaid. The area of the portion (product set) that overlaps the detected region based on the other frequency band thus obtained is calculated. If the area of the overlapping area is equal to or larger than the predetermined area, the score calculation unit 143 adds “1” to the rating of the area including the overlapping area (step Sd55).

領域検出部142は、高周波帯域のDCT係数により検出したテクスチャに基づいて検出した領域に、DCT係数により検出したテクスチャに基づいて検出した領域であることを示す「テクスチャラベル」を設定する(ステップSd56)。そして、領域検出部142の処理は、図8のステップSd9に進む。   The region detection unit 142 sets a “texture label” indicating a region detected based on the texture detected by the DCT coefficient in the region detected based on the texture detected by the DCT coefficient in the high frequency band (step Sd56). ). Then, the processing of the area detection unit 142 proceeds to step Sd9 in FIG.

このように、画像処理装置140は、離散コサイン変換(DCT)係数により検出するテクスチャ(模様)に基づいて、領域を検出することができる。   As described above, the image processing apparatus 140 can detect a region based on a texture (pattern) detected by a discrete cosine transform (DCT) coefficient.

<縦、横、又は斜めに延びたエッジの特徴量に基づく、領域の検出について>
領域検出部142は、縦、横、又は斜めに延びたエッジの特徴量に基づいて、撮像されたポール(柱)、バー(棒)、パースペクティブ(奥行)、建造物の領域を、それぞれ検出してもよい。
<Regarding detection of regions based on feature amounts of edges extending vertically, horizontally, or diagonally>
The area detection unit 142 detects the captured pole (pillar), bar (bar), perspective (depth), and building area based on the feature amount of the edge extending vertically, horizontally, or diagonally. May be.

図27には、エッジの特徴量に基づいて、領域検出部142が領域を検出する処理手順が、フローチャートで示されている。ここで、ステップSd27〜62は、図8のステップSd1〜8と、並列に処理される。   FIG. 27 is a flowchart showing a processing procedure in which the region detection unit 142 detects a region based on the feature amount of the edge. Here, steps Sd27-62 are processed in parallel with steps Sd1-8 of FIG.

特徴量算出部141は、エッジの特徴量(強度)を算出する(ステップSd57)。そして、領域検出部142は、太さが閾値以上であるエッジ、及び長さが閾値以上であるエッジを検出する(ステップSd58)。さらに、領域検出部142は、太さが所定の閾値以上であり、かつ長さが所定の閾値以上のエッジの領域を、ラベリングする対象とする(ステップSd59)。   The feature amount calculation unit 141 calculates the feature amount (intensity) of the edge (step Sd57). Then, the region detection unit 142 detects an edge whose thickness is equal to or greater than the threshold and an edge whose length is equal to or greater than the threshold (step Sd58). Furthermore, the region detection unit 142 sets an edge region whose thickness is equal to or greater than a predetermined threshold and whose length is equal to or greater than the predetermined threshold as a target to be labeled (step Sd59).

また、特徴量算出部141は、画像の中心(画角中心)からエッジまでの距離を算出する。そして、領域検出部142は、画像の中心からエッジまでの距離が閾値以上であれば、そのエッジが主要な被写体像の領域でないとして、そのエッジの領域を、ラベリングする対象から除外する(ステップSd60)。さらに、領域検出部142は、ラベリングする対象としたエッジ領域の画素値(明度、色相等)に基づいて、ラベリング処理を実行する。そして、評点算出部143は、領域検出部142がエッジに基づいて検出した領域の評点を、「1」点と算出する(ステップSd61)。   The feature amount calculation unit 141 calculates the distance from the center of the image (view angle center) to the edge. Then, if the distance from the center of the image to the edge is equal to or greater than the threshold, the area detection unit 142 determines that the edge is not the main subject image area and excludes the edge area from the labeling target (step Sd60). ). Furthermore, the area detection unit 142 executes a labeling process based on the pixel values (lightness, hue, etc.) of the edge area that is the target of labeling. Then, the score calculation unit 143 calculates the score of the region detected by the region detection unit 142 based on the edge as “1” (step Sd61).

領域検出部142は、エッジに基づいて検出した領域に、エッジに基づいて検出した領域であることを示す「エッジラベル」を設定する(ステップSd62)。そして、領域検出部142の処理は、図8のステップSd9に進む。   The area detection unit 142 sets an “edge label” indicating the area detected based on the edge in the area detected based on the edge (step Sd62). Then, the processing of the area detection unit 142 proceeds to step Sd9 in FIG.

また、ステップSd63及び64は、ステップSd60及び61と、並列に処理される。領域検出部142は、画像の水平方向に対する角度が「0〜30」度の範囲にあるエッジと、画像の水平方向に対する角度が「150〜180」度の範囲にあるエッジとを検出する(ステップSd63)。   Steps Sd63 and 64 are processed in parallel with steps Sd60 and 61. The region detection unit 142 detects an edge whose angle with respect to the horizontal direction of the image is in the range of “0 to 30” degrees and an edge whose angle with respect to the horizontal direction of the image is in the range of “150 to 180” degrees (step) Sd63).

さらに、領域検出部142は、画像の中心に向かうエッジが画像において離散的に分布している場合、奥行のある画像であることを示す「パースペクティブフラグ」をオンにして、領域の情報として、記憶部160に記憶させる(ステップSd64)。   Furthermore, when the edge toward the center of the image is distributed discretely in the image, the region detection unit 142 turns on a “perspective flag” indicating that the image has a depth, and stores it as region information. The data is stored in the unit 160 (step Sd64).

そして、領域検出部142は、画像の水平方向に対する角度が「0〜30」度の範囲にあるエッジが分布する領域に、「ポールラベル」を設定する。また、領域検出部142は、画像の水平方向に対する角度が「150〜180」度の範囲にあるエッジが分布する領域に、「バーラベル」を設定する。さらに、領域検出部142は、画像の中心に向かうエッジであって、画像において離散的に分布しているエッジが分布する領域に、「パースペクティブラベル」を設定する(ステップSd62)。パースペクティブが設定されたラベルには奥行があるため、同一ラベル内でも異なる複数の焦点位置が存在する。このため、パースペクティブが設定されたラベルに対して合焦させるには、制御が必要である。   Then, the region detection unit 142 sets a “pole label” in a region in which edges having an angle in the range of “0 to 30” degrees with respect to the horizontal direction of the image are distributed. Further, the region detection unit 142 sets “bar label” in a region where edges having an angle in the range of “150 to 180” with respect to the horizontal direction of the image are distributed. Furthermore, the region detection unit 142 sets a “perspective label” to an region that is an edge toward the center of the image and in which an edge that is discretely distributed in the image is distributed (step Sd62). Since a label for which a perspective is set has a depth, a plurality of different focal positions exist within the same label. For this reason, control is necessary to focus on a label for which a perspective is set.

なお、領域検出部142は、例えば、エッジが分布する領域が四角形である領域に、建造物が撮像された領域であることを示す「建造物ラベル」を設定してもよい。   For example, the area detection unit 142 may set a “building label” indicating that the area where the edge is distributed is an area where the building is imaged in an area where the edge is distributed.

これにより、画像処理装置140は、縦、横、又は斜めに延びたエッジの特徴量に基づいて、柱、棒、奥行、又は建造物を示す領域を検出することができる。   Thereby, the image processing apparatus 140 can detect a region indicating a pillar, a bar, a depth, or a building based on a feature amount of an edge extending vertically, horizontally, or obliquely.

<ラベル又は優先度(評点)に基づく露光(AE)処理について>
画像処理装置140は、優先ラベル(高い優先度及び評点)が設定された領域の露光量が最適となるように、露光処理を実行してもよい。
<Exposure (AE) processing based on label or priority (score)>
The image processing apparatus 140 may execute the exposure process so that the exposure amount in the area where the priority label (high priority and score) is set is optimized.

図28には、ラベル又は優先度(評点)に基づく露光(AE)処理の手順が、フローチャートで示されている。この処理は、例えば、図3のステップSa9(図8のステップSd9)、又は図3のステップSa15で実行される。   FIG. 28 is a flowchart showing the procedure of exposure (AE) processing based on the label or priority (score). This process is executed in, for example, step Sa9 in FIG. 3 (step Sd9 in FIG. 8) or step Sa15 in FIG.

特徴量算出部141は、優先度が高い領域(例えば、評点の上位3つ)について、ヒストグラムを作成する(ステップSh1)。なお、特徴量算出部141は、「点光源フラグ」がオンである領域について、ヒストグラムを作成しないようにしてもよい。   The feature amount calculation unit 141 creates a histogram for a region with high priority (for example, the top three scores) (step Sh1). Note that the feature amount calculation unit 141 may not create a histogram for a region where the “point light source flag” is on.

そして、特徴量算出部141は、優先度が高い(評点が高い)領域の特徴量を合算し、ヒストグラムを作成する(ステップSh2)。さらに、特徴量算出部141は、ヒストグラムの標準偏差値σがヒストグラムのフルレンジの30%となる露光量を算出する(ステップSh3)。   And the feature-value calculation part 141 adds up the feature-value of an area | region with high priority (a high score), and produces a histogram (step Sh2). Further, the feature amount calculation unit 141 calculates an exposure amount at which the standard deviation value σ of the histogram is 30% of the full range of the histogram (Step Sh3).

CPU190は、特徴量算出部141が算出した露光量に基づいて、背景が撮像された領域(背景を示す領域)の画素値(例えば、明度)が飽和しないように、撮像部110に露光量を調整させる(ステップSh4)。また、特徴量算出部141は、ヒストグラムの標準偏差値σがヒストグラムのフルレンジの30%となるように、Retinex等の部位別(階調補正)処理のパラメータを算出することで、露光の不足分を補償する(ステップSh5)。   Based on the exposure amount calculated by the feature amount calculation unit 141, the CPU 190 sets the exposure amount to the imaging unit 110 so that the pixel value (for example, brightness) of the region in which the background is captured (region indicating the background) is not saturated. Adjust (step Sh4). In addition, the feature amount calculation unit 141 calculates parameters for region-specific (tone correction) processing such as Retinex so that the standard deviation value σ of the histogram is 30% of the full range of the histogram, thereby reducing the exposure shortage. Is compensated (step Sh5).

CPU190は、優先度設定部144が設定した「領域の優先度」に基づいて、優先度が高い領域のコントラストを強調するように、画像処理装置140におけるトーンカーブ(階調カーブ)の設定を制御する。また、CPU190は、領域検出部142が領域に設定した「ラベル」に基づいて、優先ラベルを設定した領域のコントラストを強調するように、画像処理装置140におけるトーンカーブ(階調カーブ)の設定を制御してもよい(ステップSh6)。   Based on the “region priority” set by the priority setting unit 144, the CPU 190 controls the setting of the tone curve (tone curve) in the image processing device 140 so as to emphasize the contrast of the region with a high priority. To do. Further, the CPU 190 sets the tone curve (gradation curve) in the image processing apparatus 140 so as to emphasize the contrast of the area for which the priority label is set based on the “label” set for the area by the area detection unit 142. You may control (step Sh6).

また、ステップSh7〜9は、ステップSh2〜6と、並列に処理される。特徴量算出部141は、優先度が高い領域(画像の一部)についてのヒストグラムにおける明度(輝度)の最大及び最小(ヒストグラムの5%内側の各端点でもよい)を算出する(ステップSh7)。さらに、特徴量算出部141は、画像全域についてのヒストグラムにおける明度(輝度)の最大及び最小(ヒストグラムの5%内側の各端点でもよい)を算出する(ステップSh8)。   Steps Sh7-9 are processed in parallel with steps Sh2-6. The feature amount calculation unit 141 calculates the maximum and minimum brightness (luminance) in the histogram for the high priority region (part of the image) (may be 5% inside each end point of the histogram) (step Sh7). Further, the feature amount calculation unit 141 calculates the maximum and minimum brightness (luminance) in the histogram for the entire image (may be 5% inside each end point of the histogram) (step Sh8).

領域検出部142は、優先度が高い領域(画像の一部)についてのヒストグラムにおける明度の最大と、画像全域についてのヒストグラムにおける明度の最小との差が、予め定められた閾値以上である場合、明度のダイナミックレンジが広いことを示す「高ダイナミックレンジフラグ」をオンにして、領域の情報として、画像(領域)に高ダイナミックレンジフラグを設定する。   When the difference between the maximum brightness in the histogram for the high-priority area (part of the image) and the minimum brightness in the histogram for the entire image area is equal to or greater than a predetermined threshold, The “high dynamic range flag” indicating that the brightness dynamic range is wide is turned on, and the high dynamic range flag is set for the image (region) as region information.

同様に、領域検出部142は、優先度が高い領域(画像の一部)についてのヒストグラムにおける明度の最小と、画像全域についてのヒストグラムにおける明度の最大との差が、予め定められた閾値以上である場合、明度のダイナミックレンジが広いことを示す「高ダイナミックレンジフラグ」をオンにして、領域の情報として、画像(領域)に高ダイナミックレンジフラグを設定する(ステップSh9)。   Similarly, the area detection unit 142 determines that the difference between the minimum brightness in the histogram for the high priority area (part of the image) and the maximum brightness in the histogram for the entire image is equal to or greater than a predetermined threshold. In some cases, the “high dynamic range flag” indicating that the brightness dynamic range is wide is turned on, and the high dynamic range flag is set in the image (region) as region information (step Sh9).

これにより、画像処理装置140は、ラベル又は優先度(評点)に基づいて、露光(AE)処理を実行することができる。   Thereby, the image processing apparatus 140 can perform an exposure (AE) process based on the label or the priority (score).

<ラベル又は優先度(評点)に基づくホワイトバランス調整(AWB)処理について>
画像処理装置140は、優先ラベル(高い優先度及び評点)が設定された領域のホワイトバランスが最適となるように、ホワイトバランス調整処理を実行してもよい。
<About white balance adjustment (AWB) processing based on label or priority (score)>
The image processing apparatus 140 may execute the white balance adjustment process so that the white balance of the area where the priority label (high priority and score) is set is optimal.

図29には、ラベル又は優先度(評点)に基づくホワイトバランス調整(AWB)処理の手順が、フローチャートで示されている。この処理は、例えば、図3のステップSa9(図8のステップSd9)、又は図3のステップSa15で実行される。   FIG. 29 is a flowchart showing the procedure of white balance adjustment (AWB) processing based on the label or priority (score). This process is executed in, for example, step Sa9 in FIG. 3 (step Sd9 in FIG. 8) or step Sa15 in FIG.

特徴量算出部141は、画像から白点を算出する。ここで、特徴量算出部141は、背景が撮像された領域(背景を示す領域)から、白点を検出するようにしてもよい(ステップSi1)。背景が撮像された領域(背景を示す領域)については、図38及び39を用いて、後述する。   The feature amount calculation unit 141 calculates a white point from the image. Here, the feature amount calculation unit 141 may detect a white spot from a region where the background is imaged (region indicating the background) (step Si1). The area where the background is imaged (area indicating the background) will be described later with reference to FIGS.

そして、特徴量算出部141は、画像に白点があるか否かを判定する(ステップSi2)。画像に白点がある場合(ステップSi2−YES)、CPU190は、その白点の領域に基づいて、ホワイトバランス調整(AWB)処理を制御する(ステップSi3)。   Then, the feature amount calculation unit 141 determines whether or not there is a white spot in the image (step Si2). If the image has a white spot (step Si2-YES), the CPU 190 controls the white balance adjustment (AWB) process based on the white spot area (step Si3).

一方、画像に白点がない場合(ステップSi2−NO)、特徴量算出部141は、優先ラベル、又は領域の優先度(評点)に基づいて、主要な被写体像の領域における色相について、ガマットマッピング(色域座標変換)を実行する。そして、特徴量算出部141は、ガマットマッピングにより、撮像された光の光源の種類(例えば、太陽光、蛍光灯など)を推定する(ステップSi4)。   On the other hand, when there is no white point in the image (step Si2-NO), the feature amount calculation unit 141 performs gamut mapping for the hue in the main subject image region based on the priority label or the region priority (score). (Color gamut coordinate conversion) is executed. And the feature-value calculation part 141 estimates the kind (for example, sunlight, a fluorescent lamp, etc.) of the light source of the imaged light by gamut mapping (step Si4).

そして、特徴量算出部141は、光源の種類を検出したか否かを判定する(ステップSi5)。光源の種類を検出した場合(ステップSi5−YES)、CPU190は、特徴量算出部141が検出した光源の種類に基づいて、ホワイトバランス調整処理を制御する(ステップSi3)。   And the feature-value calculation part 141 determines whether the kind of light source was detected (step Si5). When the type of light source is detected (step Si5-YES), the CPU 190 controls the white balance adjustment process based on the type of light source detected by the feature amount calculation unit 141 (step Si3).

一方、光源の種類を検出していない場合(ステップSi5−NO)、特徴量算出部141は、領域に設定したラベル、領域(画像)に設定したフラグ、及び領域の分布に基づいて、シーンを判定し、光源の種類を推定する。例えば、特徴量算出部141は、「点光源フラグ」がオンで領域(画像)に設定され、かつ、周囲と比較して明度が著しく異なる領域(点光源)が、画像に広く分布している場合には、シーンが夜景であると判定してもよい(ステップSi6)。そして、CPU190は、特徴量算出部141が推定した光源の種類に基づいて、画像処理装置140のホワイトバランス調整処理を制御する(ステップSi3)。   On the other hand, when the type of light source is not detected (step Si5-NO), the feature amount calculation unit 141 selects a scene based on the label set for the region, the flag set for the region (image), and the distribution of the region. Determine and estimate the type of light source. For example, the feature amount calculation unit 141 has a “point light source flag” turned on and is set as a region (image), and a region (point light source) having significantly different brightness compared to the surroundings is widely distributed in the image. In this case, it may be determined that the scene is a night view (step Si6). Then, the CPU 190 controls the white balance adjustment processing of the image processing device 140 based on the type of light source estimated by the feature amount calculation unit 141 (step Si3).

これにより、画像処理装置140は、ラベル又は優先度(評点)に基づいて、ホワイトバランス調整(AWB)を実行することができる。   Thereby, the image processing apparatus 140 can perform white balance adjustment (AWB) based on the label or the priority (score).

<ラベル又は優先度(評点)に基づいて、画像を再生する処理について>
画像処理装置140は、検出した領域をラベル又は優先度(評点)に基づいて分類し、分類に応じて、視覚的に効果的な方法で画像を再生してもよい。
<Regarding the processing to reproduce an image based on the label or priority (score)>
The image processing apparatus 140 may classify the detected area based on the label or priority (score), and may reproduce the image by a visually effective method according to the classification.

図30には、画像処理装置140による画像の再生表示を含めた基本的な画像処理手順が、フローチャートで示されている。ここで、図30のステップS1〜S14は、図2のステップS1〜S14と同じステップである。画像処理装置140は、領域の情報に対応付けられた画像を、領域の情報に基づいて、効果的な演出を伴って再生し、表示部150に表示させる(ステップS15)。   FIG. 30 is a flowchart showing a basic image processing procedure including image reproduction display by the image processing apparatus 140. Here, steps S1 to S14 in FIG. 30 are the same steps as steps S1 to S14 in FIG. The image processing device 140 reproduces the image associated with the region information with an effective effect based on the region information, and displays the image on the display unit 150 (step S15).

図31には、ラベル又は優先度(評点)に基づく再生表示の手順が、フローチャートで示されている。この再生表示処理は、図30のステップS15で実行される。まず、領域検出部142は、記憶部160又は記憶媒体200から、領域の情報を取得する(ステップSf1)。   FIG. 31 is a flowchart showing the procedure of reproduction display based on the label or priority (score). This reproduction display process is executed in step S15 of FIG. First, the region detection unit 142 acquires region information from the storage unit 160 or the storage medium 200 (step Sf1).

そして、領域の情報として記憶されていた「動き量」が閾値以上である場合、すなわち、動きのある画像である場合、画像処理装置140は、ステップSf1の次に、動画として画像を再生する(ステップSf2)。そして、画像処理装置140は、優先ラベルが設定された領域を中心にズーム再生し、表示部150に表示させる(ステップSf3)。さらに、画像処理装置140は、優先度が1つ低い領域を中心にパンニング表示して、ズーム再生し、表示部150に表示させる(ステップSf4)。   When the “motion amount” stored as the area information is equal to or greater than the threshold value, that is, when the image is a moving image, the image processing apparatus 140 reproduces the image as a moving image after step Sf1 ( Step Sf2). Then, the image processing apparatus 140 performs zoom reproduction centered on the area where the priority label is set, and causes the display unit 150 to display (Step Sf3). Further, the image processing apparatus 140 performs panning display centering on a region with one lower priority, performs zoom playback, and causes the display unit 150 to display (step Sf4).

また、動きラベルが設定された領域の情報として記憶されていた動きベクトルの「動き量」が閾値以上である場合、動きラベルが設定された領域の移動速度が速い場合、画像処理装置140は、ステップSf1の次に、画像をスロー再生し、表示部150に表示させる(ステップSf5)。   In addition, when the “motion amount” of the motion vector stored as the information of the area where the motion label is set is equal to or greater than the threshold value, when the moving speed of the area where the motion label is set is fast, the image processing device 140 After step Sf1, the image is played back slowly and displayed on the display unit 150 (step Sf5).

また、動き量が二分され、かつ動き方向が一定であり、かつ動き量が閾値以上である画素が、画像に分散している場合(図7を参照)、すなわち、前景(例えば、降雪)が撮像され、かつ優先ラベルに合焦している画像である場合、画像処理装置140は、ステップSf1の次に、領域の前景に合焦させて画像を再生(前ピン再生)し、表示部150に表示させる(ステップSf6)。そして、画像処理装置140は、領域に徐々に合焦させるように、焦点を変化させながら画像を再生処理し、表示部150に表示させる(ステップSf7)。画像処理装置140は、画像の合成比を変化させる(ステップSf8)。   In addition, when the amount of motion is bisected, the direction of motion is constant, and the amount of motion is greater than or equal to the threshold is dispersed in the image (see FIG. 7), that is, the foreground (for example, snowfall) If the image has been picked up and focused on the priority label, the image processing apparatus 140 reproduces the image by focusing on the foreground of the area (front pin reproduction) after step Sf1, and displays the image on the display unit 150. (Step Sf6). Then, the image processing apparatus 140 reproduces the image while changing the focus so as to gradually focus on the region, and displays the image on the display unit 150 (step Sf7). The image processing apparatus 140 changes the image synthesis ratio (step Sf8).

また、「通常ラベル」を設定した領域を再生表示する場合(図7のステップSc20を参照)、すなわち、降雪などの前景でない領域を再生表示する場合、画像処理装置140は、ステップSf1の次に、画像を再生する(ステップSf9)。そして、画像処理装置140は、設定された優先度が高い順に、領域をパンニング表示して、ズーム再生し、表示部150に表示させる(ステップSf10)。さらに、「通常ラベル」を設定した領域が、テクスチャに基づいて検出した領域である場合、画像処理装置140は、エッジを強めにして、ズーム再生し、表示部150に表示させる(ステップSf11)。   Further, when the area for which “normal label” is set is reproduced and displayed (see step Sc20 in FIG. 7), that is, when the area other than the foreground such as snowfall is reproduced and displayed, the image processing apparatus 140 follows step Sf1. The image is reproduced (step Sf9). Then, the image processing apparatus 140 performs panning display of the areas in order of the set priority, performs zoom reproduction, and causes the display unit 150 to display (Step Sf10). Further, when the area for which “normal label” is set is an area detected based on the texture, the image processing apparatus 140 performs zoom reproduction with the edge strengthened and displays it on the display unit 150 (step Sf11).

また、特異である色相、高彩度、又は高評点の色相ラベルが設定された領域である場合、画像処理装置140は、ステップSf1の次に、色相ラベルが設定された領域の彩度を連続的に上げながら再生し、表示部150に表示させる(ステップSf12)。さらに、色相環における反対色相の領域がある場合、画像処理装置140は、反対色相の領域の彩度を上げて画像を再生し、表示部150に表示させる(ステップSf13)。   If the hue, high saturation, or high-score hue label is set in the region, the image processing apparatus 140 continuously sets the saturation of the region in which the hue label is set after step Sf1. It is reproduced while being raised and displayed on the display unit 150 (step Sf12). Further, when there is an opposite hue region in the hue circle, the image processing device 140 increases the saturation of the opposite hue region, reproduces the image, and displays the image on the display unit 150 (step Sf13).

また、階調域(ダイナミックレンジ)が広い画像である場合、画像処理装置140は、ステップSf1の次に、優先ラベルが設定された領域の階調域を、画像全域の階調域と合わせて、画像を連続再生し、表示部150に表示させる。例えば、画像処理装置140は、Retinex(階調補正)処理における係数を変更することで、白飛びや黒つぶれを抑えながら、明度が低い領域の階調を連続的に上げて画像を再生し、表示部150に表示させる(ステップSf14)。さらに、画像処理装置140は、階調域が異なる画像を交互に表示することで、残像効果を持たせながら連続再生し、表示部150に表示させる(ステップSf15)。   If the image has a wide gradation range (dynamic range), the image processing apparatus 140 combines the gradation range of the area where the priority label is set with the gradation area of the entire image after step Sf1. The images are continuously reproduced and displayed on the display unit 150. For example, the image processing device 140 changes the coefficient in the Retinex (gradation correction) process to reproduce the image by continuously increasing the gradation of the low-lightness area while suppressing overexposure and blackout, It is displayed on the display unit 150 (step Sf14). Further, the image processing apparatus 140 alternately displays images having different gradation ranges, continuously reproduces them with an afterimage effect, and displays them on the display unit 150 (step Sf15).

図32には、ラベル又は優先度(評点)に基づく再生表示の手順が、フローチャートで示されている。この再生表示処理は、図30のステップS15で実行される。また、図32のステップSf1は、図31のステップSf1と同じである。   FIG. 32 is a flowchart showing a playback display procedure based on the label or priority (score). This reproduction display process is executed in step S15 of FIG. Also, step Sf1 in FIG. 32 is the same as step Sf1 in FIG.

パースペクティブフラグがオンに設定されている場合、すなわち、奥行のある(パースペクティブ)画像である場合、画像処理装置140は、ステップSf1の次に、被写体距離が短い(至近側に撮像された)被写体像の領域に合焦させて画像を再生し、表示部150に表示させる(ステップSf16)。そして、画像処理装置140は、至近から無限まで焦点距離を変化させながら画像を再生し、表示部150に表示させる。また、画像処理装置140は、優先ラベルが設定された領域をズーム再生し、表示部150に表示させる(ステップSf17)。   When the perspective flag is set to ON, that is, when the image has a depth (perspective), the image processing apparatus 140 has a subject image with a short subject distance (captured on the closest side) after step Sf1. The image is reproduced while being focused on the area, and displayed on the display unit 150 (step Sf16). Then, the image processing device 140 reproduces the image while changing the focal length from the nearest to infinity, and displays the image on the display unit 150. In addition, the image processing apparatus 140 performs zoom reproduction of the area where the priority label is set, and displays the area on the display unit 150 (step Sf17).

また、特異明度ラベル(図19のステップSd22を参照)が設定された領域である場合、画像処理装置140は、ステップSf1の次に、トーンカーブ(階調カーブ)を連続的に変化させながら、特異明度ラベルが設定された領域をズーム再生し、表示部150に表示させる。   If the specific brightness label (see step Sd22 in FIG. 19) is set, the image processing apparatus 140 continuously changes the tone curve (gradation curve) after step Sf1, while The area where the specific brightness label is set is zoomed and reproduced and displayed on the display unit 150.

例えば、画像処理装置140は、特異明度ラベルが設定された領域が明るい場合、その領域の白飛びを抑えながら、コントラストを強調する処理を実行してもよい。また、画像処理装置140は、特異明度ラベルが設定された領域が暗い場合、感度を上げた高ガンマテーブルを、その領域に設定してもよい(ステップSf18)。   For example, when the area where the specific brightness label is set is bright, the image processing apparatus 140 may execute the process of enhancing the contrast while suppressing the whiteout of the area. In addition, when the area where the specific brightness label is set is dark, the image processing apparatus 140 may set a high gamma table with increased sensitivity in the area (step Sf18).

また、点光源フラグがオンに設定されている場合、すなわち、例えば、点光源、夕景、夜景が撮像された画像である場合、画像処理装置140は、ステップSf1の次に、画像の明度を下げて再生を開始する。次に、画像処理装置140は、明度を上げて画像を再生し、表示部150に表示させる(ステップSf19)。これにより、画像処理装置140は、点光源を強調することができる。   Further, when the point light source flag is set to ON, that is, for example, when the image is a point light source, an evening scene, or a night scene, the image processing apparatus 140 reduces the brightness of the image after step Sf1. To start playback. Next, the image processing device 140 increases the brightness, reproduces the image, and displays the image on the display unit 150 (step Sf19). Thereby, the image processing apparatus 140 can emphasize a point light source.

また、縦、横、又は斜めに延びたエッジの領域を含む画像である場合、画像処理装置140は、ステップSf1の次に、ズーム再生及びパンニング表示により、エッジの領域を再生し、表示部150に表示させる。そして、画像処理装置140は、領域の明度に応じて、明度コントラストを変化させる(ステップSf20)。   If the image includes an edge region extending vertically, horizontally, or obliquely, the image processing apparatus 140 reproduces the edge region by zoom reproduction and panning display after step Sf1, and displays the display unit 150. To display. Then, the image processing apparatus 140 changes the lightness contrast according to the lightness of the region (step Sf20).

これにより、画像処理装置140は、領域の情報に対応付けられた画像を、効果的な演出を伴って再生することができる。   As a result, the image processing apparatus 140 can reproduce the image associated with the area information with an effective presentation.

[第2実施形態]
本発明の第2実施形態について図面を参照して詳細に説明する。第2実施形態では、領域検出部142が、異なる特徴の特徴量に基づいて検出した領域同士を、結合又は分割する点が、第1実施形態と異なる。以下では、第1実施形態との相違点についてのみ説明する。
[Second Embodiment]
A second embodiment of the present invention will be described in detail with reference to the drawings. The second embodiment is different from the first embodiment in that the region detection unit 142 combines or divides regions detected based on feature amounts of different features. Only the differences from the first embodiment will be described below.

領域検出部142は、第1の特徴(例えば、彩度)の特徴量に基づいて検出した第1の領域と、第2の特徴(例えば、テクスチャ)の特徴量に基づいて検出した第2の領域との重なる部分の面積を算出し、その重なる部分の面積が予め定められた面積以上である場合、第1の領域に第2の領域を結合する。   The region detection unit 142 detects the first region detected based on the feature amount of the first feature (for example, saturation) and the second region detected based on the feature amount of the second feature (for example, texture). The area of the overlapping part with the region is calculated, and if the area of the overlapping part is greater than or equal to a predetermined area, the second region is combined with the first region.

また、領域検出部142は、第3の特徴(例えば、彩度)の特徴量に基づいて検出した第3の領域に対応する被写体距離と、第4の特徴(例えば、テクスチャ)の特徴量に基づいて検出した第4の領域に対応する被写体距離とが同じ距離であるが否かを判定する。そして、第3の領域に対応する被写体距離と、第4の領域に対応する被写体距離とが同じ距離である場合、領域検出部142は、第3の領域に第4の領域を結合する。   In addition, the region detection unit 142 determines the subject distance corresponding to the third region detected based on the feature amount of the third feature (for example, saturation) and the feature amount of the fourth feature (for example, texture). It is determined whether or not the subject distance corresponding to the fourth area detected based on the distance is the same. When the subject distance corresponding to the third region and the subject distance corresponding to the fourth region are the same distance, the region detection unit 142 combines the fourth region with the third region.

また、領域検出部142は、領域を結合する場合、結合する前の領域毎の評点を合算し、合算した評点を、結合した後の領域の評点とする。また、領域検出部142は、領域に含まれる複数の小領域が、それぞれ異なる被写体距離に対応する場合には、領域を複数の小領域に分割する。   Moreover, the area | region detection part 142 adds up the score for every area | region before combining, and uses the added score as the score of the area | region after combining, when combining an area | region. In addition, the region detection unit 142 divides the region into a plurality of small regions when the plurality of small regions included in the region correspond to different subject distances.

また、領域検出部142は、デプスマップに基づいて、領域を結合又は分割する。デプスマップの詳細については、図35を用いて後述する。   Further, the region detection unit 142 combines or divides regions based on the depth map. Details of the depth map will be described later with reference to FIG.

図33には、領域を結合する処理、及び領域を分割する処理の手順が、フローチャートで示されている。領域検出部142は、第1の特徴(例えば、彩度)の特徴量に基づいて検出した第1の領域と、第2の特徴(例えば、テクスチャ)の特徴量に基づいて検出した第2の領域との重なる部分の面積を算出する。そして、領域検出部142は、その重なる部分の面積が予め定められた面積以上である場合、第1の領域に第2の領域を結合する(同一のラベルにする)。また、評点算出部143は、結合した領域の各評点を加算し、結合した領域の「領域の情報」を更新する(ステップSk1)。   FIG. 33 is a flowchart showing a procedure of processing for combining regions and processing for dividing regions. The region detection unit 142 detects the first region detected based on the feature amount of the first feature (for example, saturation) and the second region detected based on the feature amount of the second feature (for example, texture). The area of the portion overlapping with the region is calculated. And the area | region detection part 142 couple | bonds a 2nd area | region with a 1st area | region, when the area of the overlapping part is more than a predetermined area (it makes the same label). Also, the score calculation unit 143 adds the scores of the combined regions, and updates the “region information” of the combined regions (step Sk1).

図34には、第1の特徴の特徴量に基づいて検出した第1の領域50と、第2の特徴の特徴量に基づいて検出した第2の領域51とが示されている。図34において、領域検出部142は、第1の領域50と、第2の領域51との重なる部分(OR)の面積を算出する。そして、領域検出部142は、重なる部分の面積が予め定められた面積以上である場合、第1の領域50に、第2の領域51を結合する。   FIG. 34 shows a first region 50 detected based on the feature amount of the first feature, and a second region 51 detected based on the feature amount of the second feature. In FIG. 34, the region detection unit 142 calculates the area of the overlapping portion (OR) between the first region 50 and the second region 51. Then, the area detection unit 142 couples the second area 51 to the first area 50 when the area of the overlapping portion is equal to or larger than a predetermined area.

図33に戻り、手順の説明を続ける。領域検出部142は、被写体距離が同じ距離である領域を検出する。ここで、領域検出部142は、記憶部160からデプスマップを取得し、デプスマップに基づいて、被写体距離が同じ距離である領域を検出してもよい。そして、領域検出部142は、被写体距離が同じ距離である領域同士が近接している場合、それらの領域を結合し、結合した領域にラベルを設定する。また、評点算出部143は、近接していた各領域の評点の自乗和の平方根を、結合した領域の新たな評点とし、結合した領域の「領域の情報」(図10のステップSe12を参照)として記憶させる。   Returning to FIG. 33, the description of the procedure is continued. The area detection unit 142 detects an area where the subject distance is the same distance. Here, the region detection unit 142 may acquire a depth map from the storage unit 160 and detect a region where the subject distance is the same distance based on the depth map. Then, when regions having the same subject distance are close to each other, the region detection unit 142 combines the regions and sets a label on the combined region. Further, the score calculation unit 143 sets the square root of the sum of squares of the scores of the adjacent areas as a new score of the combined area, and “area information” of the combined area (see step Se12 in FIG. 10). Remember as.

また、領域検出部142は、被写体距離が同じ距離である領域同士が近接していない場合でも、被写体距離が同じ距離である領域に、同じグループであることを示すラベルを設定する(グルーピング)。例えば、被写体距離が共に同じ距離であるが近接していない領域に、領域検出部142は、「グループA−1」、「グループA−2」のように、同じグループAであることを示すラベルを設定してもよい。また、領域検出部142は、同じグループであることを示すラベルが設定された領域のうち、「テクスチャラベル」が設定された領域を優先し、「テクスチャラベル」が設定された領域に対して、焦点調整(AF)を実行させてもよい(ステップSk2)。   Further, the region detection unit 142 sets a label indicating the same group in the region having the same subject distance even when the regions having the same subject distance are not close to each other (grouping). For example, the area detection unit 142 labels the areas indicating the same group A, such as “group A-1” and “group A-2”, in areas where the subject distances are the same distance but are not close to each other. May be set. In addition, the region detection unit 142 gives priority to the region set with the “texture label” among the regions set with the label indicating the same group, and the region with the “texture label” set, Focus adjustment (AF) may be executed (step Sk2).

デプスマップについて説明する。図35には、デプスマップの例が示されている。ここで、デプスマップとは、画像における被写体距離の分布を示したマップである。なお、デプスマップは、画像における被写体像のデフォーカス量の分布を示したマップであってもよい。   Depth map will be described. FIG. 35 shows an example of the depth map. Here, the depth map is a map showing the distribution of the subject distance in the image. The depth map may be a map showing the distribution of the defocus amount of the subject image in the image.

デプスマップ60には、領域検出部142が検出した領域を結合又は分割するための評価領域61〜71が、一例として、設定されている。そして、各評価領域には、その評価領域に対応する被写体距離がある。ここで、評価領域に対応する被写体距離とは、その評価領域に撮像された被写体の被写体距離である。   In the depth map 60, evaluation areas 61 to 71 for combining or dividing the areas detected by the area detection unit 142 are set as an example. Each evaluation area has a subject distance corresponding to the evaluation area. Here, the subject distance corresponding to the evaluation region is the subject distance of the subject imaged in the evaluation region.

以下、一例として、評価領域67〜71には、それらの評価領域に撮像された被写体の被写体距離に応じて、被写体距離「1(至近)」が対応し、評価領域65及び66には、同様に被写体距離「2」が対応し、評価領域64には、同様に被写体距離「3」が対応し、評価領域61〜63には、同様に被写体距離「4(無限)」が対応するものとする。   In the following, as an example, the evaluation areas 67 to 71 correspond to the subject distance “1 (closest)” according to the subject distance of the subject imaged in those evaluation areas, and the evaluation areas 65 and 66 are the same. The subject distance “2” corresponds to the evaluation area 64, the subject distance “3” corresponds to the evaluation area 64, and the evaluation area 61 to 63 similarly corresponds to the subject distance “4 (infinite)”. To do.

図35において、対応する被写体距離が「1(至近)」である評価領域は、黒色で示されている。また、対応する被写体距離が「4(無限)」である評価領域は、白色で示されている。また、対応する被写体距離がそれ以外である評価領域は、その被写体距離に応じた白と黒との中間色で示されている(グレー化)。   In FIG. 35, the evaluation area whose corresponding subject distance is “1 (closest)” is shown in black. In addition, the evaluation area whose corresponding subject distance is “4 (infinite)” is shown in white. In addition, an evaluation area in which the corresponding subject distance is other than that is indicated by an intermediate color between white and black corresponding to the subject distance (grayed out).

ここで、特徴量算出部141は、例えば、領域検出部142が色相毎に検出した領域のエッジの色成分量(色相の特徴量)の勾配と、色成分量の比又は差とに基づいて、被写体距離を検出してもよい。ここで、色成分量の勾配とは、画像における軸(例えば、水平軸)上の位置と、その位置に応じて変化する色成分量を示す図(グラフ)において、色成分量を示す線の勾配である。そして、特徴量算出部141は、このようにして算出した評価領域61〜71に対応する被写体距離に基づいて、デプスマップ60を作成してもよい。   Here, the feature amount calculation unit 141 is based on, for example, the gradient of the color component amount (hue feature amount) of the edge of the region detected for each hue by the region detection unit 142 and the ratio or difference between the color component amounts. The subject distance may be detected. Here, the gradient of the color component amount refers to the position of the line indicating the color component amount in a diagram (graph) showing the position on the axis (for example, the horizontal axis) in the image and the color component amount that changes according to the position. It is a gradient. And the feature-value calculation part 141 may produce the depth map 60 based on the to-be-photographed object distance corresponding to the evaluation areas 61-71 calculated in this way.

また、特徴量算出部141は、例えば、領域検出部142が色相毎に検出した領域のエッジの線広がり関数(LSF)の標準偏差値に基づいて、被写体距離を検出してもよい。ここで、特徴量算出部141は、検出した領域のエッジのデフォーカス量が多いほど、エッジの線広がり関数の標準偏差値が大きいことに基づいて、被写体距離を検出してもよい。そして、特徴量算出部141は、このようにして検出した評価領域61〜71に対応する被写体距離に基づいて、デプスマップ60を作成してもよい。   The feature amount calculation unit 141 may detect the subject distance based on, for example, the standard deviation value of the line spread function (LSF) of the edge of the region detected for each hue by the region detection unit 142. Here, the feature amount calculation unit 141 may detect the subject distance based on the fact that the standard deviation value of the edge line spread function is larger as the edge defocus amount of the detected region is larger. Then, the feature amount calculation unit 141 may create the depth map 60 based on the subject distance corresponding to the evaluation areas 61 to 71 detected in this way.

デスマップ60は、例えば、位相差検出方式により検出した被写体距離、コントラストAF方式により検出した写体距離、又は撮像装置100と被写体との間を光線又は音波が往復した時間により検出した被写体距離などに基づいて作成されてもよい。なお、デプスマップ60は、上記のようにして作成されたものに限定されない。   The death map 60 is, for example, a subject distance detected by the phase difference detection method, a subject distance detected by the contrast AF method, or a subject distance detected by a time when a light ray or a sound wave reciprocates between the imaging device 100 and the subject. May be created based on The depth map 60 is not limited to the one created as described above.

図36には、図33のステップSk2における、領域検出部142が検出した領域の結合処理及びグルーピング処理を説明するための図として、領域80及び81が示されている。この領域80及び81は、領域検出部142が同じ特徴の特徴量に基づいて検出した領域であってもよいし、領域検出部142が異なる特徴の特徴量に基づいて検出した領域であってもよい。   FIG. 36 shows regions 80 and 81 as diagrams for explaining the region combining processing and grouping processing detected by the region detecting unit 142 in step Sk2 of FIG. The regions 80 and 81 may be regions detected by the region detection unit 142 based on feature amounts of the same feature, or regions detected by the region detection unit 142 based on feature amounts of different features. Good.

ここで、一例として、画像における領域80の位置と、デプスマップ60(図35を参照)における評価領域67の位置とが対応しているとする。また、画像における領域81の位置と、デプスマップ60における評価領域69の位置とが対応しているとする。   Here, as an example, it is assumed that the position of the region 80 in the image corresponds to the position of the evaluation region 67 in the depth map 60 (see FIG. 35). Further, it is assumed that the position of the area 81 in the image corresponds to the position of the evaluation area 69 in the depth map 60.

この場合、評価領域67及び69(図35を参照)には、同じ被写体距離「1(至近)」が対応しているので、領域検出部142は、被写体距離が同じ距離である領域80及び81(図36を参照)を検出する。そして、領域80及び81が近接していないので、領域検出部142は、同じグループであることを示すラベルを、領域80及び81に設定する(グルーピング)。   In this case, since the same subject distance “1 (closest)” corresponds to the evaluation regions 67 and 69 (see FIG. 35), the region detection unit 142 determines that the regions 80 and 81 have the same subject distance. (See FIG. 36) is detected. Since the regions 80 and 81 are not close to each other, the region detection unit 142 sets labels indicating the same group in the regions 80 and 81 (grouping).

また、一例として、画像における領域80の位置と、デプスマップ60における評価領域67の位置とが対応しているとする。また、画像における領域81の位置と、デプスマップ60における評価領域68の位置とが対応しているとする。   As an example, it is assumed that the position of the area 80 in the image corresponds to the position of the evaluation area 67 in the depth map 60. Further, it is assumed that the position of the area 81 in the image corresponds to the position of the evaluation area 68 in the depth map 60.

この場合、評価領域67及び68(図35を参照)には、同じ被写体距離「1(至近)」が対応しているので、領域検出部142は、被写体距離が同じ距離である領域80及び81(図36を参照)を検出する。そして、領域80及び81が近接しているので、領域検出部142は、領域80及び81を結合し、結合した領域にラベルを設定する。   In this case, since the same subject distance “1 (closest)” corresponds to the evaluation regions 67 and 68 (see FIG. 35), the region detection unit 142 determines that the regions 80 and 81 have the same subject distance. (See FIG. 36) is detected. Since the regions 80 and 81 are close to each other, the region detection unit 142 combines the regions 80 and 81 and sets a label in the combined region.

図33に戻り、手順の説明を続ける。領域検出部142が検出した領域に含まれる複数の小領域が、それぞれ異なる被写体距離に対応する場合、領域検出部142は、デプスマップ60に基づいて、被写体距離毎に領域を小領域に分割する(分割処理)。また、評点算出部143は、領域検出部142が分割した小領域の評点を算出する(ステップSk3)。   Returning to FIG. 33, the description of the procedure is continued. When a plurality of small regions included in the region detected by the region detection unit 142 correspond to different subject distances, the region detection unit 142 divides the region into small regions for each subject distance based on the depth map 60. (Split processing). Further, the score calculation unit 143 calculates the score of the small area divided by the area detection unit 142 (step Sk3).

図37には、図33のステップSk3における、領域検出部142が検出した領域の分割処理を説明するための図として、領域90と、その領域90に含まれる小領域91〜93とが示されている。   FIG. 37 shows a region 90 and small regions 91 to 93 included in the region 90 as a diagram for explaining the division processing of the region detected by the region detection unit 142 in step Sk3 of FIG. ing.

ここで、一例として、画像における小領域91の位置と、デプスマップ60(図35を参照)における評価領域64の位置とが対応しているとする。また、一例として、画像における小領域92の位置と、デプスマップ60における評価領域69の位置とが対応しているとする。また、一例として、画像における小領域93の位置と、デプスマップ60における評価領域66の位置とが対応しているとする。   Here, as an example, it is assumed that the position of the small area 91 in the image corresponds to the position of the evaluation area 64 in the depth map 60 (see FIG. 35). As an example, it is assumed that the position of the small area 92 in the image corresponds to the position of the evaluation area 69 in the depth map 60. As an example, it is assumed that the position of the small area 93 in the image corresponds to the position of the evaluation area 66 in the depth map 60.

この場合、評価領域64、69、及び66(図35を参照)には、それぞれ異なる被写体距離が対応しているので、領域検出部142は、被写体距離毎に、領域91に含まれる小領域91〜93(図37を参照)を検出する。そして、小領域91〜93が、それぞれ異なる被写体距離に対応するので、領域検出部142は、デプスマップ60に基づいて、領域90を被写体距離(評価領域64、69、及び66)毎に小領域91〜93に分割する。   In this case, since different subject distances correspond to the evaluation regions 64, 69, and 66 (see FIG. 35), the region detection unit 142 performs sub-region 91 included in the region 91 for each subject distance. ˜93 (see FIG. 37) are detected. Since the small areas 91 to 93 correspond to different subject distances, the area detecting unit 142 divides the area 90 into small areas for each subject distance (evaluation areas 64, 69, and 66) based on the depth map 60. Divide into 91-93.

図33に戻り、手順の説明を続ける。評点算出部143は、デプスマップに基づく被写体距離に応じて、領域の評点に加点する。ここで、評点算出部143は、至近側の領域(前景を示す領域)には高い評点を加点する。一方、評点算出部143は、無限側の領域(背景を示す領域)には低い評定を加点する(ステップSk4)。   Returning to FIG. 33, the description of the procedure is continued. The score calculation unit 143 adds points to the score of the area according to the subject distance based on the depth map. Here, the score calculation unit 143 adds a high score to the near side area (area indicating the foreground). On the other hand, the score calculation unit 143 adds a low rating to the infinite region (region indicating the background) (step Sk4).

なお、評点算出部143は、第1の評価領域に対応する被写体距離と、第2の評価領域に対応する被写体距離との差(相対距離)に応じて、領域の評点に加点してもよい。   The score calculation unit 143 may add points to the score of the area according to the difference (relative distance) between the subject distance corresponding to the first evaluation area and the subject distance corresponding to the second evaluation area. .

領域検出部142は、領域の射影に基づいて、背景を示す領域を検出する。そして、評点算出部143は、背景を示す領域の評点を減点する。さらに、領域検出部142は、優先ラベルを設定する対象から、背景を示す領域を除外する(ステップSk5)。なお、同様に、領域検出部142は、優先ラベルを設定する対象から、前景(例えば、降雪)を示す領域を除外してもよい。   The area detection unit 142 detects an area indicating the background based on the projection of the area. And the score calculation part 143 deducts the score of the area | region which shows a background. Furthermore, the region detection unit 142 excludes the region indicating the background from the targets for which priority labels are set (step Sk5). Similarly, the region detection unit 142 may exclude a region indicating the foreground (for example, snowfall) from the targets for which priority labels are set.

ステップSk5において、領域検出部142が、領域の射影に基づいて、背景を示す領域を検出する処理を説明する。図38には、領域検出部142が、領域の射影に基づいて、背景を示す領域を検出する処理の手順が、フローチャートで示されている。   In step Sk5, a process in which the area detection unit 142 detects an area indicating the background based on the projection of the area will be described. FIG. 38 is a flowchart showing a procedure of processing in which the region detection unit 142 detects a region indicating the background based on the projection of the region.

領域検出部142は、面積の大小に応じて、画像における領域を第1グループと第2グループとに分ける。そして、第1グループの領域の「X軸に対する射影(X射影)」が、第2グループの領域のX射影を包含し、かつ、第1グループの領域の「Y軸に対する射影(Y射影)」が、第2グループの領域のY射影を包含する場合、領域検出部142は、背景が撮像された領域(背景を示す領域)として、第1グループの領域を検出し、第1グループの領域に「背景ラベル」を設定する(ステップSn1)。   The region detection unit 142 divides the region in the image into a first group and a second group according to the size of the area. Then, the “projection on the X axis (X projection)” of the first group area includes the X projection of the second group area, and the “projection on the Y axis (Y projection)” of the first group area. However, when the Y projection of the second group region is included, the region detection unit 142 detects the first group region as the region in which the background is imaged (the region indicating the background), and sets the first group region as the first group region. “Background label” is set (step Sn1).

図39には、図38のステップSn1における、背景を示す領域を検出する処理を説明するための図が示されている。ここで、画像の垂直方向にX軸と、画像の水平方向にY軸とが設定されているとする。さらに、領域検出部142は、面積の大小に応じて、画像における領域を、第1グループの領域95と第2グループの領域94とに分けたとする。   FIG. 39 is a diagram for explaining the process of detecting the region indicating the background in step Sn1 of FIG. Here, it is assumed that the X axis is set in the vertical direction of the image and the Y axis is set in the horizontal direction of the image. Furthermore, it is assumed that the region detection unit 142 divides the region in the image into a first group region 95 and a second group region 94 according to the size of the area.

そして、第1グループの領域95のX射影96xが、第2グループの領域94のX射影97xを包含し、かつ、第1グループの領域95のY射影96yが、第2グループの領域94のY射影97yを包含する場合、領域検出部142は、第1グループの領域95に、背景を示す領域であることを示す「背景ラベル」を設定する。   Then, the X projection 96x of the first group region 95 includes the X projection 97x of the second group region 94, and the Y projection 96y of the first group region 95 is Y of the second group region 94. When the projection 97y is included, the area detection unit 142 sets a “background label” indicating that the area 95 indicates the background in the area 95 of the first group.

図38に戻り、背景を示す領域を検出する処理の手順の説明を続ける。ステップSn1において、第1グループの領域95に「背景ラベル」を設定しなかった場合でも、第1グループの領域95の面積が、予め定められた面積より広く、かつ、第2グループの領域94から外側に向かう法線が、第1グループの領域95に角度「180」度以上かかる場合には、領域検出部142は、第1グループの領域95に「背景ラベル」を設定する(ステップSn2)。   Returning to FIG. 38, the description of the processing procedure for detecting the area indicating the background will be continued. In step Sn1, even when the “background label” is not set in the first group region 95, the area of the first group region 95 is larger than a predetermined area, and from the second group region 94. When the outward normal line takes an angle “180” degrees or more to the first group region 95, the region detection unit 142 sets a “background label” in the first group region 95 (step Sn2).

図40には、図38のステップSn2における、背景を示す領域を検出する処理を説明するための図が示されている。図40では、図39と異なり、第1グループの領域95のY射影96yが、第2グループの領域94のY射影97yを包含していない。そして、第1グループの領域95の面積が、予め定められた面積より広く、かつ、第2グループの領域94から外側に向かう法線98及び99が、第1グループの領域95に角度180度以上かかる場合、領域検出部142は、第1グループの領域95に「背景ラベル」を設定する。   FIG. 40 is a diagram for explaining the process of detecting the region indicating the background in step Sn2 of FIG. In FIG. 40, unlike FIG. 39, the Y projection 96y of the first group area 95 does not include the Y projection 97y of the second group area 94. Then, the area of the first group region 95 is larger than a predetermined area, and the normals 98 and 99 outward from the second group region 94 have an angle of 180 degrees or more with respect to the first group region 95. In such a case, the region detection unit 142 sets a “background label” in the region 95 of the first group.

図33に戻り、手順の説明を続ける。画像には、被写体距離が不明である領域があってもよい。そして、領域検出部142は、被写体距離が不明である領域に、高い評点(例えば、上位3つ以内)が付けられているか否かを判定する(ステップSk6)。   Returning to FIG. 33, the description of the procedure is continued. The image may include an area where the subject distance is unknown. Then, the region detection unit 142 determines whether or not a high score (for example, within the top three) is assigned to a region where the subject distance is unknown (step Sk6).

被写体距離が不明である領域に、高い評点が付けられていない場合(ステップSk6−NO)、領域検出部142は、検出した領域に、評点に応じて「優先ラベル」を設定する。ここで、領域検出部142は、複数の領域に「優先ラベル」を設定してもよい(ステップSk7)。   When a high score is not given to an area where the subject distance is unknown (step Sk6-NO), the area detection unit 142 sets a “priority label” in the detected area according to the score. Here, the region detection unit 142 may set “priority labels” in a plurality of regions (step Sk7).

一方、被写体距離が不明である領域に、高い評点が付けられている場合(ステップSk6−YES)、領域検出部142は、その高い評点が付けられている領域に「優先ラベル」を設定する。これは、主要な被写体像の領域であるにも関わらず、低コントラストであるために、被写体距離が不明となっている場合があるためである。   On the other hand, when a high score is assigned to an area where the subject distance is unknown (step Sk6-YES), the area detection unit 142 sets a “priority label” to the area where the high score is assigned. This is because the subject distance may be unknown due to the low contrast despite the main subject image area.

また、評点算出部143は、至近側(例えば、被写体距離「1(至近)」)の領域に付けられた評点のうち最高の評点を、「優先ラベル」を設定した領域の評点に加算する。そして、評点算出部143の処理は、ステップSk7に進む(ステップSk8)。   Also, the score calculation unit 143 adds the highest score among the scores assigned to the region on the closest side (for example, the subject distance “1 (closest)”) to the score of the region set with the “priority label”. And the process of the score calculation part 143 progresses to step Sk7 (step Sk8).

以上に説明した、領域にラベルを設定する処理と、評点を算出する処理をまとめると、これらの処理の概要は、次のようになる。   Summarizing the above-described process for setting a label in a region and the process for calculating a score, the outline of these processes is as follows.

まず、画像処理装置140は、特徴量毎にラベリングにより領域を検出し、検出した領域について、ラベリング処理、及び評点算出処理を実行する。領域検出部142は、特徴量毎に定まる領域を、画像から検出する。そして、領域検出部142は、例えば、動きのある領域に、動きラベルを設定する。また、例えば、評点算出部143は、画像の中心(画角中心)から領域の重心までの距離、慣性モーメント、及び領域の面積(画素数)に応じて、領域に評点を設定する。   First, the image processing apparatus 140 detects an area by labeling for each feature amount, and executes a labeling process and a score calculation process for the detected area. The area detection unit 142 detects an area determined for each feature amount from the image. And the area | region detection part 142 sets a motion label to the area | region with a motion, for example. Further, for example, the score calculation unit 143 sets a score for a region according to the distance from the center of the image (center of view angle) to the center of gravity of the region, the moment of inertia, and the area of the region (number of pixels).

次に、画像処理装置140は、特徴量に基づいて、領域の評点に加点する。例えば、評点算出部143は、特異である特徴量(例えば、色相環において不連続である色相)がある領域、彩度が高い領域、周囲と比較して色相(色合い)が著しく異なる領域、色相(特定の色相)に基づいて検出した領域、周囲と比較して明度が著しく異なる領域、角度検出オペレータ又はDCTにより検出するテクスチャに基づいて検出した領域、縦又は横に延びたエッジに基づいて検出した領域などの評点に、加点する。   Next, the image processing apparatus 140 adds a score to the region based on the feature amount. For example, the score calculation unit 143 may include a region having a characteristic amount that is unique (for example, a hue that is discontinuous in the hue circle), a region having high saturation, a region having a significantly different hue (hue) compared to the surroundings, and Detected based on areas detected based on (specific hue), areas with significantly different brightness compared to surroundings, areas detected based on texture detected by an angle detection operator or DCT, and edges extending vertically or horizontally A score will be added to the score of the selected area.

次に、画像処理装置140は、被写体距離(デプス、深度)に基づいて、領域の評点に加点する。例えば、評点算出部143は、被写体距離の差(相対距離)に応じて、領域の評点に加点する。   Next, the image processing apparatus 140 adds points to the score of the area based on the subject distance (depth, depth). For example, the score calculation unit 143 adds points to the score of the region according to the difference in the subject distance (relative distance).

さらに、画像処理装置140は、領域を結合、分割、又はグルーピングし、領域にラベルを設定する。例えば、領域検出部142は、被写体距離が同じ距離である領域同士が近接している場合、それらの領域を結合し、結合した領域にラベルを設定する。また、例えば、領域検出部142は、デプスマップ60に基づいて、領域を小領域に分割する。また、例えば、領域検出部142は、被写体距離が同じ距離である領域に、同じグループであることを示すラベルを設定する。   Furthermore, the image processing apparatus 140 combines, divides, or groups areas and sets a label for the area. For example, when the areas having the same subject distance are close to each other, the area detection unit 142 combines the areas and sets a label on the combined area. For example, the region detection unit 142 divides the region into small regions based on the depth map 60. Further, for example, the area detection unit 142 sets a label indicating the same group in an area where the subject distance is the same distance.

次に、画像処理装置140は、結合、分割、又はグルーピングした領域の評点に加点する。例えば、評点算出部143は、結合した領域の評点に加点する。また、例えば、評点算出部143は、前景又は背景を示す領域の評点を減点する。また、例えば、領域検出部142は、被写体距離が不明である領域であって、高い評点が付けられている領域に「優先ラベル」を設定する。そして、評点算出部143は、至近側の領域に付けられた評点を、「優先ラベル」を設定した領域の評点に加算する。   Next, the image processing apparatus 140 adds points to the score of the combined, divided, or grouped area. For example, the score calculation unit 143 adds points to the score of the combined area. For example, the score calculation unit 143 deducts the score of the area indicating the foreground or background. Further, for example, the region detection unit 142 sets “priority label” in a region where the subject distance is unknown and a high score is given. And the score calculation part 143 adds the score attached to the area | region of the near side to the score of the area | region which set the "priority label".

次に、画像処理装置140は、「優先ラベル」を設定する。例えば、領域検出部142は、検出した領域に、その評点に応じて「優先ラベル」を設定する。ここで、領域検出部142は、複数の領域に、その評点が上位である順に「優先ラベル」を設定してもよい。   Next, the image processing apparatus 140 sets a “priority label”. For example, the area detection unit 142 sets a “priority label” in the detected area according to the score. Here, the area detection unit 142 may set “priority labels” in the order in which the scores are higher in the plurality of areas.

以上のように、画像処理装置140は、第1の特徴の特徴量に基づいて検出した第1の領域と、第2の特徴の特徴量に基づいて検出した第2の領域と、の重なる部分の面積を算出し、その重なる部分の面積が予め定められた面積以上である場合、その第1の領域にその第2の領域を結合する。これにより、画像処理装置140は、検出した小領域をまとめた領域を、主要な被写体像の領域として識別することができる。   As described above, the image processing apparatus 140 overlaps the first region detected based on the feature amount of the first feature and the second region detected based on the feature amount of the second feature. When the area of the overlapping portion is equal to or larger than a predetermined area, the second region is combined with the first region. As a result, the image processing apparatus 140 can identify an area in which the detected small areas are collected as a main subject image area.

また、画像処理装置140は、第3の特徴の特徴量に基づいて検出した第3の領域に対応する距離(被写体距離)と、第4の特徴の特徴量に基づいて検出した第4の領域に対応する距離と、が同じ距離である場合、その第3の領域にその第4の領域を結合する。これにより、画像処理装置140は、検出した領域をまとめた領域を、主要な被写体像の領域として識別することができる。   The image processing apparatus 140 also detects the distance (subject distance) corresponding to the third region detected based on the feature amount of the third feature and the fourth region detected based on the feature amount of the fourth feature. If the distance corresponding to is the same distance, the fourth area is combined with the third area. As a result, the image processing apparatus 140 can identify an area obtained by collecting the detected areas as a main subject image area.

また、画像処理装置140は、領域を結合する場合、結合する前の領域毎の評点を合算し、合算した評点を、結合した後の領域の評点とする。これにより、画像処理装置140は、結合した領域の評点に基づいて、主要な被写体像の領域を識別することができる。   In addition, when combining the areas, the image processing apparatus 140 adds the scores for the respective areas before combining, and uses the combined score as the score of the combined area. Accordingly, the image processing apparatus 140 can identify the main subject image area based on the score of the combined area.

また、画像処理装置140は、領域を構成する複数の小領域が、それぞれ異なる距離(被写体距離)に対応する場合、領域を複数の小領域に分割する。これにより、画像処理装置140は、検出した領域に含まれた複数の小領域に基づいて、主要な被写体像の領域を識別することができる。   The image processing apparatus 140 divides the region into a plurality of small regions when the plurality of small regions constituting the region correspond to different distances (subject distances). Thus, the image processing apparatus 140 can identify the main subject image area based on the plurality of small areas included in the detected area.

また、画像処理装置140は、画像における距離(被写体距離)の分布を示すデプスマップに基づいて、領域を結合又は分割する。これにより、画像処理装置140は、取得又は作成したデプスマップに基づいて、主要な被写体像の領域を識別することができる。   Further, the image processing apparatus 140 combines or divides regions based on a depth map indicating a distribution of distances (subject distances) in the image. As a result, the image processing apparatus 140 can identify the main subject image area based on the acquired or created depth map.

[第3実施形態]
本発明の第3実施形態について図面を参照して詳細に説明する。第3実施形態では、焦点調整(AF)領域が、画角の中央に固定されている(AFエリアが画角の中央にある)場合に、被写体像の領域が低コントラストであったとしても、画像処理装置140が主要な被写体像の領域を識別し、コントラストを確保する点が、第1及び第2実施形態と異なる。第3実施形態では、画像における固定点に設定されたAF領域に、確実に被写体があると仮定して、AF領域のコントラストを上げる方法を採る。ここで、CPU190は、ラベルの内側又はラベルのエッジを含む領域を、コントラストAF領域に設定し、コントラストスキャンにより合焦位置を探索する。以下では、第1及び第2実施形態との相違点についてのみ説明する。
[Third Embodiment]
A third embodiment of the present invention will be described in detail with reference to the drawings. In the third embodiment, when the focus adjustment (AF) area is fixed at the center of the angle of view (the AF area is at the center of the angle of view), even if the area of the subject image has low contrast, The image processing apparatus 140 is different from the first and second embodiments in that a main subject image area is identified and contrast is ensured. In the third embodiment, a method of increasing the contrast of the AF area is assumed on the assumption that there is a subject in the AF area set as a fixed point in the image. Here, the CPU 190 sets an area including the inside of the label or the edge of the label as a contrast AF area, and searches for an in-focus position by contrast scanning. Only the differences from the first and second embodiments will be described below.

図41には、焦点調整(AF)領域が固定されている場合における合焦動作の手順が、フローチャートで示されている。まず、CPU190は、ユーザからの操作入力に基づいて、焦点調整(AF)領域を、画角の中央に設定する(ステップSp1)。そして、画像処理装置140は、スルー画像を取得する。ここで、画像処理装置140は、時間的に連続するスルー画像(スルー画列)を取得してもよい(ステップSp2)。   FIG. 41 is a flowchart showing the procedure of the focusing operation when the focus adjustment (AF) area is fixed. First, the CPU 190 sets a focus adjustment (AF) area at the center of the angle of view based on an operation input from the user (step Sp1). Then, the image processing device 140 acquires a through image. Here, the image processing apparatus 140 may acquire through images (through image sequences) that are continuous in time (step Sp2).

CPU190は、撮像部110に、debayer(色補間)処理を実行させる。また、CPU190は、画像処理装置140に、ノイズ低減処理(NR)、及びホワイトバランス調整(AWB)を実行させる(ステップSp3)。そして、特徴量算出部141は、撮像部110が撮像した画像を、バッファメモリ部130から取得し、焦点調整(AF)領域に撮像された被写体像の領域のラベル作成用特徴量を算出する(ステップSp4)。   The CPU 190 causes the imaging unit 110 to execute a debayer (color interpolation) process. Further, the CPU 190 causes the image processing apparatus 140 to execute noise reduction processing (NR) and white balance adjustment (AWB) (step Sp3). Then, the feature amount calculation unit 141 acquires the image captured by the image capturing unit 110 from the buffer memory unit 130, and calculates the label creation feature amount of the area of the subject image captured in the focus adjustment (AF) area ( Step Sp4).

さらに、特徴量算出部141は、特徴量毎にヒストグラムを作成し、後段処理で使用する特徴量(弁別可能な特徴量)を選択する(ステップSp5)。そして、領域検出部142は、選択した特徴量のヒストグラムにおけるピーク又は谷に基づいて、ヒストグラムの不連続領域(分割数、分割域)を算出する(図18を参照)(ステップSp6)。   Further, the feature amount calculation unit 141 creates a histogram for each feature amount, and selects a feature amount (a distinguishable feature amount) to be used in subsequent processing (step Sp5). Then, the area detection unit 142 calculates a discontinuous area (number of divisions and division areas) of the histogram based on the peak or valley in the histogram of the selected feature amount (see FIG. 18) (step Sp6).

領域検出部142は、ヒストグラムにおいてピーク波形又は不連続領域を示す特徴量(図18では、色相)に基づいて、ラベリングにより領域を検出する(ステップSp7)。優先度設定部144は、評点算出部143が算出した評点に基づいて、領域検出部142が検出した領域に優先度を設定する。そして、領域検出部142は、優先度が高い領域(有効領域)を選択する(ステップSp8)。   The region detection unit 142 detects a region by labeling based on a feature amount (hue in FIG. 18) indicating a peak waveform or a discontinuous region in the histogram (step Sp7). The priority setting unit 144 sets priorities for the areas detected by the area detection unit 142 based on the scores calculated by the score calculation unit 143. Then, the region detection unit 142 selects a region (effective region) having a high priority (Step Sp8).

領域検出部142は、選択した領域を拡張するために、条件を緩和(例えば、ラベリングするための特徴量の閾値を下げるなど)して、再びラベリング処理を実行する。ここで、選択した領域が複数ある場合、領域検出部142は、それぞれの領域を拡張する(ステップSp9)。特徴量算出部141は、領域検出部142が拡張した領域の境界(外周)から5%内側の領域についてヒストグラムを作成する。さらに、領域検出部142は、ヒストグラムに基づいて、コントラストの検出に有利な色相(色チャネル)を選択する。例えば、領域検出部142は、コントラスト値が高い色相(色チャネル)を、コントラストの検出に有利な色相(色チャネル)として選択する(ステップSp10)。   In order to expand the selected region, the region detection unit 142 relaxes the condition (for example, lowers the threshold value of the feature amount for labeling) and executes the labeling process again. Here, when there are a plurality of selected regions, the region detection unit 142 expands each region (step Sp9). The feature amount calculation unit 141 creates a histogram for a region 5% inside the boundary (outer periphery) of the region expanded by the region detection unit 142. Furthermore, the region detection unit 142 selects a hue (color channel) that is advantageous for contrast detection based on the histogram. For example, the region detection unit 142 selects a hue (color channel) having a high contrast value as a hue (color channel) advantageous for detecting the contrast (step Sp10).

領域検出部142は、選択した領域の色相及び輝度のコントラスト値が低い(低コントラストである)か、又は色相及び輝度のコントラスト値がさらに低い(さらに低コントラストである)か、を判定する(ステップSp11)。例えば、領域検出部142は、予め定められた第1閾値よりコントラスト値が低い場合、その領域のコントラスト値を、低コントラストと判定してもよい。また、例えば、領域検出部142は、第1閾値より値が小さい第2閾値よりコントラスト値が低い場合、その領域のコントラスト値を、さらに低コントラストと判定してもよい。   The region detection unit 142 determines whether the hue and luminance contrast values of the selected region are low (low contrast), or whether the hue and luminance contrast values are lower (further low contrast) (Step S1). Sp11). For example, when the contrast value is lower than a predetermined first threshold, the region detection unit 142 may determine that the contrast value of the region is low contrast. For example, when the contrast value is lower than the second threshold value that is smaller than the first threshold value, the region detection unit 142 may determine that the contrast value of the region is further low contrast.

選択した領域の色相及び輝度のコントラスト値が低い場合(ステップSp11−低コントラスト)、領域検出部142は、コントラストAF領域を拡張し、選択した領域に高ガンマテーブル(図15を参照)を設定する(ステップSp12)。   When the hue and brightness contrast values of the selected area are low (step Sp11—low contrast), the area detection unit 142 expands the contrast AF area and sets a high gamma table (see FIG. 15) in the selected area. (Step Sp12).

領域検出部142は、高ガンマテーブルを設定した領域の境界(外周)から5%内側を含む領域に、コントラストAF領域を設定する(ステップSp13)。CPU190は、領域検出部142が選択した色相について、コントラストスキャンを実行し、領域検出部142が選択した色相のコントラストがピークを示したレンズ位置を、記憶部160に記憶させる(ステップSp14)。   The region detection unit 142 sets a contrast AF region in a region including 5% inside from the boundary (outer periphery) of the region where the high gamma table is set (step Sp13). The CPU 190 executes a contrast scan for the hue selected by the area detection unit 142, and causes the storage unit 160 to store the lens position at which the contrast of the hue selected by the area detection unit 142 has peaked (step Sp14).

CPU190は、コントラストがピークを示したレンズ位置にAFレンズ112を移動させることで、コントラストAF領域に撮像された領域に合焦させる。ここで、コントラストAF領域に複数の「選択した領域」が撮像されている場合、CPU190は、その領域のうち被写体距離が最も短い(最至近に撮像された)領域に合焦させる(ステップSp15)。   The CPU 190 moves the AF lens 112 to the lens position where the contrast has shown a peak, thereby focusing on the imaged area in the contrast AF area. Here, when a plurality of “selected areas” are imaged in the contrast AF area, the CPU 190 focuses on an area in which the subject distance is the shortest (imaged closest) (step Sp15). .

一方、選択した領域の色相及び輝度のコントラスト値が、さらに低い場合(ステップSp11−さらに低コントラスト)、領域検出部142は、選択した領域の境界(外周)近傍のエッジを検出する(ステップSp16)。そして、領域検出部142は、選択した領域の境界(外周)近傍でエッジを探索し、エッジの色相(色構成)を検出する(ステップSp17)。   On the other hand, when the hue and brightness contrast values of the selected area are even lower (step Sp11-lower contrast), the area detection unit 142 detects an edge near the boundary (outer periphery) of the selected area (step Sp16). . Then, the region detection unit 142 searches for an edge near the boundary (outer periphery) of the selected region, and detects the hue (color configuration) of the edge (step Sp17).

さらに、領域検出部142は、色相を検出した領域でエッジを探索し、エッジの色相を検出した領域を、SN比が確保できるまで拡張する(ステップSp18)。なお、領域検出部142は、アパーチャ(F値)を変更させる、又は高ガンマテーブルに変更することにより、色相及び輝度のコントラストを検出する感度を上げてもよい。   Furthermore, the area detection unit 142 searches for an edge in the area where the hue is detected, and expands the area where the hue of the edge is detected until the SN ratio can be secured (step Sp18). Note that the area detection unit 142 may increase the sensitivity for detecting the hue and brightness contrast by changing the aperture (F value) or changing to a high gamma table.

そして、領域検出部142は、色相を検出した領域に、コントラストAF領域を設定する(ステップSp19)。領域検出部142の処理は、ステップSp14に進む。   Then, the region detection unit 142 sets a contrast AF region in the region where the hue is detected (Step Sp19). The process of the area detection unit 142 proceeds to step Sp14.

なお、同じ優先度のラベルが複数あった場合、合焦位置の探索に複数のラベルが使用されてもよい。   When there are a plurality of labels having the same priority, a plurality of labels may be used for searching for the in-focus position.

焦点調整(AF)領域が固定されている場合における合焦動作の手順は、次のようにしてもよい。
特徴量算出部141は、ラベルの検出に最適な特徴量を算出する(ステップSr1)。領域検出部142は、特徴量算出部141が算出した特徴量に基づいて、ラベルを検出する(ステップSr2)。領域検出部142は、コントラストAF領域に、ラベルを設定する(ステップSr3)。領域検出部142は、設定したラベルの外側にあるエッジを抽出する(ステップSr4)。領域検出部142は、抽出したエッジを含むまで、ラベルを拡張する(ステップSr5)。領域検出部142は、コントラストAF領域にラベルを設定する(ステップSr6)。領域検出部142は、ガンマテーブルを2系統有し、うち1系統を高ガンマテーブルとする(ステップSr7)。CPU190は、AFレンズ112を駆動して、コントラストスキャンを実行する(ステップSr8)。領域検出部142は、ラベルの内側又は外側のいずれかにおいて、至近側に分布するラベルを合焦点と判定する(ステップSr9)。
The procedure of the focusing operation when the focus adjustment (AF) area is fixed may be as follows.
The feature amount calculation unit 141 calculates a feature amount optimal for label detection (step Sr1). The region detection unit 142 detects a label based on the feature amount calculated by the feature amount calculation unit 141 (step Sr2). The area detection unit 142 sets a label in the contrast AF area (step Sr3). The region detection unit 142 extracts an edge outside the set label (step Sr4). The area detection unit 142 extends the label until it includes the extracted edge (step Sr5). The area detection unit 142 sets a label in the contrast AF area (step Sr6). The area detector 142 has two gamma tables, one of which is a high gamma table (step Sr7). The CPU 190 drives the AF lens 112 to execute a contrast scan (step Sr8). The region detection unit 142 determines that the label distributed on the closest side, either on the inner side or the outer side of the label, is a focal point (step Sr9).

以上のように、画像処理装置140は、被写体像の領域の色相及び輝度のコントラスト値が低い場合、コントラストAF領域を拡張し、選択した領域に高ガンマテーブルを設定する。また、画像処理装置140は、被写体像の領域の色相及び輝度のコントラスト値がさらに低い場合、エッジの色相を検出した領域を、SN比が確保できるまで拡張する。   As described above, the image processing apparatus 140 expands the contrast AF area and sets a high gamma table in the selected area when the hue and luminance contrast values of the area of the subject image are low. Further, when the hue and luminance contrast values of the subject image area are further lower, the image processing apparatus 140 expands the area where the edge hue is detected until the SN ratio can be secured.

これにより、焦点調整(AF)領域が画角の中央に固定されている場合に、被写体像の領域が低コントラストであったとしても、画像処理装置140は、色相及び輝度のコントラストを検出する感度を上げて、コントラストスキャンを実行するので、撮像された画像における領域を、高精度に識別することができる。例えば、画像処理装置140は、撮像された画像における、主要な被写体像の領域と、主要でない被写体像の領域とを識別することができる。   As a result, when the focus adjustment (AF) area is fixed at the center of the angle of view, the image processing apparatus 140 detects the hue and brightness contrast even if the object image area has a low contrast. Since the contrast scan is executed, the region in the captured image can be identified with high accuracy. For example, the image processing apparatus 140 can identify a main subject image region and a non-main subject image region in a captured image.

<被写体認識技術との組み合わせ>
画像処理装置140は、人の顔の位置を顔検出(被写体認識技術)により検出し、検出した顔の位置に基づいて、胴体又は髪の位置を推定し、推定した位置にラベルに設定してもよい。
<Combination with subject recognition technology>
The image processing device 140 detects the position of a human face by face detection (subject recognition technology), estimates the position of the torso or hair based on the detected position of the face, and sets the label at the estimated position. Also good.

胴体又は髪のラベルを用いたほうが、顔のラベルを用いるよりも有利な評価値(高SN、高コントラスト)を算出することができる場合、CPU190は、顔のラベルの代わりに、胴体又は髪のラベルを使用して、コントラストスキャンを実行してもよい。また、動物を検出する場合も同様であり、領域検出部142は、動物の顔と同一の色相又はテクスチャのラベルを、動物の顔の周辺で探索してもよい。CPU190は、探索されたラベルにおける有利な評価値を使用して、コントラストスキャンを実行する。   When the evaluation value (high SN, high contrast) that is more advantageous than using the face label can be calculated by using the torso or hair label, the CPU 190 may replace the face label with the torso or hair. A contrast scan may be performed using the label. The same applies to the case of detecting an animal, and the region detection unit 142 may search for a label having the same hue or texture as the animal's face around the animal's face. The CPU 190 performs a contrast scan using the advantageous evaluation value in the searched label.

上記以外の被写体認識技術を用いた場合も、同様の考え方が適用できる。この場合、顔ラベルのコントラストのピークと、顔の周辺にあるラベルのコントラストのピークとが同じレベルであることが前提である。CPU190は、この前提が成り立っていることを確認した上で、顔の周辺にあるラベルのコントラスト評価値を使用して、コントラストスキャンを実行する。また、CPU190は、この前提が成り立っていることを確認する処理を省き、予め定められた位置関係(例えば、顔と胴体との位置関係)に基づいて、顔の周辺にあるラベルのコントラスト評価値を使用して、コントラストスキャンを実行してもよい。   The same concept can be applied when other subject recognition techniques are used. In this case, it is assumed that the contrast peak of the face label and the contrast peak of the label around the face are at the same level. After confirming that this premise holds, the CPU 190 executes a contrast scan using the contrast evaluation values of the labels around the face. Further, the CPU 190 omits the process of confirming that this assumption is satisfied, and based on a predetermined positional relationship (for example, the positional relationship between the face and the torso), the contrast evaluation value of the label around the face May be used to perform a contrast scan.

[第4実施形態]
本発明の第4実施形態について図面を参照して詳細に説明する。第4実施形態では、夜景ポートレート(夜景P)を撮像する場合に、画像処理装置140がコントラストの検出に有利な特徴量(例えば、色相の特徴量)を選択する点が、第1〜第3実施形態と異なる。以下では、第1〜第3実施形態との相違点についてのみ説明する。
[Fourth Embodiment]
A fourth embodiment of the present invention will be described in detail with reference to the drawings. In the fourth embodiment, when a night scene portrait (night scene P) is captured, the image processing apparatus 140 selects a feature quantity (for example, a hue feature quantity) that is advantageous for detecting a contrast. Different from the third embodiment. Only the differences from the first to third embodiments will be described below.

図42には、夜景を撮像する場合における合焦動作の手順が、フローチャートで示されている。まず、CPU190は、ユーザからの操作入力に基づいて、撮像モードを夜景ポートレートモードに設定する(ステップSq1)。これにより、CPU190は、撮像装置100に備える発光部(不図示)に、AF補助光を発光させる。発光部(不図示)がAF補助光を発光することで、AF補助光は、被写体に照射される(ステップSq2)。そして、画像処理装置140は、スルー画像を取得する。ここで、画像処理装置140は、時間的に連続するスルー画像(スルー画列)を取得してもよい(ステップSq3)。   FIG. 42 is a flowchart showing the procedure of the focusing operation when shooting a night scene. First, the CPU 190 sets the imaging mode to the night view portrait mode based on the operation input from the user (step Sq1). As a result, the CPU 190 causes the light emitting unit (not shown) included in the imaging apparatus 100 to emit AF auxiliary light. When the light emitting unit (not shown) emits AF auxiliary light, the AF auxiliary light is irradiated to the subject (step Sq2). Then, the image processing device 140 acquires a through image. Here, the image processing apparatus 140 may acquire a through image (through image sequence) that is continuous in time (step Sq3).

CPU190は、撮像部110に、debayer(色補間)処理を実行させる。また、CPU190は、画像処理装置140に、ノイズ低減処理(NR)、及びホワイトバランス調整(AWB)を実行させる(ステップSq4)。そして、特徴量算出部141は、撮像部110が撮像した画像を、バッファメモリ部130から取得し、顔検出処理を実行して、画像において顔が撮像された領域を算出する(ステップSq5)。   The CPU 190 causes the imaging unit 110 to execute a debayer (color interpolation) process. Further, the CPU 190 causes the image processing apparatus 140 to perform noise reduction processing (NR) and white balance adjustment (AWB) (step Sq4). Then, the feature amount calculation unit 141 acquires the image captured by the imaging unit 110 from the buffer memory unit 130, executes face detection processing, and calculates a region where the face is captured in the image (step Sq5).

ここで、AF補助光が顔に照射された場合における顔の色相は、例えば、撮像装置100の製造前に予め測定されて、顔の色相の予測値として、記憶部160に予め記憶されているものとする。そして、領域検出部142は、AF補助光が顔に照射された場合における、顔の色相の予測値に基づいて、画像において顔が撮像された領域をラベリングする。この結果、CPU190は、ラベルの明度とAFレンズ112(図1を参照)の変倍位置とに基づいて、撮像装置100から顔までの、おおよその距離を算出して、AFレンズ112を駆動する。複数のラベルが画像に存在する場合、CPU190は、最も明度の高いラベルの顔に合焦させるよう、AFレンズ112を駆動する。また、複数のラベルが同様の明度である場合、CPU190は、画角の中央に最も近いラベルに合焦させるよう、AFレンズ112を駆動する(ステップSq6)。   Here, the face hue when the AF auxiliary light is applied to the face is measured in advance, for example, before manufacture of the imaging apparatus 100 and is stored in advance in the storage unit 160 as a predicted value of the face hue. Shall. Then, the region detection unit 142 labels a region where the face is captured in the image based on the predicted value of the hue of the face when the AF auxiliary light is irradiated to the face. As a result, the CPU 190 calculates an approximate distance from the imaging apparatus 100 to the face based on the lightness of the label and the magnification position of the AF lens 112 (see FIG. 1), and drives the AF lens 112. . When a plurality of labels are present in the image, the CPU 190 drives the AF lens 112 to focus on the face of the label with the highest brightness. If the plurality of labels have the same brightness, the CPU 190 drives the AF lens 112 to focus on the label closest to the center of the angle of view (step Sq6).

これにより、CPU190は、顔ラベルに対してまったく合焦していない大ぼけの状態を回避して、各ラベルのコントラストを比較することができる。なお、領域検出部142は、顔が撮像された領域が画像に複数ある場合、各領域の評点等に応じて、優先ラベル及び優先度を設定する。   As a result, the CPU 190 can compare the contrast of each label while avoiding a blurry state where the face label is not focused at all. In addition, when there are a plurality of regions in which an image of a face is captured, the region detection unit 142 sets a priority label and a priority according to the score of each region.

また、複数種類の光源からの光(ミックス光)が顔に照射されているなどの理由で、顔が撮像された領域に、AF補助光が顔に照射された場合における、顔の色相の予測値がない場合、特徴量算出部141は、顔検出により顔領域を検出し、検出した顔領域における平均色相を算出する(ステップSq7)。そして、領域検出部142は、画像において顔が撮像された領域を、特徴量算出部141が検出した平均色相に基づいて、ラベリングする(ステップSq8)。そして、領域検出部142は、顔が撮像された領域に「顔ラベル」を設定する(ステップSq9)。   Also, prediction of the hue of the face when the AF assist light is applied to the face in the area where the face is imaged because light (mixed light) from multiple types of light sources is applied to the face. When there is no value, the feature amount calculation unit 141 detects a face area by face detection, and calculates an average hue in the detected face area (step Sq7). Then, the region detection unit 142 labels the region in which the face is captured in the image based on the average hue detected by the feature amount calculation unit 141 (step Sq8). Then, the area detection unit 142 sets a “face label” in the area where the face is imaged (step Sq9).

特徴量算出部141は、顔が撮像された領域の外周から5%内側の領域について、RGBヒストグラムを作成する。さらに、領域検出部142は、ヒストグラムに基づいて、コントラストの検出に有利な特徴量を選択する(ステップSq10)。以下では、一例として、領域検出部142が、コントラスト値が高い色相(色チャネル)を、コントラストの検出に有利な色相として選択したとして説明する。   The feature amount calculation unit 141 creates an RGB histogram for a region 5% inside the outer periphery of the region where the face is imaged. Furthermore, the region detection unit 142 selects a feature amount advantageous for detecting contrast based on the histogram (step Sq10). In the following, as an example, the region detection unit 142 will be described assuming that a hue (color channel) having a high contrast value is selected as a hue advantageous for contrast detection.

領域検出部142は、顔が撮像された領域のRGB及び輝度が、低コントラストである否かを判定する(ステップSq11)。例えば、領域検出部142は、コントラスト値が予め定められた閾値より低い場合、その領域のコントラスト値が低コントラストである、と判定する。一方、領域検出部142は、コントラスト値が予め定められた閾値以上である場合、その領域のコントラスト値が低コントラストでない、と判定する。   The region detection unit 142 determines whether the RGB and luminance of the region where the face is imaged are low contrast (step Sq11). For example, when the contrast value is lower than a predetermined threshold value, the region detection unit 142 determines that the contrast value of the region is low contrast. On the other hand, when the contrast value is equal to or greater than a predetermined threshold, the region detection unit 142 determines that the contrast value of the region is not low contrast.

顔が撮像された領域のRGBチャネル及び輝度のコントラスト値が、低コントラストである場合(ステップSq11−YES)、領域検出部142は、顔の輪郭の色チャネルを選択する(ステップSq12)。そして、CPU190は、選択された色チャネルに基づいて、コントラストスキャンを実行する(ステップSq13)。   When the contrast value of the RGB channel and the luminance of the region where the face is imaged is low contrast (step Sq11-YES), the region detection unit 142 selects the color channel of the face contour (step Sq12). Then, the CPU 190 executes a contrast scan based on the selected color channel (step Sq13).

一方、顔ラベルのコントラスト値が、低コントラストでない場合(ステップSq11−NO)、領域検出部142は、顔が撮像された領域の外周から5%内側を含む領域に、コントラストAF領域を設定する(ステップSq14)。そして、領域検出部142の処理は、ステップSq13に進む。   On the other hand, when the contrast value of the face label is not low contrast (step Sq11-NO), the region detection unit 142 sets a contrast AF region in a region including 5% inside from the outer periphery of the region where the face is captured ( Step Sq14). And the process of the area | region detection part 142 progresses to step Sq13.

<夜景Pを撮像する場合における、顔検出ができる場合と、顔検出ができない場合との合焦動作について>
顔検出ができる場合(顔検出ができる程度の光量がある場合)、領域検出部142は、検出した顔に基づいて、その顔の周辺をラベリングする。CPU190は、検出された顔に基づいて、検出した顔から撮像装置100までの、おおよその距離を算出して、AFレンズ112を駆動する。
<Focusing operation when face detection is possible and when face detection is not possible when shooting night scene P>
When face detection can be performed (when there is a light intensity sufficient for face detection), the region detection unit 142 labels the periphery of the face based on the detected face. The CPU 190 calculates an approximate distance from the detected face to the imaging apparatus 100 based on the detected face, and drives the AF lens 112.

一方、顔検出ができない場合、例えば、顔検出ができる程度の定常光量がなく、かつ、AF補助光が顔に照射されたことにより、定常光とAF補助光とのミックス光によって、顔の色相が特定できない場合、領域検出部142は、AF補助光の発光時と消灯時との差分画像に基づいて、AF補助光が照射された領域を検出する。また、領域検出部142は、AF補助光が顔に照射された場合における、顔の色相の予測値に基づいて、画像において顔が撮像された領域をラベリングする(顔ラベル作成)。   On the other hand, when face detection is not possible, for example, there is no steady light quantity that can detect the face, and the AF auxiliary light is applied to the face, so that the hue of the face is caused by the mixed light of the steady light and the AF auxiliary light. Is not specified, the region detection unit 142 detects the region irradiated with the AF auxiliary light based on the difference image between when the AF auxiliary light is emitted and when the AF auxiliary light is turned off. In addition, the region detection unit 142 labels a region where a face is captured in an image based on a predicted value of the hue of the face when AF assist light is irradiated to the face (face label creation).

図43には、夜景Pを撮像する場合における、顔検出ができる場合と、顔検出ができない場合との合焦動作の手順が、フローチャートで示されている。CPU190は、AF補助光を発光させる(ステップSt1)。領域検出部142は、特定色相(例えば、ミックス光の色相)を探索する(ステップSt2)。領域検出部142は、特定色相があるか否かを判定する(ステップSt3)。特定色相がある場合(ステップSt3−YES)、領域検出部142は、ラベルのコントラストを評価する(ステップSt4)。低コントラストである場合、領域検出部142は、高ガンマテーブルを設定する。また、高ガンマテーブルを設定しても、まだ低コントラストである場合、領域検出部142は、ラベルを拡張する。ここで、領域検出部142は、高ガンマテーブルでない通常ガンマテーブルを設定する(ステップSt5)。CPU190は、コントラストスキャンを実行する(ステップSt6)。   FIG. 43 is a flowchart showing the procedure of the focusing operation when the face can be detected and when the face cannot be detected when the night scene P is imaged. The CPU 190 emits AF auxiliary light (step St1). The area detection unit 142 searches for a specific hue (for example, the hue of the mixed light) (step St2). The region detection unit 142 determines whether there is a specific hue (step St3). If there is a specific hue (step St3-YES), the region detection unit 142 evaluates the contrast of the label (step St4). When the contrast is low, the region detection unit 142 sets a high gamma table. If the high gamma table is set and the contrast is still low, the area detection unit 142 expands the label. Here, the region detection unit 142 sets a normal gamma table that is not a high gamma table (step St5). The CPU 190 executes contrast scan (step St6).

一方、特定色相がない場合(ステップSt3−NO)、領域検出部142は、顔検出が可能であるか否かを判定する(ステップSt7)。顔検出が可能である場合(ステップSt7−YES)、領域検出部142は、顔の色相の予測値に基づいて、ラベリングする(ステップSt8)。顔検出が可能である場合(ステップSt7−NO)、領域検出部142は、AF補助光の発光時と消灯時との差分画像に基づいて、ラベリングする(ステップSt9)。   On the other hand, when there is no specific hue (step St3-NO), the area detection unit 142 determines whether face detection is possible (step St7). If face detection is possible (step St7—YES), the region detection unit 142 performs labeling based on the predicted value of the hue of the face (step St8). When face detection is possible (step St7-NO), the area detection unit 142 performs labeling based on the difference image between when the AF auxiliary light is emitted and when it is turned off (step St9).

以上のように、夜景Pを撮像する場合に、画像処理装置140は、AF補助光が顔に照射された場合における顔の色相、又は顔が撮像された領域における平均色相を検出して、その色相に基づいて、領域をラベリングし、コントラストの検出に有利な色チャネルを選択する。   As described above, when the night scene P is imaged, the image processing apparatus 140 detects the hue of the face when the AF auxiliary light is applied to the face, or the average hue in the area where the face is imaged, and Based on the hue, the region is labeled and a color channel advantageous for contrast detection is selected.

これにより、夜景Pを撮像する場合に、被写体像の顔の領域が低コントラストであったとしても、コントラストの検出に有利な色チャネルを選択してコントラストスキャンを実行するので、被写体像の顔の領域を、高精度に識別することができる。例えば、画像処理装置140は、撮像された画像における、主要な被写体像の「顔の領域」と、主要でない被写体像の領域とを識別することができる。   Thus, when the night scene P is imaged, even if the face area of the subject image has a low contrast, a color channel that is advantageous for contrast detection is selected and a contrast scan is performed. The region can be identified with high accuracy. For example, the image processing apparatus 140 can identify a “face region” of a main subject image and a non-main subject image region in a captured image.

以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。   The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes designs and the like that do not depart from the gist of the present invention.

例えば、特徴量算出部141は、領域検出部142が色相毎に検出した領域のエッジの線広がり関数(LSF)の「半値幅」に基づいて、被写体距離又はデフォーカス量を検出してもよい。   For example, the feature amount calculation unit 141 may detect the subject distance or the defocus amount based on the “half width” of the line spread function (LSF) of the edge of the region detected for each hue by the region detection unit 142. .

また、例えば、領域検出部142は、領域の情報(例えば、領域の位置、形状、被写体距離など)に基づいて、被写体像の領域を切り抜いて(グラフカット)、切り抜いた被写体像の領域を他の画像に合成してもよい。   Further, for example, the area detection unit 142 cuts out the area of the subject image (graph cut) based on the area information (for example, the position, shape, and subject distance of the area), and other areas of the cut out subject image are displayed. May be combined with the image.

また、例えば、CPU190は、1方向にのみAFレンズ112を駆動(フォーカスポジションを変更)させながら、撮像部110に撮像(連写)させてもよい(AFブラケット)。ここで、「優先ラベル」が設定された被写体像の領域は、AFブラケットの実行前に、コントラストスキャンされていてもよい。また、CPU190は、AFブラケットを実行しながら、被写体像の領域をコントラストスキャンしてもよい。   Further, for example, the CPU 190 may cause the imaging unit 110 to perform imaging (continuous shooting) while driving the AF lens 112 in only one direction (changing the focus position) (AF bracket). Here, the area of the subject image in which the “priority label” is set may be subjected to contrast scanning before the AF bracketing is executed. Further, the CPU 190 may perform contrast scanning on the area of the subject image while executing the AF bracket.

また、例えば、AFブラケットにより撮像(連写)された画像は、その画像が含む領域の優先度に応じて、画像の記録及び再生表示の順序が並べ替えられてもよい。例えば、画像処理装置140は、優先度が最も高い領域が撮像された画像を時間的に連続する最初の画像とし、優先度が最も低い領域が撮像された画像を、時間的に連続する最後の画像として、画像の順序を並べ替えて、記録及び再生表示を実行してもよい。   Further, for example, the order of image recording and reproduction display may be rearranged according to the priority of the area included in the image captured by the AF bracket (continuous shooting). For example, the image processing apparatus 140 sets the image in which the region with the highest priority is captured as the first image that is temporally continuous, and the image in which the region with the lowest priority is captured as the last temporally continuous image. As an image, the order of the images may be rearranged to perform recording and reproduction display.

また、例えば、動作モードに応じて、又は「パースペクティブフラグ」がオンである場合、追尾する被写体像の領域を切り替える指示を、CPU190が操作部180を介して受け付けている間、又は受け付けるたびに、CPU190は、追尾する被写体像の領域を、優先ラベルに応じて、又は優先度の高い順に切り替えてもよい(トラッキング制御)。さらに、CPU190が操作部180を介して撮影指示を受け付けた場合、CPU190は、撮像部110に撮像(露光)させてもよい。   Further, for example, depending on the operation mode or when the “perspective flag” is on, an instruction to switch the area of the subject image to be tracked is received while the CPU 190 is received via the operation unit 180 or every time it is received. The CPU 190 may switch the area of the subject image to be tracked according to the priority label or in descending order of priority (tracking control). Further, when the CPU 190 receives a shooting instruction via the operation unit 180, the CPU 190 may cause the imaging unit 110 to capture (exposure).

また、例えば、CPU190は、図3のステップSa3において、初期AFとして、コントラストAF方式、又は位相差検出方式などの焦点調整を実行してよい。   Further, for example, the CPU 190 may execute focus adjustment such as a contrast AF method or a phase difference detection method as the initial AF in step Sa3 in FIG.

また、例えば、画像処理装置140は、後段処理において、RGB色空間で表現されたデータを使用してもよい。   Further, for example, the image processing apparatus 140 may use data expressed in the RGB color space in the subsequent processing.

また、図2、3、4、5、6、7、8、10、11、17、19、20、24、26、27、28、29、30、31、32、33、38、41、42、及び43を用いて説明した手順を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより、実行処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものであってもよい。   2, 3, 4, 5, 6, 7, 8, 10, 11, 17, 19, 20, 24, 26, 27, 28, 29, 30, 31, 32, 33, 38, 41, 42 , And 43, a program for realizing the procedure described above is recorded on a computer-readable recording medium, and the program recorded on the recording medium is read into a computer system and executed, thereby executing an execution process. You may go. Here, the “computer system” may include an OS and hardware such as peripheral devices.

また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、フラッシュメモリ等の書き込み可能な不揮発性メモリ、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。   Further, the “computer system” includes a homepage providing environment (or display environment) if a WWW system is used. The “computer-readable recording medium” means a flexible disk, a magneto-optical disk, a ROM, a writable nonvolatile memory such as a flash memory, a portable medium such as a CD-ROM, a hard disk built in a computer system, etc. This is a storage device.

さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(例えばDRAM(Dynamic Random Access Memory))のように、一定時間プログラムを保持しているものも含むものとする。
また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。
また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。
さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。
Further, the “computer-readable recording medium” refers to a volatile memory (for example, DRAM (Dynamic) in a computer system serving as a server or a client when a program is transmitted via a network such as the Internet or a communication line such as a telephone line. Random Access Memory)) that holds a program for a certain period of time is also included.
The program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the “transmission medium” for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line.
The program may be for realizing a part of the functions described above.
Furthermore, what can implement | achieve the function mentioned above in combination with the program already recorded on the computer system, and what is called a difference file (difference program) may be sufficient.

100…撮像装置、110…撮像部、111…レンズ鏡筒、140…画像処理装置、141…特徴量算出部、142…領域検出部、143…評点算出部、144…優先度設定部 DESCRIPTION OF SYMBOLS 100 ... Imaging device, 110 ... Imaging part, 111 ... Lens barrel, 140 ... Image processing apparatus, 141 ... Feature-value calculation part, 142 ... Area | region detection part, 143 ... Rating calculation part, 144 ... Priority setting part

Claims (8)

画像における複数の特徴毎に、当該特徴の特徴量を算出する特徴量算出部と、
前記画像に含まれる領域であって前記特徴量毎に定まる領域を前記画像から検出し、識別子を設定する領域検出部と、
異なる前記特徴の前記特徴量に基づいて検出された前記領域同士を比較するための評点を、前記領域毎に算出する評点算出部と、
前記評点に基づいて、前記画像における前記領域の優先度を設定する優先度設定部と、
を備えることを特徴とする画像処理装置。
A feature amount calculation unit for calculating a feature amount of the feature for each of a plurality of features in the image;
An area detection unit that detects an area included in the image and is determined for each feature amount from the image, and sets an identifier;
A score calculation unit for calculating, for each region, a score for comparing the regions detected based on the feature quantities of the different features;
A priority setting unit that sets the priority of the region in the image based on the score;
An image processing apparatus comprising:
前記領域検出部は、第1の前記特徴の前記特徴量に基づいて検出した第1の前記領域と、第2の前記特徴の前記特徴量に基づいて検出した第2の前記領域と、の重なる部分の面積を算出し、当該重なる部分の面積が予め定められた面積以上である場合、当該第1の領域に当該第2の領域を結合することを特徴とする請求項1に記載の画像処理装置。   The region detection unit overlaps the first region detected based on the feature amount of the first feature and the second region detected based on the feature amount of the second feature. 2. The image processing according to claim 1, wherein the area of the portion is calculated, and the second region is combined with the first region when the area of the overlapping portion is equal to or larger than a predetermined area. apparatus. 前記領域検出部は、第3の前記特徴の前記特徴量に基づいて検出した第3の前記領域に対応する距離と、第4の前記特徴の前記特徴量に基づいて検出した第4の前記領域に対応する距離と、が同じ距離である場合、当該第3の領域に当該第4の領域を結合することを特徴とする請求項1又は請求項2に記載の画像処理装置。   The region detection unit detects a distance corresponding to the third region detected based on the feature amount of the third feature and a fourth region detected based on the feature amount of the fourth feature. 3. The image processing apparatus according to claim 1, wherein the fourth region is coupled to the third region when the distance corresponding to the same is the same distance. 4. 前記領域検出部は、前記領域を結合する場合、結合する前の当該領域毎の前記評点を合算し、合算した評点を、結合した後の前記領域の前記評点とすることを特徴とする請求項2又は請求項3記載の画像処理装置。 The region detection unit, when combining the regions, adds the scores for each of the regions before combining, and sets the combined score as the score of the region after combining. The image processing apparatus according to claim 2 or claim 3. 前記領域検出部は、前記領域を構成する複数の小領域が、それぞれ異なる前記距離に対応する場合、前記領域を前記複数の小領域に分割することを特徴とする請求項に記載の画像処理装置。 The image processing according to claim 3 , wherein the region detection unit divides the region into the plurality of small regions when the plurality of small regions constituting the region correspond to the different distances. apparatus. 前記領域検出部は、前記画像における前記距離の分布を示すデプスマップに基づいて、
前記領域を結合又は分割することを特徴とする請求項3又は請求項5記載の画像処理装置。
The region detection unit is based on a depth map indicating the distribution of the distance in the image.
The image processing apparatus according to claim 3 or claim 5, characterized in that coupling or dividing the region.
光学系による像を撮像し、撮像した画像を出力する撮像部と、
前記画像における複数の特徴毎に、当該特徴の特徴量を算出する特徴量算出部と、
前記画像に含まれる領域であって前記特徴量毎に定まる領域を前記画像から検出し、識別子を設定する領域検出部と、
異なる前記特徴の前記特徴量に基づいて検出された前記領域同士を比較するための評点を、前記領域毎に算出する評点算出部と、
前記評点に基づいて、前記画像における前記領域の優先度を設定する優先度設定部と、
を備えることを特徴とする撮像装置。
An imaging unit that captures an image by an optical system and outputs the captured image;
A feature amount calculation unit that calculates a feature amount of the feature for each of a plurality of features in the image;
An area detection unit that detects an area included in the image and is determined for each feature amount from the image, and sets an identifier;
A score calculation unit for calculating, for each region, a score for comparing the regions detected based on the feature quantities of the different features;
A priority setting unit that sets the priority of the region in the image based on the score;
An imaging apparatus comprising:
コンピュータに、
画像における複数の特徴毎に、当該特徴の特徴量を検出する手順と、
前記画像に含まれる領域であって前記特徴量毎に定まる領域を前記画像から検出し、識別子を設定する手順と、
異なる前記特徴の前記特徴量に基づいて検出された前記領域同士を比較するための評点を、前記領域毎に算出する評点算出部と、
前記評点に基づいて、前記画像における前記領域の優先度を設定する優先度設定部と、
を実行させるための画像処理プログラム。
On the computer,
For each of a plurality of features in the image, a procedure for detecting a feature amount of the feature;
Detecting an area included in the image and determined for each feature amount from the image, and setting an identifier;
A score calculation unit for calculating, for each region, a score for comparing the regions detected based on the feature quantities of the different features;
A priority setting unit that sets the priority of the region in the image based on the score;
An image processing program for executing
JP2010187391A 2010-08-24 2010-08-24 Image processing apparatus, imaging apparatus, and image processing program Active JP5609425B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010187391A JP5609425B2 (en) 2010-08-24 2010-08-24 Image processing apparatus, imaging apparatus, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010187391A JP5609425B2 (en) 2010-08-24 2010-08-24 Image processing apparatus, imaging apparatus, and image processing program

Publications (2)

Publication Number Publication Date
JP2012049628A JP2012049628A (en) 2012-03-08
JP5609425B2 true JP5609425B2 (en) 2014-10-22

Family

ID=45904043

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010187391A Active JP5609425B2 (en) 2010-08-24 2010-08-24 Image processing apparatus, imaging apparatus, and image processing program

Country Status (1)

Country Link
JP (1) JP5609425B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110135408A (en) * 2019-03-26 2019-08-16 北京捷通华声科技股份有限公司 Text image detection method, network and equipment
US11030749B2 (en) 2016-10-28 2021-06-08 Olympus Corporation Image-processing apparatus, image-processing method, and storage medium storing image-processing program

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5987376B2 (en) * 2012-03-13 2016-09-07 株式会社ニコン Imaging device
US9286658B2 (en) * 2012-03-22 2016-03-15 Qualcomm Incorporated Image enhancement
JP2013213875A (en) * 2012-03-30 2013-10-17 Nikon Corp Focus adjustment device, imaging device, and focus adjustment program
JP5968102B2 (en) 2012-06-15 2016-08-10 キヤノン株式会社 Image recording apparatus and image reproducing apparatus
JP6198389B2 (en) * 2012-12-19 2017-09-20 キヤノン株式会社 Image processing apparatus, image processing method, and computer program
JP2014119725A (en) * 2012-12-19 2014-06-30 Casio Comput Co Ltd Device and method for controlling exposure and focus and program
CN105378534B (en) * 2013-10-04 2018-01-02 奥林巴斯株式会社 The method of work of camera device, camera device
JP6379478B2 (en) * 2013-11-28 2018-08-29 株式会社ニコン Image processing apparatus, electronic camera, and image processing program
JP6690125B2 (en) * 2015-03-19 2020-04-28 富士ゼロックス株式会社 Image processing device and program
JP6780639B2 (en) * 2015-05-11 2020-11-04 ノーリツプレシジョン株式会社 Image analysis device, image analysis method, and image analysis program
JP6298494B2 (en) * 2016-07-07 2018-03-20 キヤノン株式会社 Image reproducing apparatus and control method thereof
JP6463712B2 (en) * 2016-09-15 2019-02-06 株式会社Subaru Target search device, target search method, and target search program
JP2018197873A (en) * 2018-08-02 2018-12-13 株式会社ニコン Image processor and image processing program
JP6766219B2 (en) * 2019-05-15 2020-10-07 キヤノン株式会社 Image processing method, image processing device and program
JP7165376B2 (en) * 2019-09-05 2022-11-04 株式会社ユニバーサルエンターテインメント Optical receiver
JP2021190848A (en) * 2020-05-29 2021-12-13 ソニーセミコンダクタソリューションズ株式会社 Detector, detection system, and detection method

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07175925A (en) * 1993-12-17 1995-07-14 Mitsubishi Electric Corp Feature amount calculator and feature amount calculating method
JPH1125263A (en) * 1997-07-08 1999-01-29 Canon Inc Object feature point detector, focus adjusting device, exposure controller and camera
US6282317B1 (en) * 1998-12-31 2001-08-28 Eastman Kodak Company Method for automatic determination of main subjects in photographic images
GB0116877D0 (en) * 2001-07-10 2001-09-05 Hewlett Packard Co Intelligent feature selection and pan zoom control
JP2005157870A (en) * 2003-11-27 2005-06-16 Advanced Telecommunication Research Institute International Apparatus, method and program for image processing
JP2005293367A (en) * 2004-04-01 2005-10-20 Seiko Epson Corp Image processing method and device
JP2007157063A (en) * 2005-12-08 2007-06-21 Sony Corp Image processor, image processing method and computer program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11030749B2 (en) 2016-10-28 2021-06-08 Olympus Corporation Image-processing apparatus, image-processing method, and storage medium storing image-processing program
CN110135408A (en) * 2019-03-26 2019-08-16 北京捷通华声科技股份有限公司 Text image detection method, network and equipment

Also Published As

Publication number Publication date
JP2012049628A (en) 2012-03-08

Similar Documents

Publication Publication Date Title
JP5609425B2 (en) Image processing apparatus, imaging apparatus, and image processing program
US20230050695A1 (en) Systems and methods for capturing digital images
WO2010027080A1 (en) Image processing apparatus and method, imaging apparatus, and program
US8977053B2 (en) Image processing device and image processing method
JP5359856B2 (en) Image composition apparatus, image composition method, and program
CN105827947B (en) Image processing apparatus, image processing method and recording medium
CN104811684B (en) A kind of three-dimensional U.S. face method and device of image
CN109639959B (en) Image processing apparatus, image processing method, and recording medium
RU2542889C2 (en) Image processing device and control method therefor
JP2010267180A (en) Image processing apparatus, electronic device, and program
JP2011035636A (en) Image processor and method
JP2010193071A (en) Imaging system, and method and program for processing image
US9332196B2 (en) Image processing device, method and program
JP2017201818A (en) Area extraction device
KR20130026854A (en) Apparatus and method for managing face data
JP2009081822A (en) Data transmission device and method, and view environment control apparatus, system and method
KR101566666B1 (en) Imaging device, imaging method and imaging program
JP2005079776A (en) Image generation apparatus, image generation method and program
JP5871175B2 (en) Region extraction device, imaging device, and region extraction program
JP2011150594A (en) Image processor and image processing method, and program
CN106254849B (en) A kind of method and terminal that foreground object is locally replaced
JP2017229102A (en) Image processing apparatus, imaging apparatus, and program
JP2012252389A (en) Region extraction device, imaging apparatus, and region extraction program
JP2011003057A (en) Image composition device, image specifying method, image composition method, and program
JP5888069B2 (en) Area determination apparatus, imaging apparatus, and area determination program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130717

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140327

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140507

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140619

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140805

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140818

R150 Certificate of patent or registration of utility model

Ref document number: 5609425

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250