JP5375420B2 - Image processing apparatus, image processing method, and program - Google Patents

Image processing apparatus, image processing method, and program Download PDF

Info

Publication number
JP5375420B2
JP5375420B2 JP2009184244A JP2009184244A JP5375420B2 JP 5375420 B2 JP5375420 B2 JP 5375420B2 JP 2009184244 A JP2009184244 A JP 2009184244A JP 2009184244 A JP2009184244 A JP 2009184244A JP 5375420 B2 JP5375420 B2 JP 5375420B2
Authority
JP
Japan
Prior art keywords
group
calculating
image
groups
grouping
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009184244A
Other languages
Japanese (ja)
Other versions
JP2011040859A (en
Inventor
尚 八幡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2009184244A priority Critical patent/JP5375420B2/en
Publication of JP2011040859A publication Critical patent/JP2011040859A/en
Application granted granted Critical
Publication of JP5375420B2 publication Critical patent/JP5375420B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To appropriately detect an image area which is conjectured that observers take attention from an image with little change. <P>SOLUTION: An imaging device 100 includes: a grouping unit 5c which carries out grouping of a plurality of pixels of acquired processing object images into a plurality of groups based on values of variables in a predetermined color space of respective pixels; a variance value calculation unit 5d which calculates a variance value in the image of pixels that belong to respective groups, for every groups of the plurality of groups carried out grouping; an evaluation value calculation unit 5g which calculates evaluation values of respective groups based on the calculated evaluation values; and an attention area detection unit 5h which detects an area composed of pixels that belong to any one group out of the plurality of the groups as the attention area based on the calculation result of the evaluation values of the respective groups. <P>COPYRIGHT: (C)2011,JPO&amp;INPIT

Description

本発明は、例えば、画像を解析する画像処理装置、画像処理方法及びプログラムに関する。   The present invention relates to an image processing apparatus, an image processing method, and a program for analyzing an image, for example.

従来、画像から注目される領域を検出する技術として、連続する2フレームの画像の差分値から被写体が動くことによって発生する特異な画像領域を検出し、それを注目されるであろうと推測される領域と見做す技術が知られている(例えば、特許文献1参照)。   Conventionally, as a technique for detecting a region of interest from an image, it is speculated that a specific image region generated by the movement of a subject is detected from a difference value between two consecutive frames of the image, and that the region will receive attention. A technique that is regarded as a region is known (see, for example, Patent Document 1).

特開平9−205575号公報JP-A-9-205575

しかしながら、上記特許文献1記載の技術は、「動画において観察者は動く被写体に注目する」ことを前提に考えられたものであるため、例えば一枚の静止画のような変化の少ない画像からでは上記領域を検出することができないという問題がある。   However, since the technique described in Patent Document 1 is considered on the premise that “the observer pays attention to a moving subject in a moving image”, for example, from an image with little change such as a single still image. There is a problem that the region cannot be detected.

そこで、本発明の課題は、変化の少ない画像から、観察者が注目すると推測される画像領域を適切に検出することができるようにすることである。   Accordingly, an object of the present invention is to enable appropriate detection of an image area that is estimated to be observed by an observer from an image with little change.

上記課題を解決するため、請求項1に記載の発明の画像処理装置は、
画像を取得する取得手段と、この取得手段により取得された画像の複数の画素を、各画素の所定の色空間における変数の値に基づいて複数のグループにグループ分けするグループ分け手段と、このグループ分け手段によりグループ分けされた複数のグループの各々について、各グループに属する画素の当該画像における分散値をグループ毎に算出する分散値算出手段と、この分散値算出手段により算出された分散値に基づいて、各グループの評価値を算出する評価値算出手段と、この評価値算出手段による算出結果に基づいて、前記複数のグループのうちの何れか一のグループに属する画素によって構成される領域を注目領域として検出する検出手段と、この検出手段により新たに注目領域が検出されると、過去の所定回数の検出結果との比較を行い、その比較結果に応じて前記新たに検出された注目領域を採用するか否かを決定する決定手段と、を備えることを特徴としている。
In order to solve the above problem, an image processing apparatus according to claim 1 is provided.
An acquisition unit that acquires an image, a grouping unit that groups a plurality of pixels of the image acquired by the acquisition unit into a plurality of groups based on a value of a variable in a predetermined color space of each pixel, and the group For each of a plurality of groups grouped by the dividing unit, a variance value calculating unit that calculates a variance value in the image of pixels belonging to each group for each group, and based on the variance value calculated by the variance value calculating unit Then, based on the evaluation value calculation means for calculating the evaluation value of each group and the calculation result by the evaluation value calculation means, attention is paid to a region constituted by pixels belonging to any one of the plurality of groups. the ratio of the detection means for detecting a region, the new region of interest is detected by the detection means, and the detection result of a past predetermined number Was carried out, and determination means for determining whether to adopt the newly detected attention area according to the comparison result, characterized in that it comprises a.

請求項2に記載の発明画像処理装置
画像を取得する取得手段と、この取得手段により取得された画像の複数の画素を、各画素の所定の色空間における変数の値に基づいて複数のグループにグループ分けするグループ分け手段と、このグループ分け手段によりグループ分けされた複数のグループの各々について、各グループに属する画素の当該画像における分散値をグループ毎に算出する分散値算出手段と、この分散値算出手段により算出された分散値に基づいて、各グループの評価値を算出する評価値算出手段と、この評価値算出手段による算出結果に基づいて、前記複数のグループのうちの何れか一のグループに属する画素によって構成される領域を注目領域として検出する検出手段と、この検出手段により検出された注目領域が複数個の閉領域から成っているときに、所定の大きさよりも小さな閉領域を前記注目領域から除外する除外手段と、を備えることを特徴としている。
An image processing apparatus according to a second aspect of the present invention provides :
An acquisition unit that acquires an image, a grouping unit that groups a plurality of pixels of the image acquired by the acquisition unit into a plurality of groups based on a value of a variable in a predetermined color space of each pixel, and the group For each of a plurality of groups grouped by the dividing unit, a variance value calculating unit that calculates a variance value in the image of pixels belonging to each group for each group, and based on the variance value calculated by the variance value calculating unit Then, based on the evaluation value calculation means for calculating the evaluation value of each group and the calculation result by the evaluation value calculation means, attention is paid to a region constituted by pixels belonging to any one of the plurality of groups. A detection means for detecting the area, and a predetermined area when the attention area detected by the detection means is composed of a plurality of closed areas. It is characterized in Rukoto and a exclude excluding means from said region of interest a small closed area than the size.

請求項3に記載の発明の画像処理装置は、
画像を取得する取得手段と、この取得手段により取得された画像の複数の画素を、各画素の所定の色空間における変数の値に基づいて複数のグループにグループ分けするグループ分け手段と、このグループ分け手段によグループ分けされた複数のグループの各々について、各グループに属する画素の当該画像における分散値をグループ毎に算出する分散値算出手段と、この分散値算出手段により算出された分散値に基づいて、グループの評価値を算出する評価値算出手段と、この評価値算出手段による算出結果に基づいて、前記複数のグループのうちの何れか一のグループに属する画素によって構成される領域を注目領域として検出する検出手段と、を備え、前記複数のグループの各々は、各グループを規定する前記所定の色空間における各成分の範囲が隣合うグループと重なり合ってなることを特徴としている。
An image processing apparatus according to a third aspect of the present invention provides:
An acquisition unit that acquires an image, a grouping unit that groups a plurality of pixels of the image acquired by the acquisition unit into a plurality of groups based on a value of a variable in a predetermined color space of each pixel, and the group for each of Ri by the interface unit grouped plurality of groups, and the variance value calculating means for calculating a dispersion value in the image of the pixels belonging to each group for each group, the variance value calculated by the variance value calculating means Based on the evaluation value calculation means for calculating the evaluation value of each group, and an area configured by pixels belonging to any one of the plurality of groups based on the calculation result by the evaluation value calculation means Bei example a detector for detecting a region of interest, and the each of the plurality of groups, put on the predetermined color space defining each group The Rukoto such overlap the group adjacent ranges of the components are characterized.

請求項4に記載の発明画像処理装置
画像を取得する取得手段と、この取得手段により取得された画像の複数の画素を、各画素の所定の色空間における変数の値に基づいて複数のグループにグループ分けするグループ分け手段と、このグループ分け手段によってグループ分けされた複数のグループの各々について、各グループに属する画素の重心位置をグループ毎に算出する重心算出手段と、この重心算出手段により算出された重心位置と前記画像の中心との距離を算出する距離算出手段と、この距離算出手段により算出された距離に基づいて、前記各グループの評価値を算出する評価値算出手段と、この評価値算出手段による算出結果に基づいて、前記複数のグループのうちの何れか一のグループに属する画素によって構成される領域を注目領域として検出する検出手段と、この検出手段により新たに注目領域が検出されると、過去の所定回数の検出結果との比較を行い、その比較結果に応じて前記新たに検出された注目領域を採用するか否かを決定する決定手段と、を備えることを特徴としている。
An image processing apparatus according to a fourth aspect of the present invention provides :
An acquisition unit that acquires an image, a grouping unit that groups a plurality of pixels of the image acquired by the acquisition unit into a plurality of groups based on a value of a variable in a predetermined color space of each pixel, and the group For each of the plurality of groups grouped by the dividing means, a centroid calculating means for calculating the centroid position of the pixels belonging to each group for each group, and the centroid position calculated by the centroid calculating means and the center of the image Based on the distance calculation means for calculating the distance, the evaluation value calculation means for calculating the evaluation value of each group based on the distance calculated by the distance calculation means, and the calculation result by the evaluation value calculation means, Detecting means for detecting, as a region of interest, an area formed by pixels belonging to any one of a plurality of groups; When a detection area is newly detected by the detection means, a comparison is made with a predetermined number of past detection results, and a decision is made to determine whether to adopt the newly detected attention area according to the comparison result and means, the is characterized in Rukoto.

請求項5に記載の発明画像処理装置
画像を取得する取得手段と、この取得手段により取得された画像の複数の画素を、各画素の所定の色空間における変数の値に基づいて複数のグループにグループ分けするグループ分け手段と、このグループ分け手段によってグループ分けされた複数のグループの各々について、各グループに属する画素の重心位置をグループ毎に算出する重心算出手段と、この重心算出手段により算出された重心位置と前記画像の中心との距離を算出する距離算出手段と、この距離算出手段により算出された距離に基づいて、前記各グループの評価値を算出する評価値算出手段と、この評価値算出手段による算出結果に基づいて、前記複数のグループのうちの何れか一のグループに属する画素によって構成される領域を注目領域として検出する検出手段と、この検出手段により検出された注目領域が複数個の閉領域から成っているときに、所定の大きさよりも小さな閉領域を前記注目領域から除外する除外手段と、を備えることを特徴としている。
An image processing apparatus according to a fifth aspect of the present invention provides :
An acquisition unit that acquires an image, a grouping unit that groups a plurality of pixels of the image acquired by the acquisition unit into a plurality of groups based on a value of a variable in a predetermined color space of each pixel, and the group For each of the plurality of groups grouped by the dividing means, a centroid calculating means for calculating the centroid position of the pixels belonging to each group for each group, and the centroid position calculated by the centroid calculating means and the center of the image Based on the distance calculation means for calculating the distance, the evaluation value calculation means for calculating the evaluation value of each group based on the distance calculated by the distance calculation means, and the calculation result by the evaluation value calculation means, Detecting means for detecting, as a region of interest, an area formed by pixels belonging to any one of a plurality of groups; When the detected region of interest by the detection means is composed of a plurality of the closed region, it is characterized by comprising, Excluding excluding means from said region of interest a small closed region than the predetermined size.

請求項6に記載の発明画像処理装置
画像を取得する取得手段と、この取得手段により取得された画像の複数の画素を、各画素の所定の色空間における変数の値に基づいて複数のグループにグループ分けするグループ分け手段と、このグループ分け手段によってグループ分けされた複数のグループの各々について、各グループに属する画素の重心位置をグループ毎に算出する重心算出手段と、この重心算出手段により算出された重心位置と前記画像の中心との距離を算出する距離算出手段と、この距離算出手段により算出された距離に基づいて、前記各グループの評価値を算出する評価値算出手段と、この評価値算出手段による算出結果に基づいて、前記複数のグループのうちの何れか一のグループに属する画素によって構成される領域を注目領域として検出する検出手段と、を備え、前記複数のグループの各々は、各グループを規定する前記所定の色空間における各成分の範囲が隣合うグループと重なり合ってなることを特徴としている。
An image processing apparatus according to a sixth aspect of the present invention provides :
An acquisition unit that acquires an image, a grouping unit that groups a plurality of pixels of the image acquired by the acquisition unit into a plurality of groups based on a value of a variable in a predetermined color space of each pixel, and the group For each of the plurality of groups grouped by the dividing means, a centroid calculating means for calculating the centroid position of the pixels belonging to each group for each group, and the centroid position calculated by the centroid calculating means and the center of the image Based on the distance calculation means for calculating the distance, the evaluation value calculation means for calculating the evaluation value of each group based on the distance calculated by the distance calculation means, and the calculation result by the evaluation value calculation means, Detecting means for detecting, as a region of interest, an area formed by pixels belonging to any one of a plurality of groups; For example, each of the plurality of groups is characterized by comprising overlapping said predetermined group of adjacent ranges of each component in the color space defining each group.

請求項7に記載の発明の画像処理方法は、
画像を取得する取得ステップと、この取得ステップにて取得された画像の複数の画素を、各画素の所定の色空間における変数の値に基づいて複数のグループにグループ分けするグループ分けステップと、このグループ分けステップにてグループ分けされた複数のグループの各々について、各グループに属する画素の当該画像における分散値をグループ毎に算出する分散値算出ステップと、この分散値算出ステップにて算出された分散値に基づいて、各グループの評価値を算出する評価値算出ステップと、この評価値算出ステップにおける算出結果に基づいて、前記複数のグループのうちの何れか一のグループに属する画素によって構成される領域を注目領域として検出する検出ステップと、この検出ステップにて新たに注目領域が検出されると、過去の所定回数の検出結果との比較を行い、その比較結果に応じて前記新たに検出された注目領域を採用するか否かを決定する決定ステップと、を実行することを特徴としている。
The image processing method of the invention according to claim 7 is:
An acquisition step of acquiring an image, a grouping step of grouping a plurality of pixels of the image acquired in the acquisition step into a plurality of groups based on a value of a variable in a predetermined color space of each pixel; For each of the plurality of groups grouped in the grouping step, a variance value calculating step for calculating the variance value in the image of the pixels belonging to each group for each group, and the variance calculated in this variance value calculating step based on the value, the evaluation value calculation step of calculating an evaluation value of each group, based on the definitive calculation result to the evaluation value calculating step is configured by any pixels that belong to one group of the plurality of groups a detection step of detecting that region as a region of interest, a new region of interest is detected at the detection step , Compares the detection result of past predetermined number of times, it is characterized by executing a determining step of determining whether to adopt the newly detected attention area according to the comparison result.

請求項8に記載の発明の画像処理方法は、
画像を取得する取得ステップと、この取得ステップにて取得された画像の複数の画素を、各画素の所定の色空間における変数の値に基づいて複数のグループにグループ分けするグループ分けステップと、このグループ分けステップにてグループ分けされた複数のグループの各々について、各グループに属する画素の当該画像における分散値をグループ毎に算出する分散値算出ステップと、この分散値算出ステップにて算出された分散値に基づいて、グループの評価値を算出する評価値算出ステップと、この評価値算出ステップにおける算出結果に基づいて、前記複数のグループのうちの何れか一のグループに属する画素によって構成される領域を注目領域として検出する検出ステップと、を実行する画像処理方法であって、前記複数のグループの各々は、各グループを規定する前記所定の色空間における各成分の範囲が隣合うグループと重なり合ってなることを特徴としている。
An image processing method according to an eighth aspect of the present invention includes:
An acquisition step of acquiring an image, a grouping step of grouping a plurality of pixels of the image acquired in the acquisition step into a plurality of groups based on a value of a variable in a predetermined color space of each pixel; for each of a plurality of groups grouped by the grouping step, the variance value calculation step of calculating a variance value for each group in the image of the pixels belonging to each group was calculated dispersed by the dispersion value calculation step An evaluation value calculating step for calculating an evaluation value of each group based on the value , and a pixel belonging to any one of the plurality of groups based on a calculation result in the evaluation value calculating step an image processing method for performing a detection step of detecting a region as a region of interest, wherein the plurality of guru Each flop is characterized by comprising overlapping said predetermined group of adjacent ranges of each component in the color space defining each group.

請求項9に記載の発明のプログラムは、
コンピュータを、画像を取得する取得手段、この取得手段により取得された画像の複数の画素を、各画素の所定の色空間における変数の値に基づいて複数のグループにグループ分けするグループ分け手段、このグループ分け手段によってグループ分けされた複数のグループの各々について、各グループに属する画素の重心位置をグループ毎に算出する重心算出手段、この重心算出手段により算出された重心位置と前記画像の中心との距離を算出する距離算出手段、この距離算出手段により算出された距離に基づいて、前記各グループの評価値を算出する評価値算出手段、この評価値算出手段による算出結果に基づいて、前記複数のグループのうちの何れか一のグループに属する画素によって構成される領域を注目領域として検出する検出手段、この検出手段により検出された注目領域が複数個の閉領域から成っているときに、所定の大きさよりも小さな閉領域を前記注目領域から除外する除外手段、として機能させることを特徴としている。
The program of the invention according to claim 9 is:
An acquisition means for acquiring an image, a grouping means for grouping a plurality of pixels of the image acquired by the acquisition means into a plurality of groups based on values of variables in a predetermined color space of each pixel, for each of a plurality of groups grouped I by the grouping means, the center of gravity calculating means for calculating the center of gravity of the pixels belonging to each group for each group, of the image and the calculated barycentric position by the centroid calculating unit distance calculating means for calculating the distance between the center, based on the distance calculated by the distance calculating means, evaluation value calculating means for calculating an evaluation value of each group, based on the calculation result by the evaluation value calculating means, Detection means for detecting an area formed by pixels belonging to any one of the plurality of groups as an attention area When the detected region of interest by the detection means is composed of a plurality of the closed region, it is characterized in that to function as excluding excluding means, from the region of interest smaller closed region than the predetermined size.

請求項10に記載の発明のプログラムは、
コンピュータを、画像を取得する取得手段、この取得手段により取得された画像の複数の画素を、各画素の所定の色空間における変数の値に基づいて複数のグループにグループ分けするグループ分け手段、このグループ分け手段によってグループ分けされた複数のグループの各々について、各グループに属する画素の重心位置をグループ毎に算出する重心算出手段、この重心算出手段により算出された重心位置と前記画像の中心との距離を算出する距離算出手段、この距離算出手段により算出された距離に基づいて、前記各グループの評価値を算出する評価値算出手段、この評価値算出手段による算出結果に基づいて、前記複数のグループのうちの何れか一のグループに属する画素によって構成される領域を注目領域として検出する検出手段、として機能させるプログラムであって、前記複数のグループの各々は、各グループを規定する前記所定の色空間における各成分の範囲が隣合うグループと重なり合ってなることを特徴としている。
The program of the invention according to claim 10 is:
An acquisition means for acquiring an image, a grouping means for grouping a plurality of pixels of the image acquired by the acquisition means into a plurality of groups based on values of variables in a predetermined color space of each pixel, For each of the plurality of groups grouped by the grouping means, the centroid calculating means for calculating the centroid position of the pixels belonging to each group for each group, the centroid position calculated by the centroid calculating means and the center of the image A distance calculation means for calculating a distance, an evaluation value calculation means for calculating an evaluation value of each group based on the distance calculated by the distance calculation means, and a plurality of the plurality of evaluation values based on a calculation result by the evaluation value calculation means Detection means for detecting, as a region of interest, an area formed by pixels belonging to any one of the groups A program to function as each of said plurality of groups is characterized by comprising overlapping said predetermined group of adjacent ranges of each component in the color space defining each group.

本発明によれば、変化の少ない画像から観察者が注目すると推測される画像領域を適切に検出することができる。   According to the present invention, it is possible to appropriately detect an image region that is estimated to be observed by an observer from an image with little change.

本発明を適用した一実施形態の撮像装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the imaging device of one Embodiment to which this invention is applied. 図1の撮像装置による注目領域出力処理に係る動作の一例を示すフローチャートである。3 is a flowchart illustrating an example of an operation related to an attention area output process by the imaging apparatus of FIG. 1. 注目領域出力処理における注目領域検出処理に係る動作の一例を示すフローチャートである。It is a flowchart which shows an example of the operation | movement which concerns on the attention area detection process in attention area output processing. 注目領域出力処理により出力される注目領域を説明するための図である。It is a figure for demonstrating the attention area output by attention area output processing. 注目領域出力処理における注目領域安定化処理に係る動作の一例を示すフローチャートである。It is a flowchart which shows an example of the operation | movement which concerns on the attention area stabilization process in attention area output processing.

以下に、本発明について、図面を用いて具体的な態様を説明する。ただし、発明の範囲は、図示例に限定されない。
図1は、本発明を適用した一実施形態の撮像装置100の概略構成を示すブロック図である。
Hereinafter, specific embodiments of the present invention will be described with reference to the drawings. However, the scope of the invention is not limited to the illustrated examples.
FIG. 1 is a block diagram illustrating a schematic configuration of an imaging apparatus 100 according to an embodiment to which the present invention is applied.

本実施形態の撮像装置100は、処理対象画像の複数の画素を、各画素の所定の色空間における変数の値に基づいて複数のグループにグループ分けして、当該複数のグループの各々に属する画素の当該画像における分散値に基づいて、各グループの評価値を算出し、各グループの評価値の算出結果に基づいて、複数のグループのうちの何れか一のグループに属する画素によって構成される領域を注目領域A1として検出する。ここで、注目領域とは、当該処理対象画像を撮影者(観察者)が見たときに注目するであろうと推測される領域であり、後述する注目領域出力処理によって出力される。
具体的には、図1に示すように、撮像装置100は、撮像部1と、撮像制御部2と、画像データ生成部3と、メモリ4と、画像処理部5と、表示制御部6と、表示部7と、記録媒体8と、操作入力部9と、中央制御部10とを備えている。
The imaging apparatus 100 according to the present embodiment divides a plurality of pixels of a processing target image into a plurality of groups based on values of variables in a predetermined color space of each pixel, and pixels belonging to each of the plurality of groups An area composed of pixels belonging to any one of a plurality of groups, based on the evaluation value of each group, based on the evaluation value of each group based on the variance value in the image Are detected as the attention area A1. Here, the attention area is an area that is estimated to be noticed when the photographer (observer) views the processing target image, and is output by attention area output processing described later.
Specifically, as illustrated in FIG. 1, the imaging device 100 includes an imaging unit 1, an imaging control unit 2, an image data generation unit 3, a memory 4, an image processing unit 5, and a display control unit 6. , A display unit 7, a recording medium 8, an operation input unit 9, and a central control unit 10.

撮像部1は、被写体を撮像して画像フレームを生成する。具体的には、撮像部1は、図示は省略するが、ズームレンズやフォーカスレンズ等の複数のレンズから構成されたレンズ部と、レンズ部を通過する光の量を調整する絞りと、CCD(Charge Coupled Device)やCMOS(Complementary Metal-oxide Semiconductor)等のイメージセンサから構成され、レンズ部の各種レンズを通過した光学像を二次元の画像信号に変換する電子撮像部を備えている。   The imaging unit 1 captures a subject and generates an image frame. Specifically, although not shown, the imaging unit 1 includes a lens unit including a plurality of lenses such as a zoom lens and a focus lens, a diaphragm that adjusts the amount of light passing through the lens unit, and a CCD ( The image sensor includes an electronic image pickup unit that includes an image sensor such as a charge coupled device (CMOS) or a complementary metal-oxide semiconductor (CMOS), and converts an optical image that has passed through various lenses of the lens unit into a two-dimensional image signal.

撮像制御部2は、図示は省略するが、タイミング発生器、ドライバなどを備えている。そして、撮像制御部2は、タイミング発生器、ドライバにより電子撮像部を走査駆動して、所定周期毎に光学像を電子撮像部により二次元の画像信号に変換させ、当該電子撮像部の撮像領域から1画面分ずつ画像フレームを読み出して画像データ生成部3に出力させる。
また、撮像制御部2は、撮像条件の調整制御として、AE(自動露出処理)、AF(自動合焦処理)、AWB(自動ホワイトバランス)等を行う。
Although not shown, the imaging control unit 2 includes a timing generator, a driver, and the like. Then, the imaging control unit 2 scans and drives the electronic imaging unit with a timing generator and a driver, converts the optical image into a two-dimensional image signal with the electronic imaging unit every predetermined period, and captures the imaging area of the electronic imaging unit Image frames are read out for each screen and output to the image data generation unit 3.
The imaging control unit 2 performs AE (automatic exposure processing), AF (automatic focusing processing), AWB (automatic white balance), and the like as adjustment control of imaging conditions.

画像データ生成部3は、電子撮像部から転送された画像データのアナログ値の信号に対してRGBの各色成分毎に適宜ゲイン調整した後に、サンプルホールド回路(図示略)でサンプルホールドしてA/D変換器(図示略)でデジタルデータに変換し、カラープロセス回路(図示略)で画素補間処理及びγ補正処理を含むカラープロセス処理を行った後、デジタル値の輝度信号Y及び色差信号Cb,Cr(YUV色空間の画像データ)を生成する。
カラープロセス回路から出力される輝度信号Y及び色差信号Cb,Crは、図示しないDMAコントローラを介して、バッファメモリとして使用されるメモリ4にDMA転送される。
The image data generation unit 3 appropriately adjusts the gain for each of the RGB color components with respect to the analog value signal of the image data transferred from the electronic imaging unit, and then samples and holds the sample by a sample hold circuit (not shown). The digital data is converted into digital data by a D converter (not shown), and color processing including pixel interpolation processing and γ correction processing is performed by a color process circuit (not shown), and then a luminance signal Y and a color difference signal Cb, Cr (image data in YUV color space) is generated.
The luminance signal Y and the color difference signals Cb and Cr output from the color process circuit are DMA-transferred to a memory 4 used as a buffer memory via a DMA controller (not shown).

メモリ4は、例えば、DRAM等により構成され、画像処理部5や中央制御部10等によって処理されるデータ等を一時記憶する。   The memory 4 is constituted by, for example, a DRAM or the like, and temporarily stores data processed by the image processing unit 5, the central control unit 10, and the like.

画像処理部5は、撮像部1により撮像された画像を処理対象画像として取得する画像取得部(取得手段)5aを具備している。
具体的には、画像取得部5aは、例えば、ライブビュー画像や記録用画像の撮像の際に画像データ生成部3により生成された画像のYUVデータを取得する。
The image processing unit 5 includes an image acquisition unit (acquisition unit) 5a that acquires an image captured by the imaging unit 1 as a processing target image.
Specifically, the image acquisition unit 5a acquires YUV data of an image generated by the image data generation unit 3 at the time of capturing a live view image or a recording image, for example.

また、画像処理部5は、画像取得部5aにより取得された処理対象画像に対して当該処理対象画像の色を平滑化する平滑化処理を施す平滑化部(平滑化手段)5bを具備している。
平滑化処理は、処理対象画像内の細かな色の分布を平滑化して大まかな色の変化を捉えるために行う処理である。即ち、平滑化部5bは、例えば、ガウシアンフィルタ、平均化フィルタやεフィルタ等の所定のフィルタを用いて処理対象画像の色を平滑化する。
Further, the image processing unit 5 includes a smoothing unit (smoothing means) 5b for performing a smoothing process for smoothing the color of the processing target image on the processing target image acquired by the image acquisition unit 5a. Yes.
The smoothing process is a process performed to smooth a fine color distribution in a processing target image and catch a rough color change. That is, the smoothing unit 5b smoothes the color of the processing target image using a predetermined filter such as a Gaussian filter, an averaging filter, or an ε filter, for example.

また、画像処理部5は、平滑化手段により平滑化処理が施された処理対象画像の複数の画素を、所定の色空間における変数の範囲で規定される複数のグループにグループ分けするグループ分け部5cを具備している。
具体的には、グループ分け部5cは、予め所定の色空間(例えば、HSV色空間)の各成分(例えば、HSV色空間の場合、色相(Hue)、彩度(Saturation)、明度(Value))について、所定の設定基準に従って複数のグループに分けて設定する。このとき、グループ分け部5cは、所定の色空間における各成分の変数について、一のグループを規定する範囲が隣り合うグループを規定する範囲と重なり合うように複数のグループを設定しても良い。これにより、グループどうしの境界領域に存する画素について、グループ分けの漏れをなくすことができるとともに、色の曖昧さを考慮して複数のグループにグループ分けし易くすることができる。
Further, the image processing unit 5 is a grouping unit that groups a plurality of pixels of the processing target image subjected to the smoothing process by the smoothing unit into a plurality of groups defined by variable ranges in a predetermined color space. 5c.
Specifically, the grouping unit 5c preliminarily describes each component of a predetermined color space (for example, HSV color space) (for example, in the case of the HSV color space, hue, saturation, and lightness (Value)). ) Is divided into a plurality of groups according to a predetermined setting standard. At this time, the grouping unit 5c may set a plurality of groups such that a range defining one group overlaps a range defining adjacent groups for each component variable in a predetermined color space. Accordingly, it is possible to eliminate omission of grouping for pixels existing in the boundary region between groups, and it is possible to easily group into a plurality of groups in consideration of color ambiguity.

グループ分け部5cは、所定の色空間として、例えば、HSV色空間を適用した場合、色相(H)に関しては値を0°〜360°とすると、0°〜60°をグループH0とし、30°〜90°をグループH1とし、60°〜120°をグループH2とし、90°〜150°をグループH3とし、120°〜180°をグループH4とし、150°〜210°をグループH5とし、180°〜 240°をグループH6とし、210°〜270°をグループH7とし、240°〜300°をグループH8とし、270°〜330°をグループH9とし、300°〜360(0)°をグループH10とし、330°〜30°をグループH11とすることでグループを12個設定する。
また、グループ分け部5cは、彩度(S)に関しては値を0〜255とすると、0〜127をグループS0とし、64〜159をグループS1とし、128〜223をグループS2とし、160〜255をグループS3とすることでグループを4個設定する。
また、グループ分け部5cは、明度(V)に関しては値を0〜255とすると、0〜127をグループV0とし、64〜159をグループV1とし、128〜223をグループV2とし、160〜255をグループV3とすることでグループを4個設定する。
そして、色相(H)、彩度(S)、明度(V)を統合すると、合計192個のグループが設定される。
なお、上記したHSV色空間の各成分のグループ設定は、一例であり、これらに限られるものではない。また、所定の色空間として、人間の色覚に近く直感的に捉え易いということでHSV色空間を例示したが、これに限られるものではなく、用途に応じてRGB色空間やCIEL*a*b*色空間等の他の色空間を適用しても良い。
For example, when the HSV color space is applied as the predetermined color space, the grouping unit 5c sets the value of 0 ° to 360 ° for the hue (H) as 0 ° to 60 ° as the group H0, and 30 ° ~ 90 ° is Group H1, 60 °-120 ° is Group H2, 90 °-150 ° is Group H3, 120 °-180 ° is Group H4, 150 °-210 ° is Group H5, 180 ° ~ 240 ° as group H6, 210 °-270 ° as group H7, 240 °-300 ° as group H8, 270 °-330 ° as group H9, 300 °-360 (0) ° as group H10 Twelve groups are set by setting 330 ° to 30 ° as group H11.
Also, the grouping unit 5c assumes that the value of saturation (S) is 0 to 255, 0 to 127 is group S0, 64 to 159 is group S1, 128 to 223 is group S2, and 160 to 255. By setting the group to S3, four groups are set.
Further, the grouping unit 5c assumes that the value (b) is 0 to 255, 0 to 127 is the group V0, 64 to 159 is the group V1, 128 to 223 is the group V2, and 160 to 255 is the group V0. Four groups are set by setting to group V3.
When the hue (H), saturation (S), and brightness (V) are integrated, a total of 192 groups are set.
The group setting of each component of the HSV color space described above is an example, and is not limited to these. Further, the HSV color space is exemplified as the predetermined color space because it is close to human color perception and easy to grasp intuitively. However, the color space is not limited to this, and the RGB color space or CIEL * a * b is used depending on the application. * Other color spaces such as a color space may be applied.

そして、グループ分け部5cは、平滑化部5bにより平滑化処理が施されたYUV色空間の画像データを所定の変換式に従ってHSV色空間の画像データに変換した後、当該HSV色空間の画像データの複数の画素を、各画素のHSV色空間における変数の値に基づいて複数のグループにグループ分けする。即ち、グループ分け部5cは、HSV色空間の画像データの複数の画素の各々について、色相(Hue)、彩度(Saturation)、明度(Value)の各成分の値(変数の値)から192個のグループの中で何れのグループに属するかを特定してラベリングする。
例えば、HSV色空間の画像データの中で色相(H):45°,彩度(S):90,明度(V):200という値を持つ画素は、色相についてはグループH0,H1に属し、彩度についてはグループS0,S1に属し、明度についてはグループV2,V3に属する。従って、色相、彩度、明度を統合すると、当該画素は、(H0,S0,V2),(H1,S0,V2),(H0,S1,V2),(H1,S1,V2),(H0,S0,V3),(H1,S0,V3),(H0,S1,V3),(H1,S1,V3)で規定される8つのグループに属することになる。
Then, the grouping unit 5c converts the image data in the YUV color space that has been smoothed by the smoothing unit 5b into image data in the HSV color space according to a predetermined conversion formula, and then the image data in the HSV color space. Are grouped into a plurality of groups based on the values of the variables in the HSV color space of each pixel. In other words, the grouping unit 5c calculates 192 values for each of the plurality of pixels of the image data in the HSV color space from the values (variable values) of the components of hue, saturation, and lightness (Value). It identifies and identifies which group it belongs to.
For example, in the image data of the HSV color space, pixels having values of hue (H): 45 °, saturation (S): 90, lightness (V): 200 belong to groups H0 and H1 for hue. The saturation belongs to the groups S0 and S1, and the brightness belongs to the groups V2 and V3. Therefore, when the hue, saturation, and lightness are integrated, the pixel becomes (H0, S0, V2), (H1, S0, V2), (H0, S1, V2), (H1, S1, V2), (H0 , S0, V3), (H1, S0, V3), (H0, S1, V3), and (H1, S1, V3).

ここで、グループ分け部5cは、画像取得部5aにより取得された画像の複数の画素を、各画素の所定の色空間における変数の値に基づいて複数のグループにグループ分けするグループ分け手段を構成している。   Here, the grouping unit 5c constitutes grouping means for grouping a plurality of pixels of the image acquired by the image acquisition unit 5a into a plurality of groups based on the values of variables in the predetermined color space of each pixel. doing.

また、画像処理部5は、グループ分け部5cによりグループ分けされた複数のグループの各々について、各グループに属する複数の画素の処理対象画像における分散値を算出する分散値算出部(分散値算出手段)5dを具備している。
分散値算出部5dは、例えば、各グループに属する複数の画素の当該処理対象画像における分散値をグループ毎に算出する。なお、分散値算出部5dによる分散値の算出は、公知の演算式に従って行われ、その詳細な説明は省略する。
また、各グループ毎に画素数をカウントして、画素数が所定の閾値以下、或いは、所定の閾値以上のグループについては、分散値の算出の処理対象外としても良い。
In addition, the image processing unit 5 calculates, for each of the plurality of groups grouped by the grouping unit 5c, a variance value calculation unit (dispersion value calculation unit) that calculates a variance value in a processing target image of a plurality of pixels belonging to each group. ) 5d.
For example, the variance value calculation unit 5d calculates, for each group, variance values in the processing target image of a plurality of pixels belonging to each group. The calculation of the variance value by the variance value calculation unit 5d is performed according to a known arithmetic expression, and a detailed description thereof is omitted.
In addition, the number of pixels may be counted for each group, and a group having the number of pixels equal to or less than a predetermined threshold or greater than or equal to a predetermined threshold may be excluded from the processing for calculating the variance value.

また、画像処理部5は、グループ分け部5cによってグループ分けされた複数のグループの各々について、各グループに属する複数の画素の処理対象画像における重心位置を算出する重心算出部(重心算出手段)5eを具備している。なお、重心算出部5eによる重心位置の算出は、公知の演算式に従って行われ、その詳細な説明は省略する。
また、各グループ毎に画素数をカウントして、画素数が所定の閾値以下、或いは、所定の閾値以上のグループについては、重心位置の算出の処理対象外としても良い。
Further, the image processing unit 5 calculates, for each of a plurality of groups grouped by the grouping unit 5c, a centroid calculation unit (centroid calculation means) 5e that calculates a centroid position in a processing target image of a plurality of pixels belonging to each group. It has. The calculation of the center of gravity position by the center of gravity calculation unit 5e is performed according to a known arithmetic expression, and detailed description thereof is omitted.
In addition, the number of pixels may be counted for each group, and a group having the number of pixels equal to or less than a predetermined threshold or greater than or equal to a predetermined threshold may be excluded from the process of calculating the center of gravity.

また、画像処理部5は、重心算出部5eにより算出された各グループの重心位置と処理対象画像の中心との距離を算出する距離算出部(距離算出手段)5fを具備している。
即ち、一般的なカメラのユーザは注目している領域を画像中心に据える傾向があることから、後述する評価値の算出に際して各グループの重心位置と処理対象画像の中心との距離を考慮する上で、距離算出部5fは、処理対象画像の中心から各グループの重心位置までの距離Dを算出する。
The image processing unit 5 includes a distance calculation unit (distance calculation unit) 5f that calculates the distance between the center of gravity of each group calculated by the center of gravity calculation unit 5e and the center of the processing target image.
In other words, since a general camera user tends to place the region of interest at the center of the image, the distance between the center of gravity of each group and the center of the processing target image is considered when calculating the evaluation value described later. Thus, the distance calculation unit 5f calculates the distance D from the center of the processing target image to the centroid position of each group.

また、画像処理部5は、複数のグループの各々の評価値を算出する評価値算出部5gを具備している。
評価値算出部5gは、各グループに係る、分散値算出部5dにより算出された分散値及び距離算出部5fにより算出された距離Dに基づいて、各グループの評価値を算出する。具体的には、評価値算出部5gは、例えば、距離Dの増大に従って評価値が増大するような重み付けテーブルを記憶しておき、距離Dに応じた重みづけ値を分散値に乗算した値を評価値としたり、下記式で規定されるような所定の演算式に従って算出された値を評価値としても良い。
評価値=分散値×(a*D^2 +b)
(a,b;所定の定数)
In addition, the image processing unit 5 includes an evaluation value calculation unit 5g that calculates the evaluation values of each of the plurality of groups.
The evaluation value calculation unit 5g calculates the evaluation value of each group based on the variance value calculated by the variance value calculation unit 5d and the distance D calculated by the distance calculation unit 5f for each group. Specifically, the evaluation value calculation unit 5g stores, for example, a weighting table in which the evaluation value increases as the distance D increases, and a value obtained by multiplying the variance value by the weighting value according to the distance D is stored. An evaluation value or a value calculated according to a predetermined arithmetic expression defined by the following formula may be used as the evaluation value.
Evaluation value = dispersion value × (a * D ^ 2 + b)
(A, b; predetermined constants)

ここで、評価値算出部5gは、分散値算出部5dにより算出された分散値に基づいて、各グループの評価値を算出する評価値算出手段を構成している。   Here, the evaluation value calculator 5g constitutes an evaluation value calculator that calculates the evaluation value of each group based on the variance value calculated by the variance value calculator 5d.

また、画像処理部5は、評価値算出部5gによる算出結果に基づいて、処理対象画像から注目領域A1を検出する注目領域検出部5hを具備している。
注目領域検出部5hは、評価値算出部5gによる全ての処理対象グループの評価値の算出結果に基づいて、複数のグループの中で評価値が最小となる何れか一のグループを特定し、当該グループに属する画素によって構成される領域を注目領域A1(図4(a)参照)として検出する。つまり、評価値算出部5gにより算出される評価値は、分散値が大きくなる程(即ち、処理対象画像内で所定の色空間で表現されるグループに属する特定の画素がかたまって存在していない程)、且つ、距離Dが大きくなる程(即ち、所定の色空間で表現されるグループに属する特定の画素が処理対象画像の中心から離れている程)、大きな値となる。そこで、注目領域検出部5hは、分散値及び距離Dを考慮した評価値が最小となるグループに属する画素が、処理対象画像内でかたまって配置された色であり、且つ、処理対象画像の中心からの距離が近い位置に存していると判断して、評価値が最小のグループに属する画素によって構成される領域を注目領域A1として検出する。
ここで、注目領域検出部5hは、評価値算出部5gによる算出結果に基づいて、複数のグループのうちの何れか一のグループに属する画素によって構成される領域を注目領域A1として検出する検出手段を構成している。
Further, the image processing unit 5 includes an attention region detection unit 5h that detects the attention region A1 from the processing target image based on the calculation result by the evaluation value calculation unit 5g.
The attention area detection unit 5h identifies any one group having the smallest evaluation value among a plurality of groups based on the calculation result of the evaluation values of all the processing target groups by the evaluation value calculation unit 5g, An area formed by pixels belonging to the group is detected as an attention area A1 (see FIG. 4A). In other words, the evaluation value calculated by the evaluation value calculation unit 5g does not exist as a group of specific pixels belonging to a group expressed in a predetermined color space in the processing target image as the variance value increases (that is, As the distance D increases (that is, the specific pixel belonging to the group expressed in the predetermined color space is further away from the center of the processing target image), the value increases. Therefore, the attention area detection unit 5h is a color in which pixels belonging to the group having the smallest evaluation value in consideration of the variance value and the distance D are arranged in the processing target image, and the center of the processing target image Is determined to be located at a short distance, and an area composed of pixels belonging to the group having the smallest evaluation value is detected as the attention area A1.
Here, the attention area detection unit 5h detects, as the attention area A1, an area composed of pixels belonging to any one of the plurality of groups based on the calculation result by the evaluation value calculation unit 5g. Is configured.

また、画像処理部5は、注目領域検出部5hにより検出済みの注目領域A1と、新たに検出された注目領域A1とを比較して、新たに検出された注目領域A1が前記検出済みの注目領域A1とは異なる領域に変化したか否かを判定する比較判定部(判定手段)5iを具備している。
具体的には、後述する注目領域安定化処理(図5参照)にて、比較判定部5iは、メモリ4に記憶されている過去に検出済みの複数の注目領域A1と、当該検出済みの注目領域A1の検出後に新たに検出された注目領域A1とを比較する。そして、比較判定部5iは、当該比較結果に応じて、新たに検出された注目領域A1が過去に検出済みの注目領域A1とは異なる領域に変化したか否かを判定する。
なお、新たに検出された注目領域A1と検出済みの注目領域A1との比較判定は、例えば、各注目領域A1を構成する画素の属するグループを規定するグループ名、当該グループの画素数、当該グループの重心位置等を用いて行う。
The image processing unit 5 compares the attention area A1 detected by the attention area detection section 5h with the newly detected attention area A1, and the newly detected attention area A1 is the detected attention. A comparison / determination unit (determination unit) 5i that determines whether or not the area has changed from the area A1 is provided.
Specifically, in the attention area stabilization process (see FIG. 5) described later, the comparison determination unit 5i includes a plurality of attention areas A1 detected in the past stored in the memory 4 and the detected attention. The attention area A1 newly detected after the detection of the area A1 is compared. Then, the comparison determination unit 5i determines whether or not the newly detected attention area A1 has changed to a different area from the attention area A1 detected in the past, according to the comparison result.
The comparison determination between the newly detected attention area A1 and the detected attention area A1 includes, for example, a group name that defines a group to which the pixels constituting each attention area A1 belong, the number of pixels in the group, the group This is performed using the center of gravity position.

また、画像処理部5は、比較判定部5iによる判定結果に応じて、注目領域検出部5hにより検出された注目領域A1(主要注目領域A2)の出力内容が安定するように出力内容を制御する注目領域安定化処理を行う出力制御部(出力制御手段)5jを具備している。
即ち、例えば、表示部7にライブビュー画像や記録の際の画像を更新表示する場合等に、注目領域A1の出力処理を定期的に行って、注目領域A1の出力結果や当該注目領域A1を近似的に表現する図形(例えば、注目領域A1を囲む最小の矩形枠等)等を継続して表示するようにしても良い。この場合、注目領域A1の出力結果や近似的な図形の表示が過度に変化してユーザが見難い状態となる虞がある。そこで、出力制御部5jは、比較判定部5iによる新たに検出された注目領域A1と検出済みの注目領域A1との判定結果、例えば、各注目領域A1を構成する画素の属するグループを規定するグループ名、当該グループの画素数、当該グループの重心位置等の変化内容に応じて、注目領域検出部5hから出力される注目領域A1の出力内容の変化が過度に行われないように安定化させる注目領域安定化処理を行う。具体的には、例えば、注目領域安定化処理にて、最新の主要注目領域と「現在グループ名」に対応する現在の主要注目領域とについて、各注目領域を構成する画素の属するグループの重心位置又はグループの画素数が所定割合以上変化していないと判定されると、出力制御部5jは、現在の主要注目領域と最新の主要注目領域とを平均化する処理を行う。
Further, the image processing unit 5 controls the output content so that the output content of the attention region A1 (main attention region A2) detected by the attention region detection unit 5h is stabilized according to the determination result by the comparison determination unit 5i. An output control unit (output control means) 5j that performs attention area stabilization processing is provided.
That is, for example, when a live view image or an image at the time of recording is updated and displayed on the display unit 7, the output process of the attention area A1 is periodically performed, and the output result of the attention area A1 or the attention area A1 is displayed. You may make it display continuously the figure (for example, the minimum rectangular frame etc. which surround attention area A1) etc. expressed approximately. In this case, there is a possibility that the output result of the attention area A1 or the display of the approximate graphic will change excessively and the user will be hard to see. Therefore, the output control unit 5j determines the result of determination between the attention area A1 newly detected by the comparison determination section 5i and the detected attention area A1, for example, a group that defines the group to which the pixels constituting each attention area A1 belong. The attention is stabilized so that the output contents of the attention area A1 output from the attention area detection unit 5h are not excessively changed according to the change contents such as the name, the number of pixels of the group, and the center of gravity position of the group. Perform region stabilization processing. Specifically, for example, in the attention area stabilization process, for the latest main attention area and the current main attention area corresponding to “current group name”, the centroid position of the group to which the pixels constituting each attention area belong Alternatively, when it is determined that the number of pixels in the group has not changed by a predetermined ratio or more, the output control unit 5j performs a process of averaging the current main attention area and the latest main attention area.

表示制御部6は、メモリ4に一時的に記憶されている表示用の画像データを読み出して表示部7に表示させる制御を行う。
具体的には、表示制御部6は、VRAM、VRAMコントローラ、デジタルビデオエンコーダなどを備えている(何れも図示略)。そして、デジタルビデオエンコーダは、中央制御部10の制御下にてメモリ4から読み出されてVRAMに記憶されている輝度信号Y及び色差信号Cb,Crを、VRAMコントローラを介してVRAMから定期的に読み出して、これらのデータを元にビデオ信号を発生して表示部7に出力する。
The display control unit 6 performs control for reading display image data temporarily stored in the memory 4 and displaying the read image data on the display unit 7.
Specifically, the display control unit 6 includes a VRAM, a VRAM controller, a digital video encoder, and the like (all not shown). The digital video encoder periodically reads the luminance signal Y and the color difference signals Cb and Cr read from the memory 4 and stored in the VRAM under the control of the central control unit 10 from the VRAM via the VRAM controller. It reads out, generates a video signal based on these data, and outputs it to the display unit 7.

表示部7は、例えば、液晶表示装置であり、表示制御部6からのビデオ信号に基づいて電子撮像部により撮像された画像などを表示画面に表示する。具体的には、表示部7は、静止画撮像モードや動画撮像モードにて、撮像部1による被写体の撮像により生成された複数の画像フレームを所定のフレームレートで逐次更新しながらライブビュー画像を表示する。また、表示部7は、静止画として記録される画像(レックビュー画像)を表示したり、動画として記録中の画像を表示する。   The display unit 7 is, for example, a liquid crystal display device, and displays an image captured by the electronic imaging unit based on a video signal from the display control unit 6 on a display screen. Specifically, the display unit 7 updates the live view image while sequentially updating a plurality of image frames generated by imaging of the subject by the imaging unit 1 at a predetermined frame rate in the still image capturing mode and the moving image capturing mode. indicate. The display unit 7 displays an image (rec view image) recorded as a still image or an image being recorded as a moving image.

記録媒体8は、例えば、不揮発性メモリ(フラッシュメモリ)等により構成され、画像処理部5の符号化部(図示略)により所定の圧縮形式で符号化された記録用の静止画像データや複数の画像フレームからなる動画像データを記憶する。   The recording medium 8 is composed of, for example, a non-volatile memory (flash memory) or the like, and recording still image data encoded in a predetermined compression format by an encoding unit (not shown) of the image processing unit 5 or a plurality of recording image data The moving image data composed of image frames is stored.

操作入力部9は、当該撮像装置100の所定操作を行うためのものである。具体的には、操作入力部9は、被写体の撮影指示に係るシャッタボタン、撮像モードや機能等の選択指示に係る選択決定ボタン、ズーム量の調整指示に係るズームボタン等を備え(何れも図示略)、これらのボタンの操作に応じて所定の操作信号を中央制御部10に出力する。   The operation input unit 9 is for performing a predetermined operation of the imaging apparatus 100. Specifically, the operation input unit 9 includes a shutter button according to a subject photographing instruction, a selection determination button according to a selection instruction for an imaging mode, a function, and the like, a zoom button according to a zoom amount adjustment instruction, and the like (all illustrated). Abbreviation), a predetermined operation signal is output to the central control unit 10 in accordance with the operation of these buttons.

中央制御部10は、撮像装置100の各部を制御するものである。具体的には、中央制御部10は、CPU(図示略)を備え、撮像装置100用の各種処理プログラム(図示略)に従って各種の制御動作を行う。   The central control unit 10 controls each unit of the imaging device 100. Specifically, the central control unit 10 includes a CPU (not shown) and performs various control operations in accordance with various processing programs (not shown) for the imaging apparatus 100.

次に、撮像装置100により被写体を撮影する場合の注目領域出力処理について、図2〜図5を参照して説明する。
図2は、注目領域出力処理に係る動作の一例を示すフローチャートである。
Next, attention area output processing when the imaging device 100 captures a subject will be described with reference to FIGS.
FIG. 2 is a flowchart illustrating an example of an operation related to the attention area output process.

図2に示すように、画像処理部5の画像取得部5aは、例えば、撮像部1によりライブビュー画像や記録用画像を撮像することで画像データ生成部3により生成された処理対象画像のYUV色空間の画像データを取得する(ステップS1)。続けて、画像処理部5の平滑化部5bは、所定のフィルタ(例えば、ガウシアンフィルタ等)を用いて処理対象画像の色を平滑化する平滑化処理を施す(ステップS2)。   As shown in FIG. 2, the image acquisition unit 5 a of the image processing unit 5 captures a YUV of a processing target image generated by the image data generation unit 3 by, for example, capturing a live view image or a recording image by the imaging unit 1. Color space image data is acquired (step S1). Subsequently, the smoothing unit 5b of the image processing unit 5 performs a smoothing process for smoothing the color of the processing target image using a predetermined filter (for example, a Gaussian filter or the like) (step S2).

次に、画像処理部5は、処理対象画像から注目領域A1を検出する注目領域検出処理を行う(ステップS3)。
ここで、注目領域検出処理について図3を参照して詳細に説明する。
Next, the image processing unit 5 performs attention area detection processing for detecting the attention area A1 from the processing target image (step S3).
Here, the attention area detection processing will be described in detail with reference to FIG.

図3は、注目領域検出処理に係る動作の一例を示すフローチャートである。
図3に示すように、グループ分け部5cは、平滑化部5bにより平滑化処理が施されたYUV色空間の画像データを所定の変換式に従ってHSV色空間の画像データに変換する(ステップS31)。その後、グループ分け部5cは、変換後のHSV色空間の画像データの複数の画素の各々について、色相(Hue)、彩度(Saturation)、明度(Value)の各成分の変数の値(座標)から予め設定されている複数(例えば、192個)のグループの中で何れのグループに属するかを特定してラベリングする(ステップS32)。
FIG. 3 is a flowchart illustrating an example of an operation related to the attention area detection process.
As shown in FIG. 3, the grouping unit 5c converts the image data in the YUV color space that has been smoothed by the smoothing unit 5b into image data in the HSV color space according to a predetermined conversion formula (step S31). . Thereafter, the grouping unit 5c, for each of the plurality of pixels of the image data in the HSV color space after the conversion, values (coordinates) of the variables of the respective components of hue (Hue), saturation (Saturation), and lightness (Value). From among a plurality of preset groups (for example, 192), it is identified and labeled which group belongs (step S32).

次に、画像処理部5は、ラベリングされた複数のグループの中で、画素数が所定の閾値以下、或いは、所定の閾値以上のグループを処理対象外とした後、処理対象となる複数のグループの中から何れか一の処理対象グループを指定する(ステップS33)。   Next, the image processing unit 5 excludes a group whose number of pixels is equal to or less than a predetermined threshold value or more than a predetermined threshold value from among a plurality of labeled groups, and then sets the plurality of groups to be processed. One of the processing target groups is designated from among the above (step S33).

そして、画像処理部5の重心算出部5eは、所定の演算式に従って処理対象グループに属する複数の画素の重心位置を算出する(ステップS34)。続けて、画像処理部5の分散値算出部5dは、例えば、処理対象グループに属する複数の画素の色相、彩度、明度の各成分に基づいて、所定の演算式に従って当該処理対象画像における分散値を算出する(ステップS35)。次に、画像処理部5の距離算出部5fは、処理対象画像の中心から処理対象グループの重心位置までの距離Dを算出する(ステップS36)。   Then, the center-of-gravity calculation unit 5e of the image processing unit 5 calculates the center-of-gravity positions of a plurality of pixels belonging to the processing target group according to a predetermined arithmetic expression (step S34). Subsequently, the variance value calculation unit 5d of the image processing unit 5 performs, for example, the variance in the processing target image according to a predetermined arithmetic expression based on the hue, saturation, and brightness components of a plurality of pixels belonging to the processing target group. A value is calculated (step S35). Next, the distance calculation unit 5f of the image processing unit 5 calculates the distance D from the center of the processing target image to the center of gravity position of the processing target group (step S36).

その後、画像処理部5の評価値算出部5gは、処理対象グループに係る、分散値算出部5dにより算出された分散値及び距離算出部5fにより算出された距離Dに基づいて、各グループの評価値を算出する(ステップS37)。   Thereafter, the evaluation value calculation unit 5g of the image processing unit 5 evaluates each group based on the variance value calculated by the variance value calculation unit 5d and the distance D calculated by the distance calculation unit 5f related to the processing target group. A value is calculated (step S37).

次に、画像処理部5は、処理対象となる全てのグループの評価値を算出したか否かを判定する処理を行う(ステップS38)。ここで、全てのグループの評価値を算出していないと判定されると(ステップS38;NO)、次の処理対象グループを指定した後(ステップS39)、処理をステップS34に移行して、それ以降の処理を実行する。
ステップS34以降の処理は、ステップS38にて、全てのグループの評価値を算出したと判定されるまで(ステップS38;YES)、繰り返し行われる。
Next, the image processing unit 5 performs a process of determining whether or not the evaluation values of all the groups to be processed have been calculated (step S38). Here, if it is determined that the evaluation values of all the groups have not been calculated (step S38; NO), after specifying the next processing target group (step S39), the process proceeds to step S34, The subsequent processing is executed.
The processing after step S34 is repeatedly performed until it is determined in step S38 that the evaluation values of all the groups have been calculated (step S38; YES).

そして、ステップS38にて、全てのグループの評価値を算出したと判定されると(ステップS38;YES)、画像処理部5の注目領域検出部5hは、評価値算出部5gによる全ての処理対象グループの評価値の算出結果に基づいて、複数のグループの中で評価値が最小となる何れか一のグループを特定し(ステップS40)、当該グループに属する画素によって構成される領域を注目領域A1(図4(a)参照)として検出して(ステップS41)、注目領域検出処理を終了する。   If it is determined in step S38 that the evaluation values of all the groups have been calculated (step S38; YES), the attention area detection unit 5h of the image processing unit 5 performs all processing by the evaluation value calculation unit 5g. Based on the calculation result of the group evaluation value, one of the plurality of groups having the smallest evaluation value is specified (step S40), and an area constituted by pixels belonging to the group is set as the attention area A1. (See FIG. 4A) (step S41), and the attention area detection process is terminated.

次に、画像処理部5は、図2の処理に戻り、例えば、オープニング処理や、各閉領域ごとにラベリングして画素数が所定の閾値に満たない領域を消去する処理や、平滑化処理を繰り返し実行するグラフカット処理などを行って、注目領域A1の中で小さな領域を消去して主要注目領域A2(図4(b)参照)だけを抽出する整形処理を行う(ステップS4)。
続けて、画像処理部5は、整形処理により抽出された主要注目領域A2の出力内容を安定化させる注目領域安定化処理の実行が指示されているか否かを判定する処理を行う(ステップS5)。
注目領域安定化処理の実行指示は、予めユーザによる操作入力部9の所定操作に基づいて行われても良いし、撮影モードに応じてデフォルトで設定されていても良い。
そして、注目領域安定化処理の実行が指示されていないと判定されると(ステップS5;NO)、画像処理部5は、整形処理により抽出された主要注目領域A2を最終的な注目領域A1としてメモリ4に出力する(ステップS6)。
Next, the image processing unit 5 returns to the process of FIG. 2, for example, an opening process, a process of labeling each closed area and erasing an area where the number of pixels does not satisfy a predetermined threshold, or a smoothing process. A graph cut process or the like that is repeatedly executed is performed to delete a small area in the attention area A1 and perform a shaping process that extracts only the main attention area A2 (see FIG. 4B) (step S4).
Subsequently, the image processing unit 5 performs a process of determining whether or not an instruction to execute the attention area stabilization process that stabilizes the output content of the main attention area A2 extracted by the shaping process is given (step S5). .
The execution instruction of the attention area stabilization process may be performed in advance based on a predetermined operation of the operation input unit 9 by the user, or may be set as a default according to the shooting mode.
When it is determined that the execution of the attention area stabilization process is not instructed (step S5; NO), the image processing unit 5 sets the main attention area A2 extracted by the shaping process as the final attention area A1. The data is output to the memory 4 (step S6).

一方、注目領域安定化処理の実行が指示されていると判定されると(ステップS5;YES)、画像処理部5は、注目領域安定化処理を行う(ステップS7)。
ここで、注目領域安定化処理について図5を参照して詳細に説明する。
On the other hand, if it is determined that the execution of the attention area stabilization process is instructed (step S5; YES), the image processing unit 5 performs the attention area stabilization process (step S7).
Here, the attention area stabilization processing will be described in detail with reference to FIG.

図5は、注目領域安定化処理に係る動作の一例を示すフローチャートである。
図5に示すように、画像処理部5は、注目領域検出部5hにより検出済みの主要注目領域A2と、新たに検出された主要注目領域A2との比較をループにより処理する(ステップS71〜S75)。
具体的には、画像処理部5は、整形処理により抽出された主要注目領域A2を過去複数枚(N枚)分保持し、それぞれに対してグループ名、画素数、重心位置を取得しておき、新しいものから順に過去に遡るようにループ処理を行う。先ず、画像処理部5の比較判定部5iは、最新の主要注目領域に係るグループ名(グループ名番号i=0)と過去k番目(kは、1〜Nの任意の実数)の主要注目領域A2のグループ名(グループ名番号i=k)とを照合して、一致するか否かをループ回数ごとに記憶する(ステップS72)。次に、比較判定部5iは、最新の主要注目領域に係るグループ名が過去の主要注目領域A2のグループ名と直近のものから所定回数(例えば、3回)連続して同じである否かを判定する(ステップS73)。
FIG. 5 is a flowchart illustrating an example of an operation related to the attention area stabilization process.
As shown in FIG. 5, the image processing unit 5 processes a comparison between the main attention area A2 detected by the attention area detection section 5h and the newly detected main attention area A2 in a loop (steps S71 to S75). ).
Specifically, the image processing unit 5 holds a plurality of (N) main attention areas A2 extracted by the shaping process, and acquires a group name, the number of pixels, and the barycentric position for each of them. Loop processing is performed so as to go back to the past in order from the newest one. First, the comparison / determination unit 5i of the image processing unit 5 calculates the group name (group name number i = 0) and the past k-th (k is an arbitrary real number from 1 to N) related to the latest main attention area. The group name (group name number i = k) of A2 is collated, and whether or not they match is stored for each loop count (step S72). Next, the comparison determination unit 5i determines whether or not the group name related to the latest main attention area is the same as the group name of the past main attention area A2 for a predetermined number of times (for example, three times) consecutively. Determination is made (step S73).

ステップS73にて、最新の主要注目領域に係るグループ名が過去の主要注目領域A2のグループ名と直近のものから所定回数連続して同じではないと判定されると(ステップS73;NO)、比較判定部5iは、主要注目領域A2のグループ名が直近のものから過去にA回中B回同じであるか否かを判定する(ステップS74)。例えば、比較判定部5iは、過去5回中4回同じグループ名か否かや、過去7回中5回同じグループ名か否かを判定する。なお、AやBの値は、要求される安定度に応じて適宜任意に変更可能となっている。また、AやBの値を代えて、一のループ内で複数回判定しても良い。
上記の処理をグループ名番号iがNである過去N番目のグループまで繰り返し行う(ステップS75)。
When it is determined in step S73 that the group name related to the latest main attention area is not the same as the group name of the past main attention area A2 for a predetermined number of consecutive times from the latest one (step S73; NO), the comparison is performed. The determination unit 5i determines whether or not the group name of the main attention area A2 is the same B times in A times in the past from the latest one (step S74). For example, the comparison / determination unit 5i determines whether or not the group name is the same four times in the past five times and whether or not the group name is the same five times in the past seven times. Note that the values of A and B can be arbitrarily changed according to the required stability. Further, the values of A and B may be changed and the determination may be made a plurality of times in one loop.
The above processing is repeated until the past Nth group whose group name number i is N (step S75).

そして、ステップS74にて、主要注目領域A2のグループ名が直近のものから過去にA回中B回同じでないと判定された場合には(ステップS74;NO)、画像処理部5は、主要注目領域A2の最新の出力結果は過渡的な状態とみなす。そして、画像処理部5は、当該最新の主要注目領域を過去のデータとして更新保持した後(ステップS76)、比較判定部5iは、最新の主要注目領域に係るグループ名が直近C回分に含まれているか否かの判定を行う(ステップS77)。なお、Cの値は、要求される安定度に応じて適宜任意に変更可能となっている。
ここで、最新の主要注目領域に係るグループ名が直近C回分に含まれていないと判定されると(ステップS77;NO)、画像処理部5は、最新の主要注目領域がこれまでの主要注目領域A2とは全く異なる領域に変化したとみなす。そして、画像処理部5は、最新の主要注目領域に係るグループ名を現在の主要注目領域を規定する「現在グループ名」として更新保持した後(ステップS78)、最新の主要注目領域の出力結果を最終的な注目領域としてメモリ4に出力して(ステップS79)、注目領域安定化処理を終了する。
When it is determined in step S74 that the group name of the main attention area A2 is not the same B times in the past A times from the latest one (step S74; NO), the image processing unit 5 The latest output result in the region A2 is regarded as a transient state. Then, after the image processing unit 5 updates and holds the latest main attention area as past data (step S76), the comparison determination section 5i includes the group names related to the latest main attention area in the latest C times. It is determined whether or not (step S77). Note that the value of C can be arbitrarily changed according to the required stability.
Here, if it is determined that the group name related to the latest main attention area is not included in the latest C times (step S77; NO), the image processing unit 5 determines that the latest main attention area is the main attention so far. It is considered that the area has changed to a completely different area from the area A2. Then, the image processing unit 5 updates and holds the group name related to the latest main attention area as the “current group name” that defines the current main attention area (step S78), and then outputs the output result of the latest main attention area. The final attention area is output to the memory 4 (step S79), and the attention area stabilization processing is terminated.

一方、ステップS77にて、最新の主要注目領域に係るグループ名が直近C回分に含まれていると判定されると(ステップS77;YES)、画像処理部5は、主要注目領域A2の出力結果が過度に変化しておらず現在は安定しているとみなす。そして、画像処理部5は、「現在グループ名」として保持されている現在の主要注目領域を最終的な注目領域としてメモリ4に出力して(ステップS80)、注目領域安定化処理を終了する。   On the other hand, when it is determined in step S77 that the group name related to the latest main attention area is included in the latest C times (step S77; YES), the image processing unit 5 outputs the result of the main attention area A2. Has not changed excessively and is now considered stable. Then, the image processing unit 5 outputs the current main attention area held as “current group name” as the final attention area to the memory 4 (step S80), and ends the attention area stabilization processing.

また、ステップS73にて、最新の主要注目領域に係るグループ名が過去の主要注目領域A2のグループ名と直近のものから所定回数連続して同じであると判定されるか(ステップS73;YES)、或いは、ステップS74にて、主要注目領域A2のグループ名が直近のものから過去にA回中B回同じであると判定された場合には(ステップS74;YES)、画像処理部5は、最新の主要注目領域を過去のデータとして更新保持する(ステップS81)。
続けて、画像処理部5の比較判定部5iは、最新の主要注目領域に係るグループ名が現在の主要注目領域を規定する「現在グループ名」と同じであるか否かを判定する(ステップS82)。
Whether or not it is determined in step S73 that the group name related to the latest main attention area is the same as the past group name of the main attention area A2 a predetermined number of times in succession (step S73; YES). Alternatively, when it is determined in step S74 that the group name of the main attention area A2 is the same as the Bth of the A times in the past from the latest one (step S74; YES), the image processing unit 5 The latest main attention area is updated and held as past data (step S81).
Subsequently, the comparison determination unit 5i of the image processing unit 5 determines whether or not the group name related to the latest main attention area is the same as the “current group name” that defines the current main attention area (step S82). ).

ステップS82にて、最新の主要注目領域に係るグループ名が「現在グループ名」と同じでないと判定されると(ステップS82;NO)、画像処理部5は、注目領域が変更されたと判断して、処理をステップS78に移行して、最新の主要注目領域に係るグループ名を「現在グループ名」として更新保持した後(ステップS78)、それ以降の処理を実行する。
一方、ステップS82にて、最新の主要注目領域に係るグループ名が「現在グループ名」と同じであると判定されると(ステップS82;YES)、画像処理部5の比較判定部5iは、最新の主要注目領域と「現在グループ名」に対応する現在の主要注目領域とについて、各注目領域を構成する画素の属するグループの重心位置又はグループの画素数が所定割合以上変化したか否かを判定する(ステップS83)。
なお、ステップS83における判定にあっては、主要注目領域A2の重心位置や画素数だけでなく、当該主要注目領域A2を囲む矩形枠の位置やそのサイズ、主要注目領域A2の分散など、形状を特定可能なものであれば如何なるものを用いても良い。
If it is determined in step S82 that the group name related to the latest main attention area is not the same as the “current group name” (step S82; NO), the image processing unit 5 determines that the attention area has been changed. Then, the process proceeds to step S78, and the group name related to the latest main attention area is updated and held as “current group name” (step S78), and the subsequent processes are executed.
On the other hand, when it is determined in step S82 that the group name related to the latest main attention area is the same as the “current group name” (step S82; YES ), the comparison determination unit 5i of the image processing unit 5 Determine whether or not the position of the center of gravity of the group to which the pixels making up each region of interest belong or the number of pixels in the group has changed by more than a predetermined ratio for the main region of interest of the current and the current main region of interest corresponding to the “current group name” (Step S83).
In the determination in step S83, not only the center of gravity position and the number of pixels of the main attention area A2, but also the position and size of the rectangular frame surrounding the main attention area A2, the distribution of the main attention area A2, etc. Any one that can be specified may be used.

ステップS83にて、グループの重心位置又はグループの画素数が所定割合以上変化したと判定されると(ステップS83;YES)、画像処理部5は、主要注目領域A2の形状や位置が大きく変化したとみなして、処理をステップS78に移行して、最新の主要注目領域に係るグループ名を「現在グループ名」として更新保持した後(ステップS78)、それ以降の処理を実行する。
一方、ステップS83にて、グループの重心位置又はグループの画素数が所定割合以上変化していないと判定されると(ステップS83;YES)、画像処理部5は、「現在グループ名」に対応する現在の主要注目領域と最新の主要注目領域とを平均化したものを最終的な注目領域としてメモリ4に出力して(ステップS84)、注目領域安定化処理を終了する。
If it is determined in step S83 that the position of the center of gravity of the group or the number of pixels in the group has changed by a predetermined ratio or more (step S83; YES), the image processing unit 5 has greatly changed the shape and position of the main attention area A2. Therefore, the process proceeds to step S78, and the group name related to the latest main attention area is updated and held as “current group name” (step S78), and the subsequent processes are executed.
On the other hand, if it is determined in step S83 that the position of the center of gravity of the group or the number of pixels in the group has not changed by a predetermined ratio or more (step S83; YES), the image processing unit 5 corresponds to “current group name”. An average of the current main attention area and the latest main attention area is output to the memory 4 as a final attention area (step S84), and the attention area stabilization processing is terminated.

以上のように、本実施形態の撮像装置100によれば、処理対象画像の複数の画素が所定の色空間(例えば、HSV色空間等)における分布に基づいてグループ分けされた複数のグループの各々について、各グループに属する少なくとも一の画素の当該画像における分散値に基づいて各グループの評価値を算出し、各グループの評価値の算出結果に基づいて注目領域A1を検出することができる。即ち、所定の色空間における画素の分布に基づいて、処理対象画像内でかたまって存在する色の画素によって構成される領域を注目領域A1として検出することができるので、従来に比べてより少ない演算量で注目領域A1を検出することができ、演算能力の低い撮像装置100であっても注目領域A1の検出処理の高速化を図ることができる。   As described above, according to the imaging apparatus 100 of the present embodiment, each of a plurality of groups in which a plurality of pixels of a processing target image are grouped based on a distribution in a predetermined color space (for example, HSV color space). , The evaluation value of each group can be calculated based on the variance value in the image of at least one pixel belonging to each group, and the attention area A1 can be detected based on the calculation result of the evaluation value of each group. That is, based on the distribution of pixels in a predetermined color space, an area composed of pixels of a color that are present in a processing target image can be detected as the attention area A1, and therefore, fewer operations than in the past. The attention area A1 can be detected by the amount, and the detection processing of the attention area A1 can be speeded up even with the imaging device 100 having a low calculation capability.

また、複数のグループの各々に係る、分散値算出部5dにより算出された分散値及び距離算出部5fにより算出された各グループの重心位置と画像の中心との距離に基づいて、各グループの評価値を算出することができるので、各グループの評価値の算出の際に、処理対象画像における複数の画素の分布を考慮することができ、処理対象画像内でかたまって存在する色で当該処理対象画像の中心により近い画素によって構成される領域を注目領域A1として検出することができる。これにより、注目領域A1の検出精度をより向上させることができる。   The evaluation of each group is performed based on the variance value calculated by the variance value calculation unit 5d and the distance between the center of gravity of each group calculated by the distance calculation unit 5f and the center of the image for each of the plurality of groups. Since the value can be calculated, the distribution of a plurality of pixels in the processing target image can be taken into account when calculating the evaluation value of each group, and the processing target is displayed in a color that exists in the processing target image. An area formed by pixels closer to the center of the image can be detected as the attention area A1. Thereby, the detection accuracy of attention area A1 can be improved more.

さらに、主要注目領域A2(注目領域A1)の検出後に新たに検出された主要注目領域A2が検出済みの主要注目領域A2とは異なる領域に変化したか否かの判定結果に応じて、主要注目領域A2の出力内容が安定するよう出力内容を制御する注目領域安定化処理を行うので、主要注目領域A2の出力内容の変化が過度に行われないようにすることができ、例えば、撮像装置100の向きがわずかに変化しても表示部7にて主要注目領域A2の検出結果や近似的な図形を安定して表示することができる。   Further, depending on the result of determining whether or not the main attention area A2 newly detected after the detection of the main attention area A2 (attention area A1) has changed to a different area from the detected main attention area A2, the main attention area Since the attention area stabilization process for controlling the output contents so as to stabilize the output contents of the area A2 is performed, the output contents of the main attention area A2 can be prevented from changing excessively. For example, the imaging apparatus 100 Even if the direction of the screen slightly changes, the display unit 7 can stably display the detection result of the main attention area A2 and approximate figures.

なお、本発明は、上記実施形態に限定されることなく、本発明の趣旨を逸脱しない範囲において、種々の改良並びに設計の変更を行っても良い。
例えば、上記実施形態においては、各グループの評価値を算出した結果、最も評価値が低かった領域を注目領域A1として検出するようにしたが。評価値が所定値以下であった領域を注目領域A1として検出するようにしてもよいし、検出した領域と所定の色空間(例えばHSV空間)上で、近傍に存在する領域も注目領域とするようにしても良いし、色空間上で近傍且つ実画像上においても近傍に存在する画素によって構成される領域も注目領域とするようにしても良い。
また、平滑化部5bによる平滑化処理(ステップS2)の後に、構図(画角)内でより端部側に位置するユーザの注目度の低い撮像対象を除外して仮の注目領域を推定する処理を行っても良い。即ち、平滑化処理後の処理対象画像の四隅の少なくとも一の画素の周辺領域について、当該少なくとも一の画素と類似する画素を追跡していくことで、構図(画角)内でより端部側に位置するユーザの注目度の低い撮像対象を特定して、処理対象画像のうち、追跡された画素によって構成されるユーザの注目度の低い領域以外の領域を仮の注目領域と推定しても良い。そして、その後に上記の処理により注目領域A1を真の注目領域として検出することで、処理対象画像からの注目領域A1の検出精度をより向上させることができる。また、各グループのうち、処理対象画像の端部側に位置する画素を含むグループは評価値の算出を行わないようにしてもよいし、処理対象画像の端部側に位置する画素を多く含むほど、評価値が高くなるように重みづけを行っても良い。つまり、画像中央に近いグループほど、注目領域として出力されやすくするようにしても良い。
The present invention is not limited to the above-described embodiment, and various improvements and design changes may be made without departing from the spirit of the present invention.
For example, in the above embodiment, as a result of calculating the evaluation value of each group, the region having the lowest evaluation value is detected as the attention region A1. An area where the evaluation value is equal to or less than a predetermined value may be detected as the attention area A1, and an area existing in the vicinity of the detected area and a predetermined color space (for example, HSV space) is also set as the attention area. Alternatively, an area composed of pixels in the vicinity of the color space and in the vicinity of the actual image may be set as the attention area.
In addition, after the smoothing process (step S2) by the smoothing unit 5b, a temporary attention area is estimated by excluding an imaging target with a low degree of attention of the user located closer to the end in the composition (view angle). Processing may be performed. That is, by tracking a pixel similar to the at least one pixel in the peripheral area of at least one pixel at the four corners of the processing target image after the smoothing process, the end side in the composition (view angle) An imaging target with a low degree of attention of the user located in the image is identified, and a region other than the region with a low degree of attention of the user configured by the tracked pixels in the processing target image is estimated as a temporary attention region good. Then, by subsequently detecting the attention area A1 as a true attention area by the above processing, the detection accuracy of the attention area A1 from the processing target image can be further improved. Further, among each group, a group including pixels located on the edge side of the processing target image may not calculate the evaluation value, or includes many pixels located on the edge side of the processing target image. As the evaluation value increases, weighting may be performed. That is, the group closer to the center of the image may be more easily output as the attention area.

なお、上記実施形態にあっては、各グループの評価値を、分散値算出部5dにより算出された分散値及び距離算出部5fにより算出された距離Dに基づいて算出するようにしたが、評価値の算出方法はこれに限られるものではなく、例えば、分散値算出部5dにより算出された分散値及び距離算出部5fにより算出された距離Dの何れか一方を各グループの評価値として算出しても良い。
即ち、上記の注目領域出力処理(図2参照)にて、距離算出部5fにより算出された距離Dを各グループの評価値として算出することにより、各グループの評価値の算出の際に、処理対象画像における複数の画素の分布を考慮することができ、処理対象画像の中心により近い画素によって構成される領域を注目領域A1として検出することができるので、従来に比べてより少ない演算量で注目領域A1を検出することができ、演算能力の低い撮像装置100であっても注目領域A1の検出処理の高速化を図ることができる。
In the above embodiment, the evaluation value of each group is calculated based on the variance value calculated by the variance value calculation unit 5d and the distance D calculated by the distance calculation unit 5f. The value calculation method is not limited to this. For example, one of the variance value calculated by the variance value calculation unit 5d and the distance D calculated by the distance calculation unit 5f is calculated as the evaluation value of each group. May be.
That is, in calculating the evaluation value of each group by calculating the distance D calculated by the distance calculation unit 5f as the evaluation value of each group in the attention area output processing (see FIG. 2). Since the distribution of a plurality of pixels in the target image can be taken into account, and an area formed by pixels closer to the center of the processing target image can be detected as the attention area A1, attention is paid with a smaller amount of computation than in the past. The area A1 can be detected, and even the imaging device 100 with low computing capability can speed up the process of detecting the attention area A1.

また、注目領域は、一般的に画像の中央となる傾向にある。そのため、複数のグループの各々に係る、分散値算出部5dにより算出された分散値及び距離算出部5fにより算出された各グループの重心位置と画像の中心との距離に基づいて、各グループの評価値を算出することができ、画像中央に近いグループほど、注目領域として出力されやすくすることができる。   The attention area generally tends to be in the center of the image. Therefore, the evaluation of each group is performed based on the variance value calculated by the variance value calculation unit 5d and the distance between the center of gravity of each group calculated by the distance calculation unit 5f and the center of the image for each of the plurality of groups. A value can be calculated, and a group closer to the center of the image can be more easily output as a region of interest.

また、上記実施形態にあっては、注目領域出力処理(図2参照)にて、画像取得部5aにより取得された処理対象画像に対して平滑化処理(ステップS2)を施すようにしたが、平滑化処理を施すか否かは適宜任意に変更することができる。
さらに、注目領域検出処理(ステップS3)の後、注目領域A1の中で小さな領域を消去して主要注目領域A2(図4(b)参照)だけを抽出する整形処理(ステップS4)を行うようにしたが、整形処理を行うか否かは適宜任意に変更することができる。また、整形処理は注目領域安定化処理(ステップS7)、又は注目領域の出力(ステップS6)の後に行うようにしてもよい。
Further, in the above embodiment, in the attention area output process (see FIG. 2), the smoothing process (step S2) is performed on the process target image acquired by the image acquisition unit 5a. Whether or not to perform the smoothing process can be arbitrarily changed as appropriate.
Further, after the attention area detection process (step S3), a shaping process (step S4) is performed in which a small area in the attention area A1 is deleted and only the main attention area A2 (see FIG. 4B) is extracted. However, whether or not to perform the shaping process can be arbitrarily changed as appropriate. The shaping process may be performed after the attention area stabilization process (step S7) or the attention area output (step S6).

さらに、上記実施形態にあっては、注目領域出力処理(図2参照)にて、整形処理(ステップS4)により抽出された主要注目領域A2の出力内容が安定するように出力内容を制御する注目領域安定化処理(ステップS7)を行うようにしたが、注目領域安定化処理を行うか否かは適宜任意に変更することができる。また、注目領域安定化処理が行われた後に、出力された注目領域を過去n回分の出力領域と平均化処理を行うようにしてもよい。つまり、過去n回分の保持しておいた注目領域と、今回出力した注目領域をn:1で混合させるようにしてもよい。   Furthermore, in the above-described embodiment, the attention content is controlled so that the output content of the main attention area A2 extracted by the shaping process (step S4) is stabilized in the attention area output processing (see FIG. 2). Although the region stabilization processing (step S7) is performed, whether or not to perform the region of interest stabilization processing can be arbitrarily changed as appropriate. In addition, after the attention area stabilization process is performed, the output attention area may be averaged with the past n output areas. That is, the attention area that has been held for the past n times and the attention area output this time may be mixed at n: 1.

また、撮像装置100の構成は、上記実施形態に例示したものは一例であり、これに限られるものではない。即ち、画像処理装置として撮像装置100を例示したが、これに限られるものではい。例えば、処理対象画像の撮像は、当該撮像装置100とは異なる撮像装置にて行い、この撮像装置から転送された処理対象画像の画像データを取得して、注目領域A1の検出を行う画像処理装置であっても良い。
また、表示部7にライブビュー画像や記録の際の画像を更新表示する場合等に、注目領域A1の出力処理を定期的に行って、注目領域A1の出力結果や当該注目領域A1を近似的に表現する図形(例えば、注目領域A1を囲む最小の矩形枠等)等を継続して表示してもよい。
さらに、例えば、ライブビュー画像から抽出された注目領域A1の出力している際に、撮影者が所定の操作によって撮像装置100に撮影を指示すると、出力されている注目領域A1に基づいて、AF(オートフォーカス)やAE(自動露出)処理を行うようにしてもよい。
In addition, the configuration of the imaging apparatus 100 is merely an example illustrated in the above embodiment, and is not limited thereto. That is, the imaging apparatus 100 is exemplified as the image processing apparatus, but is not limited thereto. For example, the processing target image is captured by an imaging device different from the imaging device 100, the image data of the processing target image transferred from the imaging device is acquired, and the attention area A1 is detected. It may be.
Further, when a live view image or an image at the time of recording is updated and displayed on the display unit 7, the output process of the attention area A1 is periodically performed, and the output result of the attention area A1 or the attention area A1 is approximated. (For example, the smallest rectangular frame surrounding the attention area A1) or the like may be continuously displayed.
Furthermore, for example, when the photographer instructs the imaging apparatus 100 to perform photographing by a predetermined operation while outputting the attention area A1 extracted from the live view image, AF is performed based on the output attention area A1. (Autofocus) or AE (automatic exposure) processing may be performed.

加えて、上記実施形態にあっては、取得手段、グループ分け手段、分散値算出手段、重心算出手段、距離算出手段、評価値算出手段、検出手段としての機能を、中央制御部10の制御下にて、画像処理部5の画像取得部5a、グループ分け部5c、分散値算出部5d、重心算出部5e、距離算出部5f、評価値算出部5g、注目領域検出部5hが駆動することにより実現される構成としたが、これに限られるものではなく、中央制御部10のCPUによって所定のプログラム等が実行されることにより実現される構成としても良い。   In addition, in the above embodiment, the functions as an acquisition unit, a grouping unit, a variance value calculation unit, a center of gravity calculation unit, a distance calculation unit, an evaluation value calculation unit, and a detection unit are controlled under the control of the central control unit 10. Then, the image acquisition unit 5a, grouping unit 5c, variance value calculation unit 5d, centroid calculation unit 5e, distance calculation unit 5f, evaluation value calculation unit 5g, and attention area detection unit 5h of the image processing unit 5 are driven. However, the present invention is not limited to this, and may be realized by executing a predetermined program or the like by the CPU of the central control unit 10.

即ち、プログラムを記憶するプログラムメモリ(図示略)に、取得処理ルーチン、グループ分け処理ルーチン、分散値算出処理ルーチン、評価値算出処理ルーチン、検出処理ルーチンを含むプログラムを記憶しておく。そして、取得処理ルーチンにより中央制御部10のCPUを、画像を取得する取得手段として機能させるようにしても良い。また、グループ分け処理ルーチンにより中央制御部10のCPUを、取得された画像の複数の画素を、各画素の所定の色空間における変数の値に基づいて複数のグループにグループ分けするグループ分け手段として機能させるようにしても良い。また、分散値算出処理ルーチンにより中央制御部10のCPUを、グループ分けされた複数のグループの各々について、各グループに属する画素の当該画像における分散値をグループ毎に算出する分散値算出手段として機能させるようにしても良い。また、評価値算出処理ルーチンにより中央制御部10のCPUを、算出された分散値に基づいて、各グループの評価値を算出する評価値算出手段として機能させるようにしても良い。また、検出処理ルーチンにより中央制御部10のCPUを、各グループの評価値の算出結果に基づいて、複数のグループのうちの何れか一のグループに属する画素によって構成される領域を注目領域A1として検出する検出手段として機能させるようにしても良い。
また、プログラムを記憶するプログラムメモリ(図示略)に、取得処理ルーチン、グループ分け処理ルーチン、重心算出処理ルーチン、距離算出処理ルーチン、評価値算出処理ルーチン、検出処理ルーチンを含むプログラムを記憶しておく。そして、重心算出処理ルーチンにより中央制御部10のCPUを、グループ分けされた複数のグループの各々について、各グループに属する画素の重心位置をグループ毎に算出する重心算出手段として機能させるようにしても良い。また、距離算出処理ルーチンにより中央制御部10のCPUを、算出された重心位置と前記画像の中心との距離を算出する距離算出手段として機能させるようにしても良い。また、評価値算出処理ルーチンにより中央制御部10のCPUを、算出された距離に基づいて、各グループの評価値を算出する評価値算出手段として機能させるようにしても良い。なお、取得処理ルーチン、グループ分け処理ルーチン、検出処理ルーチンの機能は、上記と同様であり、その説明を省略する。
That is, a program including an acquisition process routine, a grouping process routine, a variance value calculation process routine, an evaluation value calculation process routine, and a detection process routine is stored in a program memory (not shown) that stores the program. Then, the CPU of the central control unit 10 may function as an acquisition unit that acquires an image by an acquisition process routine. Further, the CPU of the central control unit 10 as a grouping means for grouping a plurality of pixels of the acquired image into a plurality of groups based on the value of a variable in a predetermined color space of each pixel by a grouping processing routine. You may make it function. In addition, the CPU of the central control unit 10 functions as a variance value calculation unit that calculates, for each group, the variance value in the image of the pixels belonging to each group for each of the plurality of groups divided by the variance value calculation processing routine. You may make it let it. Further, the CPU of the central control unit 10 may function as an evaluation value calculating unit that calculates the evaluation value of each group based on the calculated dispersion value by the evaluation value calculation processing routine. In addition, the CPU of the central control unit 10 by the detection processing routine makes an area composed of pixels belonging to any one of a plurality of groups based on the evaluation value calculation result of each group as the attention area A1. You may make it function as a detection means to detect.
In addition, a program memory (not shown) that stores a program stores a program including an acquisition process routine, a grouping process routine, a center of gravity calculation process routine, a distance calculation process routine, an evaluation value calculation process routine, and a detection process routine. . Then, the CPU of the central control unit 10 is caused to function as a centroid calculating unit that calculates the centroid position of the pixel belonging to each group for each of the grouped groups by the centroid calculation processing routine. good. Further, the CPU of the central control unit 10 may function as a distance calculating unit that calculates the distance between the calculated center of gravity position and the center of the image by the distance calculation processing routine. Further, the CPU of the central control unit 10 may function as an evaluation value calculation unit that calculates the evaluation value of each group based on the calculated distance by the evaluation value calculation processing routine. Note that the functions of the acquisition processing routine, grouping processing routine, and detection processing routine are the same as described above, and a description thereof will be omitted.

100 撮像装置
1 撮像部
2 撮像制御部
5 画像処理部
5a 画像取得部
5b 平滑化部
5c グループ分け部
5d 分散値算出部
5e 重心算出部
5f 距離算出部
5g 評価値算出部
5h 注目領域検出部
5i 比較判定部
5j 出力制御部
10 中央制御部
100 imaging device 1 imaging unit 2 imaging control unit 5 image processing unit 5a image acquisition unit 5b smoothing unit 5c grouping unit 5d dispersion value calculation unit 5e centroid calculation unit 5f distance calculation unit 5g evaluation value calculation unit 5h attention area detection unit 5i Comparison determination unit 5j Output control unit 10 Central control unit

Claims (10)

画像を取得する取得手段と、
この取得手段により取得された画像の複数の画素を、各画素の所定の色空間における変数の値に基づいて複数のグループにグループ分けするグループ分け手段と、
このグループ分け手段によりグループ分けされた複数のグループの各々について、各グループに属する画素の当該画像における分散値をグループ毎に算出する分散値算出手段と、
この分散値算出手段により算出された分散値に基づいて、各グループの評価値を算出する評価値算出手段と、
この評価値算出手段による算出結果に基づいて、前記複数のグループのうちの何れか一のグループに属する画素によって構成される領域を注目領域として検出する検出手段と、
この検出手段により新たに注目領域が検出されると、過去の所定回数の検出結果との比較を行い、その比較結果に応じて前記新たに検出された注目領域を採用するか否かを決定する決定手段と、
を備えることを特徴とする画像処理装置。
An acquisition means for acquiring an image;
Grouping means for grouping a plurality of pixels of the image acquired by the acquisition means into a plurality of groups based on values of variables in a predetermined color space of each pixel;
For each of a plurality of groups grouped by the grouping means, a variance value calculating means for calculating a variance value in the image of pixels belonging to each group for each group;
Evaluation value calculating means for calculating an evaluation value of each group based on the dispersion value calculated by the dispersion value calculating means;
Based on a calculation result by the evaluation value calculation unit, a detection unit that detects a region constituted by pixels belonging to any one of the plurality of groups as a region of interest;
When a new attention area is detected by this detection means, a comparison is made with a predetermined number of past detection results, and it is determined whether or not to adopt the newly detected attention area according to the comparison result. A determination means;
An image processing apparatus comprising:
画像を取得する取得手段と、
この取得手段により取得された画像の複数の画素を、各画素の所定の色空間における変数の値に基づいて複数のグループにグループ分けするグループ分け手段と、
このグループ分け手段によりグループ分けされた複数のグループの各々について、各グループに属する画素の当該画像における分散値をグループ毎に算出する分散値算出手段と、
この分散値算出手段により算出された分散値に基づいて、各グループの評価値を算出する評価値算出手段と、
この評価値算出手段による算出結果に基づいて、前記複数のグループのうちの何れか一のグループに属する画素によって構成される領域を注目領域として検出する検出手段と、
この検出手段により検出された注目領域が複数個の閉領域から成っているときに、所定の大きさよりも小さな閉領域を前記注目領域から除外する除外手段と、
を備えることを特徴とする像処理装置。
An acquisition means for acquiring an image;
Grouping means for grouping a plurality of pixels of the image acquired by the acquisition means into a plurality of groups based on values of variables in a predetermined color space of each pixel;
For each of a plurality of groups grouped by the grouping means, a variance value calculating means for calculating a variance value in the image of pixels belonging to each group for each group;
Evaluation value calculating means for calculating an evaluation value of each group based on the dispersion value calculated by the dispersion value calculating means;
Based on a calculation result by the evaluation value calculation unit, a detection unit that detects a region constituted by pixels belonging to any one of the plurality of groups as a region of interest;
When the attention area detected by the detection means is composed of a plurality of closed areas, an exclusion means for excluding a closed area smaller than a predetermined size from the attention area;
Images it is processing device according to claim Rukoto equipped with.
画像を取得する取得手段と、
この取得手段により取得された画像の複数の画素を、各画素の所定の色空間における変数の値に基づいて複数のグループにグループ分けするグループ分け手段と、
このグループ分け手段によグループ分けされた複数のグループの各々について、各グループに属する画素の当該画像における分散値をグループ毎に算出する分散値算出手段と、
この分散値算出手段により算出された分散値に基づいて、グループの評価値を算出する評価値算出手段と、
この評価値算出手段による算出結果に基づいて、前記複数のグループのうちの何れか一のグループに属する画素によって構成される領域を注目領域として検出する検出手段と、
を備え、
前記複数のグループの各々は、各グループを規定する前記所定の色空間における各成分の範囲が隣合うグループと重なり合ってなることを特徴とする画像処理装置。
An acquisition means for acquiring an image;
Grouping means for grouping a plurality of pixels of the image acquired by the acquisition means into a plurality of groups based on values of variables in a predetermined color space of each pixel;
For each of the grouping means a plurality of groups that are by Ri grouped into a dispersion value calculating means for calculating a dispersion value in the image of the pixels belonging to each group for each group,
Based on the variance value calculated by the variance value calculating means, the evaluation value calculating means for calculating an evaluation value of each group,
Based on a calculation result by the evaluation value calculation unit, a detection unit that detects a region constituted by pixels belonging to any one of the plurality of groups as a region of interest;
Bei to give a,
Wherein each of the plurality of groups, the image processing apparatus according to the predetermined characteristic of Rukoto such overlap the group adjacent ranges of each component in the color space defining each group.
画像を取得する取得手段と、
この取得手段により取得された画像の複数の画素を、各画素の所定の色空間における変数の値に基づいて複数のグループにグループ分けするグループ分け手段と、
このグループ分け手段によってグループ分けされた複数のグループの各々について、各グループに属する画素の重心位置をグループ毎に算出する重心算出手段と、
この重心算出手段により算出された重心位置と前記画像の中心との距離を算出する距離算出手段と、
この距離算出手段により算出された距離に基づいて、前記各グループの評価値を算出する評価値算出手段と、
この評価値算出手段による算出結果に基づいて、前記複数のグループのうちの何れか一のグループに属する画素によって構成される領域を注目領域として検出する検出手段と、
この検出手段により新たに注目領域が検出されると、過去の所定回数の検出結果との比較を行い、その比較結果に応じて前記新たに検出された注目領域を採用するか否かを決定する決定手段と、
を備えることを特徴とする像処理装置。
An acquisition means for acquiring an image;
Grouping means for grouping a plurality of pixels of the image acquired by the acquisition means into a plurality of groups based on values of variables in a predetermined color space of each pixel;
For each of the plurality of groups grouped by the grouping means, a centroid calculating means for calculating the centroid position of the pixels belonging to each group for each group;
Distance calculating means for calculating the distance between the center of gravity calculated by the center of gravity calculating means and the center of the image;
Evaluation value calculation means for calculating an evaluation value of each group based on the distance calculated by the distance calculation means;
Based on a calculation result by the evaluation value calculation unit, a detection unit that detects a region constituted by pixels belonging to any one of the plurality of groups as a region of interest;
When a new attention area is detected by this detection means, a comparison is made with a predetermined number of past detection results, and it is determined whether or not to adopt the newly detected attention area according to the comparison result. A determination means;
Images it is processing device according to claim Rukoto equipped with.
画像を取得する取得手段と、
この取得手段により取得された画像の複数の画素を、各画素の所定の色空間における変数の値に基づいて複数のグループにグループ分けするグループ分け手段と、
このグループ分け手段によってグループ分けされた複数のグループの各々について、各グループに属する画素の重心位置をグループ毎に算出する重心算出手段と、
この重心算出手段により算出された重心位置と前記画像の中心との距離を算出する距離算出手段と、
この距離算出手段により算出された距離に基づいて、前記各グループの評価値を算出する評価値算出手段と、
この評価値算出手段による算出結果に基づいて、前記複数のグループのうちの何れか一のグループに属する画素によって構成される領域を注目領域として検出する検出手段と、
この検出手段により検出された注目領域が複数個の閉領域から成っているときに、所定の大きさよりも小さな閉領域を前記注目領域から除外する除外手段と、
備えることを特徴とする像処理装置。
An acquisition means for acquiring an image;
Grouping means for grouping a plurality of pixels of the image acquired by the acquisition means into a plurality of groups based on values of variables in a predetermined color space of each pixel;
For each of the plurality of groups grouped by the grouping means, a centroid calculating means for calculating the centroid position of the pixels belonging to each group for each group;
Distance calculating means for calculating the distance between the center of gravity calculated by the center of gravity calculating means and the center of the image;
Evaluation value calculation means for calculating an evaluation value of each group based on the distance calculated by the distance calculation means;
Based on a calculation result by the evaluation value calculation unit, a detection unit that detects a region constituted by pixels belonging to any one of the plurality of groups as a region of interest;
When the attention area detected by the detection means is composed of a plurality of closed areas, an exclusion means for excluding a closed area smaller than a predetermined size from the attention area;
Images processing device comprising: a.
画像を取得する取得手段と、
この取得手段により取得された画像の複数の画素を、各画素の所定の色空間における変数の値に基づいて複数のグループにグループ分けするグループ分け手段と、
このグループ分け手段によってグループ分けされた複数のグループの各々について、各グループに属する画素の重心位置をグループ毎に算出する重心算出手段と、
この重心算出手段により算出された重心位置と前記画像の中心との距離を算出する距離算出手段と、
この距離算出手段により算出された距離に基づいて、前記各グループの評価値を算出する評価値算出手段と、
この評価値算出手段による算出結果に基づいて、前記複数のグループのうちの何れか一のグループに属する画素によって構成される領域を注目領域として検出する検出手段と、
を備え、
前記複数のグループの各々は、各グループを規定する前記所定の色空間における各成分の範囲が隣合うグループと重なり合ってなることを特徴とする像処理装置。
An acquisition means for acquiring an image;
Grouping means for grouping a plurality of pixels of the image acquired by the acquisition means into a plurality of groups based on values of variables in a predetermined color space of each pixel;
For each of the plurality of groups grouped by the grouping means, a centroid calculating means for calculating the centroid position of the pixels belonging to each group for each group;
Distance calculating means for calculating the distance between the center of gravity calculated by the center of gravity calculating means and the center of the image;
Evaluation value calculation means for calculating an evaluation value of each group based on the distance calculated by the distance calculation means;
Based on a calculation result by the evaluation value calculation unit, a detection unit that detects a region constituted by pixels belonging to any one of the plurality of groups as a region of interest;
With
Wherein each of the plurality of groups, images processing apparatus characterized by comprising overlapping said predetermined group of adjacent ranges of each component in the color space defining each group.
画像を取得する取得ステップと、
この取得ステップにて取得された画像の複数の画素を、各画素の所定の色空間における変数の値に基づいて複数のグループにグループ分けするグループ分けステップと、
このグループ分けステップにてグループ分けされた複数のグループの各々について、各グループに属する画素の当該画像における分散値をグループ毎に算出する分散値算出ステップと、
この分散値算出ステップにて算出された分散値に基づいて、各グループの評価値を算出する評価値算出ステップと、
この評価値算出ステップにおける算出結果に基づいて、前記複数のグループのうちの何れか一のグループに属する画素によって構成される領域を注目領域として検出する検出ステップと、
この検出ステップにて新たに注目領域が検出されると、過去の所定回数の検出結果との比較を行い、その比較結果に応じて前記新たに検出された注目領域を採用するか否かを決定する決定ステップと、
を実行することを特徴とする画像処理方法。
An acquisition step of acquiring an image;
A grouping step of grouping a plurality of pixels of the image acquired in this acquisition step into a plurality of groups based on values of variables in a predetermined color space of each pixel;
For each of a plurality of groups grouped in this grouping step, a variance value calculating step for calculating, for each group, a variance value in the image of pixels belonging to each group;
An evaluation value calculating step for calculating an evaluation value of each group based on the dispersion value calculated in the dispersion value calculating step;
Based on the definitive calculation result to the evaluation value calculation step, a detection step of detecting an area configured as a region of interest by any pixels that belong to one group of the plurality of groups,
When a region of interest is newly detected in this detection step, a comparison is made with a predetermined number of past detection results, and it is determined whether or not to adopt the newly detected region of interest according to the comparison result. A decision step to
The image processing method characterized by performing.
画像を取得する取得ステップと、
この取得ステップにて取得された画像の複数の画素を、各画素の所定の色空間における変数の値に基づいて複数のグループにグループ分けするグループ分けステップと、
このグループ分けステップにてグループ分けされた複数のグループの各々について、各グループに属する画素の当該画像における分散値をグループ毎に算出する分散値算出ステップと、
この分散値算出ステップにて算出された分散値に基づいて、グループの評価値を算出する評価値算出ステップと、
この評価値算出ステップにおける算出結果に基づいて、前記複数のグループのうちの何れか一のグループに属する画素によって構成される領域を注目領域として検出する検出ステップと、
を実行する画像処理方法であって、
前記複数のグループの各々は、各グループを規定する前記所定の色空間における各成分の範囲が隣合うグループと重なり合ってなることを特徴とする画像処理方法。
An acquisition step of acquiring an image;
A grouping step of grouping a plurality of pixels of the image acquired in this acquisition step into a plurality of groups based on values of variables in a predetermined color space of each pixel;
For each of a plurality of groups grouped in this grouping step, a variance value calculating step for calculating, for each group, a variance value in the image of pixels belonging to each group;
Based on the variance value calculated by the variance value calculation step, an evaluation value calculation step of calculating an evaluation value of each group,
Based on the calculation result in the evaluation value calculation step, a detection step of detecting a region constituted by pixels belonging to any one of the plurality of groups as a region of interest;
An image processing method for executing
Each of the plurality of groups is formed by overlapping each component range in the predetermined color space defining each group with an adjacent group .
コンピュータを、
画像を取得する取得手段、
この取得手段により取得された画像の複数の画素を、各画素の所定の色空間における変数の値に基づいて複数のグループにグループ分けするグループ分け手段、
このグループ分け手段によってグループ分けされた複数のグループの各々について、各グループに属する画素の重心位置をグループ毎に算出する重心算出手段、
この重心算出手段により算出された重心位置と前記画像の中心との距離を算出する距離算出手段、
この距離算出手段により算出された距離に基づいて、前記各グループの評価値を算出する評価値算出手段、
この評価値算出手段による算出結果に基づいて、前記複数のグループのうちの何れか一のグループに属する画素によって構成される領域を注目領域として検出する検出手段、
この検出手段により検出された注目領域が複数個の閉領域から成っているときに、所定の大きさよりも小さな閉領域を前記注目領域から除外する除外手段、
として機能させることを特徴とするプログラム。
Computer
Acquisition means for acquiring images,
Grouping means for grouping a plurality of pixels of the image acquired by the acquisition means into a plurality of groups based on the values of variables in a predetermined color space of each pixel;
For each of the grouping means a plurality of groups grouped by the centroid calculation means for calculating the center of gravity of the pixels belonging to each group for each group,
Distance calculating means for calculating the distance between the center of gravity calculated by the center of gravity calculating means and the center of the image ;
Based on the distance calculated by the distance calculating means, evaluation value calculating means for calculating an evaluation value of each group,
Detecting means for detecting, as a region of interest, an area constituted by pixels belonging to any one of the plurality of groups based on a calculation result by the evaluation value calculating means;
Exclusion means for excluding a closed area smaller than a predetermined size from the attention area when the attention area detected by the detection means is composed of a plurality of closed areas;
A program characterized by functioning as
コンピュータを、
画像を取得する取得手段、
この取得手段により取得された画像の複数の画素を、各画素の所定の色空間における変数の値に基づいて複数のグループにグループ分けするグループ分け手段、
このグループ分け手段によってグループ分けされた複数のグループの各々について、各グループに属する画素の重心位置をグループ毎に算出する重心算出手段、
この重心算出手段により算出された重心位置と前記画像の中心との距離を算出する距離算出手段、
この距離算出手段により算出された距離に基づいて、前記各グループの評価値を算出する評価値算出手段、
この評価値算出手段による算出結果に基づいて、前記複数のグループのうちの何れか一のグループに属する画素によって構成される領域を注目領域として検出する検出手段、
として機能させるプログラムであって、
前記複数のグループの各々は、各グループを規定する前記所定の色空間における各成分の範囲が隣合うグループと重なり合ってなることを特徴とするプログラム。
Computer
Acquisition means for acquiring images,
Grouping means for grouping a plurality of pixels of the image acquired by the acquisition means into a plurality of groups based on the values of variables in a predetermined color space of each pixel;
For each of a plurality of groups grouped by this grouping means, a centroid calculating means for calculating the centroid position of pixels belonging to each group for each group,
Distance calculating means for calculating the distance between the center of gravity calculated by the center of gravity calculating means and the center of the image;
Evaluation value calculation means for calculating an evaluation value of each group based on the distance calculated by the distance calculation means;
Detecting means for detecting, as a region of interest, an area constituted by pixels belonging to any one of the plurality of groups based on a calculation result by the evaluation value calculating means;
A program that functions as
Each of the plurality of groups is a program in which the range of each component in the predetermined color space defining each group overlaps with an adjacent group .
JP2009184244A 2009-08-07 2009-08-07 Image processing apparatus, image processing method, and program Active JP5375420B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009184244A JP5375420B2 (en) 2009-08-07 2009-08-07 Image processing apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009184244A JP5375420B2 (en) 2009-08-07 2009-08-07 Image processing apparatus, image processing method, and program

Publications (2)

Publication Number Publication Date
JP2011040859A JP2011040859A (en) 2011-02-24
JP5375420B2 true JP5375420B2 (en) 2013-12-25

Family

ID=43768210

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009184244A Active JP5375420B2 (en) 2009-08-07 2009-08-07 Image processing apparatus, image processing method, and program

Country Status (1)

Country Link
JP (1) JP5375420B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101603268B1 (en) * 2014-01-23 2016-03-14 삼성전자주식회사 Method and device for processing image data
JP6463053B2 (en) * 2014-09-12 2019-01-30 キヤノン株式会社 Automatic focusing device and automatic focusing method

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05181969A (en) * 1992-01-07 1993-07-23 Nec Corp Method and device for detecting edge
JPH1021408A (en) * 1996-07-04 1998-01-23 Canon Inc Device and method for extracting image
US6738494B1 (en) * 2000-06-23 2004-05-18 Eastman Kodak Company Method for varying an image processing path based on image emphasis and appeal
JP4060615B2 (en) * 2002-03-05 2008-03-12 株式会社東芝 Image processing apparatus and ultrasonic diagnostic apparatus

Also Published As

Publication number Publication date
JP2011040859A (en) 2011-02-24

Similar Documents

Publication Publication Date Title
JP4862930B2 (en) Image processing apparatus, image processing method, and program
US10021313B1 (en) Image adjustment techniques for multiple-frame images
US8446488B2 (en) Method and system for focal length-specific color enhancement
US9025050B2 (en) Digital photographing apparatus and control method thereof
GB2494032A (en) Face trimming for photo composition
US8295609B2 (en) Image processing apparatus, image processing method and computer readable-medium
US9210326B2 (en) Imaging apparatus which controls display regarding capturing, imaging method, and storage medium
CN111107276A (en) Information processing apparatus, control method thereof, storage medium, and imaging system
CN109756680B (en) Image synthesis method and device, electronic equipment and readable storage medium
JP2010239440A (en) Image compositing apparatus and program
US10832386B2 (en) Image processing apparatus, image processing method, and storage medium
JP5375420B2 (en) Image processing apparatus, image processing method, and program
JP2015005927A (en) Image processing apparatus and control method of the same
EP4199528A1 (en) Image processing apparatus, image capture apparatus, and image processing method
JP2010041607A (en) Image capturing apparatus, method of controlling the same and program
JP2013051516A (en) Imaging device and determination method, and program
JP7442989B2 (en) Imaging device, control method for the imaging device, and program
JP2018195938A (en) Imaging apparatus, control method of imaging apparatus, and program
JP5287965B2 (en) Image processing apparatus, image processing method, and program
JP2019075621A (en) Imaging apparatus, control method of imaging apparatus
JP2017182668A (en) Data processor, imaging device, and data processing method
JP2007201679A (en) Imaging apparatus, image processing method, and image processing program
JP6601062B2 (en) Imaging control apparatus, imaging control method, and program
JP5846144B2 (en) Image region dividing apparatus, method, and program
JP6627418B2 (en) Image processing apparatus, image processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120724

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20120724

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130527

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130604

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130805

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130827

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130909

R150 Certificate of patent or registration of utility model

Ref document number: 5375420

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150