JP5732773B2 - Image identification device, image identification method, and program - Google Patents

Image identification device, image identification method, and program Download PDF

Info

Publication number
JP5732773B2
JP5732773B2 JP2010180716A JP2010180716A JP5732773B2 JP 5732773 B2 JP5732773 B2 JP 5732773B2 JP 2010180716 A JP2010180716 A JP 2010180716A JP 2010180716 A JP2010180716 A JP 2010180716A JP 5732773 B2 JP5732773 B2 JP 5732773B2
Authority
JP
Japan
Prior art keywords
image
similarity
area
unit
calculation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010180716A
Other languages
Japanese (ja)
Other versions
JP2012038276A (en
Inventor
滋 加福
滋 加福
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2010180716A priority Critical patent/JP5732773B2/en
Publication of JP2012038276A publication Critical patent/JP2012038276A/en
Application granted granted Critical
Publication of JP5732773B2 publication Critical patent/JP5732773B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像識別装置、画像識別方法及びプログラムに関する。   The present invention relates to an image identification device, an image identification method, and a program.

従来、人の顔を検出することによる焦点評価値に基づいた合焦技術が知られている(例えば、特許文献1、2参照)。   Conventionally, a focusing technique based on a focus evaluation value obtained by detecting a human face has been known (see, for example, Patent Documents 1 and 2).

特開2006−201282号公報JP 2006-201282 A 特開平8−63597号公報JP-A-8-63597

しかしながら、上記特許文献1、2では、ライブビュー画像の画像領域全体から顔を検出しているため、演算量が増大し顔の識別に時間がかかってしまうという問題点があった。   However, in Patent Documents 1 and 2, since the face is detected from the entire image area of the live view image, there is a problem in that the amount of calculation increases and it takes time to identify the face.

そこで、本願発明の課題は、特定画像領域の識別速度の高速化を図ることができる画像識別装置、画像識別方法及びプログラムを提供することである。   Accordingly, an object of the present invention is to provide an image identification device, an image identification method, and a program capable of increasing the identification speed of a specific image region.

上記課題を解決するため、請求項1に記載の発明の画像識別装置は、特定画像領域を識別するための識別用情報を記録する第1の記録手段と、画像を記録する第2の記録手段と、この第2の記録手段に記録されている画像から第1領域及び第2領域をそれぞれ複数生成する生成手段と、前記第2の記録手段に記録されている画像と前記第1の記録手段に記録されている識別用情報との類似度を算出する算出手段と、前記生成手段により生成された前記第1領域の各々と前記識別用情報との類似度を前記算出手段により算出させる第1の算出制御手段と、この第1の算出制御手段により算出された類似度に基づいて、前記生成手段により生成された前記第2領域の各々のうち、前記識別用情報との類似度を前記算出手段により算出させる領域を指定する指定手段と、この指定手段により指定された領域と前記識別用情報との類似度を前記算出手段により算出させる第2の算出制御手段と、前記第1の算出制御手段及び前記第2の算出制御手段のうちの少なくとも一方により算出された類似度に基づいて、前記画像内で前記特定画像領域を識別する識別手段と、前記第1の算出制御手段により算出された類似度であって、前記第2領域の周辺の複数の前記第1領域の類似度に基づいて、前記第2領域の各々について前記識別用情報との類似度を前記算出手段により算出させるか否かを判断する判断手段と、を備え、前記指定手段は、前記判断手段による判断結果に基づいて、前記第2領域の各々のうち、前記識別用情報との類似度を前記算出手段により算出する領域を指定することを特徴としている。 In order to solve the above problems, an image identification apparatus according to a first aspect of the present invention includes a first recording unit that records identification information for identifying a specific image region, and a second recording unit that records an image. Generating means for generating a plurality of first areas and second areas from the image recorded in the second recording means; the image recorded in the second recording means; and the first recording means Calculating means for calculating the similarity to the identification information recorded in the first information, and calculating the similarity between each of the first areas generated by the generating means and the identification information. Based on the similarity calculated by the first calculation control means and the calculation control means, the similarity between the identification information and the second area generated by the generation means is calculated. The area to be calculated by means Specifying means for determining, a second calculation control means for calculating the similarity between the area specified by the specifying means and the identification information, the first calculation control means, and the second calculation control means. Based on the similarity calculated by at least one of the calculation control means, the identification means for identifying the specific image region in the image, and the similarity calculated by the first calculation control means, Determination means for determining whether or not the calculation means calculates the similarity with the identification information for each of the second areas based on the similarity of the plurality of first areas around the second area And the designation means designates an area in which the calculation means calculates the similarity to the identification information among each of the second areas based on a determination result by the determination means. Special It is set to.

請求項2に記載の発明は、請求項1に記載の画像識別装置において、
前記第1の算出制御手段により算出された類似度に基づいて、前記第2領域の各々について前記識別用情報との類似度を前記算出手段により算出させるか否かを判断する判断手段を更に備え、前記指定手段は、前記判断手段による判断結果に基づいて、前記第2領域の各々のうち、前記識別用情報との類似度を前記算出手段により算出する領域を指定することを特徴としている。
According to a second aspect of the present invention, in the image identification device according to the first aspect,
Based on the similarity calculated by the first calculation control means, the information processing apparatus further comprises a determination means for determining whether the calculation means calculates the similarity with the identification information for each of the second regions. The designation means designates an area in which the calculation means calculates the similarity with the identification information among each of the second areas based on the determination result by the determination means.

請求項3に記載の発明は、請求項2に記載の画像識別装置において、
前記第2領域の各々についての前記識別用情報との類似度を前記算出手段により算出させるか否かの前記判断手段による判断基準となる閾値を設定する設定手段を更に備え、前記判断手段は、更に、前記第1の算出制御手段により算出された類似度が前記設定手段により設定された閾値以上であると判断された場合に、前記算出手段により前記識別用情報との類似度を算出すると判断する一方で、前記第1の算出制御手段により算出された類似度が前記設定手段により設定された閾値未満であると判断された場合に、前記算出手段により前記識別用情報との類似度を算出しないと判断することを特徴としている。
According to a third aspect of the present invention, in the image identification device according to the second aspect,
And further comprising a setting means for setting a threshold value as a determination criterion by the determination means as to whether or not the similarity with the identification information for each of the second areas is calculated by the calculation means, Further, when it is determined that the similarity calculated by the first calculation control means is equal to or greater than the threshold set by the setting means, it is determined that the similarity with the identification information is calculated by the calculation means. On the other hand, when it is determined that the degree of similarity calculated by the first calculation control unit is less than the threshold set by the setting unit, the degree of similarity with the identification information is calculated by the calculation unit. It is characterized by not judging.

請求項4に記載の発明は、請求項1〜3の何れか一項に記載の画像識別装置において、
前記第2の記録手段に記録されている画像を所定の比率で順次縮小して縮小画像を順次生成する画像縮小手段を更に備え、前記生成手段は、前記画像縮小手段により順次生成された縮小画像の各々から前記第1領域及び第2領域をそれぞれ生成することを特徴としている。
The invention according to claim 4 is the image identification device according to any one of claims 1 to 3,
The image recording apparatus further includes image reduction means for sequentially reducing the images recorded in the second recording means at a predetermined ratio to sequentially generate reduced images, and the generation means includes the reduced images sequentially generated by the image reduction means. The first region and the second region are generated from each of the first and second regions, respectively.

請求項5に記載の発明は、請求項1〜4の何れか一項に記載の画像識別装置において、
前記生成手段は、前記第1領域及び第2領域の各々の所定の単位画素からなる基準ブロックが直和分割されるように当該第1領域及び第2領域をそれぞれ生成することを特徴としている。
The invention according to claim 5 is the image identification device according to any one of claims 1 to 4,
The generating unit generates the first area and the second area so that a reference block including predetermined unit pixels of the first area and the second area is divided into direct sums.

請求項6に記載の発明は、請求項1〜5の何れか一項に記載の画像識別装置において、
前記第2の記録手段に記録されている画像を表示する表示手段を更に備えることを特徴としている。
The invention according to claim 6 is the image identification device according to any one of claims 1 to 5,
The image processing apparatus further includes display means for displaying an image recorded in the second recording means.

請求項7に記載の発明は、請求項6に記載の画像識別装置において、
前記画像内で前記識別手段により識別された前記特定画像領域に相当する画像に対して所定の加工処理を施して前記表示手段に表示させる表示制御手段を更に備えることを特徴としている。
The invention according to claim 7 is the image identification device according to claim 6,
The image processing apparatus further includes display control means for performing predetermined processing on the image corresponding to the specific image area identified by the identification means in the image and displaying the image on the display means.

請求項8に記載の発明は、請求項1〜7の何れか一項に記載の画像識別装置において、
画像を撮像する撮像手段を更に備え、前記第2の記録手段は、前記撮像手段により撮像された画像を記録することを特徴としている。
The invention according to claim 8 is the image identification device according to any one of claims 1 to 7,
The image recording apparatus further includes an image capturing unit that captures an image, and the second recording unit records the image captured by the image capturing unit.

請求項に記載の発明の画像識別方法は、特定画像領域を識別するための識別用情報を記録する第1の記録手段と、画像を記録する第2の記録手段と、この第2の記録手段に記録されている画像と前記第1の記録手段に記録されている識別用情報との類似度を算出する算出手段と、を備えた画像識別装置を用いた画像識別方法であって、前記第2の記録手段に記録されている画像から第1領域及び第2領域をそれぞれ複数生成する生成ステップと、前記生成された前記第1領域の各々と前記識別用情報との類似度を前記算出手段により算出させる第1の算出制御ステップと、この第1の算出制御ステップにて算出された類似度に基づいて、前記第2領域の各々のうち、前記識別用情報との類似度を前記算出手段により算出させる領域を指定する指定ステップと、この指定ステップにて指定された領域と前記識別用情報との類似度を前記算出手段により算出させる第2の算出制御ステップと、前記第1領域及び前記第2領域のうち、算出された少なくとも一方に係る類似度に基づいて、前記画像内で前記特定画像領域を識別するステップと、前記第1の算出制御ステップにより算出された類似度であって、前記第2領域の周辺の複数の前記第1領域の類似度に基づいて、前記第2領域の各々について前記識別用情報との類似度を前記算出手段により算出させるか否かを判断する判断ステップと、を含み、前記指定ステップは、前記判断ステップによる判断結果に基づいて、前記第2領域の各々のうち、前記識別用情報との類似度を前記算出手段により算出する領域を指定することを特徴としている。 An image identification method according to a seventh aspect of the invention includes a first recording unit that records identification information for identifying a specific image area, a second recording unit that records an image, and the second recording unit. An image identification method using an image identification apparatus comprising: a calculation unit that calculates a similarity between an image recorded in the unit and the identification information recorded in the first recording unit; A generation step of generating a plurality of first areas and a plurality of second areas from the image recorded in the second recording means, and the similarity between each of the generated first areas and the identification information is calculated. Based on the first calculation control step calculated by the means and the similarity calculated in the first calculation control step, the similarity with the identification information in each of the second regions is calculated. Specify the area to be calculated by means Of the first step and the second region, a specifying step, a second calculation control step for calculating the similarity between the region specified in the specifying step and the identification information by the calculating means, A degree of similarity calculated by the first calculation control step and the step of identifying the specific image area in the image based on the similarity degree related to at least one of the second area and the surrounding area of the second area A determination step for determining whether or not the calculation means calculates a similarity to the identification information for each of the second areas based on a plurality of similarities of the first areas, and including the designation step, based on a determination result by the determination step, of each of the second region, especially to specify the region for calculating the degree of similarity between the identifying information by said calculation means It is set to.

請求項に記載の発明のプログラムは、特定画像領域を識別するための識別用情報を記録する第1の記録手段と、画像を記録する第2の記録手段と、この第2の記録手段に記録されている画像と前記第1の記録手段に記録されている識別用情報との類似度を算出する算出手段と、を備えた画像識別装置のコンピュータを、前記第2の記録手段に記録されている画像から第1領域及び第2領域をそれぞれ複数生成する生成手段、この生成手段により生成された前記第1領域の各々と前記識別用情報との類似度を前記算出手段により算出させる第1の算出制御手段、この第1の算出制御手段により算出された類似度に基づいて、前記生成手段により生成された前記第2領域の各々のうち、前記識別用情報との類似度を前記算出手段により算出させる領域を指定する指定手段、この指定手段により指定された領域と前記識別用情報との類似度を前記算出手段により算出させる第2の算出制御手段、前記第1の算出制御手段及び前記第2の算出制御手段のうちの少なくとも一方により算出された類似度に基づいて、前記画像内で前記特定画像領域を識別する識別手段、前記第1の算出制御手段により算出された類似度であって、前記第2領域の周辺の複数の前記第1領域の類似度に基づいて、前記第2領域の各々について前記識別用情報との類似度を前記算出手段により算出させるか否かを判断する判断手段、として機能させ、前記指定手段は、前記判断手段による判断結果に基づいて、前記第2領域の各々のうち、前記識別用情報との類似度を前記算出手段により算出する領域を指定することを特徴としている。 According to an eighth aspect of the present invention, there is provided a first recording means for recording identification information for identifying a specific image area, a second recording means for recording an image, and a second recording means. A computer of an image identification device, comprising: a calculation unit that calculates a similarity between the recorded image and the identification information recorded in the first recording unit; Generating means for generating a plurality of first areas and a plurality of second areas from an image, and a first means for calculating the similarity between each of the first areas generated by the generating means and the identification information. Calculation control means, and based on the similarity calculated by the first calculation control means, the calculation means calculates the similarity to the identification information in each of the second regions generated by the generation means. Calculated by Designation means for designating an area; second calculation control means for calculating the similarity between the area designated by the designation means and the identification information; the first calculation control means; and the second calculation control means. Identification means for identifying the specific image region in the image based on the similarity calculated by at least one of the calculation control means, the similarity calculated by the first calculation control means, Determination means for determining whether or not the calculation means calculates the similarity with the identification information for each of the second areas based on the similarity of the plurality of the first areas around the second area; to function as the designation means, on the basis of the determination result by the determination means, of each of the second region, designates a region to be calculated by the calculation means the similarity between the identification information It is characterized by a door.

本発明によれば、特定画像領域の識別速度の高速化を図ることができる。   According to the present invention, it is possible to increase the identification speed of a specific image region.

本発明を適用した一実施形態の画像表示装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the image display apparatus of one Embodiment to which this invention is applied. 図1の画像表示装置による画像識別処理に係る動作の一例を示すフローチャートである。3 is a flowchart illustrating an example of an operation related to image identification processing by the image display apparatus of FIG. 1. 図2の画像識別処理における顔検出処理に係る動作の一例を示すフローチャートである。3 is a flowchart illustrating an example of an operation related to a face detection process in the image identification process of FIG. 2. 図2の画像識別処理に係る画像の一例を模式的に示す図である。It is a figure which shows typically an example of the image which concerns on the image identification process of FIG. 図2の画像識別処理に係る顔の識別対象の一例を模式的に示す図である。It is a figure which shows typically an example of the identification object of the face which concerns on the image identification process of FIG. 図5の識別対象としての第1領域の一例を模式的に示す図である。It is a figure which shows typically an example of the 1st area | region as an identification object of FIG. 図2の画像識別処理に係る評価値算出部のサブ識別器の構成の一例を模式的に示す図である。It is a figure which shows typically an example of a structure of the sub discrimination device of the evaluation value calculation part which concerns on the image identification process of FIG. 図2の画像識別処理に係る第2領域の評価値の一例を模式的に示す図である。It is a figure which shows typically an example of the evaluation value of the 2nd area | region which concerns on the image identification process of FIG. 図2の画像識別処理に係る顔領域の一例を模式的に示す図である。It is a figure which shows typically an example of the face area | region which concerns on the image identification process of FIG. 本発明を適用した一実施形態の撮像装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the imaging device of one Embodiment to which this invention is applied.

以下に、本発明について、図面を用いて具体的な態様を説明する。ただし、発明の範囲は、図示例に限定されない。
図1は、本発明を適用した一実施形態の画像表示装置100の概略構成を示すブロック図である。
Hereinafter, specific embodiments of the present invention will be described with reference to the drawings. However, the scope of the invention is not limited to the illustrated examples.
FIG. 1 is a block diagram showing a schematic configuration of an image display apparatus 100 according to an embodiment to which the present invention is applied.

本実施形態の画像表示装置100は、画像から2種類の画像領域をそれぞれ生成し、一方の画像領域の各々と識別用情報との類似度に基づいて、他方の画像領域の各々のうち、識別用情報との類似度を算出する画像領域を指定し、一方の画像領域及び他方の画像領域のうち、算出された少なくともどちらか一方の画像領域に係る類似度に基づいて、画像P内で特定画像領域(例えば、顔領域)を識別する。
具体的には、画像表示装置100は、例えば、卓上に設置されるデジタルフォトフレーム等であり、図1に示すように、表示部1と、画像処理部2と、顔検出部3と、メモリ4と、識別用情報記録部5と、画像記録部6と、操作入力部7と、中央制御部8とを備えている。
The image display apparatus 100 according to the present embodiment generates two types of image areas from the image, and identifies each of the other image areas based on the similarity between each of the image areas and the identification information. Specify an image area for calculating the similarity to the information for use, and specify in the image P based on the calculated similarity for at least one of the image area and the other image area An image area (eg, a face area) is identified.
Specifically, the image display device 100 is, for example, a digital photo frame installed on a table, and as shown in FIG. 1, a display unit 1, an image processing unit 2, a face detection unit 3, and a memory 4, an identification information recording unit 5, an image recording unit 6, an operation input unit 7, and a central control unit 8.

表示部1は、表示パネル1aと、表示制御部1bとを具備している。
表示パネル1aは、画像記録部6に記録されている画像(例えば、画像P等;図9(b)参照)を表示する表示手段を構成している。また、表示パネル1aとしては、例えば、液晶表示パネルや有機EL表示パネルなどが挙げられるが、一例であってこれらに限られるものではない。
表示制御部1bは、画像記録部6から読み出され画像処理部2により復号された所定サイズの画像データに基づいて、所定の画像を表示パネル1aの表示画面に表示させる。
The display unit 1 includes a display panel 1a and a display control unit 1b.
The display panel 1a constitutes display means for displaying an image recorded in the image recording unit 6 (for example, the image P or the like; see FIG. 9B). Examples of the display panel 1a include a liquid crystal display panel and an organic EL display panel. However, the display panel 1a is an example and is not limited thereto.
The display control unit 1b displays a predetermined image on the display screen of the display panel 1a based on the image data of a predetermined size read from the image recording unit 6 and decoded by the image processing unit 2.

また、表示制御部1bは、画像内で顔識別部3i(後述)により識別された特定画像領域としての顔領域に対して所定の加工処理を施して表示パネル1aに表示させる。具体的には、例えば、表示制御部1bは、画像記録部6に記録されている画像における、顔識別部3iにより識別された顔領域に対応する画像領域を所定の拡大倍率で拡大して表示パネル1aの表示画面に表示させる(図示略)。また、例えば、表示制御部1bは、画像記録部6に記録されている画像における、顔識別部3iにより識別された顔領域に対応する画像領域に対してデモザイク処理を施して表示パネル1aの表示画面に表示させる(図示略)。
また、表示制御部1bは、顔識別部3iにより顔領域が複数識別された場合には、順次識別された顔領域に対応する画像領域に対して所定の加工処理を施した後、これらの画像領域を所定の表示時間で切り替えて表示パネル1aの表示画面に表示させる。
なお、所定の加工処理として例示したものは一例であってこれらに限られるものではない。
このように、表示制御部1bは、画像内で識別手段により識別された特定画像領域に相当する画像領域に対して所定の加工処理を施して表示パネル1aに表示させる表示制御手段を構成している。
In addition, the display control unit 1b performs predetermined processing on the face area as the specific image area identified by the face identification unit 3i (described later) in the image, and causes the display panel 1a to display the face area. Specifically, for example, the display control unit 1b enlarges and displays an image region corresponding to the face region identified by the face identifying unit 3i in the image recorded in the image recording unit 6 at a predetermined magnification. It is displayed on the display screen of the panel 1a (not shown). Further, for example, the display control unit 1b performs demosaic processing on the image area corresponding to the face area identified by the face identification unit 3i in the image recorded in the image recording unit 6 to display on the display panel 1a. It is displayed on the screen (not shown).
Further, when a plurality of face areas are identified by the face identifying section 3i, the display control section 1b performs predetermined processing on the image areas corresponding to the sequentially identified face areas, and then these images are displayed. The areas are switched at a predetermined display time and displayed on the display screen of the display panel 1a.
In addition, what was illustrated as a predetermined | prescribed process is an example, and is not restricted to these.
In this way, the display control unit 1b configures display control means that performs predetermined processing on the image area corresponding to the specific image area identified by the identification means in the image and displays the image area on the display panel 1a. Yes.

画像処理部2は、画像記録部6から読み出された表示対象に係る画像Pの画像データや動画像データを対応する所定の符号化方式(例えば、JPEG形式、モーションJPEG形式、MPEG形式など)に従って復号して、表示制御部1bに出力する。また、画像処理部2は、画像記録部6から読み出された画像データを、例えば、表示パネル1aの表示解像度等に基づいて所定サイズ(例えば、VGAやQVGAサイズ)に縮小して表示制御部1bに出力する。
また、画像処理部2は、画像識別処理にて、表示対象に係る画像Pの輝度画像データLから縮小画像データR(図4(a)〜図4(f)参照)を生成する縮小画像生成部2aを具備している。
The image processing unit 2 is a predetermined encoding method (for example, JPEG format, motion JPEG format, MPEG format, etc.) corresponding to the image data or moving image data of the image P related to the display target read from the image recording unit 6. Are decoded and output to the display control unit 1b. The image processing unit 2 reduces the image data read from the image recording unit 6 to a predetermined size (for example, VGA or QVGA size) based on the display resolution of the display panel 1a, for example, and the display control unit. Output to 1b.
Further, the image processing unit 2 generates reduced image data R (see FIGS. 4A to 4F) from the luminance image data L of the image P related to the display object in the image identification process. Part 2a.

縮小画像生成部2aは、画像記録部(第2の記録手段)6から読み出された表示対象に係る画像Pの輝度画像データLに基づいて、水平(x軸)及び垂直(y軸)ともに所定の比率で縮小した縮小画像データRを生成する。具体的には、縮小画像生成部2aは、表示対象に係る画像Pの輝度画像データLに基づいて、当該画像データの水平及び垂直の画素を順次所定の比率(例えば、0.9倍)ずつ縮小することで解像度を段階的に低減させた縮小画像データRを順次生成する(図4(a)〜図4(f)参照)。   Based on the luminance image data L of the image P relating to the display target read from the image recording unit (second recording unit) 6, the reduced image generating unit 2 a is both horizontal (x axis) and vertical (y axis). Reduced image data R reduced at a predetermined ratio is generated. Specifically, the reduced image generation unit 2a sequentially sets the horizontal and vertical pixels of the image data in a predetermined ratio (for example, 0.9 times) sequentially based on the luminance image data L of the image P related to the display target. Reduced image data R whose resolution is reduced stepwise by reduction is sequentially generated (see FIGS. 4A to 4F).

なお、縮小画像の生成数(縮小回数)は、入力される輝度画像データのサイズや特定画像領域(顔領域)の識別精度や識別速度等を考慮して適宜任意に変更可能である。
このように、縮小画像生成部2aは、画像記録部6に記録されている画像を所定の比率で順次縮小して縮小画像を順次生成する画像縮小手段を構成している。
Note that the number of reduced image generations (number of reductions) can be arbitrarily changed as appropriate in consideration of the size of input luminance image data, the identification accuracy and identification speed of a specific image region (face region), and the like.
As described above, the reduced image generation unit 2a constitutes an image reduction unit that sequentially reduces the images recorded in the image recording unit 6 at a predetermined ratio to sequentially generate reduced images.

顔検出部3は、画像領域生成部3aと、一時記憶用メモリ3bと、評価値算出部3cと、第1算出制御部3dと、判断部3eと、評価閾値設定部3fと、画像領域指定部3gと、第2算出制御部3hと、顔識別部3iとを具備している。   The face detection unit 3 includes an image region generation unit 3a, a temporary storage memory 3b, an evaluation value calculation unit 3c, a first calculation control unit 3d, a determination unit 3e, an evaluation threshold setting unit 3f, and an image region designation 3g, the 2nd calculation control part 3h, and the face identification part 3i are comprised.

画像領域生成部3aは、表示対象に係る画像Pから第1領域A1及び第2領域A2をそれぞれ生成する。
即ち、画像領域生成部3aは、画像処理部2により生成された表示対象に係る画像Pの輝度画像データLから、評価値算出部3cによる顔の識別対象領域となる第1領域A1及び第2領域A2をそれぞれ複数生成する(図5参照)。具体的には、画像領域生成部3aは、第1領域A1及び第2領域A2の各々の所定の単位画素(例えば、1画素)からなる基準ブロックが直和分割されるように所定サイズ(例えば、24×24画素)の第1領域A1及び第2領域A2をそれぞれ生成する。
The image area generation unit 3a generates a first area A1 and a second area A2 from the image P related to the display target.
That is, the image area generation unit 3a uses the first area A1 and the second area to be face identification target areas by the evaluation value calculation unit 3c from the luminance image data L of the image P related to the display target generated by the image processing unit 2. A plurality of areas A2 are generated (see FIG. 5). Specifically, the image area generation unit 3a has a predetermined size (for example, so that a reference block composed of predetermined unit pixels (for example, one pixel) of each of the first area A1 and the second area A2 is divided into direct sums. , 24 × 24 pixels) first area A1 and second area A2.

例えば、第1領域A1及び第2領域A2の左上隅部(所定位置)の画素を基準ブロックとした場合、画像領域生成部3aは、図6(a)、図8等に示すように、当該第1領域A1及び第2領域A2の基準ブロックが市松模様状に配置されるように設定する。ここで、本実施例では、第1領域A1の基準ブロックは、市松模様状の黒の部分に該当し、第2領域A2の基準ブロックは、市松模様状の白の部分に該当する(図8等参照)。そして、画像領域生成部3aは、輝度画像データLや縮小画像データR内で第1領域A1に係る各基準ブロックを基準として所定サイズ(例えば、24×24画素)のサブウィンドウA(図5参照)を所定位置に複数設定することで、第1領域A1を順次生成する。そして、第1領域A1の生成後、画像領域生成部3aは、第1領域A1と同様に、輝度画像データLや縮小画像データR内で第2領域A2に係る各基準ブロックを基準として所定サイズ(例えば、24×24画素)のサブウィンドウAを所定位置に複数設定することで、第2領域A2を順次生成する。
具体的には、第1領域A1については、画像領域生成部3aは、例えば、座標(0, 0)の画素を基準ブロックとし、且つ、(0, 0),(23, 0),(0, 23),(23, 23)を四隅の座標とする第1領域A1(図6(a)参照)や、座標(2, 0)の画素を基準ブロックとし、且つ、(2, 0),(25, 0),(2, 23),(25, 23)を四隅の座標とする第1領域A1(図6(b)参照)や、座標(4, 0)の画素を基準ブロックとし、且つ、(4, 0),(27, 0),(4, 23),(27, 23)を四隅の座標とする第1領域A1(図6(c)参照)等を順次生成する。また、画像領域生成部3aは、輝度画像データLや縮小画像データR内で第1領域A1を右端まで生成すると、サブウィンドウAの設定位置をy軸方向に一画素ずらして、上記と同様に、左から右に第1領域A1を生成する。
同様に、第2領域A2については、画像領域生成部3aは、例えば、座標(1, 0)の画素を基準ブロックとし、且つ、(1, 0),(24, 0),(1, 23),(24, 23)を四隅の座標とする第2領域A2(図示略)や、座標(3, 0)の画素を基準ブロックとし、且つ、(3, 0),(26, 0),(3, 23),(26, 23)を四隅の座標とする第2領域A2(図示略)や、座標(5, 0)の画素を基準ブロックとし、且つ、(5, 0),(28, 0),(5, 23),(28, 23)を四隅の座標とする第2領域A2(図示略)等を順次生成する。また、画像領域生成部3aは、輝度画像データLや縮小画像データR内で第2領域A2を右端まで生成すると、サブウィンドウAの設定位置をy軸方向に一画素ずらして、上記と同様に、左から右に第2領域A2を生成する。
なお、図示は省略するが、画像領域生成部3aは、第1領域A1及び第2領域A2の右下隅部の画素の座標が輝度画像データLや縮小画像データRの右下隅部の画素の座標と一致するか、当該座標よりも大きくなった場合に、第1領域A1及び第2領域A2の生成を終了する。また、第1領域A1及び第2領域A2の生成方向(生成順序)は、一例であってこれに限られるものではなく、適宜任意に変更可能である。
For example, when the pixel in the upper left corner (predetermined position) of the first area A1 and the second area A2 is used as a reference block, the image area generation unit 3a is configured as shown in FIG. 6 (a), FIG. The reference blocks of the first area A1 and the second area A2 are set to be arranged in a checkered pattern. Here, in the present embodiment, the reference block of the first area A1 corresponds to a checkered black portion, and the reference block of the second area A2 corresponds to a checkered white portion (FIG. 8). Etc.). Then, the image area generation unit 3a has a predetermined size (for example, 24 × 24 pixels) sub-window A (see FIG. 5) with reference to each reference block related to the first area A1 in the luminance image data L and the reduced image data R. The first region A1 is sequentially generated by setting a plurality of to predetermined positions. Then, after the generation of the first area A1, the image area generation unit 3a, like the first area A1, has a predetermined size with reference to each reference block related to the second area A2 in the luminance image data L and the reduced image data R. By setting a plurality of sub-windows A (for example, 24 × 24 pixels) at predetermined positions, the second area A2 is sequentially generated.
Specifically, for the first area A1, the image area generation unit 3a uses, for example, a pixel at coordinates (0, 0) as a reference block, and (0, 0), (23, 0), (0 , 23), (23, 23) are the first area A1 (see FIG. 6A) having the coordinates of the four corners, the pixel at the coordinates (2, 0) is the reference block, and (2, 0), The first area A1 (see FIG. 6B) having (25, 0), (2, 23), (25, 23) as the coordinates of the four corners, and the pixel at the coordinates (4, 0) as the reference block, In addition, a first area A1 (see FIG. 6C) having four corner coordinates as (4, 0), (27, 0), (4, 23), and (27, 23) is sequentially generated. In addition, when the image area generation unit 3a generates the first area A1 to the right end in the luminance image data L and the reduced image data R, the setting position of the sub window A is shifted by one pixel in the y-axis direction, A first area A1 is generated from left to right.
Similarly, for the second area A2, the image area generation unit 3a uses, for example, a pixel at coordinates (1, 0) as a reference block, and (1, 0), (24, 0), (1, 23 ), (24, 23) as the second block A2 (not shown) having the coordinates of the four corners, and the pixel at the coordinates (3, 0) as the reference block, and (3, 0), (26, 0), The second area A2 (not shown) having the coordinates of (3, 23), (26, 23) and the pixel at the coordinates (5, 0) as a reference block, and (5, 0), (28 , 0), (5, 23), (28, 23) are sequentially generated as a second region A2 (not shown) having four corner coordinates. In addition, when the image region generation unit 3a generates the second region A2 to the right end in the luminance image data L and the reduced image data R, the setting position of the sub window A is shifted by one pixel in the y-axis direction, A second area A2 is generated from left to right.
Although illustration is omitted, the image area generation unit 3a determines that the coordinates of the pixels in the lower right corner of the first area A1 and the second area A2 are the coordinates of the pixels in the lower right corner of the luminance image data L and the reduced image data R. Or the generation of the first area A1 and the second area A2 is terminated. In addition, the generation direction (generation order) of the first area A1 and the second area A2 is an example and is not limited to this, and can be arbitrarily changed as appropriate.

また、画像領域生成部3aは、縮小画像生成部2aにより順次生成された輝度画像の縮小画像データRの各々から第1領域A1及び第2領域A2をそれぞれ複数生成する。即ち、画像領域生成部3aは、縮小画像生成部2aにより縮小画像データRが順次生成される毎に、当該縮小画像データRから第1領域A1及び第2領域A2をそれぞれ複数生成する。
このように、画像領域生成部3aは、画像記録部6に記録されている画像から第1領域A1及び第2領域A2をそれぞれ生成する生成手段を構成している。
The image area generator 3a generates a plurality of first areas A1 and a plurality of second areas A2 from each of the reduced image data R of the luminance image sequentially generated by the reduced image generator 2a. That is, every time the reduced image data R is sequentially generated by the reduced image generator 2a, the image area generator 3a generates a plurality of first areas A1 and second areas A2 from the reduced image data R, respectively.
In this way, the image area generation unit 3a constitutes a generation unit that generates the first area A1 and the second area A2 from the image recorded in the image recording unit 6, respectively.

一時記憶用メモリ3bは、画像領域生成部3aにより生成された第1領域A1及び第2領域A2の画像データを一時的に記憶する。即ち、画像領域生成部3aにより第1領域A1及び第2領域A2が順次生成されると、一時記憶用メモリ3bに、当該第1領域A1及び第2領域A2の画像データが順次記憶される。
また、一時記憶用メモリ3bは、評価値算出部3cにより算出された第1領域A1や第2領域A2等の識別対象領域と識別用情報との類似度に係る類似評価値を識別対象領域と対応付けて一時的に記憶する。
The temporary storage memory 3b temporarily stores the image data of the first area A1 and the second area A2 generated by the image area generation unit 3a. That is, when the first area A1 and the second area A2 are sequentially generated by the image area generator 3a, the image data of the first area A1 and the second area A2 are sequentially stored in the temporary storage memory 3b.
Further, the temporary storage memory 3b uses the similarity evaluation value related to the similarity between the identification target area such as the first area A1 and the second area A2 calculated by the evaluation value calculation unit 3c and the identification information as the identification target area. Temporarily store it in association.

評価値算出部3cは、表示対象の画像と識別用情報記録部5に記録されている識別用情報との類似度に係る類似評価値を算出する。
即ち、評価値算出部3cは、一時記憶用メモリ3bから画像領域生成部3aにより生成された第1領域A1や第2領域A2の画像データをそれぞれ取得して、当該第1領域A1や第2領域A2と識別用情報との類似度に係る類似評価値を算出する。また、評価値算出部3cは、入力される第1領域A1や第2領域A2の画像データについて、例えば、adaboost(アダブースト)出力計算を用いて類似評価値を算出する。具体的には、評価値算出部3cは、第1領域A1や第2領域A2等の識別対象領域が顔であるか否かを判断するための複数のサブ識別器を具備しており、これら複数のサブ識別器が複数(例えば、20)のステージに分けて規定されている。例えば、サブ識別器部は、第1ステージに2つ、第2ステージに5つ、第3ステージに10、第4ステージに20といったように、各ステージに所定個数のサブ識別器が規定されている。なお、より低い(数値の小さい)ステージに規定されているサブ識別器ほど、顔であるか否かの判断の信頼度がより高く設定されても良い。
そして、評価値算出部3cは、識別対象領域の画像データを、ステージ順に各ステージのサブ識別器に入力していく。評価値算出部3cは、一のステージの全てのサブ識別器にて顔であると判断された画像データ(図7における「T」)を次のステージのサブ識別器に入力する一方で、顔でないと判断された画像データ(図7における「F」)のそれ以降の識別を中止する。評価値算出部3cは、第1領域A1や第2領域A2等の各識別対象領域について、サブ識別器の識別結果に従って類似評価値を算出する。具体的には、評価値算出部3cは、各識別対象領域について、複数のサブ識別器を規定する複数のステージの通過数、即ち、各ステージに規定されている全てのサブ識別器にて顔であると判断された場合には、当該ステージを通過して次のステージに受け渡されるが、通過した全てのステージに規定されているサブ識別器の個数を加算した値を類似評価値として算出する。一方、ステージの通過数が「0」の場合(第1ステージを通過できずに第2ステージに受け渡されなかった場合)、評価値算出部3cは、例えば、負の値など所定の最低値を類似評価値として算出する。
The evaluation value calculation unit 3 c calculates a similarity evaluation value related to the similarity between the display target image and the identification information recorded in the identification information recording unit 5.
That is, the evaluation value calculation unit 3c acquires the image data of the first region A1 and the second region A2 generated by the image region generation unit 3a from the temporary storage memory 3b, respectively. A similarity evaluation value related to the similarity between the area A2 and the identification information is calculated. Further, the evaluation value calculation unit 3c calculates a similarity evaluation value by using, for example, adaboost output calculation for the image data of the first region A1 and the second region A2 that are input. Specifically, the evaluation value calculation unit 3c includes a plurality of sub classifiers for determining whether the identification target area such as the first area A1 or the second area A2 is a face. A plurality of sub classifiers are defined in a plurality of (for example, 20) stages. For example, the sub-classifier unit has a predetermined number of sub-classifiers defined in each stage, such as two in the first stage, five in the second stage, ten in the third stage, and twenty in the fourth stage. Yes. Note that the sub-classifier defined for a lower (smaller numerical value) stage may be set to have a higher reliability in determining whether or not it is a face.
Then, the evaluation value calculation unit 3c inputs the image data of the identification target area to the sub-classifiers of each stage in the order of stages. The evaluation value calculation unit 3c inputs image data ("T" in FIG. 7) determined to be a face by all the sub-classifiers of one stage to the sub-classifier of the next stage, The subsequent identification of the image data determined to be not (“F” in FIG. 7) is stopped. The evaluation value calculation unit 3c calculates a similarity evaluation value for each identification target area such as the first area A1 and the second area A2 according to the identification result of the sub-classifier. Specifically, the evaluation value calculation unit 3c determines, for each identification target region, the number of passages of a plurality of stages that define a plurality of sub-classifiers, that is, faces at all sub-classifiers defined in each stage. If it is determined that the number of sub-discriminators specified in all the stages that have passed through the stage is passed, the value is calculated as the similarity evaluation value. To do. On the other hand, when the number of passes through the stage is “0” (when the stage cannot be passed through the first stage and is not delivered to the second stage), the evaluation value calculation unit 3c, for example, has a predetermined minimum value such as a negative value Is calculated as a similarity evaluation value.

例えば、図7に示すように、評価値算出部3cは、第1ステージの2つのサブ識別器に所定の順序で識別対象領域の画像データを入力し、これら2つのサブ識別器の両方にて顔であると判断された識別対象領域の画像データを、次のステージである第2ステージのサブ識別器に入力する。一方、第1ステージの2つ目のサブ識別器までに評価値算出部3cにより算出された類似度が予め設定された閾値未満と判断されると、評価値算出部3cは、当該画像データのそれ以降の識別を中止して、所定の負の値を類似評価値として算出する。具体的には、例えば、第1ステージのサブ識別器は、青空や無地の背景部分といった輝度変化の少ない画像領域を判断するものであり、当該第1ステージにて、青空や無地の背景部分といった輝度変化の少ない画像領域であると判断されると、それ以降の顔であるか否かの識別が中止される。
また、評価値算出部3cは、第1ステージにて顔であると判断された識別対象領域の画像データについて、第1ステージと同様に、第2ステージの5つのサブ識別器に所定の順序で入力し、1つ目のサブ識別器から5つ目のサブ識別器までに算出された類似度が予め設定された閾値以上と判断された画像データを、次のステージである第3ステージのサブ識別器に入力する。一方、第2ステージの1つ目のサブ識別器から5つ目のサブ識別器までに評価値算出部3cにより算出された類似度が予め設定された閾値未満と判断されると、評価値算出部3cは、当該画像データのそれ以降の識別を中止して、通過済みの一つ前のステージ(第1ステージ)までのサブ識別器の総数(第1ステージのみ通過している場合、「2」)を類似評価値として算出する。
評価値算出部3cは、第3ステージ以降についても上記と同様にして類似度を算出していく。つまり、より顔であると判断される可能性の高い画像領域ほど、より先のステージのサブ識別器に入力される。
For example, as shown in FIG. 7, the evaluation value calculation unit 3c inputs the image data of the identification target area to the two sub-classifiers in the first stage in a predetermined order, and both of these two sub-classifiers The image data of the identification target area determined to be a face is input to the second stage sub-classifier, which is the next stage. On the other hand, if it is determined that the similarity calculated by the evaluation value calculation unit 3c up to the second sub classifier of the first stage is less than a preset threshold, the evaluation value calculation unit 3c The subsequent identification is stopped, and a predetermined negative value is calculated as the similarity evaluation value. Specifically, for example, the first stage sub-identifier determines an image area with little luminance change, such as a blue sky or a plain background part. In the first stage, a blue sky or a plain background part is used. If it is determined that the image area has little change in luminance, the identification of whether or not the face is a subsequent face is stopped.
Further, the evaluation value calculation unit 3c applies the image data of the identification target area determined to be a face in the first stage to the five sub-classifiers in the second stage in a predetermined order as in the first stage. The input image data for which the similarity calculated from the first sub-classifier to the fifth sub-classifier is determined to be greater than or equal to a preset threshold value is input to the third stage, which is the next stage. Input to the classifier. On the other hand, if the similarity calculated by the evaluation value calculation unit 3c from the first sub-classifier of the second stage to the fifth sub-classifier is determined to be less than a preset threshold value, the evaluation value is calculated. The unit 3c stops the subsequent identification of the image data, and the total number of sub classifiers up to the previous stage (first stage) that has passed (if only the first stage passes, “2 ]) As a similarity evaluation value.
The evaluation value calculation unit 3c calculates the similarity in the same manner as described above for the third stage and thereafter. That is, an image region having a higher possibility of being determined to be a face is input to the sub-classifier at the earlier stage.

なお、評価値算出部3cによる類似度の算出方法は、一例であってこれに限られるものではなく、適宜任意に変更可能である。
このように、評価値算出部3cは、画像記録部6に記録されている画像と識別用情報記録部5に記録されている識別用情報との類似度を算出する算出手段を構成している。
Note that the method of calculating the similarity by the evaluation value calculation unit 3c is an example, and is not limited to this, and can be arbitrarily changed as appropriate.
As described above, the evaluation value calculation unit 3 c constitutes a calculation unit that calculates the similarity between the image recorded in the image recording unit 6 and the identification information recorded in the identification information recording unit 5. .

第1算出制御部3dは、第1領域A1の各々と識別用情報記録部5に記録されている識別用情報との類似度に係る類似評価値を評価値算出部3cにより算出させる制御を行う。
即ち、第1算出制御部3dは、画像領域生成部3aにより第1領域A1が生成される毎に、評価値算出部3cを制御して、生成された各第1領域A1と識別用情報との類似度に係る類似評価値を算出させる。
ここで、第1算出制御部3dは、画像領域生成部3aにより生成された第1領域A1の各々と識別用情報との類似度を評価値算出部3cにより算出させる第1の算出制御手段を構成している。
The first calculation control unit 3d performs control to cause the evaluation value calculation unit 3c to calculate a similarity evaluation value related to the similarity between each of the first areas A1 and the identification information recorded in the identification information recording unit 5. .
That is, the first calculation control unit 3d controls the evaluation value calculation unit 3c every time the first region A1 is generated by the image region generation unit 3a, and generates the generated first regions A1 and the identification information. The similarity evaluation value related to the similarity is calculated.
Here, the first calculation control unit 3d includes a first calculation control unit that causes the evaluation value calculation unit 3c to calculate the similarity between each of the first regions A1 generated by the image region generation unit 3a and the identification information. It is composed.

判断部3eは、第2領域A2の各々について識別用情報との類似度に係る類似評価値を評価値算出部3cにより算出させるか否かを判断する。
即ち、判断部3eは、第1算出制御部3dによる制御下にて評価値算出部3cにより算出された類似評価値に基づいて、第2領域A2の各々について識別用情報との類似度に係る類似評価値を評価値算出部3cにより算出させるか否かを判断する。具体的には、判断部3eは、識別対象領域となる第2領域A2の各々について、当該第2領域A2の基準ブロックと隣設する基準ブロックを具備する少なくとも一の第1領域A1に係る類似評価値に基づいて、識別対象領域(第2領域A2)の類似評価値を評価値算出部3cにより算出させるか否かを判断する。より具体的には、判断部3eは、複数の第2領域A2、…のうち、識別対象領域となる第2領域A2の基準ブロックと隣設する基準ブロックを具備する各第1領域A1の類似評価値を加算した値を第2領域A2の判定用評価値として、評価閾値設定部3fにより設定された評価閾値以上であるか否かを判断する。そして、判断部3eは、第1領域A1に係る判定用評価値が評価閾値設定部3fにより設定された評価閾値以上であると判断した場合に、評価値算出部3cにより類似評価値を算出すると判断する。一方、判断部3eは、第1領域A1に係る判定用評価値が評価閾値未満であると判断した場合に、評価値算出部3cにより類似評価値を算出しないと判断する。
例えば、図8に示すように、識別対象領域となる第2領域A2の基準ブロックに4つの第1領域A1の基準ブロックが隣設している場合に、判断部3eは、これら4つの基準ブロックに係る第1領域A1の類似評価値(例えば、「2」、「2」、「7」、「7」等)を全て加算した値(第2領域A2の判定用評価値)が評価閾値以上であるか否かを判断する。そして、判断部3eは、判定用評価値が評価閾値以上であると判断された場合に、識別対象領域となる第2領域A2について評価値算出部3cにより類似評価値を算出すると判断する一方で、判定用評価値が評価閾値未満であると判断された場合に、識別対象領域となる第2領域A2について評価値算出部3cにより類似評価値を算出しないと判断する。
The determination unit 3e determines whether or not the evaluation value calculation unit 3c calculates the similarity evaluation value related to the similarity with the identification information for each of the second regions A2.
That is, the determination unit 3e relates to the similarity with the identification information for each of the second regions A2 based on the similarity evaluation value calculated by the evaluation value calculation unit 3c under the control of the first calculation control unit 3d. It is determined whether or not the similarity evaluation value is calculated by the evaluation value calculation unit 3c. Specifically, for each of the second areas A2 serving as identification target areas, the determination unit 3e is similar to at least one first area A1 including a reference block adjacent to the reference block of the second area A2. Based on the evaluation value, it is determined whether or not the evaluation value calculation unit 3c calculates the similarity evaluation value of the identification target region (second region A2). More specifically, the determination unit 3e is similar to each first area A1 including a reference block adjacent to the reference block of the second area A2 serving as the identification target area among the plurality of second areas A2,. A value obtained by adding the evaluation values is used as a determination evaluation value for the second region A2, and it is determined whether or not the evaluation threshold value is greater than or equal to the evaluation threshold set by the evaluation threshold setting unit 3f. When the determination unit 3e determines that the evaluation value for determination related to the first region A1 is equal to or greater than the evaluation threshold set by the evaluation threshold setting unit 3f, the evaluation value calculation unit 3c calculates the similar evaluation value. to decide. On the other hand, when determining that the evaluation value for determination related to the first region A1 is less than the evaluation threshold, the determination unit 3e determines that the evaluation value calculation unit 3c does not calculate a similar evaluation value.
For example, as shown in FIG. 8, when four reference blocks of the first area A1 are adjacent to the reference block of the second area A2 that is the identification target area, the determination unit 3e A value obtained by adding all the similar evaluation values (for example, “2”, “2”, “7”, “7”, etc.) of the first region A1 related to the second region A2 is equal to or higher than the evaluation threshold value. It is determined whether or not. When the determination unit 3e determines that the evaluation value for determination is equal to or greater than the evaluation threshold value, the determination unit 3e determines that the evaluation value calculation unit 3c calculates a similar evaluation value for the second region A2 that is the identification target region. When it is determined that the evaluation value for determination is less than the evaluation threshold value, it is determined that the evaluation value calculation unit 3c does not calculate the similar evaluation value for the second region A2 that is the identification target region.

なお、識別対象領域となる第2領域A2の判定用評価値として、当該第2領域A2の基準ブロックと隣設する基準ブロックを具備する各第1領域A1の類似評価値を加算した値を例示したが、一例であってこれに限られるものではなく、例えば、複数の第1領域A1、…の類似評価値の平均値、最大値、最小値、中央値など適宜任意に変更可能である。
このように、判断部3eは、第1算出制御部3dにより算出された類似度に基づいて、第2領域A2の各々について識別用情報との類似度を評価値算出部3cにより算出させるか否かを判断する判断手段を構成している。
An example of the evaluation value for determination of the second area A2 as the identification target area is a value obtained by adding the similarity evaluation values of the first areas A1 including the reference block adjacent to the reference block of the second area A2. However, this is merely an example, and the present invention is not limited to this. For example, the average value, maximum value, minimum value, median value, etc., of the similar evaluation values of the plurality of first regions A1,.
In this manner, the determination unit 3e determines whether or not the evaluation value calculation unit 3c calculates the similarity with the identification information for each of the second regions A2 based on the similarity calculated by the first calculation control unit 3d. It constitutes a judging means for judging whether or not.

評価閾値設定部3fは、判断部3eによる判断基準に係る評価閾値を設定する。
即ち、評価閾値設定部3fは、第2領域A2の各々と識別用情報との類似度に係る類似評価値を評価値算出部3cにより算出させるか否かの判断部3eによる判断基準となる評価閾値を設定する。具体的には、評価閾値設定部3fは、ユーザによる操作入力部7の所定操作に基づいて入力された所定の値、或いは、予めデフォルトとして設定されている所定の値を、判断部3eによる判断基準となる評価閾値として設定する。
ここで、評価閾値設定部3fは、第2領域A2の各々についての識別用情報との類似度を評価値算出部3cにより算出させるか否かの判断部3eによる判断基準となる閾値を設定する設定手段を構成している。
The evaluation threshold value setting unit 3f sets an evaluation threshold value related to the determination criterion by the determination unit 3e.
That is, the evaluation threshold value setting unit 3f is an evaluation that is a determination criterion by the determination unit 3e as to whether or not the evaluation value calculation unit 3c is to calculate a similarity evaluation value related to the similarity between each of the second areas A2 and the identification information. Set the threshold. Specifically, the evaluation threshold value setting unit 3f determines a predetermined value input based on a predetermined operation of the operation input unit 7 by the user or a predetermined value set in advance as a default by the determination unit 3e. Set as a reference evaluation threshold.
Here, the evaluation threshold value setting unit 3f sets a threshold value that serves as a determination criterion by the determination unit 3e as to whether or not the evaluation value calculation unit 3c is to calculate the similarity to the identification information for each of the second areas A2. It constitutes setting means.

画像領域指定部3gは、複数の第2領域A2、…の中で、識別用情報との類似度に係る類似評価値を評価値算出部3cにより算出させる画像領域を指定する。
即ち、画像領域指定部3gは、第1算出制御部3dによる制御下にて評価値算出部3cにより算出された類似評価値に基づいて、第2領域A2の各々のうち、類似評価値を評価値算出部3cにより算出させる画像領域を指定する。具体的には、画像領域指定部3gは、判断部3eによる判断の結果、複数の第2領域A2、…の中で、評価値算出部3cにより識別用情報との類似度に係る類似評価値を算出すると判断された第2領域A2を、類似評価値を算出する画像領域として指定する。例えば、画像領域指定部3gは、識別対象領域となる第2領域A2の基準ブロックに隣設する基準ブロックに係る第1領域A1の類似評価値(例えば、「2」、「2」、「7」、「7」等)を全て加算した値(第2領域A2の判定用評価値)が評価閾値以上であると判断された第2領域A2を、類似評価値を算出する画像領域として指定する。
ここで、画像領域指定部3gは、第1算出制御部3dにより算出された類似度に基づいて、画像領域生成部3aにより生成された第2領域A2の各々のうち、識別用情報との類似度を評価値算出部3cにより算出させる画像領域を指定する指定手段を構成している。
The image area designation unit 3g designates an image area in which the evaluation value calculation unit 3c calculates the similarity evaluation value related to the similarity to the identification information among the plurality of second areas A2,.
That is, the image area designating unit 3g evaluates the similarity evaluation value of each of the second areas A2 based on the similarity evaluation value calculated by the evaluation value calculation unit 3c under the control of the first calculation control unit 3d. An image region to be calculated by the value calculation unit 3c is designated. Specifically, as a result of the determination by the determination unit 3e, the image region specifying unit 3g uses the evaluation value calculation unit 3c to determine the similarity evaluation value related to the similarity to the identification information among the plurality of second regions A2,. The second area A2 that is determined to be calculated is designated as an image area for calculating the similarity evaluation value. For example, the image area designating unit 3g uses the similarity evaluation values (for example, “2”, “2”, “7” of the first area A1 related to the reference block adjacent to the reference block of the second area A2 serving as the identification target area. ”,“ 7 ”, etc.) is designated as the image area for calculating the similarity evaluation value, for which the value (evaluation value for determination of the second area A2) determined to be equal to or greater than the evaluation threshold value. .
Here, the image area designating unit 3g is similar to the identification information among the second areas A2 generated by the image area generating unit 3a based on the similarity calculated by the first calculation control unit 3d. A designating means for designating an image area in which the degree is calculated by the evaluation value calculation unit 3c is configured.

第2算出制御部3hは、画像領域指定部3gにより指定された画像領域と識別用情報との類似度に係る類似評価値を評価値算出部3cにより算出させる制御を行う。
即ち、第2算出制御部3hは、画像領域生成部3aにより生成された第2領域A2の各々のうち、画像領域指定部3gにより画像領域として指定された第2領域A2と識別用情報との類似度に係る類似評価値を評価値算出部3cにより算出させる。
ここで、第2算出制御部3hは、画像領域指定部3gにより指定された画像領域と識別用情報との類似度を評価値算出部3cにより算出させる第2の算出制御手段を構成している。
The second calculation control unit 3h performs control to cause the evaluation value calculation unit 3c to calculate a similarity evaluation value related to the similarity between the image region specified by the image region specifying unit 3g and the identification information.
That is, the second calculation control unit 3h includes, among the second regions A2 generated by the image region generation unit 3a, the second region A2 specified as the image region by the image region specification unit 3g and the identification information. The similarity evaluation value related to the similarity is calculated by the evaluation value calculation unit 3c.
Here, the second calculation control unit 3h constitutes a second calculation control unit that causes the evaluation value calculation unit 3c to calculate the similarity between the image region specified by the image region specifying unit 3g and the identification information. .

顔識別部3iは、表示対象としての画像内で顔領域を識別する。
即ち、顔識別部3iは、第1算出制御部3dにより算出された各第1領域A1の類似評価値及び第2算出制御部3hにより算出された各第2領域A2の類似評価値のうち、少なくとも一方に基づいて、所定の画像内で顔領域(特定画像領域)を識別する。具体的には、顔識別部3iは、表示対象としての画像の輝度画像や、縮小画像生成部2aにより生成された縮小画像の各々から生成された第1領域A1や第2領域A2の類似評価値に基づいて、顔領域を識別する処理を行う(図9(a)参照)。なお、図9(a)にあっては、輝度画像や各縮小画像内で識別された各顔領域に各仮顔枠Waが重畳された状態を模式的に示しているが、当該仮顔枠Waは表示パネル1aに表示される表示画像上に表示されても良いし、表示されなくても良い。
そして、顔識別部3iは、輝度画像や縮小画像から識別された少なくとも一の顔領域を所定の演算式に従って統合して、表示対象の画像内で一の顔領域に相当する画像領域を特定する(図9(b)参照)。
The face identifying unit 3i identifies a face area in an image as a display target.
That is, the face identification unit 3i includes the similarity evaluation value of each first region A1 calculated by the first calculation control unit 3d and the similarity evaluation value of each second region A2 calculated by the second calculation control unit 3h. Based on at least one, a face area (specific image area) is identified in a predetermined image. Specifically, the face identification unit 3i evaluates the similarity between the first region A1 and the second region A2 generated from the luminance image of the image to be displayed and the reduced image generated by the reduced image generation unit 2a. Based on the value, the face area is identified (see FIG. 9A). FIG. 9A schematically shows a state in which each temporary face frame Wa is superimposed on each face area identified in the luminance image and each reduced image. Wa may be displayed on the display image displayed on the display panel 1a or may not be displayed.
Then, the face identifying unit 3i integrates at least one face area identified from the luminance image or the reduced image according to a predetermined arithmetic expression, and specifies an image area corresponding to the one face area in the display target image. (See FIG. 9B).

なお、特定画像領域として、人の顔領域を例示したが、一例であってこれに限られるものではなく、適宜任意に変更可能であり、例えば、物体、植物、動物などの主要領域であっても良い。
このように、顔識別部3iは、第1算出制御部3d及び第2算出制御部3hのうちの少なくとも一方により算出された類似度に基づいて、画像内で特定画像領域を識別する識別手段を構成している。
Although the human face area is illustrated as the specific image area, it is an example and is not limited thereto, and can be arbitrarily changed as appropriate, for example, a main area such as an object, a plant, or an animal. Also good.
As described above, the face identifying unit 3i includes identifying means for identifying a specific image region in the image based on the similarity calculated by at least one of the first calculation control unit 3d and the second calculation control unit 3h. It is composed.

メモリ4は、例えば、DRAM(Dynamic Random Access Memory)等により構成され、画像処理部2や顔検出部3や中央制御部8等によって処理されるデータ等を一時的に記憶する。具体的には、メモリ4は、画像メモリ4aと、格納用メモリ4bとを具備している。   The memory 4 is constituted by, for example, a DRAM (Dynamic Random Access Memory) or the like, and temporarily stores data processed by the image processing unit 2, the face detection unit 3, the central control unit 8, and the like. Specifically, the memory 4 includes an image memory 4a and a storage memory 4b.

画像メモリ4aは、画像記録部6から読み出された表示対象となる画像の画像データを一時的に記憶する。
格納用メモリ4bは、画像記録部6から読み出された表示対象となる画像における、顔識別部3iにより識別された顔領域に対応する画像領域の画像データを一時的に格納する。
The image memory 4 a temporarily stores image data of an image to be displayed read from the image recording unit 6.
The storage memory 4b temporarily stores image data of an image area corresponding to the face area identified by the face identifying section 3i in the image to be displayed read from the image recording section 6.

識別用情報記録部5は、例えば、不揮発性メモリ(フラッシュメモリ)等により構成されている。また、識別用情報記録部5は、第1の記録手段として、特定画像領域を識別するための識別用情報を記録している。即ち、識別用情報記録部5は、顔検出部3に入力された画像、具体的には、画像領域生成部3aにより生成された第1領域A1及び第2領域A2の各々について、特定画像領域として顔を識別するための識別用情報を記録している。
ここで、識別用情報は、例えば、ニューラルネット、アダブースト、サポートベクターマシン等の所定の顔検出部3のサブ識別器に入力される第1領域A1及び第2領域A2について、顔であるか否かを判定するための各種の情報である。
The identification information recording unit 5 is constituted by, for example, a nonvolatile memory (flash memory). In addition, the identification information recording unit 5 records identification information for identifying a specific image area as a first recording unit. That is, the identification information recording unit 5 applies the specific image region to the image input to the face detection unit 3, specifically, the first region A1 and the second region A2 generated by the image region generation unit 3a. ID information for identifying a face is recorded.
Here, the identification information is, for example, whether or not the first area A1 and the second area A2 are input to the sub-classifier of the predetermined face detection unit 3 such as a neural network, Adaboost, or support vector machine. It is various information for determining.

画像記録部6は、例えば、不揮発性メモリ(フラッシュメモリ)等により構成されている。また、画像記録部6は、第2の記録手段として、表示部1に表示される画像の画像データを所定の符号化方式で符号化して記録する。
なお、画像データは、所定のサイズ(例えば、1000万画素)で撮像された記録用画像の画像データであっても良いし、表示用に所定のサイズ(例えば、VGAやQVGAサイズ)に縮小された表示用画像の画像データであっても良い。
The image recording unit 6 is configured by, for example, a nonvolatile memory (flash memory). The image recording unit 6 encodes and records image data of an image displayed on the display unit 1 by a predetermined encoding method as a second recording unit.
Note that the image data may be image data of a recording image captured at a predetermined size (for example, 10 million pixels), or reduced to a predetermined size (for example, VGA or QVGA size) for display. It may be image data of a display image.

操作入力部7は、例えば、数値、文字等を入力するためのデータ入力キーや、データの選択、送り操作等を行うための上下左右移動キーや各種機能キー等によって構成される操作部を有し、これらの操作部の操作に応じて所定の操作信号を中央制御部8に出力する。   The operation input unit 7 has an operation unit constituted by, for example, data input keys for inputting numerical values, characters, etc., up / down / left / right movement keys for performing data selection, feeding operations, etc., various function keys, and the like. Then, a predetermined operation signal is output to the central control unit 8 according to the operation of these operation units.

中央制御部8は、画像表示装置100の各部を制御するものである。具体的には、中央制御部8は、図示は省略するが、CPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)を備え、画像表示装置100用の各種処理プログラム(図示略)に従って各種の制御動作を行う。   The central control unit 8 controls each unit of the image display device 100. Specifically, although not shown, the central control unit 8 includes a CPU (Central Processing Unit), a RAM (Random Access Memory), and a ROM (Read Only Memory), and various processing programs for the image display device 100 ( Various control operations are performed according to (not shown).

次に、画像表示装置100による画像識別処理について、図2〜図9を参照して説明する。
図2は、画像識別処理に係る動作の一例を示すフローチャートである。また、図3は、顔検出処理に係る動作の一例を示すフローチャートである。
なお、以下の説明にあっては、特定画像領域としての顔領域が含まれている画像Pを用いるものとする。
Next, image identification processing by the image display apparatus 100 will be described with reference to FIGS.
FIG. 2 is a flowchart illustrating an example of an operation related to the image identification process. FIG. 3 is a flowchart illustrating an example of an operation related to the face detection process.
In the following description, an image P including a face area as a specific image area is used.

図2に示すように、先ず、中央制御部8は、画像記録部6から表示対象となる所望の画像Pの画像データを読み出して画像メモリ4aに一時的に記憶する(ステップS1)。次に、画像処理部2は、画像メモリ4aから画像データを取得して、当該画像データを対応する所定の符号化方式(例えば、JPEG形式)に従って復号した後、所定サイズ(例えば、VGAやQVGAサイズ)に縮小して縮小後の画像データの輝度画像データLを生成する(ステップS2)。   As shown in FIG. 2, first, the central control unit 8 reads out image data of a desired image P to be displayed from the image recording unit 6 and temporarily stores it in the image memory 4a (step S1). Next, the image processing unit 2 acquires image data from the image memory 4a, decodes the image data in accordance with a corresponding predetermined encoding method (for example, JPEG format), and then has a predetermined size (for example, VGA or QVGA). The brightness image data L of the reduced image data is generated (step S2).

続けて、顔検出部3は、輝度画像データLから顔検出処理を行う(ステップS3;図3参照)。
ここで、顔検出処理について図3を参照して詳細に説明する。
Subsequently, the face detection unit 3 performs face detection processing from the luminance image data L (step S3; see FIG. 3).
Here, the face detection process will be described in detail with reference to FIG.

図3に示すように、先ず、顔検出部3は、画像処理部2により生成された輝度画像データLから、評価値算出部3cによる顔の識別対象領域となる所定サイズ(例えば、24×24画素)の第1領域A1を生成可能であるか否かを判定する(ステップS31)。具体的には、顔検出部3は、輝度画像データL内で第1領域A1を設定するためのサブウィンドウAの右下隅部の画素のx座標やy座標が輝度画像データLの右下隅部の画素のx座標やy座標よりも大きくなったか否かに応じて第1領域A1を生成可能であるか否かを判定する。
ここで、第1領域A1を生成可能であると判定されると(ステップS31;YES)、画像領域生成部3aは、輝度画像データLから第1領域A1を生成する(ステップS32)。具体的には、画像領域生成部3aは、第1領域A1及び第2領域A2の左上隅部の基準ブロックが市松模様状に配置されるように設定した後、輝度画像データL内で第1領域A1に係る各基準ブロック(例えば、左上隅部の画素等)を基準として所定サイズ(例えば、24×24画素)のサブウィンドウAを所定位置に設定することで、第1領域A1を生成する(図5及び図6(a)等参照)。そして、顔検出部3は、画像領域生成部3aにより生成された第1領域A1の画像データを一時記憶用メモリ3bに一時的に記憶する。
As shown in FIG. 3, first, the face detection unit 3 uses a predetermined size (for example, 24 × 24) as a face identification target region by the evaluation value calculation unit 3 c from the luminance image data L generated by the image processing unit 2. It is determined whether or not the first area A1 of (pixel) can be generated (step S31). Specifically, the face detection unit 3 determines that the x-coordinate and y-coordinate of the pixel at the lower right corner of the sub-window A for setting the first area A1 in the luminance image data L are the lower right corner of the luminance image data L. It is determined whether or not the first region A1 can be generated depending on whether or not the pixel becomes larger than the x coordinate or the y coordinate.
Here, if it is determined that the first region A1 can be generated (step S31; YES), the image region generation unit 3a generates the first region A1 from the luminance image data L (step S32). Specifically, the image area generation unit 3a sets the reference blocks at the upper left corners of the first area A1 and the second area A2 to be arranged in a checkered pattern, and then the first in the luminance image data L. A first area A1 is generated by setting a subwindow A of a predetermined size (for example, 24 × 24 pixels) at a predetermined position with reference to each reference block (for example, the pixel at the upper left corner) related to the area A1 ( FIG. 5 and FIG. 6 (a) etc.). The face detection unit 3 temporarily stores the image data of the first area A1 generated by the image area generation unit 3a in the temporary storage memory 3b.

次に、第1算出制御部3dは、第1領域A1と識別用情報記録部5に記録されている識別用情報との類似度に係る類似評価値を評価値算出部3cにより算出させる(ステップS33)。具体的には、評価値算出部3cは、例えば、adaboost出力計算を用いて、第1領域A1についてのサブ識別器の識別結果に従って類似評価値を算出する(図7参照)。
続けて、顔検出部3は、評価値算出部3cにより算出された第1領域A1に係る類似評価値を一時記憶用メモリ3bに一時的に記憶する(ステップS34)。
Next, the first calculation control unit 3d causes the evaluation value calculation unit 3c to calculate a similarity evaluation value related to the similarity between the first area A1 and the identification information recorded in the identification information recording unit 5 (Step S1). S33). Specifically, the evaluation value calculation unit 3c calculates a similar evaluation value according to the identification result of the sub classifier for the first area A1 using, for example, adaboost output calculation (see FIG. 7).
Subsequently, the face detection unit 3 temporarily stores the similarity evaluation value related to the first area A1 calculated by the evaluation value calculation unit 3c in the temporary storage memory 3b (step S34).

その後、顔検出部3は、次の第1領域A1を処理対象に設定し(ステップS35)、処理をステップS31に移行して、輝度画像データLから所定サイズの第1領域A1を生成可能であるか否かを判定する(ステップS31)。
上記の処理を、ステップS31にて第1領域A1を生成可能でないと判定されるまで繰り返し実行することで、顔検出部3は、輝度画像データL内で複数の第1領域A1、…(図6(b)、図6(c)等参照)を順次設定していき、各第1領域A1について類似評価値を順次算出していく。
Thereafter, the face detection unit 3 can set the next first area A1 as a processing target (step S35), shift the process to step S31, and generate the first area A1 having a predetermined size from the luminance image data L. It is determined whether or not there is (step S31).
By repeatedly executing the above process until it is determined in step S31 that the first area A1 cannot be generated, the face detection unit 3 includes a plurality of first areas A1,. 6 (b), FIG. 6 (c), etc.) are sequentially set, and the similarity evaluation value is sequentially calculated for each first region A1.

そして、ステップS31にて、第1領域A1を生成可能でないと判定されると(ステップS31;NO)、顔検出部3は、輝度画像データLから、評価値算出部3cによる顔の識別対象領域となる所定サイズ(例えば、24×24画素)の第2領域A2を生成可能であるか否かを判定する(ステップS36)。なお、第2領域A2を生成可能であるか否かの判定方法は、ステップS31における第1領域A1を生成可能であるか否かの判定方法と略同様であり、詳細な説明は省略する。
ここで、第2領域A2を生成可能であると判定されると(ステップS36;YES)、画像領域生成部3aは、輝度画像データLから第2領域A2を生成する(ステップS37)。具体的には、画像領域生成部3aは、輝度画像データL内で、第1領域A1の生成の際に市松模様状に配置された第2領域A2の左上隅部の基準ブロックを基準として所定サイズ(例えば、24×24画素)のサブウィンドウAを所定位置に設定することで、第2領域A2を生成する(図5等参照)。そして、顔検出部3は、画像領域生成部3aにより生成された第2領域A2の画像データを一時記憶用メモリ3bに一時的に記憶する。
When it is determined in step S31 that the first area A1 cannot be generated (step S31; NO), the face detection unit 3 uses the evaluation value calculation unit 3c to identify the face identification target area from the luminance image data L. It is determined whether or not the second area A2 having a predetermined size (for example, 24 × 24 pixels) can be generated (step S36). Note that the method of determining whether or not the second region A2 can be generated is substantially the same as the method of determining whether or not the first region A1 can be generated in step S31, and detailed description thereof is omitted.
If it is determined that the second area A2 can be generated (step S36; YES), the image area generation unit 3a generates the second area A2 from the luminance image data L (step S37). Specifically, the image area generation unit 3a uses the reference block at the upper left corner of the second area A2 arranged in a checkered pattern when the first area A1 is generated in the luminance image data L as a reference. The second area A2 is generated by setting the sub-window A having a size (for example, 24 × 24 pixels) at a predetermined position (see FIG. 5 and the like). The face detection unit 3 temporarily stores the image data of the second region A2 generated by the image region generation unit 3a in the temporary storage memory 3b.

次に、判断部3eは、識別対象領域となる第2領域A2の近傍の第1領域A1、即ち、第2領域A2の基準ブロックと隣設する基準ブロックを具備する第1領域A1の類似評価値(図8参照)を加算して、当該第2領域A2の判定用評価値(例えば、第1領域A1の類似評価値が「2」、「2」、「7」、「7」の場合には、第2領域A2の判定用評価値「18」等)を算出する(ステップS38)。そして、判断部3eは、算出された判定用評価値が評価閾値以上であるか否かを判断する(ステップS39)。
ここで、判定用評価値が評価閾値以上であると判断されると(ステップS39;YES)、画像領域指定部3gは、判定用評価値が評価閾値以上である第2領域A2を、類似評価値を算出する画像領域として指定する(ステップS40)。
Next, the determination unit 3e evaluates the similarity of the first area A1 including the reference block adjacent to the first area A1 in the vicinity of the second area A2 that is the identification target area, that is, the reference block of the second area A2. When the value (see FIG. 8) is added and the evaluation value for determination of the second area A2 (for example, the similarity evaluation value of the first area A1 is “2”, “2”, “7”, “7”) The evaluation value for determination of the second region A2 is calculated (step S38). Then, the determination unit 3e determines whether or not the calculated evaluation value for determination is greater than or equal to the evaluation threshold value (step S39).
Here, if it is determined that the evaluation value for determination is equal to or greater than the evaluation threshold (step S39; YES), the image region designating unit 3g evaluates the second region A2 in which the evaluation value for determination is equal to or greater than the evaluation threshold. A value is designated as an image area to be calculated (step S40).

続けて、第2算出制御部3hは、ステップS40にて画像領域として指定された第2領域A2と識別用情報記録部5に記録されている識別用情報との類似度に係る類似評価値を評価値算出部3cにより算出させる(ステップS41)。具体的には、評価値算出部3cは、例えば、adaboost出力計算を用いて、第2領域A2についてのサブ識別器の識別結果に従って類似評価値を算出する(図7参照)。
続けて、顔検出部3は、評価値算出部3cにより算出された第2領域A2に係る類似評価値を一時記憶用メモリ3bに一時的に記憶する(ステップS42)。
Subsequently, the second calculation control unit 3h determines a similarity evaluation value related to the similarity between the second area A2 designated as the image area in step S40 and the identification information recorded in the identification information recording unit 5. Calculation is performed by the evaluation value calculation unit 3c (step S41). Specifically, the evaluation value calculation unit 3c calculates a similar evaluation value according to the identification result of the sub classifier for the second region A2, for example, using adaboost output calculation (see FIG. 7).
Subsequently, the face detection unit 3 temporarily stores the similarity evaluation value related to the second area A2 calculated by the evaluation value calculation unit 3c in the temporary storage memory 3b (step S42).

その後、顔検出部3は、次の第2領域A2を処理対象に設定し(ステップS43)、処理をステップS36に移行して、輝度画像データLから所定サイズの第2領域A2を生成可能であるか否かを判定する(ステップS36)。
また、ステップS39にて、識別対象領域となる第2領域A2の判定用評価値が評価閾値以上でないと判断された場合(ステップS39;NO)にも、顔検出部3は、処理をステップS43に移行して、次の第2領域A2を処理対象に設定し(ステップS43)、それ以降の処理を実行する。即ち、例えば、青空や無地の背景部分といった輝度変化の少ない画像領域に第1領域A1が設定された場合等のように、当該第1領域A1の近傍の第2領域A2については、ステップS39にて、当該第2領域A2の判定用評価値が評価閾値以上でないと判断され(ステップS39;NO)、それ以降の処理が行われない。
上記の処理を、ステップS36にて第2領域A2を生成可能でないと判定(ステップS36;NO)されるまで繰り返し実行することで、顔検出部3は、輝度画像データL内で複数の第2領域A2、…を順次設定していき、各第2領域A2について類似評価値を算出するか否かの判定を順次行い、類似評価値を算出すると判断された第2領域A2については類似評価値を順次算出していく。
After that, the face detection unit 3 can set the next second area A2 as a processing target (step S43), shift the process to step S36, and generate a second area A2 of a predetermined size from the luminance image data L. It is determined whether or not there is (step S36).
Further, when it is determined in step S39 that the evaluation value for determination of the second area A2 serving as the identification target area is not equal to or higher than the evaluation threshold (step S39; NO), the face detection unit 3 performs the process in step S43. Then, the next second area A2 is set as a processing target (step S43), and the subsequent processing is executed. That is, for example, the second area A2 in the vicinity of the first area A1 is set in step S39 as in the case where the first area A1 is set in an image area having a small luminance change such as a blue sky or a plain background portion. Thus, it is determined that the evaluation value for determination of the second area A2 is not equal to or higher than the evaluation threshold (step S39; NO), and the subsequent processing is not performed.
By repeatedly executing the above processing until it is determined in step S36 that the second region A2 cannot be generated (step S36; NO), the face detection unit 3 includes a plurality of second images in the luminance image data L. The areas A2,... Are sequentially set, and it is sequentially determined whether or not the similarity evaluation value is calculated for each second area A2, and the similarity evaluation value is determined for the second area A2 that is determined to calculate the similarity evaluation value. Are calculated sequentially.

そして、ステップS36にて、第2領域A2を生成可能でないと判定されると(ステップS36;NO)、顔識別部3iは、第1領域A1の類似評価値や第2領域A2の類似評価値に基づいて、輝度画像データL内で顔領域を識別する処理(ステップS44;図9(a)参照)を行って、顔検出処理を終了する。   When it is determined in step S36 that the second area A2 cannot be generated (step S36; NO), the face identifying unit 3i determines the similarity evaluation value of the first area A1 and the similarity evaluation value of the second area A2. Based on the above, a process of identifying a face area in the luminance image data L (step S44; see FIG. 9A) is performed, and the face detection process is terminated.

図2に示すように、次に、縮小画像生成部2aは、表示対象に係る画像Pの輝度画像データLに基づいて、当該画像データの水平及び垂直の画素を所定の比率(例えば、0.9倍)で縮小した縮小画像データR(第1縮小画像データR1)を生成可能であるか否かを判定する(ステップS4)。具体的には、縮小画像生成部2aは、例えば、第1領域A1や第2領域A2の生成に係るサブウィンドウA(例えば、24×24画素)の水平方向の画素数若しくは垂直方向の画素数よりも、縮小元の画像データ(輝度画像データL)の同方向の画素数が大きいか否か等に応じて第1縮小画像データR1を生成可能であるか否かを判定する。
ここで、縮小画像データR(第1縮小画像データR1)を生成可能であると判定されると(ステップS4;YES)、縮小画像生成部2aは、表示対象の画像に係る輝度画像データLの水平及び垂直の画素を所定の比率(例えば、0.9倍)で縮小した第1縮小画像データR1を生成した後(ステップS5)、処理をステップS3に移行して、顔検出部3は、第1縮小画像データR1から顔検出処理を行う(ステップS3;図3参照)。
As shown in FIG. 2, the reduced image generation unit 2 a then sets the horizontal and vertical pixels of the image data based on the luminance image data L of the image P related to the display target to a predetermined ratio (for example, 0. It is determined whether reduced image data R (first reduced image data R1) reduced by (9 times) can be generated (step S4). Specifically, the reduced image generation unit 2a determines, for example, the number of pixels in the horizontal direction or the number of pixels in the vertical direction of the sub window A (for example, 24 × 24 pixels) related to the generation of the first region A1 and the second region A2. Also, whether or not the first reduced image data R1 can be generated is determined depending on whether the number of pixels in the same direction of the original image data (luminance image data L) is large.
Here, if it is determined that the reduced image data R (first reduced image data R1) can be generated (step S4; YES), the reduced image generation unit 2a stores the luminance image data L related to the display target image. After generating the first reduced image data R1 obtained by reducing the horizontal and vertical pixels at a predetermined ratio (for example, 0.9 times) (step S5), the process proceeds to step S3, and the face detection unit 3 Face detection processing is performed from the first reduced image data R1 (step S3; see FIG. 3).

ここでの顔検出処理は、処理対象の画像データとして第1縮小画像データR1を用いる以外の点で、輝度画像データLを処理対象の画像データとして説明した上記の内容と略同様であり、詳細な説明は省略する。
この顔検出処理にて、顔識別部3iは、第1縮小画像データR1から生成された第1領域A1の類似評価値や第2領域A2の類似評価値に基づいて、第1縮小画像データR1内で顔領域を識別する(ステップS44;図9(a)参照)。
The face detection process here is substantially the same as that described above with the luminance image data L as the image data to be processed except that the first reduced image data R1 is used as the image data to be processed. The detailed explanation is omitted.
In this face detection process, the face identifying unit 3i uses the first reduced image data R1 based on the similarity evaluation value of the first area A1 and the similarity evaluation value of the second area A2 generated from the first reduced image data R1. The face area is identified within the area (step S44; see FIG. 9A).

上記の第1縮小画像データR1を処理対象の画像データとした顔検出処理の終了後、縮小画像生成部2aは、表示対象に係る画像Pの第1縮小画像データR1に基づいて、当該画像データの水平及び垂直の画素を所定の比率(例えば、0.9倍)で縮小した縮小画像データR(第2縮小画像データR2)を生成可能であるか否かを判定する(ステップS4)。なお、第2縮小画像データR2を生成可能であるか否かの判定方法は、第1領域A1を生成可能であるか否かの判定方法と略同様であり、詳細な説明は省略する。
ここで、縮小画像生成部2aにより縮小画像データR(第2縮小画像データR2)が生成可能であると判定されると(ステップS4;YES)、縮小画像生成部2aは、表示対象の画像に係る第1縮小画像データR1の水平及び垂直の画素を所定の比率(例えば、0.9倍)で縮小した第2縮小画像データR2を生成した後(ステップS5)、処理をステップS3に移行して、顔検出部3は、第2縮小画像データR2から顔検出処理を行う(ステップS3;図3参照)。
After the face detection process using the first reduced image data R1 as the processing target image data, the reduced image generation unit 2a performs the image data processing based on the first reduced image data R1 of the image P related to the display target. It is determined whether or not it is possible to generate reduced image data R (second reduced image data R2) obtained by reducing the horizontal and vertical pixels at a predetermined ratio (for example, 0.9 times) (step S4). Note that the method for determining whether or not the second reduced image data R2 can be generated is substantially the same as the method for determining whether or not the first region A1 can be generated, and detailed description thereof is omitted.
Here, if the reduced image generation unit 2a determines that the reduced image data R (second reduced image data R2) can be generated (step S4; YES), the reduced image generation unit 2a applies the image to be displayed. After generating the second reduced image data R2 obtained by reducing the horizontal and vertical pixels of the first reduced image data R1 at a predetermined ratio (for example, 0.9 times) (step S5), the process proceeds to step S3. The face detection unit 3 performs face detection processing from the second reduced image data R2 (step S3; see FIG. 3).

ここでの顔検出処理は、処理対象の画像データとして第2縮小画像データR2を用いる以外の点で、輝度画像データLを処理対象の画像データとして説明した上記の内容と略同様であり、詳細な説明は省略する。
この顔検出処理にて、顔識別部3iは、第2縮小画像データR2から生成された第1領域A1の類似評価値や第2領域A2の類似評価値に基づいて、第2縮小画像データR2内で顔領域を識別する(ステップS44;図9(a)参照)。
The face detection process here is substantially the same as that described above for the luminance image data L as the image data to be processed except that the second reduced image data R2 is used as the image data to be processed. The detailed explanation is omitted.
In this face detection process, the face identification section 3i uses the second reduced image data R2 based on the similarity evaluation value of the first area A1 and the similarity evaluation value of the second area A2 generated from the second reduced image data R2. The face area is identified within the area (step S44; see FIG. 9A).

上記の処理は、ステップS4にて、縮小画像データRを生成可能でないと判定(ステップS4;NO)されるまで繰り返し実行することで、顔識別部3iは、第1領域A1の類似評価値や第2領域A2の類似評価値に基づいて、各縮小画像データR(例えば、第3〜第n縮小画像データR3、…、Rn)内で顔領域を識別する。
これにより、図9(a)に示すように、輝度画像データLや各縮小画像データR内で識別された複数の顔領域の各々に仮顔枠Waが重畳された状態となる。例えば、集合写真にて手前側にいる人など画像全体に対してより大きな面積の顔を有していたり、正面を向いている人は、縮小画像を順次生成していった場合に、より小さい縮小画像データR内でも顔領域を識別可能となる。これにより、画像全体に対してより大きな面積の顔を有していたり、正面を向いている人は、より小さな面積の顔を有していたり、横を向いている人に比べて相対的に顔領域を識別し易くなって、より多くの仮顔枠Waが重畳された状態となる。
The above processing is repeatedly executed until it is determined in step S4 that reduced image data R cannot be generated (step S4; NO), so that the face identification unit 3i can determine the similarity evaluation value of the first region A1 and the like. Based on the similarity evaluation value of the second area A2, a face area is identified in each reduced image data R (for example, the third to nth reduced image data R3,..., Rn).
As a result, as shown in FIG. 9A, the temporary face frame Wa is superimposed on each of the plurality of face areas identified in the luminance image data L and each reduced image data R. For example, a person who has a larger area of the entire image, such as a person on the front side in a group photo, or who is facing the front is smaller when generating reduced images sequentially. The face area can be identified even in the reduced image data R. This allows people who have a larger area of the entire image, or who are facing the front, to have a smaller area of the face, It becomes easy to identify the face area, and more temporary face frames Wa are superimposed.

次に、顔識別部3iは、輝度画像データLや縮小画像データRから識別された少なくとも一の顔領域を所定の演算式に従って統合して、表示対象の画像内で一の顔領域に相当する画像領域を特定する(ステップS6)。
その後、表示制御部1bは、表示対象の画像内で、顔識別部3iにより識別された画像領域(顔領域)に重畳させて顔領域枠Wbを表示させた後(ステップS7;図9(b)参照)、画像記録部6に記録されている画像における顔領域に対応する画像領域に対して所定の加工処理を施して表示パネル1aに表示させる(ステップS8)。
具体的には、例えば、表示制御部1bは、顔識別部3iにより識別された顔領域に対応する画像領域を所定の拡大倍率で拡大して表示パネル1aの表示画面に表示させたり、顔識別部3iにより識別された顔領域に対応する画像領域に対してデモザイク処理を施して表示パネル1aの表示画面に表示させる。
これにより、顔識別処理を終了する。
Next, the face identifying unit 3i integrates at least one face area identified from the luminance image data L and the reduced image data R according to a predetermined arithmetic expression, and corresponds to one face area in the display target image. An image region is specified (step S6).
After that, the display control unit 1b displays the face area frame Wb superimposed on the image area (face area) identified by the face identification unit 3i in the display target image (step S7; FIG. 9B). )), The image region corresponding to the face region in the image recorded in the image recording unit 6 is subjected to a predetermined processing and displayed on the display panel 1a (step S8).
Specifically, for example, the display control unit 1b enlarges an image area corresponding to the face area identified by the face identification unit 3i at a predetermined magnification, and displays the image area on the display screen of the display panel 1a. The demosaic process is performed on the image area corresponding to the face area identified by the unit 3i and displayed on the display screen of the display panel 1a.
This completes the face identification process.

以上のように、本実施形態の画像表示装置100によれば、画像Pから生成された第1領域A1の各々と識別用情報との類似度を評価値算出部3cにより算出し、算出された類似度に基づいて、第2領域A2の各々のうち、識別用情報との類似度を評価値算出部3cにより算出する画像領域を指定する。そして、指定された画像領域と識別用情報との類似度を評価値算出部3cにより算出し、第1領域A1及び第2領域A2のうち、算出された少なくとも一方の領域に係る類似度に基づいて、画像P内で特定画像領域(顔領域)を識別するので、複数の第2領域A2、…の全てについて識別用情報との類似度を算出する必要がなくなって、画像P内での特定画像領域の識別速度の高速化を図ることができる。
具体的には、第1領域A1及び第2領域A2の各々の所定の単位画素からなる基準ブロックが直和分割されるように当該第1領域A1及び第2領域A2をそれぞれ生成した場合であっても、第1領域A1について算出された類似度に基づいて、複数の第2領域A2、…の中で、識別用情報との類似度を算出する画像領域を指定するので、複数の第2領域A2、…の全てについて識別用情報との類似度を算出する必要がなくなる。
As described above, according to the image display device 100 of the present embodiment, the similarity between each of the first areas A1 generated from the image P and the identification information is calculated by the evaluation value calculation unit 3c. Based on the degree of similarity, an image area in which the degree of similarity with the identification information is calculated by the evaluation value calculation unit 3c is designated in each of the second areas A2. Then, the similarity between the designated image area and the identification information is calculated by the evaluation value calculation unit 3c, and based on the calculated similarity of at least one of the first area A1 and the second area A2. Since the specific image region (face region) is identified in the image P, it is not necessary to calculate the similarity with the identification information for all of the plurality of second regions A2,. The identification speed of the image area can be increased.
Specifically, the first area A1 and the second area A2 are generated so that the reference block composed of predetermined unit pixels of the first area A1 and the second area A2 is divided into direct sums. However, based on the similarity calculated for the first area A1, the image area for calculating the similarity with the identification information is specified among the plurality of second areas A2,. It is not necessary to calculate the similarity to the identification information for all of the areas A2,.

また、第1領域A1について算出された類似度に基づいて、第2領域A2の各々について識別用情報との類似度を算出するか否かを判断することにより、複数の第2領域A2、…の中で、識別用情報との類似度を算出する画像領域を指定することができる。具体的には、第2領域A2の各々についての識別用情報との類似度を算出するか否かの判断基準となる評価閾値を設定しておき、第1領域A1について算出された類似度が評価閾値以上であると判断された場合に、第2領域A2と識別用情報との類似度を算出すると判断する一方で、評価閾値未満であると判断された場合に、第2領域A2と識別用情報との類似度を算出しないと判断するので、識別用情報との類似度を算出する第2領域A2の指定を適正に行うことができる。
特に、評価閾値の値を適宜任意に変更することで、全ての第2領域A2の中で、識別用情報との類似度を算出する画像領域として指定される割合を変更することができ、結果として、画像P内での特定画像領域の識別精度を適宜変更することができる。
Further, based on the similarity calculated for the first area A1, it is determined whether or not the similarity with the identification information is calculated for each of the second areas A2, so that a plurality of second areas A2,. Among these, it is possible to designate an image region for calculating the similarity with the identification information. Specifically, an evaluation threshold value is set as a criterion for determining whether to calculate the similarity with the identification information for each of the second areas A2, and the similarity calculated for the first area A1 is When it is determined that the threshold value is equal to or greater than the evaluation threshold, it is determined that the similarity between the second area A2 and the identification information is calculated. Since it is determined that the similarity with the information for use is not calculated, it is possible to appropriately specify the second area A2 for calculating the degree of similarity with the information for identification.
In particular, by appropriately changing the value of the evaluation threshold as appropriate, the ratio designated as the image area for calculating the similarity to the identification information in all the second areas A2 can be changed. As described above, the identification accuracy of the specific image region in the image P can be changed as appropriate.

また、画像記録部6に記録されている画像Pを所定の比率で順次縮小して順次生成された縮小画像データRの各々から第1領域A1及び第2領域A2をそれぞれ生成するので、各縮小画像データRから生成された第1領域A1及び第2領域A2のうち、少なくとも一方の領域に係る類似度に基づいて、特定画像領域をそれぞれ識別することができ、少なくとも一の特定画像領域を所定の演算式に従って統合して、表示対象の画像P内で一の特定画像領域に相当する画像領域を特定することができる。従って、生成される縮小画像データRの数を増減させることにより識別される特定画像領域の数を増減させることができ、画像P内での特定画像領域の識別精度を変更することができる。   Further, the first area A1 and the second area A2 are respectively generated from each of the reduced image data R generated by sequentially reducing the image P recorded in the image recording unit 6 at a predetermined ratio. Based on the similarity of at least one of the first area A1 and the second area A2 generated from the image data R, each specific image area can be identified, and at least one specific image area is predetermined. It is possible to specify an image area corresponding to one specific image area in the image P to be displayed by integrating according to the above equation. Therefore, the number of specific image areas identified can be increased or decreased by increasing or decreasing the number of reduced image data R generated, and the identification accuracy of specific image areas in the image P can be changed.

また、画像記録部6に記録されている画像Pを表示部1に表示し、より具体的には、画像P内で識別された特定画像領域に相当する画像領域に対して所定の加工処理を施して表示部1に表示するので、特定画像領域を識別できなかった場合には表示対象の画像Pを単に再生表示し、特定画像領域を識別できた場合には当該特定画像領域に相当する画像領域に対して所定の加工処理を施した画像を再生表示することができ、表現豊かなスライドショー再生を実現することができる。   Further, the image P recorded in the image recording unit 6 is displayed on the display unit 1, and more specifically, a predetermined processing process is performed on an image region corresponding to the specific image region identified in the image P. Since the specific image area cannot be identified, the image P to be displayed is simply reproduced and displayed. When the specific image area can be identified, the image corresponding to the specific image area is displayed. It is possible to reproduce and display an image obtained by performing predetermined processing on the area, and to realize a slideshow reproduction rich in expression.

なお、本発明は、上記実施形態に限定されることなく、本発明の趣旨を逸脱しない範囲において、種々の改良並びに設計の変更を行っても良い。
例えば、画像表示装置100の構成は、上記実施形態に例示したものは一例であり、これに限られるものではない。また、画像識別装置として、画像表示装置100を例示したが、これに限られるものではなく、例えば、図10に示すように、表示部1を備えた撮像装置200などの本発明に係る所定の画像処理を実行可能なものであれば如何なる構成であっても良い。
以下に、画像識別装置の変形例としての撮像装置200について図10を参照して説明する。
The present invention is not limited to the above-described embodiment, and various improvements and design changes may be made without departing from the spirit of the present invention.
For example, the configuration of the image display apparatus 100 is merely an example of the configuration described in the above embodiment, and is not limited thereto. In addition, the image display device 100 is exemplified as the image identification device, but the image display device 100 is not limited thereto. For example, as illustrated in FIG. Any configuration can be used as long as it can execute image processing.
Hereinafter, an imaging apparatus 200 as a modification of the image identification apparatus will be described with reference to FIG.

図10に示すように、撮像装置200は、表示部1と、画像処理部2と、顔検出部3と、メモリ4と、識別用情報記録部5と、画像記録部6と、操作入力部7と、中央制御部8とに加えて、撮像部9を備えている。
なお、表示部1と、画像処理部2と、顔検出部3と、メモリ4と、識別用情報記録部5と、画像記録部6と、操作入力部7と、中央制御部8は、下記に説明する以外の点で上記実施形態の画像表示装置100に備わるものと略同様の構成をなしている。
As illustrated in FIG. 10, the imaging apparatus 200 includes a display unit 1, an image processing unit 2, a face detection unit 3, a memory 4, an identification information recording unit 5, an image recording unit 6, and an operation input unit. 7 and the central control unit 8, an imaging unit 9 is provided.
The display unit 1, the image processing unit 2, the face detection unit 3, the memory 4, the identification information recording unit 5, the image recording unit 6, the operation input unit 7, and the central control unit 8 are as follows. In other respects, the configuration is substantially the same as that of the image display device 100 of the above embodiment.

撮像部9は、画像を撮像する撮像手段を構成している。具体的には、撮像部9は、図示は省略するが、ズームレンズやフォーカスレンズ等の複数のレンズから構成されたレンズ部と、レンズ部を通過する光の量を調整する絞りと、CCD(Charge Coupled Device)やCMOS(Complementary Metal-oxide Semiconductor)等のイメージセンサから構成され、レンズ部の各種レンズを通過した光学像を二次元の画像信号に変換する電子撮像部と、タイミング発生器やドライバなどから構成された撮像制御部とを備えている。そして、撮像制御部は、タイミング発生器、ドライバにより電子撮像部を走査駆動して、所定周期毎にレンズ部により結像された光学像を電子撮像部により二次元の画像信号に変換させ、当該電子撮像部の撮像領域から1画面分ずつ画像フレームを読み出して画像処理部2に出力させる。   The imaging unit 9 constitutes an imaging unit that captures an image. Specifically, although not shown, the imaging unit 9 includes a lens unit composed of a plurality of lenses such as a zoom lens and a focus lens, a diaphragm for adjusting the amount of light passing through the lens unit, and a CCD ( An electronic imaging unit, which is composed of an image sensor such as a charge coupled device (CMOS) or a complementary metal-oxide semiconductor (CMOS), converts an optical image that has passed through various lenses of the lens unit into a two-dimensional image signal, a timing generator, and a driver And an imaging control unit composed of the above. Then, the imaging control unit scans and drives the electronic imaging unit with a timing generator and a driver, converts an optical image formed by the lens unit at predetermined intervals into a two-dimensional image signal with the electronic imaging unit, and Image frames are read out from the imaging area of the electronic imaging unit for each screen and are output to the image processing unit 2.

画像処理部2は、電子撮像部から転送された画像データのアナログ値の信号に対してRGBの各色成分毎に適宜ゲイン調整した後に、サンプルホールド回路(図示略)でサンプルホールドしてA/D変換器(図示略)でデジタルデータに変換し、カラープロセス回路(図示略)で画素補間処理及びγ補正処理を含むカラープロセス処理を行った後、デジタル値の輝度信号Y及び色差信号Cb,Cr(YUV画像データ)を生成する。   The image processing unit 2 appropriately adjusts the gain for each of the RGB color components with respect to the analog value signal of the image data transferred from the electronic imaging unit, and then performs sample holding by a sample hold circuit (not shown) to perform A / D. After conversion into digital data by a converter (not shown) and color process processing including pixel interpolation processing and γ correction processing by a color process circuit (not shown), the luminance signal Y and color difference signals Cb, Cr of digital values (YUV image data) is generated.

画像記録部6は、画像処理部2により生成されたYUV画像データを所定の符号化方式(例えば、JPEG形式)で符号化して記録する。   The image recording unit 6 encodes and records the YUV image data generated by the image processing unit 2 using a predetermined encoding method (for example, JPEG format).

従って、上記の撮像装置200によれば、画像記録部6に記録されている画像、即ち、撮像部9により撮像された画像から特定画像領域(顔領域)の識別を行うことができる。これにより、識別された特定画像領域に相当する画像に対して、拡大処理やデモザイク処理等の所定の加工処理を施して表示させることができることとなる。   Therefore, according to the imaging apparatus 200 described above, the specific image area (face area) can be identified from the image recorded in the image recording unit 6, that is, the image captured by the imaging unit 9. As a result, the image corresponding to the identified specific image region can be displayed after being subjected to predetermined processing such as enlargement processing or demosaic processing.

なお、上記の撮像装置200にあっては、画像記録部6に記録されている画像から特定画像領域を識別するようにしたが、撮像部9により被写体の撮像により生成されたライブビュー画像から特定画像領域を識別するようにしても良く、これにより、被写体の撮像の際の特定画像領域(顔領域)の検出速度の向上を図ることができる。また、検出された特定画像領域を利用して自動合焦処理(AF)を行う場合には、当該AF速度の向上を図ることができる。   In the imaging apparatus 200 described above, the specific image area is identified from the image recorded in the image recording unit 6. However, the specific image area is identified from the live view image generated by imaging the subject by the imaging unit 9. The image area may be identified, and this can improve the detection speed of the specific image area (face area) when the subject is imaged. Further, when the automatic focusing process (AF) is performed using the detected specific image area, the AF speed can be improved.

また、上記実施形態にあっては、第1領域A1と第2領域A2のサイズが等しくなるようにしたが、これに限られるものではなく、第1領域A1と第2領域A2のサイズを異ならせても良い。例えば、第1領域A1に対して第2領域A2のサイズを相対的に大きくなるようにしても良い。   In the above embodiment, the sizes of the first region A1 and the second region A2 are made equal. However, the present invention is not limited to this, and the sizes of the first region A1 and the second region A2 are different. May be allowed. For example, the size of the second area A2 may be relatively larger than the first area A1.

加えて、上記実施形態にあっては、生成手段、第1の算出制御手段、指定手段、第2の算出制御手段、識別手段としての機能を、中央制御部8の制御下にて、顔検出部3が駆動することにより実現される構成としたが、これに限られるものではなく、中央制御部8のCPUによって所定のプログラム等が実行されることにより実現される構成としても良い。
即ち、プログラムを記憶するプログラムメモリ(図示略)に、生成処理ルーチン、第1の算出制御処理ルーチン、指定処理ルーチン、第2の算出制御処理ルーチン、識別処理ルーチンを含むプログラムを記憶しておく。そして、生成処理ルーチンにより中央制御部8のCPUを、第2の記録手段に記録されている画像から第1領域A1及び第2領域A2をそれぞれ複数生成する生成手段として機能させるようにしても良い。また、第1の算出制御処理ルーチンにより中央制御部8のCPUを、生成手段により生成された第1領域A1の各々と識別用情報との類似度を算出手段により算出させる第1の算出制御手段として機能させるようにしても良い。また、指定処理ルーチンにより中央制御部8のCPUを、第1の算出制御手段により算出された類似度に基づいて、生成手段により生成された第2領域A2の各々のうち、識別用情報との類似度を算出手段により算出させる画像領域を指定する指定手段として機能させるようにしても良い。また、第2の算出制御処理ルーチンにより中央制御部8のCPUを、指定手段により指定された画像領域と識別用情報との類似度を算出手段により算出させる第2の算出制御手段として機能させるようにしても良い。また、識別処理ルーチンにより中央制御部8のCPUを、第1の算出制御手段及び第2の算出制御手段のうちの少なくとも一方により算出された類似度に基づいて、画像内で特定画像領域を識別する識別手段として機能させるようにしても良い。
In addition, in the above embodiment, the functions as the generation unit, the first calculation control unit, the designation unit, the second calculation control unit, and the identification unit are detected under the control of the central control unit 8. Although the configuration realized by driving the unit 3 is not limited thereto, the configuration may be realized by executing a predetermined program or the like by the CPU of the central control unit 8.
That is, a program including a generation process routine, a first calculation control process routine, a designation process routine, a second calculation control process routine, and an identification process routine is stored in a program memory (not shown) that stores the program. Then, the CPU of the central control unit 8 may function as a generation unit that generates a plurality of first areas A1 and second areas A2 from the image recorded in the second recording unit by the generation processing routine. . Also, a first calculation control unit that causes the CPU of the central control unit 8 to calculate the similarity between each of the first areas A1 generated by the generation unit and the identification information by the first calculation control processing routine. You may make it function as. In addition, the CPU of the central control unit 8 by the designation processing routine makes the identification information out of each of the second areas A2 generated by the generation unit based on the similarity calculated by the first calculation control unit. You may make it function as a designation | designated means to designate the image area | region which calculates a similarity by a calculation means. Further, the CPU of the central control unit 8 is caused to function as a second calculation control unit that causes the calculation unit to calculate the similarity between the image area specified by the specifying unit and the identification information by the second calculation control processing routine. Anyway. Further, the CPU of the central control unit 8 identifies a specific image area in the image based on the similarity calculated by at least one of the first calculation control means and the second calculation control means by the identification processing routine. You may make it function as an identification means to do.

同様に、判断手段、設定手段、画像縮小手段、表示制御手段についても、中央制御部8のCPUによって所定のプログラム等が実行されることにより実現される構成としても良い。   Similarly, the determination unit, the setting unit, the image reduction unit, and the display control unit may be realized by executing a predetermined program or the like by the CPU of the central control unit 8.

さらに、上記の各処理を実行するためのプログラムを格納したコンピュータ読み取り可能な媒体として、ROMやハードディスク等の他、フラッシュメモリ等の不揮発性メモリ、CD−ROM等の可搬型記録媒体を適用することも可能である。また、プログラムのデータを所定の通信回線を介して提供する媒体としては、キャリアウェーブ(搬送波)も適用される。   Furthermore, as a computer-readable medium storing a program for executing each of the above processes, a non-volatile memory such as a flash memory or a portable recording medium such as a CD-ROM is applied in addition to a ROM or a hard disk. Is also possible. A carrier wave is also used as a medium for providing program data via a predetermined communication line.

100 画像表示装置
1 表示部
1a 表示パネル
1b 表示制御部
2 画像処理部
2a 縮小画像生成部
3 顔検出部
3a 画像領域生成部
3c 評価値算出部
3d 第1算出制御部
3e 判断部
3f 評価閾値設定部
3g 画像領域指定部
3h 第2算出制御部
3i 顔識別部
5 識別用情報記録部
6 画像記録部
8 中央制御部
9 撮像部
200 撮像装置
DESCRIPTION OF SYMBOLS 100 Image display apparatus 1 Display part 1a Display panel 1b Display control part 2 Image processing part 2a Reduced image generation part 3 Face detection part 3a Image area generation part 3c Evaluation value calculation part 3d First calculation control part 3e Determination part 3f Evaluation threshold value setting Unit 3g image region designation unit 3h second calculation control unit 3i face identification unit 5 identification information recording unit 6 image recording unit 8 central control unit 9 imaging unit 200 imaging device

Claims (9)

特定画像領域を識別するための識別用情報を記録する第1の記録手段と、
画像を記録する第2の記録手段と、
この第2の記録手段に記録されている画像から第1領域及び第2領域をそれぞれ複数生成する生成手段と、
前記第2の記録手段に記録されている画像と前記第1の記録手段に記録されている識別用情報との類似度を算出する算出手段と、
前記生成手段により生成された前記第1領域の各々と前記識別用情報との類似度を前記算出手段により算出させる第1の算出制御手段と、
この第1の算出制御手段により算出された類似度に基づいて、前記生成手段により生成された前記第2領域の各々のうち、前記識別用情報との類似度を前記算出手段により算出させる領域を指定する指定手段と、
この指定手段により指定された領域と前記識別用情報との類似度を前記算出手段により算出させる第2の算出制御手段と、
前記第1の算出制御手段及び前記第2の算出制御手段のうちの少なくとも一方により算出された類似度に基づいて、前記画像内で前記特定画像領域を識別する識別手段と、
前記第1の算出制御手段により算出された類似度であって、前記第2領域の周辺の複数の前記第1領域の類似度に基づいて、前記第2領域の各々について前記識別用情報との類似度を前記算出手段により算出させるか否かを判断する判断手段と、
を備え、
前記指定手段は、
前記判断手段による判断結果に基づいて、前記第2領域の各々のうち、前記識別用情報との類似度を前記算出手段により算出する領域を指定する
ことを特徴とする画像識別装置。
First recording means for recording identification information for identifying a specific image region;
A second recording means for recording an image;
Generating means for generating a plurality of first areas and second areas from the images recorded in the second recording means;
Calculating means for calculating the similarity between the image recorded in the second recording means and the identification information recorded in the first recording means;
First calculation control means for causing the calculation means to calculate the similarity between each of the first areas generated by the generation means and the identification information;
Based on the similarity calculated by the first calculation control means, an area in which the calculation means calculates the similarity to the identification information among each of the second areas generated by the generation means. A designation means to designate,
Second calculation control means for causing the calculation means to calculate the similarity between the area specified by the specification means and the identification information;
Identification means for identifying the specific image region in the image based on the similarity calculated by at least one of the first calculation control means and the second calculation control means;
Based on the similarity calculated by the first calculation control means and the similarity of the plurality of the first areas around the second area, the identification information for each of the second areas Determination means for determining whether or not the calculation means calculates the similarity;
With
The designation means is:
An image identification apparatus, wherein , based on a determination result by the determination unit, an area in which the similarity with the identification information is calculated by the calculation unit is specified out of each of the second areas .
前記第2領域の各々についての前記識別用情報との類似度を前記算出手段により算出させるか否かの前記判断手段による判断基準となる閾値を設定する設定手段を更に備え、
前記判断手段は、更に、
前記第1の算出制御手段により算出された類似度であって、前記第2領域の周辺の複数の前記第1領域の類似度が前記設定手段により設定された閾値以上であると判断された場合に、前記算出手段により前記識別用情報との類似度を算出すると判断する一方で、前記第1の算出制御手段により算出された類似度であって、前記第2領域の周辺の複数の前記第1領域の類似度が前記設定手段により設定された閾値未満であると判断された場合に、前記算出手段により前記識別用情報との類似度を算出しないと判断することを特徴とする請求項に記載の画像識別装置。
A setting unit that sets a threshold value that is a determination criterion by the determination unit as to whether or not the calculation unit calculates the similarity to the identification information for each of the second regions;
The determination means further includes:
When it is determined that the similarity calculated by the first calculation control unit and the similarities of the plurality of first regions around the second region are greater than or equal to a threshold set by the setting unit In addition, it is determined that the similarity with the identification information is calculated by the calculation unit, and the similarity is calculated by the first calculation control unit , and a plurality of the first regions around the second region are calculated . claim 1, similarity 1 region when it is determined to be less than the set threshold value by said setting means, characterized in that it determines not to calculate the degree of similarity between the identifying information by said calculation means The image identification device described in 1.
前記第2の記録手段に記録されている画像を所定の比率で順次縮小して縮小画像を順次生成する画像縮小手段を更に備え、
前記生成手段は、前記画像縮小手段により順次生成された縮小画像の各々から前記第1領域及び第2領域をそれぞれ生成することを特徴とする請求項1又は2に記載の画像識別装置。
Image reduction means for sequentially reducing the images recorded in the second recording means at a predetermined ratio and sequentially generating reduced images;
It said generating means, image identification apparatus according to claim 1 or 2, characterized in that respectively generate the first and second regions from each of the reduced images are sequentially generated by the image reduction unit.
前記生成手段は、前記第1領域及び第2領域の各々の所定の単位画素からなる基準ブロ
ックが直和分割されるように当該第1領域及び第2領域をそれぞれ生成することを特徴と
する請求項1〜の何れか一項に記載の画像識別装置。
The generation unit generates the first area and the second area, respectively, so that a reference block composed of predetermined unit pixels in each of the first area and the second area is divided into direct sums. Item 4. The image identification device according to any one of Items 1 to 3 .
前記第2の記録手段に記録されている画像を表示する表示手段を更に備えることを特徴とする請求項1〜の何れか一項に記載の画像識別装置。 Image identification apparatus according to any one of claims 1-4, characterized by further comprising display means for displaying the image recorded in the second recording means. 前記画像内で前記識別手段により識別された前記特定画像領域に相当する画像に対して所定の加工処理を施して前記表示手段に表示させる表示制御手段を更に備えることを特徴とする請求項に記載の画像識別装置。 6. The display control unit according to claim 5 , further comprising a display control unit configured to perform a predetermined processing on an image corresponding to the specific image area identified by the identification unit in the image and display the image on the display unit. The image identification device described. 画像を撮像する撮像手段を更に備え、
前記第2の記録手段は、前記撮像手段により撮像された画像を記録することを特徴とする請求項1〜の何れか一項に記載の画像識別装置。
It further comprises imaging means for taking an image,
It said second recording means, image identification apparatus according to any one of claim 1 to 5, characterized in that to record the image captured by the imaging means.
特定画像領域を識別するための識別用情報を記録する第1の記録手段と、画像を記録する第2の記録手段と、この第2の記録手段に記録されている画像と前記第1の記録手段に記録されている識別用情報との類似度を算出する算出手段と、を備えた画像識別装置を用いた画像識別方法であって、
前記第2の記録手段に記録されている画像から第1領域及び第2領域をそれぞれ複数生成する生成ステップと、
前記生成された前記第1領域の各々と前記識別用情報との類似度を前記算出手段により算出させる第1の算出制御ステップと、
この第1の算出制御ステップにて算出された類似度に基づいて、前記第2領域の各々のうち、前記識別用情報との類似度を前記算出手段により算出させる領域を指定する指定ステップと、
この指定ステップにて指定された領域と前記識別用情報との類似度を前記算出手段により算出させる第2の算出制御ステップと、
前記第1領域及び前記第2領域のうち、算出された少なくとも一方に係る類似度に基づいて、前記画像内で前記特定画像領域を識別するステップと、
前記第1の算出制御ステップにより算出された類似度であって、前記第2領域の周辺の複数の前記第1領域の類似度に基づいて、前記第2領域の各々について前記識別用情報との類似度を前記算出手段により算出させるか否かを判断する判断ステップと、
を含み、
前記指定ステップは、
前記判断ステップによる判断結果に基づいて、前記第2領域の各々のうち、前記識別用情報との類似度を前記算出手段により算出する領域を指定する
ことを特徴とする画像識別方法。
First recording means for recording identification information for identifying a specific image area, second recording means for recording an image, an image recorded in the second recording means, and the first recording An image identification method using an image identification device comprising: a calculation means for calculating a similarity with the identification information recorded in the means,
A generation step of generating a plurality of first areas and a plurality of second areas from the image recorded in the second recording means;
A first calculation control step for causing the calculation means to calculate the similarity between each of the generated first areas and the identification information;
Based on the similarity calculated in the first calculation control step, a designation step for designating an area in which the similarity with the identification information is calculated by the calculation means among each of the second areas;
A second calculation control step for causing the calculation means to calculate the similarity between the area specified in the specifying step and the identification information;
Identifying the specific image area in the image based on the calculated similarity of at least one of the first area and the second area;
The similarity calculated by the first calculation control step, and based on the similarity of the plurality of the first areas around the second area, the identification information for each of the second areas A determination step of determining whether or not the similarity is calculated by the calculation unit;
Including
The specifying step includes:
An image identification method, wherein , based on the determination result of the determination step, an area for calculating the similarity with the identification information among each of the second areas is specified.
特定画像領域を識別するための識別用情報を記録する第1の記録手段と、画像を記録する第2の記録手段と、この第2の記録手段に記録されている画像と前記第1の記録手段に記録されている識別用情報との類似度を算出する算出手段と、を備えた画像識別装置のコンピュータを、
前記第2の記録手段に記録されている画像から第1領域及び第2領域をそれぞれ複数生成する生成手段、
この生成手段により生成された前記第1領域の各々と前記識別用情報との類似度を前記算出手段により算出させる第1の算出制御手段、
この第1の算出制御手段により算出された類似度に基づいて、前記生成手段により生成された前記第2領域の各々のうち、前記識別用情報との類似度を前記算出手段により算出させる領域を指定する指定手段、
この指定手段により指定された領域と前記識別用情報との類似度を前記算出手段により算出させる第2の算出制御手段、
前記第1の算出制御手段及び前記第2の算出制御手段のうちの少なくとも一方により算出された類似度に基づいて、前記画像内で前記特定画像領域を識別する識別手段、
前記第1の算出制御手段により算出された類似度であって、前記第2領域の周辺の複数の前記第1領域の類似度に基づいて、前記第2領域の各々について前記識別用情報との類似度を前記算出手段により算出させるか否かを判断する判断手段、
として機能させ、
前記指定手段は、
前記判断手段による判断結果に基づいて、前記第2領域の各々のうち、前記識別用情報との類似度を前記算出手段により算出する領域を指定する
ことを特徴とするプログラム。
First recording means for recording identification information for identifying a specific image area, second recording means for recording an image, an image recorded in the second recording means, and the first recording A computer of an image identification apparatus comprising: a calculation unit that calculates a similarity to the identification information recorded in the unit;
Generating means for generating a plurality of first areas and second areas from images recorded in the second recording means;
First calculation control means for causing the calculation means to calculate the similarity between each of the first regions generated by the generation means and the identification information;
Based on the similarity calculated by the first calculation control means, an area in which the calculation means calculates the similarity to the identification information among each of the second areas generated by the generation means. Designation means to designate,
Second calculation control means for causing the calculation means to calculate the similarity between the area specified by the specification means and the identification information;
Identification means for identifying the specific image region in the image based on the similarity calculated by at least one of the first calculation control means and the second calculation control means;
Based on the similarity calculated by the first calculation control means and the similarity of the plurality of the first areas around the second area, the identification information for each of the second areas Determination means for determining whether or not the calculation means calculates the similarity;
Function as
The designation means is:
A program for designating a region in which the similarity with the identification information is calculated by the calculating unit among the second regions based on the determination result by the determining unit .
JP2010180716A 2010-08-12 2010-08-12 Image identification device, image identification method, and program Expired - Fee Related JP5732773B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010180716A JP5732773B2 (en) 2010-08-12 2010-08-12 Image identification device, image identification method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010180716A JP5732773B2 (en) 2010-08-12 2010-08-12 Image identification device, image identification method, and program

Publications (2)

Publication Number Publication Date
JP2012038276A JP2012038276A (en) 2012-02-23
JP5732773B2 true JP5732773B2 (en) 2015-06-10

Family

ID=45850168

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010180716A Expired - Fee Related JP5732773B2 (en) 2010-08-12 2010-08-12 Image identification device, image identification method, and program

Country Status (1)

Country Link
JP (1) JP5732773B2 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0721382A (en) * 1993-07-05 1995-01-24 Asia Electron Inc Picture processor
JP2009064123A (en) * 2007-09-05 2009-03-26 Casio Comput Co Ltd Image processor, imaging device, image processing method and program
JP4983682B2 (en) * 2008-03-25 2012-07-25 セイコーエプソン株式会社 Object detection method, object detection apparatus, object detection program, and printing apparatus

Also Published As

Publication number Publication date
JP2012038276A (en) 2012-02-23

Similar Documents

Publication Publication Date Title
JP5939705B2 (en) Subject determination device, subject determination method, and program
JP6288816B2 (en) Image processing apparatus, image processing method, and program
TWI408954B (en) Image processing apparatus and computer program
US20100225785A1 (en) Image processor and recording medium
KR20080012249A (en) Image reproducing device and control method thereof
JP6652039B2 (en) Imaging device, imaging method, and program
US20140233858A1 (en) Image creating device, image creating method and recording medium storing program
US10095919B2 (en) Image processing apparatus, image processing method and storage medium to suitably clip a subject region from a moving image
JP5510287B2 (en) Subject detection apparatus, subject detection method, and program
JP5966778B2 (en) Imaging apparatus, imaging method, and program
JP4894708B2 (en) Imaging device
KR20110034958A (en) Digital photographing apparatus and method
US9626932B2 (en) Image processing apparatus, image processing method and recording medium recording program for correcting image in predetermined area
JP5267279B2 (en) Image composition apparatus and program
KR20040032590A (en) Method for improving face image within digital camera
JP5732773B2 (en) Image identification device, image identification method, and program
JP2011193066A (en) Image sensing device
JP5740934B2 (en) Subject detection apparatus, subject detection method, and program
JP5212451B2 (en) Region specifying method, region specifying device, program, server, and system
JP5807695B2 (en) Subject detection apparatus, subject detection method, and program
JP6597262B2 (en) Image processing apparatus, image processing method, and program
JP6668646B2 (en) Image processing apparatus, image processing method, and program
JP2011077850A (en) Image processing apparatus, image processing method, and program
JP2016039513A (en) Image generation apparatus, image generation method, and program
JP6627418B2 (en) Image processing apparatus, image processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130724

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20130724

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140314

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140415

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140606

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20141111

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150123

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20150203

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150317

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150330

R150 Certificate of patent or registration of utility model

Ref document number: 5732773

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees