JP2011221602A - Face search device - Google Patents

Face search device Download PDF

Info

Publication number
JP2011221602A
JP2011221602A JP2010086958A JP2010086958A JP2011221602A JP 2011221602 A JP2011221602 A JP 2011221602A JP 2010086958 A JP2010086958 A JP 2010086958A JP 2010086958 A JP2010086958 A JP 2010086958A JP 2011221602 A JP2011221602 A JP 2011221602A
Authority
JP
Japan
Prior art keywords
face
image
search
face image
registered
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010086958A
Other languages
Japanese (ja)
Inventor
Masayoshi Okamoto
正義 岡本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2010086958A priority Critical patent/JP2011221602A/en
Publication of JP2011221602A publication Critical patent/JP2011221602A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

PROBLEM TO BE SOLVED: To improve operation performance.SOLUTION: A CPU 26 sequentially designates one or more face images detected by searching the face images from search image data stored in a search image area 32c of an SDRAM 32 thereby to sequentially designate the found face image. The CPU 26 detects an expression of a designated face image to search a registered face image that coincides with the designated face image among a plurality of registered face images with reference to the detected expression. The CPU 26, after that, displays attribute information showing an attribute of the detected registered face image on an LCD monitor 38.

Description

この発明は、顔探索装置に関し、特に、被写界像に現れた顔画像に符合する登録顔画像を複数の登録顔画像の中から探索する、顔探索装置に関する。   The present invention relates to a face search device, and more particularly to a face search device that searches a registered face image that matches a face image appearing in an object scene image from a plurality of registered face images.

この種の装置の一例が、特許文献1に開示されている。この背景技術によれば、被写界に現れた顔は、被写界を捉える撮像素子から出力された画像データに基づいて検出される。検出された顔は、予め設定された笑顔と共通するか否かの識別処理を施され、識別結果が肯定的であるときに笑顔判定対象として決定される。撮像素子から出力された画像データは、笑顔判定対象の顔が笑顔に変わったときに記憶媒体に記録される。   An example of this type of device is disclosed in Patent Document 1. According to this background art, the face that appears in the scene is detected based on the image data output from the image sensor that captures the scene. The detected face is subjected to identification processing as to whether or not it is common with a smile set in advance, and is determined as a smile determination target when the identification result is affirmative. The image data output from the image sensor is recorded on the storage medium when the smile determination target face changes to a smile.

特開2009−177678号公報JP 2009-177678 A

しかし、背景技術では、予め設定された笑顔と共通するか否かの識別処理を実行するにあたって被写界から検出された顔の表情が参照されることはない。このため、被写界から検出された顔の表情によっては、動作性能が低下するおそれがある。   However, in the background art, the facial expression detected from the object scene is not referred to when executing the identification processing whether or not it is common with a preset smile. For this reason, depending on the facial expression detected from the object scene, the operation performance may be degraded.

それゆえに、この発明の主たる目的は、動作性能を向上させることができる、顔探索装置を提供することである。   Therefore, a main object of the present invention is to provide a face search device capable of improving operation performance.

この発明に従う顔探索装置(10:実施例で相当する参照符号。以下同じ)は、被写界像から1または2以上の顔画像を探索する第1探索手段(S153~S183)、第1探索手段によって発見された1または2以上の顔画像の各々を第1注目顔画像として指定する第1指定手段(S189)、第1注目顔画像と符合する登録顔画像を第1注目顔画像の表情を参照して複数の登録顔画像の中から探索する第2探索手段(S201~S207, S217~S227, S231~S249, S251~S263, S273~S279)、および第2探索手段によって発見された登録顔画像の属性を示す属性情報を出力する出力手段(S209~S215, S265~S271, S125~S133)を備える。   A face search device according to the present invention (10: reference numerals corresponding to the embodiments; the same applies hereinafter) includes first search means (S153 to S183) for searching for one or more face images from an object scene image, the first search First specifying means (S189) for designating each of the one or more face images found by the means as a first noticeable face image, and a registered face image matching the first noticeable face image as an expression of the first noticeable face image 2nd search means (S201 to S207, S217 to S227, S231 to S249, S251 to S263, S273 to S279) for searching from a plurality of registered face images with reference to the above, and registration found by the second search means Output means (S209 to S215, S265 to S271, S125 to S133) for outputting attribute information indicating the attribute of the face image is provided.

好ましくは、第2探索手段は、複数の登録顔画像の各々を第2注目顔画像として指定する第2指定手段(S205, S227)、および第1注目顔画像の表情と第2注目顔画像の表情との相違が抑制されるように第1注目顔画像および/または第2注目顔画像を修正する修正手段(S219)を含む。   Preferably, the second search means includes second designation means (S205, S227) for designating each of the plurality of registered face images as the second attention face image, and the expression of the first attention face image and the second attention face image. Correction means (S219) for correcting the first attention face image and / or the second attention face image so as to suppress the difference from the facial expression is included.

さらに好ましくは、複数の登録顔画像はそれぞれ複数の表情パラメータを伴い、第2探索手段は第2注目顔画像の表情パラメータを修正手段の修正処理のために複数の表情パラメータの中から選択する表情パラメータ選択手段(S217)をさらに含む。   More preferably, each of the plurality of registered face images is accompanied by a plurality of expression parameters, and the second search means selects an expression parameter of the second attention face image from among the plurality of expression parameters for correction processing by the correction means. It further includes parameter selection means (S217).

好ましくは、第2探索手段は、複数の登録顔画像の各々を第2注目顔画像として指定する第2指定手段(S205, S249)、互いに異なる表情を示すように第1注目顔画像および/または第2注目顔画像を繰り返し修正する修正手段(S231~S235, S239~S241)、第1注目顔画像および第2注目顔画像を修正手段による修正処理毎に照合する照合手段(S237)、および第1注目顔画像と符合する登録顔画像を照合手段の照合結果に基づいて特定する特定手段(S243~S247)を含む。   Preferably, the second search means designates each of the plurality of registered face images as a second noticeable face image (S205, S249), the first noticeable face image and / or so as to show different facial expressions. Correction means (S231 to S235, S239 to S241) for repeatedly correcting the second attention face image, collation means (S237) for comparing the first attention face image and the second attention face image for each correction processing by the correction means, and Specific means (S243 to S247) for specifying a registered face image that coincides with the one face image of interest based on the collation result of the collation means is included.

好ましくは、複数の登録顔画像の各々は互いに異なる表情で共通の顔を表す複数の画像を含み、第2探索手段は、第1注目顔画像の表情に沿う表情を有する画像を第2指定手段の指定処理に関連して複数の画像の中から選択する画像選択手段(S253~S257)、および画像選択手段によって選択された画像を第1注目画素画像と照合する照合手段(S273)を含む。   Preferably, each of the plurality of registered face images includes a plurality of images representing a common face with different facial expressions, and the second search means uses the second designation means to select an image having a facial expression along the facial expression of the first attention face image. The image selecting means (S253 to S257) for selecting from among a plurality of images in relation to the designation processing, and the collating means (S273) for collating the image selected by the image selecting means with the first target pixel image.

好ましくは、複数の登録顔画像はそれぞれ複数の名称を伴い、出力手段によって出力される属性情報は第2探索手段によって発見された登録顔画像の名称を含む。   Preferably, each of the plurality of registered face images has a plurality of names, and the attribute information output by the output unit includes the name of the registered face image found by the second search unit.

好ましくは、被写界を捉える撮像手段(16)がさらに備えられ、第1探索手段は撮像手段から出力された被写界像に対して探索処理を実行する。   Preferably, an imaging means (16) for capturing the scene is further provided, and the first search means executes a search process on the scene image output from the imaging means.

好ましくは、第1探索手段は標準顔画像を参照して探索処理を実行する。   Preferably, the first search means executes search processing with reference to the standard face image.

この発明に従う顔探索プログラムは、顔探索装置(10)のプロセッサ(26)に、被写界像から1または2以上の顔画像を探索する第1探索ステップ(S153~S183)、第1探索ステップによって発見された1または2以上の顔画像の各々を第1注目顔画像として指定する指定ステップ(S189)、第1注目顔画像と符合する登録顔画像を第1注目顔画像の表情を参照して複数の登録顔画像の中から探索する第2探索ステップ(S201~S207, S217~S227, S231~S249, S251~S263, S273~S279)、および第2探索ステップによって発見された登録顔画像の属性を示す属性情報を出力する出力ステップ(S209~S215, S265~S271, S125~S133)を実行させるための、顔探索プログラムである。   A face search program according to the present invention includes a first search step (S153 to S183) and a first search step for searching for one or more face images from an object scene image in a processor (26) of a face search device (10). In step S189, each of the one or more face images discovered by step S is designated as a first attention face image, and the registered face image that matches the first attention face image is referred to the expression of the first attention face image. A second search step (S201 to S207, S217 to S227, S231 to S249, S251 to S263, S273 to S279) for searching from a plurality of registered face images and the registered face images found by the second search step A face search program for executing an output step (S209 to S215, S265 to S271, S125 to S133) for outputting attribute information indicating an attribute.

この発明に従う顔探索方法は、顔探索装置(10)によって実行される顔探索方法であって、被写界像から1または2以上の顔画像を探索する第1探索ステップ(S153~S183)、第1探索ステップによって発見された1または2以上の顔画像の各々を第1注目顔画像として指定する指定ステップ(S189)、第1注目顔画像と符合する登録顔画像を第1注目顔画像の表情を参照して複数の登録顔画像の中から探索する第2探索ステップ(S201~S207, S217~S227, S231~S249, S251~S263, S273~S279)、および第2探索ステップによって発見された登録顔画像の属性を示す属性情報を出力する出力ステップ(S209~S215, S265~S271, S125~S133)を備える。   The face search method according to the present invention is a face search method executed by the face search device (10), wherein a first search step (S153 to S183) for searching for one or more face images from an object scene image, A designating step (S189) of designating each of the one or more face images found in the first search step as a first target face image, and a registered face image that matches the first target face image as the first target face image. Discovered by the second search step (S201 to S207, S217 to S227, S231 to S249, S251 to S263, S273 to S279) for searching from a plurality of registered face images with reference to facial expressions, and the second search step An output step (S209 to S215, S265 to S271, S125 to S133) for outputting attribute information indicating the attribute of the registered face image is provided.

この発明によれば、被写界像に現れた顔画像と符合する登録顔画像を探索するにあたって、被写界像に現れた顔画像の表情が参照される。出力される属性情報は、こうして発見された登録顔画像の属性つまり被写界像に現れた顔画像の属性を示す。これによって、動作性能が向上する。   According to the present invention, when searching for a registered face image that matches the face image appearing in the scene image, the facial expression of the face image appearing in the scene image is referred to. The output attribute information indicates the attribute of the registered face image discovered in this way, that is, the attribute of the face image that appears in the object scene image. As a result, the operating performance is improved.

この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。   The above object, other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.

この発明の基本的構成を示すブロック図である。It is a block diagram which shows the basic composition of this invention. この発明の一実施例の構成を示すブロック図である。It is a block diagram which shows the structure of one Example of this invention. 顔登録モードにおいてモニタ画面に表示される登録枠の一例を示す図解図である。It is an illustration figure which shows an example of the registration frame displayed on a monitor screen in face registration mode. 撮像面における評価エリアの割り当て状態の一例を示す図解図である。It is an illustration figure which shows an example of the allocation state of the evaluation area in an imaging surface. 図2実施例に適用される標準顔辞書の構成の一例を示す図解図である。It is an illustration figure which shows an example of a structure of the standard face dictionary applied to the FIG. 2 Example. 図2実施例に適用される顔枠レジスタの構成の一例を示す図解図である。FIG. 5 is an illustrative view showing one example of a configuration of a face frame register applied to the embodiment in FIG. 2; 登録用顔検出タスクおよび撮像用顔検出タスクにおいて用いられる顔検出枠の一例を示す図解図である。It is an illustration figure which shows an example of the face detection frame used in the face detection task for registration, and the face detection task for imaging. 登録用顔検出タスクにおける顔検出処理の一例を示す図解図である。It is an illustration figure which shows an example of the face detection process in the registration face detection task. (A)は顔登録モードにおいてモニタ画面に表示された被写界像の一例を示す図解図であり、(B)は顔登録モードにおいてモニタ画面に表示された被写界像の他の一例を示す図解図であり、(C)は顔登録モードにおいてモニタ画面に表示された被写界像のその他の一例を示す図解図であり、(D)は顔登録モードにおいてモニタ画面に表示された被写界像のさらにその他の一例を示す図解図である。(A) is an illustration figure which shows an example of the object scene image displayed on the monitor screen in face registration mode, (B) is another example of the object scene image displayed on the monitor screen in face registration mode. (C) is an illustrative view showing another example of the object scene image displayed on the monitor screen in the face registration mode, and (D) is an object view displayed on the monitor screen in the face registration mode. It is an illustration figure which shows another example of a scene image. 顔登録モードにおいてモニタ画面に表示される登録操作画面の一例を示す図解図である。It is an illustration figure which shows an example of the registration operation screen displayed on a monitor screen in face registration mode. 図2実施例に適用される登録顔辞書の構成の一例を示す図解図である。It is an illustration figure which shows an example of a structure of the registration face dictionary applied to the FIG. 2 Example. 撮像用顔検出タスクにおける顔検出処理の一例を示す図解図である。It is an illustration figure which shows an example of the face detection process in the face detection task for imaging. 図2実施例によって捉えられる被写界の一例を示す図解図である。FIG. 3 is an illustrative view showing one example of an object scene captured by the embodiment in FIG. 2; (A)は修正前の登録顔画像の一例を示す図解図であり、(B)は修正後の登録顔画像の一例を示す図解図である。(A) is an illustrative view showing an example of a registered face image before correction, and (B) is an illustrative view showing an example of a registered face image after correction. 図2実施例に適用される認識顔レジスタの構成の一例を示す図解図である。It is an illustration figure which shows an example of a structure of the recognition face register applied to the FIG. 2 Example. 図2実施例に適用される確定レジスタの構成の一例を示す図解図である。FIG. 5 is an illustrative view showing one example of a configuration of a confirmation register applied to the embodiment in FIG. 2; 撮像モードにおいてモニタ画面に表示された被写界像の一例を示す図解図である。It is an illustration figure which shows an example of the object scene image displayed on the monitor screen in imaging mode. 図2実施例に適用されるCPUの動作の一部を示すフロー図である。It is a flowchart which shows a part of operation | movement of CPU applied to the FIG. 2 Example. 図2実施例に適用されるCPUの動作の他の一部を示すフロー図である。It is a flowchart which shows a part of other operation | movement of CPU applied to the FIG. 2 Example. 図2実施例に適用されるCPUの動作のその他の一部を示すフロー図である。FIG. 11 is a flowchart showing still another portion of behavior of the CPU applied to the embodiment in FIG. 2; 図2実施例に適用されるCPUの動作のさらにその他の一部を示すフロー図である。FIG. 10 is a flowchart showing yet another portion of behavior of the CPU applied to the embodiment in FIG. 2; 図2実施例に適用されるCPUの動作の他の一部を示すフロー図である。It is a flowchart which shows a part of other operation | movement of CPU applied to the FIG. 2 Example. 図2実施例に適用されるCPUの動作のその他の一部を示すフロー図である。FIG. 11 is a flowchart showing still another portion of behavior of the CPU applied to the embodiment in FIG. 2; 図2実施例に適用されるCPUの動作のさらにその他の一部を示すフロー図である。FIG. 10 is a flowchart showing yet another portion of behavior of the CPU applied to the embodiment in FIG. 2; 図2実施例に適用されるCPUの動作の他の一部を示すフロー図である。It is a flowchart which shows a part of other operation | movement of CPU applied to the FIG. 2 Example. 図2実施例に適用されるCPUの動作のその他の一部を示すフロー図である。FIG. 11 is a flowchart showing still another portion of behavior of the CPU applied to the embodiment in FIG. 2; 図2実施例に適用されるCPUの動作のさらにその他の一部を示すフロー図である。FIG. 10 is a flowchart showing yet another portion of behavior of the CPU applied to the embodiment in FIG. 2; 図2実施例に適用されるCPUの動作の他の一部を示すフロー図である。It is a flowchart which shows a part of other operation | movement of CPU applied to the FIG. 2 Example. 図2実施例に適用されるCPUの動作のその他の一部を示すフロー図である。FIG. 11 is a flowchart showing still another portion of behavior of the CPU applied to the embodiment in FIG. 2; 図2実施例に適用されるCPUの動作のさらにその他の一部を示すフロー図である。FIG. 10 is a flowchart showing yet another portion of behavior of the CPU applied to the embodiment in FIG. 2; 図2実施例に適用されるCPUの動作の他の一部を示すフロー図である。It is a flowchart which shows a part of other operation | movement of CPU applied to the FIG. 2 Example. 図2実施例に適用されるCPUの動作のその他の一部を示すフロー図である。FIG. 11 is a flowchart showing still another portion of behavior of the CPU applied to the embodiment in FIG. 2; 図2実施例に適用されるCPUの動作のさらにその他の一部を示すフロー図である。FIG. 10 is a flowchart showing yet another portion of behavior of the CPU applied to the embodiment in FIG. 2; 他の実施例に適用される登録顔辞書の構成の一例を示す図解図である。It is an illustration figure which shows an example of a structure of the registration face dictionary applied to another Example. 他の実施例に適用されるCPUの動作の一部を示すフロー図である。It is a flowchart which shows a part of operation | movement of CPU applied to another Example. 他の実施例に適用されるCPUの動作の他の一部を示すフロー図である。It is a flowchart which shows a part of other operation | movement of CPU applied to another Example. 他の実施例に適用されるCPUの動作のその他の一部を示すフロー図である。It is a flowchart which shows a part of other operation | movement of CPU applied to another Example. その他の実施例に適用される登録顔辞書の構成の一例を示す図解図である。It is an illustration figure which shows an example of a structure of the registration face dictionary applied to another Example. その他の実施例に適用されるCPUの動作の一部を示すフロー図である。It is a flowchart which shows a part of operation | movement of CPU applied to another Example. その他の実施例に適用されるCPUの動作の他の一部を示すフロー図である。It is a flowchart which shows a part of other operation | movement of CPU applied to another Example. その他の実施例に適用されるCPUの動作のその他の一部を示すフロー図である。It is a flowchart which shows a part of other operation | movement of CPU applied to another Example.

以下、この発明の実施の形態を図面を参照しながら説明する。
[基本的構成]
Embodiments of the present invention will be described below with reference to the drawings.
[Basic configuration]

図1を参照して、この発明の顔探索装置は、基本的に次のように構成される。第1探索手段1は、被写界像から1または2以上の顔画像を探索する。第1指定手段2は、第1探索手段1によって発見された1または2以上の顔画像の各々を第1注目顔画像として指定する。第2探索手段3は、第1注目顔画像と符合する登録顔画像を第1注目顔画像の表情を参照して複数の登録顔画像の中から探索する。出力手段4は、第2探索手段3によって発見された登録顔画像の属性を示す属性情報を出力する。   Referring to FIG. 1, the face search device of the present invention is basically configured as follows. The first search means 1 searches for one or more face images from the object scene image. The first designation unit 2 designates each of one or more face images discovered by the first search unit 1 as a first target face image. The second search means 3 searches the registered face image matching the first attention face image from the plurality of registered face images with reference to the facial expression of the first attention face image. The output unit 4 outputs attribute information indicating the attribute of the registered face image found by the second search unit 3.

被写界像に現れた顔画像と符合する登録顔画像を探索するにあたって、被写界像に現れた顔画像の表情が参照される。出力される属性情報は、こうして発見された登録顔画像の属性つまり被写界像に現れた顔画像の属性を示す。これによって、動作性能が向上する。
[実施例]
When searching for a registered face image that matches the face image that appeared in the object scene image, the facial expression of the face image that appeared in the object scene image is referred to. The output attribute information indicates the attribute of the registered face image discovered in this way, that is, the attribute of the face image that appears in the object scene image. As a result, the operating performance is improved.
[Example]

図2を参照して、この実施例のディジタルカメラ10は、ドライバ18aおよび18bによってそれぞれ駆動されるフォーカスレンズ12および絞りユニット14を含む。これらの部材を経た被写界の光学像は、イメージャ16の撮像面に照射され、光電変換を施される。これによって、被写界像を表す電荷が生成される。   Referring to FIG. 2, the digital camera 10 of this embodiment includes a focus lens 12 and an aperture unit 14 driven by drivers 18a and 18b, respectively. The optical image of the object scene that has passed through these members is irradiated onto the imaging surface of the imager 16 and subjected to photoelectric conversion. As a result, a charge representing the object scene image is generated.

電源が投入されると、CPU26は、キー入力装置28に設けられたモード切り換えスイッチ28mdの設定(つまり現時点の動作モード)をメインタスクの下で判別する。現時点の動作モードが顔登録モードであれば、顔登録タスクおよび登録用顔検出タスクが起動される。現時点の動作モードが撮像モードであれば、撮像タスクおよび撮像用顔検出タスクが起動される。   When the power is turned on, the CPU 26 determines the setting (that is, the current operation mode) of the mode changeover switch 28md provided in the key input device 28 under the main task. If the current operation mode is the face registration mode, a face registration task and a registration face detection task are activated. If the current operation mode is the imaging mode, the imaging task and the imaging face detection task are activated.

顔登録モードが選択されると、CPU26は、顔登録タスクの下で登録枠表示命令をグラフィックジェネレータ46に与える。グラフィックジェネレータ46は、登録枠RF1を表すグラフィックデータを作成し、作成されたグラフィックデータをLCDドライバ36に与える。登録枠RF1は、図3に示す要領でLCDモニタ38に表示される。   When the face registration mode is selected, the CPU 26 gives a registration frame display command to the graphic generator 46 under the face registration task. The graphic generator 46 creates graphic data representing the registration frame RF1 and gives the created graphic data to the LCD driver 36. The registration frame RF1 is displayed on the LCD monitor 38 in the manner shown in FIG.

CPU26は続いて、動画取り込み処理を実行するべく、顔登録タスクの下で露光動作および電荷読み出し動作の繰り返しをドライバ18cに命令する。ドライバ18cは、図示しないSG(Signal Generator)から周期的に発生する垂直同期信号Vsyncに応答して、撮像面を露光し、かつ撮像面で生成された電荷をラスタ走査態様で読み出す。イメージャ16からは、読み出された電荷に基づく生画像データが周期的に出力される。   Subsequently, the CPU 26 instructs the driver 18c to repeat the exposure operation and the charge reading operation under the face registration task in order to execute the moving image capturing process. In response to a vertical synchronization signal Vsync periodically generated from an SG (Signal Generator) (not shown), the driver 18c exposes the imaging surface and reads out the charges generated on the imaging surface in a raster scanning manner. From the imager 16, raw image data based on the read charges is periodically output.

前処理回路20は、イメージャ16から出力された生画像データにディジタルクランプ,画素欠陥補正,ゲイン制御などの処理を施す。これらの処理を施された生画像データは、メモリ制御回路30を通してSDRAM32の生画像エリア32aに書き込まれる。   The preprocessing circuit 20 performs processing such as digital clamping, pixel defect correction, and gain control on the raw image data output from the imager 16. The raw image data subjected to these processes is written into the raw image area 32 a of the SDRAM 32 through the memory control circuit 30.

後処理回路34は、生画像エリア32aに格納された生画像データをメモリ制御回路30を通して読み出し、読み出された生画像データに色分離処理,白バランス調整処理およびYUV変換処理を施す。後処理回路34はさらに、YUV形式に従う画像データに対して表示用のズーム処理と探索用のズーム処理とを並列的に実行する。この結果、YUV形式に従う表示画像データおよび探索画像データが個別に作成される。表示画像データは、メモリ制御回路30によってSDRAM32の表示画像エリア32bに書き込まれる。探索画像データは、メモリ制御回路30によってSDRAM32の探索画像エリア32cに書き込まれる。   The post-processing circuit 34 reads the raw image data stored in the raw image area 32a through the memory control circuit 30, and performs color separation processing, white balance adjustment processing, and YUV conversion processing on the read raw image data. The post-processing circuit 34 further performs display zoom processing and search zoom processing in parallel on the image data in the YUV format. As a result, display image data and search image data conforming to the YUV format are individually created. The display image data is written into the display image area 32 b of the SDRAM 32 by the memory control circuit 30. The search image data is written into the search image area 32 c of the SDRAM 32 by the memory control circuit 30.

LCDドライバ36は、表示画像エリア32bに格納された表示画像データをメモリ制御回路30を通して繰り返し読み出し、読み出された画像データに基づいてLCDモニタ38を駆動する。この結果、被写界のリアルタイム動画像(スルー画像)がモニタ画面に表示される。   The LCD driver 36 repeatedly reads the display image data stored in the display image area 32b through the memory control circuit 30, and drives the LCD monitor 38 based on the read image data. As a result, a real-time moving image (through image) of the object scene is displayed on the monitor screen.

図4を参照して、撮像面の中央には評価エリアEVAが割り当てられる。評価エリアEVAは水平方向および垂直方向の各々において16分割され、256個の分割エリアが評価エリアEVAを形成する。また、図2に示す前処理回路20は、上述した処理に加えて、生画像データを簡易的にRGBデータに変換する簡易RGB変換処理を実行する。   Referring to FIG. 4, an evaluation area EVA is assigned to the center of the imaging surface. The evaluation area EVA is divided into 16 in each of the horizontal direction and the vertical direction, and 256 divided areas form the evaluation area EVA. In addition to the above-described processing, the preprocessing circuit 20 shown in FIG. 2 executes simple RGB conversion processing that simply converts raw image data into RGB data.

AE評価回路22は、前処理回路20によって生成されたRGBデータのうち評価エリアEVAに属するRGBデータを、垂直同期信号Vsyncが発生する毎に積分する。これによって、256個の積分値つまり256個のAE評価値が、垂直同期信号Vsyncに応答してAE評価回路22から出力される。   The AE evaluation circuit 22 integrates RGB data belonging to the evaluation area EVA among the RGB data generated by the preprocessing circuit 20 every time the vertical synchronization signal Vsync is generated. As a result, 256 integral values, that is, 256 AE evaluation values, are output from the AE evaluation circuit 22 in response to the vertical synchronization signal Vsync.

AF評価回路24は、前処理回路20によって生成されたRGBデータのうち評価エリアEVAに属するRGBデータの高周波成分を、垂直同期信号Vsyncが発生する毎に積分する。これによって、256個の積分値つまり256個のAF評価値が、垂直同期信号Vsyncに応答してAF評価回路24から出力される。   The AF evaluation circuit 24 integrates the high-frequency components of the RGB data belonging to the evaluation area EVA among the RGB data generated by the preprocessing circuit 20 every time the vertical synchronization signal Vsync is generated. As a result, 256 integral values, that is, 256 AF evaluation values, are output from the AF evaluation circuit 24 in response to the vertical synchronization signal Vsync.

シャッタボタン28shが非操作状態のとき、CPU26は、AE評価回路22からの出力に基づく簡易AE処理を顔登録タスクの下で実行し、適正EV値を算出する。算出された適正EV値を定義する絞り量および露光時間はドライバ18bおよび18cにそれぞれ設定され、この結果、スルー画像の明るさが適度に調整される。   When the shutter button 28sh is in the non-operating state, the CPU 26 executes a simple AE process based on the output from the AE evaluation circuit 22 under the face registration task, and calculates an appropriate EV value. The aperture amount and exposure time that define the calculated appropriate EV value are set in the drivers 18b and 18c, respectively, and as a result, the brightness of the through image is adjusted appropriately.

CPU26はまた、顔登録タスクと並列して実行される登録用顔検出タスクの下で、探索画像エリア32cに格納された探索画像データから人物の顔画像を探索する。このような登録用顔検出タスクのために、図5に示す標準顔辞書STDCと図6に示す顔枠レジスタRGST1と図7に示す複数の顔検出枠FD,FD,FD,…が準備される。なお、標準顔辞書STDC,顔枠レジスタRGST1および複数の顔検出枠FD,FD,FD,…は、後述する撮像用顔検出タスクにおいても用いられる。   The CPU 26 also searches for a human face image from the search image data stored in the search image area 32c under a registration face detection task executed in parallel with the face registration task. For such a registration face detection task, a standard face dictionary STDC shown in FIG. 5, a face frame register RGST1 shown in FIG. 6, and a plurality of face detection frames FD, FD, FD,. . The standard face dictionary STDC, the face frame register RGST1, and the plurality of face detection frames FD, FD, FD,... Are also used in an imaging face detection task described later.

顔検出枠FDは、垂直同期信号Vsyncが発生する毎に、探索画像エリア32b上を登録枠RF1に対応してラスタ走査態様で移動する(図8参照)。顔検出枠FDのサイズは、ラスタ走査が終了する毎に“70”から“40”まで“5”刻みで縮小される。   Each time the vertical synchronization signal Vsync is generated, the face detection frame FD moves on the search image area 32b in a raster scanning manner corresponding to the registration frame RF1 (see FIG. 8). The size of the face detection frame FD is reduced in increments of “5” from “70” to “40” every time raster scanning ends.

CPU26は、顔検出枠FDに属する画像データをメモリ制御回路30を通して探索画像エリア32bから読み出し、読み出された画像データの特徴量を算出する。算出された特徴量は、標準顔辞書に登録された顔画像の特徴量と照合される。照合度が基準値REFを上回ると、登録枠RF1から顔画像が発見されたとみなされ、変数CNTが“0”から“1”に更新される。さらに、現時点の顔検出枠FDの位置およびサイズが、発見された顔画像を囲う顔枠の位置およびサイズとして、顔枠レジスタRGST1に登録される。   The CPU 26 reads the image data belonging to the face detection frame FD from the search image area 32b through the memory control circuit 30, and calculates the feature amount of the read image data. The calculated feature amount is collated with the feature amount of the face image registered in the standard face dictionary. When the matching degree exceeds the reference value REF, it is considered that a face image has been found from the registration frame RF1, and the variable CNT is updated from “0” to “1”. Further, the current position and size of the face detection frame FD are registered in the face frame register RGST1 as the position and size of the face frame surrounding the found face image.

シャッタボタン28shが非操作状態にあるとき、CPU26は、顔登録タスクの下で変数CNTの値を繰り返し判別する。変数CNTが“0”であれば顔枠非表示命令がグラフィックジェネレータ46に向けて発行され、変数CNTが“1”であれば顔枠表示命令がグラフィックジェネレータ46に向けて発行される。顔枠表示命令には、顔枠レジスタRGST1に登録された顔枠の位置およびサイズが記述される。   When the shutter button 28sh is in a non-operation state, the CPU 26 repeatedly determines the value of the variable CNT under the face registration task. If the variable CNT is “0”, a face frame non-display command is issued to the graphic generator 46, and if the variable CNT is “1”, a face frame display command is issued to the graphic generator 46. The face frame display command describes the position and size of the face frame registered in the face frame register RGST1.

顔枠表示命令が与えられたとき、グラフィックジェネレータ46は、顔枠KF1を表すグラフィックデータを作成し、作成されたグラフィックデータをLCDドライバ36に与える。グラフィックデータは、顔枠表示命令に記述された位置およびサイズを参照して作成される。この結果、顔枠KF1は、発見された顔画像を囲うように表示される。   When the face frame display command is given, the graphic generator 46 creates graphic data representing the face frame KF1, and gives the created graphic data to the LCD driver 36. The graphic data is created with reference to the position and size described in the face frame display command. As a result, the face frame KF1 is displayed so as to surround the found face image.

“憲治”の顔画像が登録枠RF1内に現れたとき、顔枠KF1は図9(A)に示す要領で表示される。また、“大介”の顔画像が登録枠RF1内に現れたとき、顔枠KF1は図9(B)に示す要領で表示される。さらに、“靖史”の顔画像が登録枠RF1内に現れたとき、顔枠KF1は図9(C)に示す要領で表示される。また、“桂子”の顔画像が登録枠RF1内に現れたとき、顔枠KF1は図9(D)に示す要領で表示される。   When the face image of “Kenji” appears in the registration frame RF1, the face frame KF1 is displayed as shown in FIG. When the face image “Daisuke” appears in the registration frame RF1, the face frame KF1 is displayed as shown in FIG. 9B. Further, when the face image of “History” appears in the registration frame RF1, the face frame KF1 is displayed in the manner shown in FIG. 9C. When the face image “Keiko” appears in the registration frame RF1, the face frame KF1 is displayed as shown in FIG.

顔枠KF1が表示された状態でシャッタボタン28shが操作されると、CPU26は、顔登録タスクの下で静止画取り込み処理を実行する。シャッタボタン28shが操作された時点の被写界を表す1フレームの表示画像データは、静止画取り込み処理によって静止画エリア32dに取り込まれる。CPU26はその後、静止画エリア32dに取り込まれた画像データのうち顔枠KF1に属する一部の画像データを抽出する。これによって、登録顔画像が得られる。   When the shutter button 28sh is operated while the face frame KF1 is displayed, the CPU 26 executes a still image capturing process under the face registration task. One frame of display image data representing the object scene at the time when the shutter button 28sh is operated is captured into the still image area 32d by the still image capturing process. Thereafter, the CPU 26 extracts a part of the image data belonging to the face frame KF1 from the image data captured in the still image area 32d. Thereby, a registered face image is obtained.

CPU26は続いて、顔登録タスクの下で登録操作画面表示命令をグラフィックジェネレータ46に与える。グラフィックジェネレータ46は、登録操作画面を表すグラフィックデータを作成し、作成されたグラフィックデータをLCDドライバ36に与える。この結果、図10に示す登録操作画面がLCDモニタ38に表示される。図10によれば、登録操作画面は、“登録”および“キャンセル”のアイコンと人名入力欄とによって形成される。   Subsequently, the CPU 26 gives a registration operation screen display command to the graphic generator 46 under the face registration task. The graphic generator 46 creates graphic data representing the registration operation screen and gives the created graphic data to the LCD driver 36. As a result, the registration operation screen shown in FIG. 10 is displayed on the LCD monitor 38. According to FIG. 10, the registration operation screen is formed by “registration” and “cancel” icons and a person name input field.

所望の人名が人名入力欄に入力され、その後に“登録”のアイコンが選択されると、CPU26は、名称入力操作が行われたとみなし、上述の要領で抽出された登録顔画像の笑顔度を算出する。抽出された登録顔画像は、人名および笑顔度とともに登録顔辞書RGDCに記述される。   When a desired person name is entered in the person name input field and then the “register” icon is selected, the CPU 26 considers that the name input operation has been performed, and determines the smile level of the registered face image extracted in the manner described above. calculate. The extracted registered face image is described in the registered face dictionary RGDC together with the name of the person and the smile level.

したがって、図9(A)に示す状態でシャッタボタン28shが操作されると、“憲治”の顔を現す登録顔画像が作成される。名称入力操作によって“憲治”が入力されると、登録顔画像の笑顔度(=70)が算出される。登録顔画像,人名(=憲治)および笑顔度(=70)は、図11に示す登録顔辞書RGDCの1番目のカラムに記述される。   Therefore, when the shutter button 28sh is operated in the state shown in FIG. 9A, a registered face image showing the face of “Kenji” is created. When “Kenji” is input by the name input operation, the smile level (= 70) of the registered face image is calculated. The registered face image, person name (= Kenji) and smile level (= 70) are described in the first column of the registered face dictionary RGDC shown in FIG.

図9(B)に示す状態でシャッタボタン28shが操作されると、“大介”の顔を現す登録顔画像が作成される。名称入力操作によって“大介”が入力されると、登録顔画像の笑顔度(=100)が算出される。登録顔画像,人名(=大介)および笑顔度(=100)は、図11に示す登録顔辞書RGDCの2番目のカラムに記述される。   When the shutter button 28sh is operated in the state shown in FIG. 9B, a registered face image showing the face of “Daisuke” is created. When “Daisuke” is input by the name input operation, the smile level (= 100) of the registered face image is calculated. The registered face image, personal name (= Daisuke), and smile level (= 100) are described in the second column of the registered face dictionary RGDC shown in FIG.

図9(C)に示す状態でシャッタボタン28shが操作されると、“靖史”の顔を現す登録顔画像が作成される。名称入力操作によって“靖史”が入力されると、登録顔画像の笑顔度(=0)が算出される。登録顔画像,人名(=靖史)および笑顔度(=0)は、図11に示す登録顔辞書RGDCの3番目のカラムに記述される。   When the shutter button 28sh is operated in the state shown in FIG. 9C, a registered face image representing the face of “History” is created. When “History” is input by the name input operation, the smile level (= 0) of the registered face image is calculated. The registered face image, personal name (= History) and smile level (= 0) are described in the third column of the registered face dictionary RGDC shown in FIG.

図9(D)に示す状態でシャッタボタン28shが操作されると、“桂子”の顔を現す登録顔画像が作成される。名称入力操作によって“桂子”が入力されると、登録顔画像の笑顔度(=0)が算出される。登録顔画像,人名(=桂子)および笑顔度(=0)は、図11に示す登録顔辞書RGDCの4番目のカラムに記述される。   When the shutter button 28sh is operated in the state shown in FIG. 9D, a registered face image showing the face of “Keiko” is created. When “Keiko” is input by the name input operation, the smile level (= 0) of the registered face image is calculated. The registered face image, personal name (= Keiko), and smile level (= 0) are described in the fourth column of the registered face dictionary RGDC shown in FIG.

なお、図11によれば頭部全体が顔画像として描かれているが、厳密には、顔枠KF1に属する画像のみが顔画像として登録顔辞書RGDCに収められる。   Although the entire head is drawn as a face image according to FIG. 11, strictly speaking, only images belonging to the face frame KF1 are stored in the registered face dictionary RGDC as face images.

顔登録モードに代えて撮像モードが選択されると、CPU26は、撮像タスクの下で動画取込み処理を開始する。これによって、スルー画像がLCDモニタ38に表示され、探索画像データが探索画像エリア32cに繰り返し書き込まれる。   When the imaging mode is selected instead of the face registration mode, the CPU 26 starts moving image capturing processing under the imaging task. Thereby, the through image is displayed on the LCD monitor 38, and the search image data is repeatedly written in the search image area 32c.

シャッタボタン28shが非操作状態のとき、CPU26は、AE評価回路22からの出力に基づく簡易AE処理を撮像タスクの下で実行し、適正EV値を算出する。算出された適正EV値を定義する絞り量および露光時間はドライバ18bおよび18cにそれぞれ設定され、この結果、スルー画像の明るさが適度に調整される。   When the shutter button 28sh is in the non-operating state, the CPU 26 executes a simple AE process based on the output from the AE evaluation circuit 22 under the imaging task, and calculates an appropriate EV value. The aperture amount and exposure time that define the calculated appropriate EV value are set in the drivers 18b and 18c, respectively, and as a result, the brightness of the through image is adjusted appropriately.

CPU26は、撮像タスクと並列して実行される撮像用顔検出タスクの下で、探索画像エリア32cに格納された探索画像データから人物の顔画像を探索する。探索される顔画像は、登録顔辞書RGDCに収められた登録顔画像に符合する画像である。   The CPU 26 searches for a human face image from the search image data stored in the search image area 32c under an imaging face detection task executed in parallel with the imaging task. The searched face image is an image that matches the registered face image stored in the registered face dictionary RGDC.

図7に示す顔検出枠FDは、垂直同期信号Vsyncが発生する毎に、探索画像エリア32b上を評価エリアEVAに対応してラスタ走査態様で移動する(図12参照)。顔検出枠FDのサイズは、ラスタ走査が終了する毎に“200”から“20”まで“5”刻みで縮小される。   The face detection frame FD shown in FIG. 7 moves on the search image area 32b in a raster scanning manner corresponding to the evaluation area EVA every time the vertical synchronization signal Vsync is generated (see FIG. 12). The size of the face detection frame FD is reduced in increments of “5” from “200” to “20” every time raster scanning ends.

CPU26は、顔検出枠FDに属する画像データをメモリ制御回路30を通して探索画像エリア32bから読み出し、読み出された画像データの特徴量を算出する。算出された特徴量は、標準顔辞書STDCに収められた顔画像の特徴量と照合される。照合度が基準値REFを上回ると、“0”を初期値とする変数CNTがインクリメントされる。また、現時点の顔検出枠FDの位置およびサイズが、顔画像を囲う顔枠の位置およびサイズとして図6に示す顔枠レジスタRGST1に設定される。   The CPU 26 reads the image data belonging to the face detection frame FD from the search image area 32b through the memory control circuit 30, and calculates the feature amount of the read image data. The calculated feature amount is collated with the feature amount of the face image stored in the standard face dictionary STDC. When the matching degree exceeds the reference value REF, the variable CNT having “0” as an initial value is incremented. Further, the current position and size of the face detection frame FD are set in the face frame register RGST1 shown in FIG. 6 as the position and size of the face frame surrounding the face image.

したがって、図13に示す被写界が捉えられたときは、人物H1,H2および憲治の顔画像が検出され、検出された顔画像を囲う顔枠の位置およびサイズが顔枠レジスタRGST1に設定される。人物H1に対応する顔枠の位置およびサイズは顔枠レジスタRGST1の1番目のカラムに記述され、人物H2に対応する顔枠の位置およびサイズは顔枠レジスタRGST1の2番目のカラムに記述され、そして憲治に対応する顔枠の位置およびサイズは顔枠レジスタRGST1の3番目のカラムに記述される。憲治に対応する顔枠の位置およびサイズが記述された時点で、変数CNTは“3”を示す。   Therefore, when the object scene shown in FIG. 13 is captured, the human H1, H2 and Kenji face images are detected, and the position and size of the face frame surrounding the detected face image are set in the face frame register RGST1. The The position and size of the face frame corresponding to the person H1 are described in the first column of the face frame register RGST1, the position and size of the face frame corresponding to the person H2 are described in the second column of the face frame register RGST1, The position and size of the face frame corresponding to Kenji are described in the third column of the face frame register RGST1. When the position and size of the face frame corresponding to the constitution are described, the variable CNT indicates “3”.

CPU26は続いて、顔枠レジスタRGST1に設定されたCNT個の顔枠を順に指定する。指定された顔枠に属する画像データは、以下の顔認識処理を施される。   Subsequently, the CPU 26 sequentially specifies the CNT face frames set in the face frame register RGST1. Image data belonging to the designated face frame is subjected to the following face recognition process.

まず、指定顔枠に属する画像データがメモリ制御回路30を通して探索画像エリア32cから読み出され、読み出された画像データの笑顔度が算出される。次に、変数Kが“1”〜“Kmax”の各々に設定され、K番目のカラムに記述された登録顔画像の笑顔度が登録顔辞書RGDCから検出される。なお、“Kmax”は、登録顔画像の総数に相当する。   First, image data belonging to the designated face frame is read from the search image area 32c through the memory control circuit 30, and the smile level of the read image data is calculated. Next, the variable K is set to each of “1” to “Kmax”, and the smile level of the registered face image described in the Kth column is detected from the registered face dictionary RGDC. “Kmax” corresponds to the total number of registered face images.

指定顔枠に属する画像データの特徴量は、算出ないし検出された2つの笑顔度の相違が抑制ないし解消されるように修正される。図14(A)に示す憲治の顔画像の特徴量をK=1に対応して修正する場合、図14(A)に示す顔画像の笑顔度(=0)と登録顔辞書RGDCに記述された憲治の顔画像の笑顔度(=70)とが参照される。これらの笑顔度の相違が解消されるように特徴量を修正した結果、憲治の顔画像の表情は図14(A)から図14(B)に変化する。   The feature amount of the image data belonging to the designated face frame is corrected so that the difference between the calculated and detected two smile levels is suppressed or eliminated. When the feature amount of the Kenji face image shown in FIG. 14A is corrected corresponding to K = 1, it is described in the smile degree (= 0) of the face image and the registered face dictionary RGDC shown in FIG. The smile level (= 70) of Kenji's face image is referred to. As a result of correcting the feature amount so as to eliminate these differences in smile levels, the facial expression of Kenji's face image changes from FIG. 14 (A) to FIG. 14 (B).

こうして修正された特徴量は、K番目のカラムに記述された登録顔画像の特徴量と照合される。照合度が基準値REFを上回れば、照合先の登録顔画像のカラム番号(=K=登録顔画像番号)と照合度とが図15に示す認識顔レジスタRGST2に登録される。   The feature amount thus corrected is collated with the feature amount of the registered face image described in the Kth column. If the matching level exceeds the reference value REF, the column number (= K = registered face image number) of the registered face image as the matching destination and the matching level are registered in the recognition face register RGST2 shown in FIG.

少なくとも1つの登録顔画像番号が認識顔レジスタRGST2に設定されていれば、フラグFLG_RCGが“1”に設定され、最大照合度に対応する登録顔画像番号と指定された顔枠の位置およびサイズとが図16に示す確定レジスタRGST3に登録される。一方、登録顔画像番号が認識顔レジスタRGST2に存在しなければ、フラグFLG_RCGは“0”に設定される。   If at least one registered face image number is set in the recognition face register RGST2, the flag FLG_RCG is set to “1”, the registered face image number corresponding to the maximum matching degree, the position and size of the designated face frame, Is registered in the confirmation register RGST3 shown in FIG. On the other hand, if the registered face image number does not exist in the recognized face register RGST2, the flag FLG_RCG is set to “0”.

シャッタボタン28shが非操作状態にあるとき、CPU26は、撮像タスクの下でフラグFLG_RCGの値を繰り返し判別する。フラグFLG_RCGが“0”であれば顔枠非表示命令および人名非表示命令がグラフィックジェネレータ46に向けて発行され、フラグFLG_RCGが“1”であれば顔枠表示命令および人名表示命令がグラフィックジェネレータ46に向けて発行される。顔枠表示命令には、確定レジスタRGST3に設定された顔枠の位置およびサイズが記述される。また、人名表示命令には、確定レジスタRGST3に設定された登録顔画像番号に対応する人名が記述される。   When the shutter button 28sh is not operated, the CPU 26 repeatedly determines the value of the flag FLG_RCG under the imaging task. If the flag FLG_RCG is “0”, a face frame non-display command and a personal name non-display command are issued to the graphic generator 46. If the flag FLG_RCG is “1”, a face frame display command and a personal name display command are issued to the graphic generator 46. It is issued towards. The face frame display command describes the position and size of the face frame set in the confirmation register RGST3. In the personal name display command, the personal name corresponding to the registered face image number set in the confirmation register RGST3 is described.

顔枠表示命令が与えられたとき、グラフィックジェネレータ46は、顔枠KF1を表すグラフィックデータを作成し、作成されたグラフィックデータをLCDドライバ36に与える。グラフィックデータは、顔枠表示命令に記述された位置およびサイズを参照して作成される。この結果、顔枠KF1は、発見された顔画像を囲うように表示される。   When the face frame display command is given, the graphic generator 46 creates graphic data representing the face frame KF1, and gives the created graphic data to the LCD driver 36. The graphic data is created with reference to the position and size described in the face frame display command. As a result, the face frame KF1 is displayed so as to surround the found face image.

人名表示命令が与えられたとき、グラフィックジェネレータ46は、人名を表すグラフィックデータを作成し、作成されたグラフィックデータをLCDドライバ36に与える。人名はモニタ画面の右下に表示される。   When the personal name display command is given, the graphic generator 46 creates graphic data representing the personal name and supplies the created graphic data to the LCD driver 36. Your name is displayed in the lower right corner of the monitor screen.

したがって、図13に示す被写界が捉えられたとき、顔枠KF1および人名は、図17に示す要領でモニタ画面に表示される。   Therefore, when the object scene shown in FIG. 13 is captured, the face frame KF1 and the name of the person are displayed on the monitor screen as shown in FIG.

シャッタボタン28shが半押しされると、CPU26は、AE評価回路22からの出力に基づく厳格AE処理を撮像タスクの下で実行し、最適EV値を算出する。最適EV値を定義する絞り量および露光時間はドライバ18bおよび18cにそれぞれ設定され、この結果、スルー画像の明るさが適度に調整される。厳格AE処理が完了すると、CPU26は、撮像タスクの下でAF処理を実行する。AF処理はAF評価回路24の出力を参照した山登り方式で実行され、フォーカスレンズ12は合焦点に設定される。これによって、スルー画像の鮮鋭度が向上する。   When the shutter button 28sh is half-pressed, the CPU 26 executes a strict AE process based on the output from the AE evaluation circuit 22 under the imaging task, and calculates an optimum EV value. The aperture amount and the exposure time that define the optimum EV value are set in the drivers 18b and 18c, respectively. As a result, the brightness of the through image is appropriately adjusted. When the strict AE process is completed, the CPU 26 executes the AF process under the imaging task. The AF process is executed by a hill-climbing method with reference to the output of the AF evaluation circuit 24, and the focus lens 12 is set at the focal point. This improves the sharpness of the live view image.

シャッタボタン28shが全押しされると、静止画取り込み処理および記録処理が実行される。シャッタボタン28shが全押しされた時点の1フレームの表示画像データは、静止画取り込み処理によって静止画エリア32dに取り込まれる。取り込まれた1フレームの画像データは、記録処理に関連して起動したI/F40によって静止画エリア32dから読み出され、ファイル形式で記録媒体42に記録される。   When the shutter button 28sh is fully pressed, a still image capturing process and a recording process are executed. One frame of display image data at the time when the shutter button 28sh is fully pressed is captured into the still image area 32d by the still image capturing process. The captured one-frame image data is read from the still image area 32d by the I / F 40 activated in association with the recording process, and is recorded on the recording medium 42 in a file format.

CPU26は、図18に示すメインタスク,図19〜図21に示す顔登録タスク,図22〜図24に示す登録用顔検出タスク,図25〜図27に示す撮像タスク,および図28〜図33に示す撮像用顔検出タスクを含む複数のタスクを実行する。なお、これらのタスクに対応する制御プログラムは、フラッシュメモリ44に記憶される。   The CPU 26 performs the main task shown in FIG. 18, the face registration task shown in FIGS. 19 to 21, the registration face detection task shown in FIGS. 22 to 24, the imaging task shown in FIGS. 25 to 27, and FIGS. A plurality of tasks including the imaging face detection task shown in FIG. Note that control programs corresponding to these tasks are stored in the flash memory 44.

図18を参照して、ステップS1では現時点の動作モードが顔登録モードであるか否かを判別し、ステップS3では現時点の動作モードが撮像モードであるか否かを判別する。ステップS1でYESであればステップS5で顔登録タスクを起動し、ステップS3でYESであればステップS7で撮像タスクを起動する。ステップS1およびS3のいずれもNOであればステップS9でその他の処理を実行する。ステップS5,S7またはS9の処理が完了すると、モード切り換え操作が行われたか否かをステップS11で繰り返し判別する。判別結果がNOからYESに更新されると、起動中のタスクをステップS13で停止し、その後にステップS1に戻る。   Referring to FIG. 18, in step S1, it is determined whether or not the current operation mode is the face registration mode, and in step S3, it is determined whether or not the current operation mode is the imaging mode. If YES in step S1, the face registration task is activated in step S5, and if YES in step S3, the imaging task is activated in step S7. If both steps S1 and S3 are NO, other processing is executed in step S9. When the process of step S5, S7 or S9 is completed, it is repeatedly determined in step S11 whether or not a mode switching operation has been performed. When the determination result is updated from NO to YES, the activated task is stopped in step S13, and thereafter, the process returns to step S1.

図19を参照して、ステップS21では登録枠表示命令をグラフィックジェネレータ46に与える。この結果、登録枠RF1がLCDモニタ38に表示される。ステップS23では動画取り込み処理を実行する。この結果、被写界を表すスルー画像がLCDモニタ38に表示され、探索画像データが探索画像エリア32cに繰り返し書き込まれる。   Referring to FIG. 19, a registration frame display command is given to graphic generator 46 in step S21. As a result, the registration frame RF1 is displayed on the LCD monitor 38. In step S23, a moving image capturing process is executed. As a result, a through image representing the scene is displayed on the LCD monitor 38, and search image data is repeatedly written in the search image area 32c.

ステップS25では変数Wを“0”に設定し、ステップS27では登録用顔検出タスクを起動する。なお、変数Wは、登録用顔検出タスクによって顔画像が発見されたか否かを識別するための変数であり、“0”が未発見を示す一方、“1”が発見を示す。   In step S25, the variable W is set to “0”, and in step S27, the registration face detection task is activated. The variable W is a variable for identifying whether or not a face image has been found by the registration face detection task. “0” indicates undiscovered, while “1” indicates discovery.

ステップS29では、フラグFLG_FINが“1”を示すか否かを判別する。フラグFLG_FINは、登録用顔検出タスクの開始時に“0”に設定され、登録用顔検出タスクの終了時に“1”に更新される。判別結果がYESであればステップS39に進み、判別結果がNOであればステップS31に進む。   In step S29, it is determined whether or not the flag FLG_FIN indicates “1”. The flag FLG_FIN is set to “0” at the start of the registration face detection task, and is updated to “1” at the end of the registration face detection task. If the determination result is YES, the process proceeds to step S39, and if the determination result is NO, the process proceeds to step S31.

ステップS39では、変数CNTの値を判別する。変数CNTは、登録用顔検出タスクによって発見された顔画像の数を示す変数であり、“0”および“1”のいずれか一方を示す。変数CNTが“1”であれば、ステップS41で顔枠表示命令をグラフィックジェネレータ46に与え、ステップS43では変数Wを“1”に設定する。変数CNTが“0”であれば、ステップS45で顔枠非表示命令をグラフィックジェネレータ46に与え、ステップS47で変数Wを“0”に設定する。ステップS41の処理の結果、発見された顔画像を囲うように顔枠KF1が表示される。また、ステップS45の処理の結果、顔枠KF1の表示が中止される。ステップS43またはS47の処理が完了すると、ステップS27に戻る。   In step S39, the value of variable CNT is determined. The variable CNT is a variable indicating the number of face images discovered by the registration face detection task, and indicates either “0” or “1”. If the variable CNT is “1”, a face frame display command is given to the graphic generator 46 in step S41, and the variable W is set to “1” in step S43. If the variable CNT is “0”, a face frame non-display command is given to the graphic generator 46 in step S45, and the variable W is set to “0” in step S47. As a result of the processing in step S41, the face frame KF1 is displayed so as to surround the face image that has been found. Further, as a result of the processing in step S45, the display of the face frame KF1 is stopped. When the process of step S43 or S47 is completed, the process returns to step S27.

ステップS31ではシャッタボタン28shが操作されたか否かを判別し、ステップS33では変数Wが“1”を示すか否かを判別する。ステップS31またはS33の判別結果がNOであれば、ステップS35で簡易AE処理を実行し、その後にステップS29に戻る。これに対して、ステップS31およびS33の判別結果がいずれもYESであれば、ステップS37で静止画取り込み処理を実行し、その後にステップS51に進む。   In step S31, it is determined whether or not the shutter button 28sh has been operated. In step S33, it is determined whether or not the variable W indicates “1”. If the determination result in step S31 or S33 is NO, a simple AE process is executed in step S35, and then the process returns to step S29. On the other hand, if both the determination results in steps S31 and S33 are YES, a still image capturing process is executed in step S37, and then the process proceeds to step S51.

簡易AE処理によって、スルー画像の明るさが適度に調整される。また、静止画取り込み処理によって、シャッタボタン28shが操作された時点の被写界を表す1フレームの画像データが静止画エリア32dに取り込まれる。   Through the simple AE process, the brightness of the through image is appropriately adjusted. In addition, one frame of image data representing the scene at the time when the shutter button 28 sh is operated is captured into the still image area 32 d by the still image capturing process.

ステップS51では、取り込まれた画像データのうち顔枠RF1に属する一部の画像データを登録顔画像として抽出する。抽出処理が完了するとステップS53に進み、登録操作画面表示命令をグラフィックジェネレータ46に与える。この結果、登録操作画面がLCDモニタ38に表示される。ステップS55では名称入力操作が行われた否かを判別し、ステップS57ではキャンセル操作が行われたか否かを判別する。   In step S51, a part of the image data belonging to the face frame RF1 is extracted as a registered face image. When the extraction process is completed, the process proceeds to step S53, and a registration operation screen display command is given to the graphic generator 46. As a result, a registration operation screen is displayed on the LCD monitor 38. In step S55, it is determined whether or not a name input operation has been performed. In step S57, it is determined whether or not a cancel operation has been performed.

ステップS55でYESであればステップS59に進み、ステップS51で抽出された登録顔画像の笑顔度を算出する。ステップS61では、ステップS51で抽出された登録顔画像と名称入力操作によって入力された人名とステップS59で算出された笑顔度とを登録顔辞書RGDCに収める。ステップS61の処理が完了すると、ステップS63で変数Wを“0”に設定し、その後にステップS27に戻る。一方、ステップS57でYESであれば、ステップS63の処理を経てステップS27に戻る。   If “YES” in the step S55, the process proceeds to a step S59, and the smile degree of the registered face image extracted in the step S51 is calculated. In step S61, the registered face image extracted in step S51, the person name input by the name input operation, and the smile level calculated in step S59 are stored in the registered face dictionary RGDC. When the process of step S61 is completed, the variable W is set to “0” in step S63, and then the process returns to step S27. On the other hand, if “YES” in the step S57, the process returns to the step S27 through the process of the step S63.

図22を参照して、ステップS71ではフラグFLG_FINを“0”に設定し、ステップS73では登録枠RF1の内側を探索エリアとして設定する。ステップS75では、顔検出枠FDのサイズの可変範囲を定義するべく、最大サイズSZmaxを“70”に設定し、最小サイズSZminを“40”に設定する。可変範囲の定義が完了すると、ステップS77で変数CNTを“0”に設定し、ステップS79で顔検出枠FDのサイズを“SZmax”に設定する。   Referring to FIG. 22, in step S71, flag FLG_FIN is set to “0”, and in step S73, the inside of registration frame RF1 is set as a search area. In step S75, the maximum size SZmax is set to “70” and the minimum size SZmin is set to “40” in order to define a variable range of the size of the face detection frame FD. When the definition of the variable range is completed, the variable CNT is set to “0” in step S77, and the size of the face detection frame FD is set to “SZmax” in step S79.

ステップS81では垂直同期信号Vsyncが発生したか否かを判別し、判別結果がNOからYESに更新されると、ステップS83で顔検出枠FDを探索エリアの左上位置に配置する。ステップS85では顔検出枠FDに属する一部の探索画像データを探索画像エリア32cから読み出し、読み出された探索画像データの特徴量を算出する。   In step S81, it is determined whether or not the vertical synchronization signal Vsync has been generated. If the determination result is updated from NO to YES, the face detection frame FD is arranged in the upper left position of the search area in step S83. In step S85, a part of the search image data belonging to the face detection frame FD is read from the search image area 32c, and the feature amount of the read search image data is calculated.

ステップS87では算出された特徴量を標準顔辞書STDCに収められた顔画像の特徴量と照合し、ステップS89では照合度が基準値REFを上回るか否かを判別する。判別結果がYESであればステップS91に進み、判別結果がNOであればステップS97に進む。   In step S87, the calculated feature amount is collated with the feature amount of the face image stored in the standard face dictionary STDC. In step S89, it is determined whether or not the collation degree exceeds the reference value REF. If the determination result is YES, the process proceeds to step S91, and if the determination result is NO, the process proceeds to step S97.

ステップS91では変数CNTを“1”に設定し、ステップS93では現時点の顔検出枠FDの位置およびサイズを顔画像の位置およびサイズとして顔枠レジスタRGST1に登録する。登録が完了すると、ステップS95でフラグFLG_FINを“1”に設定し、その後に処理を終了する。   In step S91, the variable CNT is set to “1”. In step S93, the current position and size of the face detection frame FD are registered in the face frame register RGST1 as the position and size of the face image. When the registration is completed, the flag FLG_FIN is set to “1” in step S95, and then the process ends.

ステップS97では、顔検出枠FDが探索エリアの右下位置に到達したか否かを判別する。判別結果がNOであれば、ステップS99で顔検出枠FDを既定量だけラスタ方向に移動させ、その後にステップS85に戻る。判別結果がYESであれば、顔検出枠FDのサイズが“SZmin”以下であるか否かをステップS101で判別する。判別結果がNOであれば、ステップS103で顔検出枠FDのサイズを“5”だけ縮小させ、ステップS105で顔検出枠FDを探索エリアの左上位置に配置し、その後にステップS85に戻る。ステップS101の判別結果がYESであれば、ステップS95に進む。   In step S97, it is determined whether or not the face detection frame FD has reached the lower right position of the search area. If the determination result is NO, the face detection frame FD is moved in the raster direction by a predetermined amount in step S99, and then the process returns to step S85. If the determination result is YES, it is determined in a step S101 whether or not the size of the face detection frame FD is “SZmin” or less. If the determination result is NO, the size of the face detection frame FD is reduced by “5” in step S103, the face detection frame FD is placed in the upper left position of the search area in step S105, and then the process returns to step S85. If the determination result of step S101 is YES, it will progress to step S95.

図25を参照して、ステップS111では動画取込み処理を実行し、ステップS113では撮像用顔検出タスクを起動する。ステップS115では、フラグFLG_FINが“1”を示すか否かを判別し、判別結果がYESであればステップS125に進む一方、判別結果がNOであればステップS117に進む。   Referring to FIG. 25, in step S111, a moving image capturing process is executed, and in step S113, an imaging face detection task is activated. In step S115, it is determined whether or not the flag FLG_FIN indicates “1”. If the determination result is YES, the process proceeds to step S125, and if the determination result is NO, the process proceeds to step S117.

ステップS125では、フラグFLG_RCGが“1”であるか否かを判別する。判別結果がYESであれば、ステップS127で顔枠表示命令をグラフィックジェネレータ46に与え、ステップS129では人名表示命令をグラフィックジェネレータ46に与える。一方、判別結果がNOであれば、ステップS131で顔枠非表示命令をグラフィックジェネレータ46に与え、ステップS133で人名非表示命令をグラフィックジェネレータ46に与える。   In step S125, it is determined whether or not the flag FLG_RCG is “1”. If the determination result is YES, a face frame display command is given to the graphic generator 46 in step S127, and a personal name display command is given to the graphic generator 46 in step S129. On the other hand, if the determination result is NO, a face frame non-display command is given to the graphic generator 46 in step S131, and a personal name non-display command is given to the graphic generator 46 in step S133.

ステップS127の処理の結果、確定レジスタRGST3に設定された登録顔画像と符合する顔画像を囲うように顔枠KF1が表示される。また、ステップS129の処理の結果、確定レジスタRGST3に設定された登録顔画像に対応する人名が表示される。さらに、ステップS131〜133の処理の結果、顔枠KF1および人名の表示が中止される。ステップS129またはS133の処理が完了すると、ステップS113に戻る。   As a result of the processing in step S127, the face frame KF1 is displayed so as to surround the face image that matches the registered face image set in the confirmation register RGST3. In addition, as a result of the processing in step S129, the person name corresponding to the registered face image set in the confirmation register RGST3 is displayed. Further, as a result of the processing in steps S131 to 133, the display of the face frame KF1 and the person name is stopped. When the process of step S129 or S133 is completed, the process returns to step S113.

ステップS117では、シャッタボタン28shが半押しされたか否かを判別する。判別結果がNOであればステップS119で簡易AE処理を実行し、判別結果がYESであればステップS121で厳格AE処理を実行する。スルー画像の明るさは、簡易AE処理によって適度に調整され、厳格AE処理によって最適値に調整される。ステップS119の処理が完了するとステップS115に戻り、ステップS121の処理が完了するとステップS123でAF処理を実行する。フォーカスレンズ12は、AF処理によって合焦点に配置される。   In step S117, it is determined whether or not the shutter button 28sh is half-pressed. If the determination result is NO, the simple AE process is executed in step S119, and if the determination result is YES, the strict AE process is executed in step S121. The brightness of the through image is moderately adjusted by the simple AE process and adjusted to the optimum value by the strict AE process. When the process of step S119 is completed, the process returns to step S115, and when the process of step S121 is completed, the AF process is executed in step S123. The focus lens 12 is placed at the focal point by AF processing.

ステップS135ではシャッタボタン28shが全押しされたか否かを判別し、ステップS137ではシャッタボタン28shの操作が解除されたか否かを判別する。ステップS135でYESであれば、ステップS139で静止画取り込み処理を実行し、ステップS141で記録処理を実行し、その後にステップS113に戻る。ステップS137でYESであれば、そのままステップS113に戻る。ステップS139の処理の結果、シャッタボタン28shが全押しされた時点の被写界を表す1フレームの画像データが静止画エリア32dに取り込まれる。また、ステップS141の処理の結果、静止画像エリア32dに取り込まれた画像データがファイル形式で記録媒体42に記録される。   In step S135, it is determined whether or not the shutter button 28sh is fully pressed. In step S137, it is determined whether or not the operation of the shutter button 28sh is released. If “YES” in the step S135, a still image capturing process is executed in a step S139, a recording process is executed in a step S141, and then the process returns to the step S113. If “YES” in the step S137, the process returns to the step S113 as it is. As a result of the processing in step S139, one frame of image data representing the object scene at the time when the shutter button 28sh is fully pressed is taken into the still image area 32d. In addition, as a result of the processing in step S141, the image data captured in the still image area 32d is recorded on the recording medium 42 in a file format.

図28を参照して、ステップS151ではフラグFLG_FINを“0”に設定し、ステップS153では評価エリアEVAの全域を探索エリアとして設定する。ステップS155では、顔検出枠FDのサイズの可変範囲を定義するべく、最大サイズSZmaxを“200”に設定し、最小サイズSZminを“20”に設定する。可変範囲の定義が完了すると、ステップS157で変数CNTを“0”に設定し、ステップS159で顔検出枠FDのサイズを“SZmax”に設定する。   Referring to FIG. 28, in step S151, flag FLG_FIN is set to “0”, and in step S153, the entire evaluation area EVA is set as a search area. In step S155, in order to define a variable range of the size of the face detection frame FD, the maximum size SZmax is set to “200”, and the minimum size SZmin is set to “20”. When the definition of the variable range is completed, the variable CNT is set to “0” in step S157, and the size of the face detection frame FD is set to “SZmax” in step S159.

ステップS161では垂直同期信号Vsyncが発生したか否かを判別し、判別結果がNOからYESに更新されると、ステップS163で顔検出枠FDを探索エリアの左上位置に配置する。ステップS165では顔検出枠FDに属する一部の探索画像データを探索画像エリア32cから読み出し、読み出された探索画像データの特徴量を算出する。   In step S161, it is determined whether or not the vertical synchronization signal Vsync is generated. If the determination result is updated from NO to YES, the face detection frame FD is arranged in the upper left position of the search area in step S163. In step S165, a part of the search image data belonging to the face detection frame FD is read from the search image area 32c, and the feature amount of the read search image data is calculated.

ステップS167では算出された特徴量を標準顔辞書STDCに収められた顔画像の特徴量と照合し、ステップS169では照合度が基準値REFを上回るか否かを判別する。判別結果がNOであればそのままステップS175に進み、判別結果がYESであればステップS171およびS173を経てステップS175に進む。ステップS171では、変数CNTをインクリメントする。ステップS173では、現時点の顔検出枠FDの位置およびサイズを、顔画像を囲う顔枠の位置およびサイズとして顔枠レジスタRGST1に登録する。   In step S167, the calculated feature amount is compared with the feature amount of the face image stored in the standard face dictionary STDC, and in step S169, it is determined whether or not the matching degree exceeds the reference value REF. If a determination result is NO, it will progress to step S175 as it is, and if a determination result is YES, it will progress to step S175 through step S171 and S173. In step S171, the variable CNT is incremented. In step S173, the current position and size of the face detection frame FD are registered in the face frame register RGST1 as the position and size of the face frame surrounding the face image.

ステップS175では、顔検出枠FDが探索エリアの右下位置に到達したか否かを判別する。判別結果がNOであれば、ステップS177で顔検出枠FDを既定量だけラスタ方向に移動させ、その後にステップS165に戻る。判別結果がYESであれば、顔検出枠FDのサイズが“SZmin”以下であるか否かをステップS179で判別する。判別結果がNOであれば、ステップS181で顔検出枠FDのサイズを“5”だけ縮小させ、ステップS183で顔検出枠FDを探索エリアの左上位置に配置し、その後にステップS165に戻る。ステップS179の判別結果がYESであれば、ステップS185に進む。   In step S175, it is determined whether or not the face detection frame FD has reached the lower right position of the search area. If the determination result is NO, the face detection frame FD is moved in the raster direction by a predetermined amount in step S177, and then the process returns to step S165. If the determination result is YES, it is determined in a step S179 whether or not the size of the face detection frame FD is “SZmin” or less. If the determination result is NO, the size of the face detection frame FD is reduced by “5” in step S181, the face detection frame FD is placed in the upper left position of the search area in step S183, and then the process returns to step S165. If the determination result of step S179 is YES, it will progress to step S185.

ステップS185では変数Nを“1”に設定し、ステップS187では変数Nが変数CNTを上回るか否かを判別する。判別結果がNOであればステップS189に進み、顔枠レジスタRGST1のN番目のカラムに設定された顔枠を指定する。ステップS191では、指定された顔枠に属する画像データに注目した顔認識処理を実行する。処理が完了すると、ステップS193で変数Nをインクリメントし、その後にステップS187に戻る。ステップS187の判別結果がYESであれば、ステップS195でフラグFLG_FINを“1”に設定し、その後に処理を終了する。   In step S185, the variable N is set to “1”, and in step S187, it is determined whether or not the variable N exceeds the variable CNT. If the determination result is NO, the process proceeds to step S189, and the face frame set in the Nth column of the face frame register RGST1 is designated. In step S191, face recognition processing focusing on image data belonging to the designated face frame is executed. When the process is completed, the variable N is incremented in step S193, and then the process returns to step S187. If the decision result in the step S187 is YES, a flag FLG_FIN is set to “1” in a step S195, and then the process is ended.

ステップS191の顔認識処理は、図32〜図33に示すサブルーチンに従って実行される。まず、指定された顔枠に属する画像データの笑顔度をステップS201で算出し、認識顔レジスタRGST2をステップS203でクリアし、そして変数KをステップS205で“1”に設定する。ステップS207では、変数Kが最大値Kmax(=登録顔画像の総数)を上回るか否かを判別する。判別結果がNOであればステップS217に進み、K番目の登録顔画像の笑顔度を登録顔辞書RGDCから検出する。ステップS219では、指定された顔枠に属する画像データの特徴量を、ステップS201で算出された笑顔度とステップS217で検出された笑顔度との相違が抑制ないし解消されるように修正する。   The face recognition process in step S191 is executed according to a subroutine shown in FIGS. First, the smile level of the image data belonging to the designated face frame is calculated in step S201, the recognition face register RGST2 is cleared in step S203, and the variable K is set to “1” in step S205. In step S207, it is determined whether or not the variable K exceeds a maximum value Kmax (= total number of registered face images). If the determination result is NO, the process proceeds to step S217, and the smile level of the Kth registered face image is detected from the registered face dictionary RGDC. In step S219, the feature amount of the image data belonging to the designated face frame is corrected so that the difference between the smile level calculated in step S201 and the smile level detected in step S217 is suppressed or eliminated.

ステップS221では修正された特徴量をK番目の登録顔画像の特徴量と照合し、ステップS223では照合度が基準値REFを上回るか否かを判別する。判別結果がYESであればステップS225に進み、照合先の登録顔画像を示す登録顔画像番号(=K)と照合度とを認識顔レジスタRGST2に登録する。登録が完了すると、ステップS227で変数Kをインクリメントし、その後にステップS207に戻る。ステップS223の判別結果がNOであれば、ステップS227の処理を経てステップS207に戻る。   In step S221, the corrected feature amount is collated with the feature amount of the Kth registered face image. In step S223, it is determined whether or not the collation degree exceeds the reference value REF. If the determination result is YES, the process proceeds to step S225, and the registered face image number (= K) indicating the registered face image of the collation destination and the collation degree are registered in the recognition face register RGST2. When registration is completed, the variable K is incremented in step S227, and then the process returns to step S207. If the determination result of step S223 is NO, the process returns to step S207 through the process of step S227.

ステップS207の判別結果がYESであれば、少なくとも1つの登録顔画像番号が認識顔レジスタRGST2に設定されているか否かをステップS209で判別する。判別結果がYESであれば、ステップS211でフラグFLG_RCGを“1”に設定する。ステップS213では、最大照合度に対応する登録顔画像番号と指定された顔枠の位置およびサイズとを確定レジスタRGST3に登録する。ステップS209の判別結果がNOであれば、ステップS215でフラグFLG_RCGを“0”に設定する。ステップS213またはS215の処理が完了すると、上階層のルーチンに復帰する。   If the determination result in step S207 is YES, it is determined in step S209 whether or not at least one registered face image number is set in the recognition face register RGST2. If the determination result is YES, a flag FLG_RCG is set to “1” in a step S211. In step S213, the registered face image number corresponding to the maximum matching degree and the position and size of the designated face frame are registered in the confirmation register RGST3. If the determination result of step S209 is NO, a flag FLG_RCG is set to “0” in step S215. When the process of step S213 or S215 is completed, the process returns to the upper hierarchy routine.

以上の説明から分かるように、CPU26は、SDRAM32の探索画像エリア32cに格納された探索画像データから1または2以上の顔画像を探索し(S153~S183)、これによって発見された顔画像を順に指定する(S189)。CPU26はまた、指定された顔画像の表情を検出し(S201)、複数の登録顔画像のうち指定された顔画像と符合する登録顔画像を検出された表情を参照して探索する(S203~207, S217~S227)。CPU26はその後、発見された登録顔画像の属性を示す属性情報をLCDモニタ38に表示する(S209~S215, S125~S133)。   As can be seen from the above description, the CPU 26 searches for one or more face images from the search image data stored in the search image area 32c of the SDRAM 32 (S153 to S183), and sequentially finds the face images thus found. Specify (S189). The CPU 26 also detects the facial expression of the designated face image (S201), and searches for a registered facial image that matches the designated facial image among a plurality of registered facial images with reference to the detected facial expression (S203 to S203). 207, S217 to S227). Thereafter, the CPU 26 displays attribute information indicating the attribute of the registered face image found on the LCD monitor 38 (S209 to S215, S125 to S133).

探索画像データに現れた顔画像と符合する登録顔画像を探索するにあたっては、探索画像データに現れた顔画像の表情が参照される。LCDモニタ38に表示される属性情報は、こうして発見された登録顔画像の属性つまり被写界像に現れた顔画像の属性を示す。これによって、動作性能が向上する。   When searching for a registered face image that matches the face image that appears in the search image data, the facial expression of the face image that appears in the search image data is referred to. The attribute information displayed on the LCD monitor 38 indicates the attribute of the registered face image thus discovered, that is, the attribute of the face image that appears in the object scene image. As a result, the operating performance is improved.

なお、この実施例では、ステップS201で算出された笑顔度とステップS217で検出された笑顔度との相違を抑制ないし解消するために、指定顔枠に属する顔画像の特徴量を修正するようにしている。しかし、指定顔枠に属する顔画像の特徴量に代えて、或いは指定顔枠に属する顔画像の特徴量とともに、K番目の登録顔画像の特徴量を修正するようにしてもよい。また、修正する対象を特徴量ではなく顔画像とし、修正された顔画像の特徴量を検出するようにしてもよい。   In this embodiment, in order to suppress or eliminate the difference between the smile level calculated in step S201 and the smile level detected in step S217, the feature amount of the face image belonging to the designated face frame is corrected. ing. However, the feature amount of the Kth registered face image may be corrected in place of the feature amount of the face image belonging to the designated face frame or together with the feature amount of the face image belonging to the designated face frame. Alternatively, the target to be corrected may be a face image instead of a feature amount, and the feature amount of the corrected face image may be detected.

また、この実施例では、特徴量を修正するために、指定顔枠に属する顔画像の笑顔度とK番目の登録顔画像の笑顔度とを求めるようにしている。しかし、これに代えて、互いに異なる笑顔度を示すように指定顔枠に属する顔画像および/またはK番目の登録顔画像を繰り返し修正し、指定顔枠に属する顔画像の特徴量とK番目の登録顔画像の特徴量とを修正処理毎に照合し、そして指定顔枠に属する顔画像と符合する登録顔画像をこのような照合結果に基づいて特定するようにしてもよい。   In this embodiment, in order to correct the feature amount, the smile level of the face image belonging to the designated face frame and the smile level of the Kth registered face image are obtained. However, instead of this, the face image belonging to the designated face frame and / or the Kth registered face image is repeatedly corrected so as to show different smile levels, and the feature amount of the face image belonging to the designated face frame and the Kth The feature amount of the registered face image may be collated for each correction process, and the registered face image that matches the face image belonging to the designated face frame may be specified based on such a collation result.

この場合、図11に示す登録顔辞書RGDCに代えて図34に示す登録顔辞書RGDCを準備し、かつ図32〜図33に示す顔認識処理に代えて図35〜図37に示す顔認識処理を実行する必要がある。   In this case, a registered face dictionary RGDC shown in FIG. 34 is prepared instead of the registered face dictionary RGDC shown in FIG. 11, and the face recognition processes shown in FIGS. 35 to 37 are substituted for the face recognition processes shown in FIGS. Need to run.

図34によれば、登録顔辞書RGDCを形成する各カラムには、普通(笑顔度=0)の顔画像が記述される。図35によれば、図32に示すステップS201に相当する処理は省略される。また、図35に示すステップS203〜S215の処理は、図32に示すステップS203〜S215の処理と同じであるため、重複した説明は省略する。   According to FIG. 34, a normal (smiling degree = 0) face image is described in each column forming the registered face dictionary RGDC. According to FIG. 35, the processing corresponding to step S201 shown in FIG. 32 is omitted. 35 is the same as the process of steps S203 to S215 shown in FIG. 32, and thus a duplicate description is omitted.

ステップS207の判別結果がNOであれば、ステップS231で変数Lを“1”に設定し、ステップS233で笑顔度を“L*10”に設定する。ステップS235では、K番目のカラムに記述された登録顔画像の特徴量をステップS233で設定された笑顔度を参照して修正する。ステップS237では指定顔枠に属する画像データの特徴量をステップS237で修正された特徴量と照合し、ステップS239では変数Lが“10”に達したか否かを判別する。   If the determination result in step S207 is NO, the variable L is set to “1” in step S231, and the smile level is set to “L * 10” in step S233. In step S235, the feature amount of the registered face image described in the Kth column is corrected with reference to the smile level set in step S233. In step S237, the feature amount of the image data belonging to the designated face frame is compared with the feature amount corrected in step S237, and in step S239, it is determined whether or not the variable L has reached “10”.

判別結果がNOであればステップS241で変数LをインクリメントしてからステップS233に戻り、判別結果がYESであればステップS243に進む。ステップS243ではステップS237の処理によって得られた合計10個の照合度の中から最大照合度を検出し、ステップS245では検出された最大照合度が基準値REFを上回るか否かを判別する。判別結果がYESであればステップS247に進み、照合先の登録顔画像を示す登録顔画像番号(=K)と最大照合度とを認識顔レジスタRGST2に登録する。登録が完了すると、ステップS249で変数Kをインクリメントし、その後にステップS207に戻る。ステップS245の判別結果がNOであれば、ステップS249の処理を経てステップS207に戻る。   If the determination result is NO, the variable L is incremented in step S241 and then the process returns to step S233. If the determination result is YES, the process proceeds to step S243. In step S243, the maximum matching degree is detected from the total of ten matching degrees obtained by the process in step S237, and in step S245, it is determined whether or not the detected maximum matching degree exceeds the reference value REF. If the determination result is YES, the process proceeds to step S247, and the registered face image number (= K) indicating the registered face image of the collation destination and the maximum collation degree are registered in the recognition face register RGST2. When registration is completed, the variable K is incremented in step S249, and then the process returns to step S207. If the determination result of step S245 is NO, the process returns to step S207 through the process of step S249.

また、上述の実施例では、指定顔枠に属する顔画像の笑顔度とK番目の登録顔画像の笑顔度との相違を抑制ないし解消するために、顔画像の修正処理を実行するようにしている。しかし、互いに異なる笑顔度で共通の顔を表す複数の登録顔画像を登録顔辞書RGDCの各カラムに準備し、指定顔枠に属する顔画像の笑顔度に近い笑顔度を有する登録顔画像を各カラムから選択し、そして選択された登録顔画像を指定顔枠に属する顔画像と照合するようにしてもよい。   Further, in the above-described embodiment, in order to suppress or eliminate the difference between the smile level of the face image belonging to the designated face frame and the smile level of the Kth registered face image, the face image correction process is executed. Yes. However, a plurality of registered face images representing a common face with different smile levels are prepared in each column of the registered face dictionary RGDC, and each registered face image having a smile level close to that of the face image belonging to the designated face frame is set. The registered face image selected from the column may be collated with the face image belonging to the designated face frame.

この場合、図11に示す登録顔辞書RGDCに代えて図38に示す登録顔辞書RGDCを準備し、かつ図32〜図33に示す顔認識処理に代えて図39〜図41に示す顔認識処理を実行する必要がある。   In this case, the registered face dictionary RGDC shown in FIG. 38 is prepared instead of the registered face dictionary RGDC shown in FIG. 11, and the face recognition process shown in FIGS. 39 to 41 is substituted for the face recognition process shown in FIGS. Need to run.

図38によれば、登録顔辞書RGDCを形成する各カラムには、共通の人物の顔画像が普通顔(笑顔度=0)および笑顔(笑顔度=100)に対応して記述される。   According to FIG. 38, in each column forming the registered face dictionary RGDC, a face image of a common person is described corresponding to a normal face (smile level = 0) and a smile (smile level = 100).

図39によれば、まずステップS251で指定顔枠に属する画像データの笑顔度を算出する。ステップS253では算出された笑顔度が閾値TH(=50)未満であるか否かを判別し、判別結果がYESであればステップS255で普通顔を参照顔として設定する一方、判別結果がNOであればステップS257で笑顔を参照顔として設定する。ステップS259では認識顔レジスタRGST2をクリアし、ステップS261では変数Kを“1”に設定する。ステップS263では変数Kが最大値Kmaxを上回るか否かを判別し、判別結果がNOであればステップS273に進む。   According to FIG. 39, first, the smile level of the image data belonging to the designated face frame is calculated in step S251. In step S253, it is determined whether or not the calculated smile level is less than a threshold TH (= 50). If the determination result is YES, the normal face is set as a reference face in step S255, while the determination result is NO. If there is, the smile is set as a reference face in step S257. In step S259, the recognition face register RGST2 is cleared, and in step S261, the variable K is set to “1”. In step S263, it is determined whether or not the variable K exceeds the maximum value Kmax. If the determination result is NO, the process proceeds to step S273.

ステップS273では、指定顔枠に属する画像データの特徴量をK番目の登録顔画像の特徴量と照合し、ステップS275では照合度が基準値REFを上回るか否かを判別する。判別結果がYESであればステップS277に進み、照合先の登録顔画像を示す登録顔画像番号(=K)と照合度とを認識顔レジスタRGST2に登録する。登録が完了すると、ステップS279で変数Kをインクリメントし、その後にステップS263に戻る。ステップS275の判別結果がNOであれば、ステップS279の処理を経てステップS263に戻る。   In step S273, the feature amount of the image data belonging to the designated face frame is collated with the feature amount of the Kth registered face image. In step S275, it is determined whether or not the collation degree exceeds the reference value REF. If the determination result is YES, the process proceeds to step S277 to register the registered face image number (= K) indicating the registered face image of the collation destination and the collation degree in the recognition face register RGST2. When registration is completed, the variable K is incremented in step S279, and then the process returns to step S263. If the determination result of step S275 is NO, the process returns to step S263 through the process of step S279.

ステップS263の判別結果がYESであれば、少なくとも1つの登録顔画像番号が認識顔レジスタRGST2に設定されているか否かをステップS265で判別する。判別結果がYESであれば、ステップS267でフラグFLG_RCGを“1”に設定する。ステップS269では、最大照合度に対応する登録顔画像番号と指定顔枠の位置およびサイズとを確定レジスタRGST3に登録する。ステップS265の判別結果がNOであれば、ステップS271でフラグFLG_RCGを“0”に設定する。ステップS269またはS271の処理が完了すると、上階層のルーチンに復帰する。   If the determination result in step S263 is YES, it is determined in step S265 whether or not at least one registered face image number is set in the recognition face register RGST2. If the determination result is YES, a flag FLG_RCG is set to “1” in a step S267. In step S269, the registered face image number corresponding to the maximum matching degree and the position and size of the designated face frame are registered in the confirmation register RGST3. If the determination result of step S265 is NO, the flag FLG_RCG is set to “0” in step S271. When the process of step S269 or S271 is completed, the process returns to the upper hierarchy routine.

10 …ディジタルカメラ
16 …イメージャ
22 …AE評価回路
24 …AF評価回路
26 …CPU
32 …SDRAM
44 …フラッシュメモリ
DESCRIPTION OF SYMBOLS 10 ... Digital camera 16 ... Imager 22 ... AE evaluation circuit 24 ... AF evaluation circuit 26 ... CPU
32 ... SDRAM
44 ... Flash memory

Claims (10)

被写界像から1または2以上の顔画像を探索する第1探索手段、
前記第1探索手段によって発見された1または2以上の顔画像の各々を第1注目顔画像として指定する第1指定手段、
前記第1注目顔画像と符合する登録顔画像を前記第1注目顔画像の表情を参照して複数の登録顔画像の中から探索する第2探索手段、および
前記第2探索手段によって発見された登録顔画像の属性を示す属性情報を出力する出力手段を備える、顔探索装置。
First search means for searching for one or more face images from the object scene image;
First designation means for designating each of one or more face images discovered by the first search means as a first target face image;
A second search means for searching a registered face image that matches the first noticeable face image from a plurality of registered face images with reference to a facial expression of the first noticeable face image; A face search device comprising output means for outputting attribute information indicating an attribute of a registered face image.
前記第2探索手段は、前記複数の登録顔画像の各々を第2注目顔画像として指定する第2指定手段、および前記第1注目顔画像の表情と前記第2注目顔画像の表情との相違が抑制されるように前記第1注目顔画像および/または前記第2注目顔画像を修正する修正手段を含む、請求項1記載の顔探索装置。   The second search means designates each of the plurality of registered face images as a second attention face image, and the difference between the expression of the first attention face image and the expression of the second attention face image The face search device according to claim 1, further comprising a correcting unit that corrects the first attention face image and / or the second attention face image so that the image is suppressed. 前記複数の登録顔画像はそれぞれ複数の表情パラメータを伴い、
前記第2探索手段は前記第2注目顔画像の表情パラメータを前記修正手段の修正処理のために前記複数の表情パラメータの中から選択する表情パラメータ選択手段をさらに含む、請求項2記載の顔探索装置。
Each of the plurality of registered face images includes a plurality of facial expression parameters,
The face search according to claim 2, wherein the second search means further includes an expression parameter selection means for selecting an expression parameter of the second attention face image from the plurality of expression parameters for the correction process of the correction means. apparatus.
前記第2探索手段は、前記複数の登録顔画像の各々を第2注目顔画像として指定する第2指定手段、互いに異なる表情を示すように前記第1注目顔画像および/または前記第2注目顔画像を繰り返し修正する修正手段、前記第1注目顔画像および前記第2注目顔画像を前記修正手段による修正処理毎に照合する照合手段、および前記第1注目顔画像と符合する登録顔画像を前記照合手段の照合結果に基づいて特定する特定手段を含む、請求項1記載の顔探索装置。   The second searching means is a second specifying means for specifying each of the plurality of registered face images as a second attention face image, and the first attention face image and / or the second attention face so as to show different expressions. Correction means for repeatedly correcting an image; collation means for comparing the first attention face image and the second attention face image for each correction processing by the correction means; and a registered face image that matches the first attention face image The face search device according to claim 1, further comprising a specifying unit that specifies based on a collation result of the collating unit. 前記複数の登録顔画像の各々は互いに異なる表情で共通の顔を表す複数の画像を含み、
前記第2探索手段は、前記第1注目顔画像の表情に沿う表情を有する画像を前記第2指定手段の指定処理に関連して前記複数の画像の中から選択する画像選択手段、および前記画像選択手段によって選択された画像を前記第1注目画素画像と照合する照合手段を含む、請求項1記載の顔探索装置。
Each of the plurality of registered face images includes a plurality of images representing a common face with different facial expressions,
The second search means selects an image having a facial expression along the facial expression of the first attention face image from the plurality of images in association with the designation process of the second designation means, and the image The face search apparatus according to claim 1, further comprising a matching unit that matches an image selected by the selection unit with the first target pixel image.
前記複数の登録顔画像はそれぞれ複数の名称を伴い、
前記出力手段によって出力される属性情報は前記第2探索手段によって発見された登録顔画像の名称を含む、請求項1ないし5のいずれかに記載の顔探索装置。
Each of the plurality of registered face images has a plurality of names,
The face search device according to claim 1, wherein the attribute information output by the output unit includes a name of a registered face image found by the second search unit.
被写界を捉える撮像手段をさらに備え、
前記第1探索手段は前記撮像手段から出力された被写界像に対して探索処理を実行する、請求項1ないし6のいずれかに記載の顔探索装置。
It further includes an imaging means for capturing the scene,
The face search device according to claim 1, wherein the first search unit performs a search process on the object scene image output from the imaging unit.
前記第1探索手段は標準顔画像を参照して探索処理を実行する、請求項1ないし7のいずれかに記載の顔探索装置。   The face search device according to claim 1, wherein the first search means executes a search process with reference to a standard face image. 顔探索装置のプロセッサに、
被写界像から1または2以上の顔画像を探索する第1探索ステップ、
前記第1探索ステップによって発見された1または2以上の顔画像の各々を第1注目顔画像として指定する指定ステップ、
前記第1注目顔画像と符合する登録顔画像を前記第1注目顔画像の表情を参照して複数の登録顔画像の中から探索する第2探索ステップ、および
前記第2探索ステップによって発見された登録顔画像の属性を示す属性情報を出力する出力ステップを実行させるための、顔探索プログラム。
In the processor of the face search device,
A first search step for searching for one or more face images from the object scene image;
A designating step of designating each of the one or more face images discovered by the first search step as a first target face image;
A second search step of searching for a registered face image matching the first target face image from a plurality of registered face images with reference to a facial expression of the first target face image; and A face search program for executing an output step of outputting attribute information indicating an attribute of a registered face image.
顔探索装置によって実行される顔探索方法であって、
被写界像から1または2以上の顔画像を探索する第1探索ステップ、
前記第1探索ステップによって発見された1または2以上の顔画像の各々を第1注目顔画像として指定する指定ステップ、
前記第1注目顔画像と符合する登録顔画像を前記第1注目顔画像の表情を参照して複数の登録顔画像の中から探索する第2探索ステップ、および
前記第2探索ステップによって発見された登録顔画像の属性を示す属性情報を出力する出力ステップを備える、顔探索方法。
A face search method executed by a face search device,
A first search step for searching for one or more face images from the object scene image;
A designating step of designating each of the one or more face images discovered by the first search step as a first target face image;
A second search step of searching for a registered face image matching the first target face image from a plurality of registered face images with reference to a facial expression of the first target face image; and A face search method comprising an output step of outputting attribute information indicating an attribute of a registered face image.
JP2010086958A 2010-04-05 2010-04-05 Face search device Pending JP2011221602A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010086958A JP2011221602A (en) 2010-04-05 2010-04-05 Face search device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010086958A JP2011221602A (en) 2010-04-05 2010-04-05 Face search device

Publications (1)

Publication Number Publication Date
JP2011221602A true JP2011221602A (en) 2011-11-04

Family

ID=45038554

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010086958A Pending JP2011221602A (en) 2010-04-05 2010-04-05 Face search device

Country Status (1)

Country Link
JP (1) JP2011221602A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012132809A (en) * 2010-12-22 2012-07-12 Niigata Seiki Kk Substrate detector

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012132809A (en) * 2010-12-22 2012-07-12 Niigata Seiki Kk Substrate detector

Similar Documents

Publication Publication Date Title
JP4413235B2 (en) Electronic camera
JP2012003539A (en) Image processing device
JP2011071573A (en) Image processing apparatus
JP2012247533A (en) Electronic camera
JP2012103979A (en) Image processing apparatus
JP2012191442A (en) Image reproduction controller
JP5485712B2 (en) Electronic camera
JP5865120B2 (en) Electronic camera
JP5485781B2 (en) Electronic camera
JP2012155044A (en) Electronic camera
JP2011221602A (en) Face search device
JP5785034B2 (en) Electronic camera
JP2011124819A (en) Electronic camera
JP2011221337A (en) Electronic camera
JP2012124765A (en) Electronic camera
JP2011078041A (en) Image processing apparatus and electronic camera
JP2013046376A (en) Electronic camera
JP2013090112A (en) Electronic camera
JP5356162B2 (en) Object image search device
US20120148095A1 (en) Image processing apparatus
JP2012244278A (en) Electronic camera
JP2012217106A (en) Image processing apparatus
JP2012129796A (en) Image processing device
JP2014045318A (en) Electronic camera
JP2011249956A (en) Image processing device

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20130404

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20130521