JP2010257265A - Display control device and method of controlling operation of the same - Google Patents

Display control device and method of controlling operation of the same Download PDF

Info

Publication number
JP2010257265A
JP2010257265A JP2009107229A JP2009107229A JP2010257265A JP 2010257265 A JP2010257265 A JP 2010257265A JP 2009107229 A JP2009107229 A JP 2009107229A JP 2009107229 A JP2009107229 A JP 2009107229A JP 2010257265 A JP2010257265 A JP 2010257265A
Authority
JP
Japan
Prior art keywords
face image
image portion
subject
person
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009107229A
Other languages
Japanese (ja)
Other versions
JP5242491B2 (en
Inventor
Yitong Zhang
貽▲トウ▼ 張
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2009107229A priority Critical patent/JP5242491B2/en
Publication of JP2010257265A publication Critical patent/JP2010257265A/en
Application granted granted Critical
Publication of JP5242491B2 publication Critical patent/JP5242491B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a display control device that determines the identity of a specific person in a relatively faster manner. <P>SOLUTION: A subject is imaged at predetermined intervals, and a facial image part is detected in a subject image acquired by imaging the subject (steps 61 and 62). It is determined whether or not the facial image part detected by the new imaging exists at a position corresponding to a position of the facial image part detected from the previously imaged subject image (step 64). If the facial image part exists at the corresponding position (YES in step 64), it is determined that a person whose facial part image has been detected by the new imaging and a person identified by the previous imaging are identical with each other (step 65). If the facial image part does not exist at the corresponding part (NO in step 64), a process of determining a specific person from the facial image part detected by the new imaging (step 66). <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

この発明は,表示制御装置およびその動作制御方法に関する。   The present invention relates to a display control device and an operation control method thereof.

ディジタル・スチル・カメラでは,人物を撮像した場合,その撮像された人物像の中から顔画像部分を検出することができる。検出された顔画像部分を囲む枠を表示し,その枠内の画像の明るさが適正な明るさなるような自動露光処理が行われる。また,単に顔画像部分を検出するのではなく,特定の人物の顔画像部分を検出するものもある(特許文献1)。特定の人物の顔画像部分が検出されることにより,特定の人物の顔画像部分が適正な明るさなどになるように制御することができる。   With a digital still camera, when a person is imaged, a face image portion can be detected from the captured person image. A frame surrounding the detected face image portion is displayed, and automatic exposure processing is performed so that the brightness of the image in the frame becomes appropriate. In addition, there is a technique for detecting a face image portion of a specific person instead of simply detecting a face image portion (Patent Document 1). By detecting the face image portion of a specific person, it is possible to control the face image portion of the specific person so as to have appropriate brightness.

しかしながら,特定の人物の顔画像部分を検出するような人物認識処理は,単に顔画像部分を検出する処理に比べて時間がかかることが多い。   However, a person recognition process that detects a face image portion of a specific person often takes more time than a process that simply detects a face image portion.

特開2009-17135号公報JP 2009-17135

この発明は,比較的迅速に以前に撮像された人物または動物と新たに撮像された人物または動物とを同一と判定することを目的とする。   It is an object of the present invention to determine that a previously imaged person or animal is identical to a newly imaged person or animal relatively quickly.

この発明は,一定周期で被写体を撮像して得られる被写体像を表示画面に表示する(撮像周期と同じでも同じでなくともよい)ように表示装置を制御する表示制御装置において,上記複数駒の被写体像のうちある特定の一駒の被写体像から顔画像部分を検出する顔画像部分検出手段,上記顔画像部分検出手段によって検出された顔画像部分の位置と,上記複数駒の被写体像のうち上記ある特定の一駒の被写体像の前の駒(直前の駒でなくともよい)の被写体像に含まれていた顔画像部分の位置とが対応するかどうかを判定する判定手段,上記対応判定手段によって顔画像部分の位置が対応すると判定されたことに応じて,上記前の駒の被写体像に含まれていた顔画像部分によって特定される人物または動物と上記顔画像部分検出手段によって検出された顔画像部分によって特定される人物または動物とが同一であると決定する決定手段,および上記対応判定手段によって顔画像部分の位置が対応すると判定されなかったことに応じて,上記顔画像部分検出手段によって検出された顔画像部分の顔をもつ特定の人物または動物を認識して決定する認識手段を備えていることを特徴とする。   The present invention provides a display control apparatus for controlling a display device so as to display a subject image obtained by imaging a subject at a fixed period on the display screen (the image may be the same as or not the same as the imaging period). A face image portion detecting means for detecting a face image portion from a subject image of a specific frame of the image, a position of the face image portion detected by the face image portion detecting means, and the specific identification of the subject images of the plurality of frames. Determining means for determining whether or not the position of the face image portion included in the subject image of the previous frame (not necessarily the previous frame) of the one frame of the subject image corresponds, the face image by the correspondence determining unit When it is determined that the position of the part corresponds, the person or animal specified by the face image part included in the subject image of the previous frame and the face image part detection means A determination unit that determines that the person or animal specified by the issued face image portion is the same, and the face image portion in response to a determination that the position of the face image portion does not correspond by the correspondence determination unit; Recognizing means for recognizing and determining a specific person or animal having the face of the face image portion detected by the partial detecting means is provided.

この発明は,上記表示制御装置に適した動作制御方法も提供している。すなわち,この方法は,被写体を連続撮像して得られる複数駒の被写体像を表示画面に表示するように表示装置を制御する表示制御装置の動作制御方法において,顔画像部分検出手段が,上記複数駒の被写体像のうちある特定の一駒の被写体像から顔画像部分を検出し,判定手段が,上記顔画像部分検出手段によって検出された顔画像部分の位置と,上記複数駒の被写体像のうち上記ある特定の一駒の被写体像の前の駒の被写体像に含まれていた顔画像部分の位置とが対応するかどうかを判定し,決定手段が,上記対応判定手段によって顔画像部分の位置が対応すると判定されたことに応じて,上記前の駒の被写体像に含まれていた顔画像部分によって特定される人物または動物と上記顔画像部分検出手段によって検出された顔画像部分によって特定される人物または動物とが同一であると決定し,認識手段が,上記対応判定手段によって顔画像部分の位置が対応すると判定されなかったことに応じて,上記顔画像部分検出手段によって検出された顔画像部分の顔をもつ特定の人物または動物を認識して決定するものである。   The present invention also provides an operation control method suitable for the display control device. That is, this method is an operation control method for a display control device for controlling a display device so as to display a plurality of frames of subject images obtained by continuously imaging a subject on a display screen. A face image portion is detected from a certain single frame of the subject image, and the determination means detects the position of the face image portion detected by the face image portion detection means and the specific image of the plurality of frame subject images. It is determined whether or not the position of the face image portion included in the subject image of the frame before the one frame subject image corresponds, and the determining means determines that the position of the face image portion corresponds by the correspondence determining means. Accordingly, the person or animal specified by the face image portion included in the subject image of the previous frame and the face image portion detected by the face image portion detecting means are used. And the recognition means detects the position of the face image portion by the correspondence determination means when the position of the face image portion is not determined to correspond. A specific person or animal having a face of the face image portion thus determined is recognized and determined.

この発明は,上記表示制御装置の動作制御方法に適した動作プログラムも提供している。   The present invention also provides an operation program suitable for the operation control method of the display control device.

この発明によると,連続撮像によって得られた複数駒の被写体像のうちある一駒の被写体像から顔画像部分が検出される。検出された顔画像部分の位置と,そのある一駒の被写体像の前の駒の被写体像に含まれていた顔画像部分の位置とが対応すると,前の駒の被写体像に含まれていた顔画像部分によって特定される人物または動物と検出された領域内の画像部分に含まれている人物または動物とが同一であると決定される。それらの画像部分の位置が対応していないと,検出された顔画像部分の顔をもつ特定の人物または動物を認識して決定する処理が行われる。比較的迅速に特定の人物または動物を同一と判定できる。   According to the present invention, a face image portion is detected from one subject image among a plurality of subject images obtained by continuous imaging. When the position of the detected face image portion corresponds to the position of the face image portion included in the subject image of the previous frame of that one frame subject image, the face image portion included in the subject image of the previous frame It is determined that the person or animal specified by is the same as the person or animal included in the image portion in the detected area. If the positions of these image parts do not correspond, a process of recognizing and determining a specific person or animal having the face of the detected face image part is performed. A particular person or animal can be determined to be identical relatively quickly.

上記対応判定手段によって顔画像部分の位置が対応すると判定されたことに応じて,上記認識手段による特定の人物または動物の決定から一定時間以上経過したかどうかを判定する判定手段,および上記判定手段により一定時間以上経過したと判定されたことに応じて,特定の人物または動物の決定処理を行うように上記認識手段を制御し,上記判定手段により一定時間以上経過していないと判定されたことに応じて同一決定処理が行われるように上記決定手段を制御する第1の制御手段をさらに備えてもよい。   Determining means for determining whether or not a certain time or more has elapsed from the determination of the specific person or animal by the recognizing means in response to determining that the position of the face image portion corresponds by the correspondence determining means; and the determining means The recognition means is controlled to perform a process of determining a specific person or animal in response to the determination that a certain time or more has passed, and the determination means determines that a certain time or more has not passed. A first control unit that controls the determination unit may be further provided so that the same determination process is performed according to the above.

上記認識手段は,たとえば,特定の人物または動物についての特徴をスコア化したスコアにもとづいて特定の人物または動物を決定するものである。この場合,一定時間以前に特定の人物または動物と決定されたときのスコアよりも上記撮像によって得られた被写体像の中から検出された顔画像部分についてのスコアの方が大きい場合に,同一決定処理が行われるように上記決定手段を制御する第2の制御手段をさらに備えることが好ましい。   The recognition means determines, for example, a specific person or animal based on a score obtained by scoring features of the specific person or animal. In this case, if the score for the face image portion detected from the subject image obtained by the imaging is larger than the score when the specific person or animal is determined before a certain time, the same determination is made. It is preferable to further include second control means for controlling the determination means so that processing is performed.

上記認識手段が,特定の人物または動物についての特徴をスコア化したスコアにもとづいて特定の人物を決定するためのものである場合には,一定時間以前に特定の人物または動物を決定するときに得られたスコアと上記撮像によって得られた被写体像の中から検出された顔画像部分についてのスコアとの和が大きい顔画像によって特定される人物について同一決定処理が行われるように上記決定手段を制御する第3の制御手段をさらに備えるようにしてもよい。   When the recognition means is for determining a specific person based on a score obtained by scoring characteristics of the specific person or animal, when determining the specific person or animal before a certain time The determination means is configured so that the same determination processing is performed for a person specified by a face image having a large sum of the obtained score and the score for the face image portion detected from the subject image obtained by the imaging. You may make it further provide the 3rd control means to control.

ディジタル・スチル・カメラの電気的構成を示すブロック図である。It is a block diagram which shows the electric constitution of a digital still camera. 特徴/氏名テーブルの一例である。It is an example of a feature / name table. 顔画像の位置とその顔画像の氏名との関係を示している。The relationship between the position of the face image and the name of the face image is shown. 被写体像の一例である。It is an example of a to-be-photographed image. 被写体像の一例である。It is an example of a to-be-photographed image. 被写体像の一例である。It is an example of a to-be-photographed image. ディジタル・スチル・カメラの処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of a digital still camera. 人物決定処理のタイム・チャートである。It is a time chart of a person determination process. ディジタル・スチル・カメラの処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of a digital still camera. ディジタル・スチル・カメラの処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of a digital still camera. 候補テーブルの一例である。It is an example of a candidate table. 候補テーブルの一例である。It is an example of a candidate table. ディジタル・スチル・カメラの処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of a digital still camera.

図1は,この発明の実施例を示すもので,ディジタル・スチル・カメラ1の電気的構成を示すブロック図である。   FIG. 1 shows an embodiment of the present invention and is a block diagram showing an electrical configuration of a digital still camera 1.

ディジタル・スチル・カメラ1の全体の動作は,CPU2によって統括される。   The entire operation of the digital still camera 1 is controlled by the CPU 2.

ディジタル・スチル・カメラ1には,後述する動作プログラム,その他のデータが格納されているメモリ23が含まれている。動作プログラムは,メモリ・カード28等に書き込まれて,そのようなメモリ・カード28から読み出されてディジタル・スチル・カメラ1にインストールされてもよいし,プレ・インストールされていてもよい。   The digital still camera 1 includes a memory 23 in which an operation program described later and other data are stored. The operation program may be written in the memory card 28 or the like, read out from the memory card 28 and installed in the digital still camera 1, or may be pre-installed.

ディジタル・スチル・カメラ1には,シャッタ・レリーズ・ボタン3およびモード・スイッチ4が含まれている。シャッタ・レリーズ・ボタン3の押し下げを示す信号は,CPU2に入力する。モード・スイッチ4は,撮像モードまたは再生モードを選択するもので,スイッチS1またはS2を選択的にオンすることができる。スイッチS1がオンされることにより撮像モードが設定され,スイッチS2がオンされることにより再生モードが設定される。   The digital still camera 1 includes a shutter release button 3 and a mode switch 4. A signal indicating depression of the shutter release button 3 is input to the CPU 2. The mode switch 4 selects an imaging mode or a reproduction mode, and can selectively turn on the switch S1 or S2. The imaging mode is set when the switch S1 is turned on, and the reproduction mode is set when the switch S2 is turned on.

CCDなどの撮像素子7の前方には,絞り5およびズーム・レンズ6が設けられている。絞り5は,モータ・ドライバ10によって制御されるモータ13によって絞り値が決定される。ズーム・レンズ6は,モータ・ドライバ11によって制御されるモータ14によってズーム位置が決定される。   A diaphragm 5 and a zoom lens 6 are provided in front of an image sensor 7 such as a CCD. The aperture value of the aperture 5 is determined by the motor 13 controlled by the motor driver 10. The zoom position of the zoom lens 6 is determined by a motor 14 controlled by a motor driver 11.

モード・スイッチ4によって撮像モードが設定されると,絞り5を通過した被写体像を表す光線束は,ズーム・レンズ6によって撮像素子7の受光面上に結像する。タイミング・ジェネレータ12によって,撮像素子7が制御され,一定周期(例えば,1/30秒周期)で被写体が撮像される。被写体像を表す映像信号は,一定周期で撮像素子7から出力し,CDS(相関二重サンプリング)回路8に入力する。CDS回路8において相関二重サンプリングされた映像信号がアナログ/ディジタル変換回路9においてディジタル画像データに変換される。   When the imaging mode is set by the mode switch 4, the light beam representing the subject image that has passed through the aperture 5 is imaged on the light receiving surface of the image sensor 7 by the zoom lens 6. The imaging device 7 is controlled by the timing generator 12, and the subject is imaged at a constant period (for example, 1/30 second period). A video signal representing a subject image is output from the image sensor 7 at a constant period and input to a CDS (correlated double sampling) circuit 8. The video signal subjected to correlated double sampling in the CDS circuit 8 is converted into digital image data in the analog / digital conversion circuit 9.

ディジタル画像データは,画像入力コントローラ15によって画像信号処理回路16に入力し,ガンマ補正などの所定の信号処理が行われる。ディジタル画像データは,VRAM(ビデオ・ランダム・アクセス・メモリ)24に書き込まれた後に,読み出されて画像表示装置27に与えられることにより,画像表示装置27の表示画面に動画として表示(一定周期で表示)される。   The digital image data is input to the image signal processing circuit 16 by the image input controller 15 and subjected to predetermined signal processing such as gamma correction. The digital image data is written in a VRAM (Video Random Access Memory) 24, then read out and given to the image display device 27, so that it is displayed as a moving image on the display screen of the image display device 27 (with a constant cycle). Displayed).

この実施例によるディジタル・スチル・カメラ1においては撮像により得られた被写体像に含まれる顔画像部分を検出することができる。このために,ディジタル・スチル・カメラには,顔検出回路18が含まれている。とくに,この実施例では,被写体像から顔画像部分を単に検出するだけでなく,その顔画像部分がどの人物(動物)のものかを検出することもできる。詳しくは,後述するように,この実施例においては検出された顔画像部分を特定するように顔画像部分を囲む枠が被写体像上に表示される。   The digital still camera 1 according to this embodiment can detect a face image portion included in a subject image obtained by imaging. For this purpose, the digital still camera includes a face detection circuit 18. In particular, in this embodiment, not only the face image portion can be detected from the subject image, but also the person (animal) of the face image portion can be detected. Specifically, as described later, in this embodiment, a frame surrounding the face image portion is displayed on the subject image so as to specify the detected face image portion.

撮像によって得られたディジタル画像データおよび検出された顔画像部分の位置を示すデータ(領域の位置を示すデータ)は,AF(自動合焦)検出回路21に入力する。AF検出回路21において,検出された顔画像部分が合焦するように,ズーム・レンズ6のズーム位置が制御される。また,撮像によって得られたディジタル画像データおよび検出された顔画像部分の位置を示すデータ(領域の位置を示すデータ)は,AE(自動露光)/AWB(自動白バランス)検出回路22にも入力する。AE/AWB検出回路22において,検出された顔画像部分の明るさが適正な明るさとなるように絞り5の絞りが決定される。さらに,AE/AWB検出回路22において白バランス調整も行われる。   Digital image data obtained by imaging and data indicating the position of the detected face image portion (data indicating the position of the region) are input to an AF (autofocus) detection circuit 21. In the AF detection circuit 21, the zoom position of the zoom lens 6 is controlled so that the detected face image portion is in focus. The digital image data obtained by imaging and the data indicating the position of the detected face image portion (data indicating the position of the area) are also input to the AE (automatic exposure) / AWB (automatic white balance) detection circuit 22. To do. In the AE / AWB detection circuit 22, the stop of the stop 5 is determined so that the brightness of the detected face image portion is an appropriate brightness. Further, white balance adjustment is also performed in the AE / AWB detection circuit 22.

シャッタ・レリーズ・ボタン3が押されると,撮像によって得られた画像データは圧縮処理回路17に入力する。圧縮処理回路17において所定の圧縮処理が行われた画像データはビデオ・エンコーダ20に入力してエンコーディングされる。エンコーディングされた画像データがメモリ・コントローラ26の制御のもとにメモリ・カード28に記録される。   When the shutter release button 3 is pressed, the image data obtained by imaging is input to the compression processing circuit 17. The image data that has been subjected to the predetermined compression processing in the compression processing circuit 17 is input to the video encoder 20 and encoded. The encoded image data is recorded on the memory card 28 under the control of the memory controller 26.

モード・スイッチ4によって再生モードが設定されると,メモリ・カード28に記録されている画像データが読み取られる。読み取られた画像データによって表される画像が画像表示装置27の表示画面に表示される。   When the playback mode is set by the mode switch 4, the image data recorded on the memory card 28 is read. An image represented by the read image data is displayed on the display screen of the image display device 27.

図2は,特徴/氏名テーブルの一例である。   FIG. 2 is an example of a feature / name table.

特徴/氏名テーブルは,人物の顔の特徴を表すデータを,その人物の氏名に対応して記憶するものである。特徴/氏名テーブルには,人物を識別するための人物番号も格納されている。動物の顔を検出する場合には,同様に動物の顔の特徴を表すデータとその動物名とが特徴/氏名テーブルに格納される。   The feature / name table stores data representing the features of a person's face corresponding to the name of the person. The feature / name table also stores a person number for identifying the person. In the case of detecting an animal's face, similarly, data representing the characteristics of the animal's face and its animal name are stored in the feature / name table.

特徴/氏名テーブルを参照することにより,被写体像の中から検出された顔画像部分の人物が分かる。   By referring to the feature / name table, the person in the face image portion detected from the subject image can be known.

図3は,検出済み特定人物テーブルの一例である。   FIG. 3 is an example of the detected specific person table.

詳しくは,後述するように,この実施例では,一定周期で被写体が撮像されており,撮像により得られた被写体像の中から顔画像部分が検出される。所定のタイミングで検出された顔画像から特定の人物が検出される。特定人物の検出後に被写体が撮像されて得られた被写体像の中から顔画像部分が検出されると,その検出された顔画像部分と特定の人物が検出されたときの顔画像部分の位置とが一致すれば,検出された顔画像部分について特定の人物を認識することなく,同一人物であると決定される。   Specifically, as will be described later, in this embodiment, the subject is imaged at a constant period, and the face image portion is detected from the subject image obtained by the imaging. A specific person is detected from the face image detected at a predetermined timing. When a face image portion is detected from the subject image obtained by imaging the subject after the specific person is detected, the detected face image portion and the position of the face image portion when the specific person is detected If they match, it is determined that the detected face image portion is the same person without recognizing a specific person.

検出済み特定人物テーブルは,このような同一人物の決定処理に利用されるもので,検出された特定人物の顔画像部分領域の位置とその特定人物の氏名とが更新可能に記憶されている。新たに特定人物が決定されると,その決定された特定人物の氏名と顔画像部分の位置とが検出済み特定人物テーブルに格納される。   The detected specific person table is used for such determination processing of the same person, and the position of the detected face image partial area of the specific person and the name of the specific person are stored in an updatable manner. When a specific person is newly determined, the name of the determined specific person and the position of the face image portion are stored in the detected specific person table.

図4は,今回の撮像によって得られた被写体像(顔画像検出が行われる被写体像であって,連続撮像によって得られた複数駒の被写体像のうち,ある特定の一駒の被写体像)30の一例である。   FIG. 4 shows an example of a subject image (a subject image on which face image detection is performed and a subject image of a specific frame among a plurality of subject images obtained by continuous imaging) 30 obtained by the current imaging. It is.

今回の被写体像30には,人物像31が含まれているものとする。被写体像30について顔画像検出処理が行われることにより,顔画像部分32が検出される。   It is assumed that the subject image 30 this time includes a person image 31. By performing face image detection processing on the subject image 30, a face image portion 32 is detected.

図5は,以前の撮像によって得られた被写体像(連続撮像によって得られた複数駒の被写体像のうち,上記ある特定の一駒の被写体像より前に撮像された被写体像)40の一例である。   FIG. 5 is an example of a subject image 40 obtained by previous imaging (subject image captured before a certain one subject image among a plurality of subject images obtained by continuous imaging) 40.

以前の被写体像40にも,人物像41が含まれているものとする。被写体像40について顔画像検出処理が行われることにより,顔画像部分42が検出される。以前の被写体像40については,検出された顔画像部分42の特徴が特徴/氏名テーブルに格納されており,特定人物が決定されているものとする。すると,決定された特定人物の氏名および顔画像領域の位置が上述のように検出済み特定人物テーブルに格納される。   It is assumed that the person image 41 is also included in the previous subject image 40. By performing face image detection processing on the subject image 40, a face image portion 42 is detected. For the previous subject image 40, it is assumed that the feature of the detected face image portion 42 is stored in the feature / name table, and a specific person is determined. Then, the name of the determined specific person and the position of the face image area are stored in the detected specific person table as described above.

図4に示す今回の被写体像30において検出された顔画像部分32の位置と,図5に示す以前の被写体像40において検出された顔画像部分42の位置とがほぼ同じ位置であるとすると,今回の被写体像30に含まれている顔画像部分32の人物と以前の被写体像40に含まれている顔画像部分42の人物とが同じと考えることができる。今回の被写体像30において検出された顔画像部分32の特定人物を決定する処理を行わなくとも,今回の被写体像30の顔画像部分32の特定人物が決定される。   If the position of the face image portion 32 detected in the current subject image 30 shown in FIG. 4 is substantially the same as the position of the face image portion 42 detected in the previous subject image 40 shown in FIG. It can be considered that the person of the face image portion 32 included in the subject image 30 of this time and the person of the face image portion 42 included in the previous subject image 40 are the same. The specific person of the face image portion 32 of the current subject image 30 is determined without performing the process of determining the specific person of the face image portion 32 detected in the current subject image 30.

図6は,以前の被写体像50の他の一例である。   FIG. 6 is another example of the previous subject image 50.

図6に示す被写体像50には,人物像51と自動車画像53とが含まれている。被写体像50について顔画像部分検出処理が行われると人物像51の顔画像部分52が検出される。顔画像部分52の位置は,図4に示す今回の被写体像30において検出された顔画像部分32の位置と異なるので,顔画像部分51の人物と顔画像部分32の人物とは異なるものであると判定される。被写体像50については改めて特定の人物を決定する処理が行われる。   The subject image 50 shown in FIG. 6 includes a person image 51 and a car image 53. When face image portion detection processing is performed on the subject image 50, the face image portion 52 of the person image 51 is detected. Since the position of the face image portion 52 is different from the position of the face image portion 32 detected in the current subject image 30 shown in FIG. 4, the person in the face image portion 51 and the person in the face image portion 32 are different. It is determined. For the subject image 50, a process for determining a specific person is performed again.

図7は,ディジタル・スチル・カメラの処理手順を示すフローチャートである。   FIG. 7 is a flowchart showing the processing procedure of the digital still camera.

この実施例は,撮像時に画角等を確認するために行われる動画表示(いわゆるスルー画表示)に利用されるものであるが,連続して撮像されている複数駒の被写体像を再生する場合にも適用できる。特に,この実施例は,上述のように,今回の撮像において得られた被写体像から顔画像部分が検出された場合において,検出された顔画像部分の位置が,以前に撮像において得られた被写体像に含まれている顔画像部分の位置に近ければ,今回の被写体像に含まれている顔画像部分の人物と前回の被写体像に含まれている顔画像部分の人物とが同一人物であるとするものである。   This embodiment is used for moving image display (so-called through-image display) performed for confirming the angle of view at the time of imaging. However, when reproducing a plurality of framed subject images, Is also applicable. In particular, in this embodiment, as described above, when the face image portion is detected from the subject image obtained in the current imaging, the position of the detected face image portion is the subject previously obtained in the imaging. If it is close to the position of the face image part included in the image, the person in the face image part included in the current subject image and the person in the face image part included in the previous subject image are the same person It is what.

一定周期で被写体が撮像され,被写体像が得られる(ステップ61)。今回の撮像により得られた被写体像から顔画像部分が検出される(ステップ62)。また,以前の撮像により得られた被写体像に含まれている顔画像部分の領域の位置が検出済み特定人物テーブルから読み取られる(ステップ63)。   A subject is imaged at a fixed period, and a subject image is obtained (step 61). A face image portion is detected from the subject image obtained by the current imaging (step 62). Further, the position of the face image portion area included in the subject image obtained by the previous imaging is read from the detected specific person table (step 63).

今回の撮像において検出された顔画像部分の位置が検出済み特定人物テーブルから読み取られた領域の位置に対応していれば(近ければ)(ステップ64でYES),今回の撮像により得られた被写体像に含まれている顔画像部分の人物が,検出済み特定人物テーブルに格納されている人物と同一人物であると決定される(ステップ65)。   If the position of the face image portion detected in the current imaging corresponds to the position of the area read from the detected specific person table (if close) (YES in step 64), the subject obtained by the current imaging It is determined that the person of the face image portion included in the image is the same person as the person stored in the detected specific person table (step 65).

今回の撮像において検出された顔画像部分の位置が検出済み特定人物テーブルから読み取られた領域の位置に対応していなければ(ステップ64でNO),以前の撮像と今回の撮像との間で被写体である人物が入れ替わっている可能性が高い。このために,今回の撮像により得られた被写体像から検出された顔画像部分から人物を決定する処理が行われる(ステップ66)。   If the position of the face image portion detected in the current imaging does not correspond to the position of the area read from the detected specific person table (NO in step 64), the subject between the previous imaging and the current imaging There is a high possibility that the person is replaced. For this purpose, a process of determining a person from the face image portion detected from the subject image obtained by the current imaging is performed (step 66).

決定された人物および検出された顔画像部分の位置をそれぞれ示すデータが検出済み特定人物テーブルに格納される(ステップ67)。検出された顔画像部分の位置に枠が表示されるように,撮像によって得られた被写体像が表示装置27の表示画面に表示される(ステップ68)。   Data indicating the determined person and the position of the detected face image portion are stored in the detected specific person table (step 67). The subject image obtained by imaging is displayed on the display screen of the display device 27 so that a frame is displayed at the position of the detected face image portion (step 68).

図8および図9は,他の実施例を示すものである。この実施例は,前回の特定人物決定処理から一定時間経過した場合には上述のように対応する領域に顔画像部分が存在した場合であっても今回の撮像により得られた被写体像に含まれている顔画像部分から人物を決定するものである。一定時間以上経過した場合にも対応する領域に顔画像部分が存在しても同一人物でないことが多いことを考慮するためである。   8 and 9 show another embodiment. This embodiment is included in the subject image obtained by the current imaging even when the face image portion exists in the corresponding region as described above when a certain time has passed since the previous specific person determination process. The person is determined from the face image portion. This is to take into consideration that even if a certain time or more has elapsed, even if a face image portion exists in the corresponding region, the person is often not the same person.

図8は,人物決定処理のタイム・チャートである。   FIG. 8 is a time chart of the person determination process.

時刻t0においては,撮像により得られた被写体像から顔画像部分が検出され,その検出された顔画像部分から特定の人物から決定される。決定された人物の顔画像部分の枠が表示される。   At time t0, a face image portion is detected from the subject image obtained by imaging, and is determined from a specific person from the detected face image portion. A frame of the face image portion of the determined person is displayed.

時刻t1から時刻t3においても,撮像により得られた被写体像から顔画像部分が検出されるが,検出された顔画像部分が時刻t0において検出された顔画像部分の位置の近くであると,時刻t0において決定された人物と同一人物の被写体が撮像されたものとみなされる。顔画像部分の特徴量を用いた人物の決定処理は行われない。   From time t1 to time t3, the face image portion is detected from the subject image obtained by imaging. If the detected face image portion is near the position of the face image portion detected at time t0, the time It is assumed that the subject of the same person as the person determined at t0 is captured. The person determination process using the feature amount of the face image portion is not performed.

以下同様に,前回の顔画像部分の特徴量を用いた人物の決定処理から一定時間が経過すると,再び顔画像部分の特徴量を用いて人物の決定処理が行われる。   Similarly, when a predetermined time elapses from the person determination process using the feature value of the previous face image part, the person determination process is performed again using the feature value of the face image part.

図9は,ディジタル・スチル・カメラの処理手順を示すフローチャートである。この図において,図7に示す処理と同一の処理については同一符号を付して説明を省略する。   FIG. 9 is a flowchart showing the processing procedure of the digital still camera. In this figure, the same processes as those shown in FIG.

今回の撮像により得られた被写体像から検出された顔画像部分が以前の撮像において得られた顔画像部分に対応していると(ステップ64でYES),顔画像部分を用いて特定人物を決定する前回の特定人物決定処理から一定時間(一定フレーム)経過したかどうかが判定される(ステップ71)。   If the face image portion detected from the subject image obtained by the current imaging corresponds to the face image portion obtained in the previous imaging (YES in step 64), the specific person is determined using the face image portion. It is determined whether or not a certain time (a certain frame) has elapsed since the previous specific person determination process (step 71).

一定時間経過していると(ステップ71でYES),今回の撮像により得られた顔画像部分の位置と以前の撮像により得られた顔画像部分の位置とが近くても,前回の被写体の人物と今回の被写体の人物とは異なっている可能性が高い。このために,今回の撮像により得られた顔画像部分を用いて新たに特定人物を決定する処理が行われる(ステップ66)。   If a certain period of time has elapsed (YES in step 71), even if the face image part obtained by the current imaging is close to the face image part obtained by the previous imaging, the person of the previous subject There is a high possibility that it is different from the person of the subject this time. For this purpose, a process of newly determining a specific person using the face image portion obtained by the current imaging is performed (step 66).

一定時間経過していないと(ステップ71でNO),今回の撮像により得られた顔画像部分の位置と以前の撮像により得られた顔画像部分の位置とが近ければ,前回の被写体の人物と今回の被写体の人物とは同一と考えられるので,同一人物と判定される(ステップ65)。   If the fixed time has not passed (NO in step 71), if the position of the face image part obtained by the current imaging is close to the position of the face image part obtained by the previous imaging, Since it is considered that the person of the subject this time is the same, it is determined to be the same person (step 65).

図10は,さらに他の実施例を示すものである。この実施例は,顔画像部分を用いて特定人物を決定するときのスコアが利用される。前回のスコアが今回のスコアよりも低ければ,新たに検出された顔画像部分を用いて再び特定人物を決定し,前回のスコアが今回のスコアよりも高ければ,以前の撮像により決定された特定人物と同一人物であると判定するものである。顔画像部分を用いて特定人物を決定する処理が行われる場合には,上述したように顔の特徴量に応じてスコアが算出され,算出されたスコアのうち大きいスコアを与える特徴量に対応する人物が,その顔画像部分の人物であると判定されるのはいうまでもない。   FIG. 10 shows still another embodiment. In this embodiment, a score when a specific person is determined using a face image portion is used. If the previous score is lower than the current score, the specific person is determined again using the newly detected face image portion. If the previous score is higher than the current score, the specific image determined by the previous imaging is determined. It is determined that the person is the same person. When the process of determining a specific person using the face image portion is performed, a score is calculated according to the feature amount of the face as described above, and it corresponds to the feature amount that gives a large score among the calculated scores. Needless to say, the person is determined to be the person in the face image portion.

図10は,ディジタル・スチル・カメラの処理手順を示すフローチャートである。この図において図7および図9に示す処理と同一の処理については同一符号を付して説明を省略する。   FIG. 10 is a flowchart showing the processing procedure of the digital still camera. In this figure, the same processes as those shown in FIG. 7 and FIG.

顔画像部分を用いた前回の特定人物決定処理から一定時間経過していると(ステップ71でYES),今回の撮像により得られた被写体像の中から顔画像部分が検出され,かつ検出された顔画像部分についてのスコアが算出される(ステップ72)。前回のスコア(メモリに記憶されているのはいうまでもない)と今回のスコアとが比較される(ステップ73)。前回のスコアが今回のスコアよりも低ければ(ステップ73でYES),検出された顔画像を用いて改めて特定人物を決定する処理が行われる(ステップ74)。前回のスコアが今回のスコアよりも高ければ(ステップ73でNO),前回の被写体像の人物と今回の被写体像の人物とが同一人物と決定される(ステップ65)。   When a certain period of time has passed since the previous specific person determination process using the face image portion (YES in step 71), the face image portion was detected from the subject image obtained by the current imaging and detected. A score for the face image portion is calculated (step 72). The previous score (not to mention stored in the memory) is compared with the current score (step 73). If the previous score is lower than the current score (YES in step 73), a process of determining a specific person anew using the detected face image is performed (step 74). If the previous score is higher than the current score (NO in step 73), the person in the previous subject image and the person in the current subject image are determined to be the same person (step 65).

図11から図13は,さらに他の実施例を示すものである。   11 to 13 show still another embodiment.

上述したように,検出された顔画像部分から,その顔の人物を特定するためには検出された顔画像部分の特徴量と特定の人物の顔の特徴量との類似度を表わすスコアが算出される。ある一駒の被写体像の中でのみ考える場合には,その被写体像に存在する顔画像部分についてのスコアが算出され,その大きいスコアを与える特徴量の人物がその顔画像部分の人物と考えられる。この実施例では,前回の撮像によって得られた被写体像において算出されたスコアと今回の撮像によって得られた被写体像において得られたスコアの和を用いて人物を決定するものである。   As described above, from the detected face image portion, in order to specify the person of the face, a score representing the similarity between the feature amount of the detected face image portion and the feature amount of the face of the specific person is calculated. Is done. When thinking only within a certain subject image, the score for the face image portion existing in the subject image is calculated, and the person with the feature amount that gives the large score is considered to be the person of the face image portion. In this embodiment, the person is determined using the sum of the score calculated in the subject image obtained by the previous imaging and the score obtained in the subject image obtained by the current imaging.

図11および図12は,候補テーブルの一例である。   11 and 12 are examples of candidate tables.

候補テーブルは,撮像により得られた被写体像に含まれている顔画像部分の人物候候補を示している。図11は前回の撮像により得られた被写体像に含まれている顔画像部分の人物候補を示し,図12は今回の撮像により得られた被写体像に含まれている顔画像部分の人物候補を示している。   The candidate table shows person candidate candidates of the face image portion included in the subject image obtained by imaging. FIG. 11 shows the person candidates of the face image part included in the subject image obtained by the previous imaging, and FIG. 12 shows the person candidates of the face image part included in the subject image obtained by the current imaging. Show.

候補テーブルには,候補番号,人物番号およびスコアが含まれている。候補番号は,検出された顔画像部分の顔の人物であろう候補をスコアの高い順に並べたものである。人物番号は,その顔画像部分の顔の人物を識別する番号である。番号でなくとも識別できる符号であればよい。スコアは,その人物番号によって識別される人物の顔の特徴量と被写体像に検出さたれ顔画像部分の特徴量との類似度とを示すものである。図11に示す候補テーブルでは,人物番号「32」のスコアが最も高く,人物番号「12」のスコアが次に高い。また,図12に示す候補テーブルでは,人物番号「12」のスコアが最も高く,人物番号「24」のスコアが次に高い。   The candidate table includes candidate numbers, person numbers, and scores. The candidate number is a list of candidates that are likely to be human faces in the detected face image portion in descending order of score. The person number is a number for identifying the person of the face in the face image portion. Any code that can be identified even if it is not a number is acceptable. The score indicates the similarity between the feature amount of the face of the person identified by the person number and the feature amount of the face image portion detected in the subject image. In the candidate table shown in FIG. 11, person number “32” has the highest score, and person number “12” has the next highest score. In the candidate table shown in FIG. 12, the score of person number “12” is the highest, and the score of person number “24” is the next highest.

この実施例では,前回の被写体像でのスコアと今回の被写体像のスコアとの和が最も高いスコアを与える人物が今回の被写体像から検出された顔画像部分の顔の人物と決定される。図11および図12に示す例では,人物番号「12」のスコアの和は93+88=181であり,人物番号「15」のスコアの和は45+64=109であり,人物番号「32」のスコアの和は95であり,人物番号「5」のスコアの和は41であり,人物番号「9」のスコアの和は32であり,人物番号「26」のスコアの和は25であり,人物番号「8」のスコアの和は15である。したがって,スコアの和が最も多い人物番号は「12」となるから,今回の撮像により得られた被写体像から検出された顔画像部分は人物番号「12」の人物のものあると決定される。   In this embodiment, the person who gives the score having the highest sum of the score of the previous subject image and the score of the current subject image is determined as the face person of the face image portion detected from the current subject image. In the example shown in FIGS. 11 and 12, the sum of the scores of the person number “12” is 93 + 88 = 181, the sum of the scores of the person number “15” is 45 + 64 = 109, and the score of the person number “32” is The sum is 95, the sum of the scores of the person number “5” is 41, the sum of the scores of the person number “9” is 32, the sum of the scores of the person number “26” is 25, and the person number The sum of the scores of “8” is 15. Therefore, since the person number with the highest sum of scores is “12”, it is determined that the face image portion detected from the subject image obtained by the current imaging belongs to the person with the person number “12”.

図13は,ディジタル・スチル・カメラの処理手順を示すフローチャートである。この図において,図7,図9,図10に示す処理と同一の処理については同一符号を付して説明を省略する。   FIG. 13 is a flowchart showing the processing procedure of the digital still camera. In this figure, the same processes as those shown in FIG. 7, FIG. 9, and FIG.

前回の特定人物決定処理から一定時間が経過していると(ステップ71でYES),上述したように,今回の被写体像の顔画像部分検出処理が行われ,人物番号ごとに前回のスコアと今回のスコアとの和が算出される。算出されたスコアの和が最も高い人物番号によって識別される人物が特定人物と決定される(ステップ75)。   If a predetermined time has elapsed since the previous specific person determination process (YES in step 71), as described above, the face image partial detection process of the current subject image is performed, and the previous score and current time are determined for each person number. The sum with the score is calculated. The person identified by the person number with the highest sum of the calculated scores is determined as the specific person (step 75).

上述した各テーブルは,メモリ23に格納されているのはいうまでもない。   Needless to say, each table described above is stored in the memory 23.

被写体像の中に一つの顔画像部分が検出された場合だけでなく,複数の顔画像部分が検出された場合でもそれぞれの顔画像部分について上述と同様に処理できる。   Each face image portion can be processed in the same manner as described above not only when one face image portion is detected in the subject image but also when a plurality of face image portions are detected.

上述した実施例においては,以前の撮像により検出された顔画像部分の位置を記憶しているが,顔画像部分の位置のほかに,顔の大きさ,向きなどを記憶するようにしてもよい。人物を識別する氏名のほかに,性別年齢などを記憶してもよいし,以前に撮像された被写体像から検出された顔画像部分と対応した回数,特定人物を決定するタイミングなどを記憶するようにしてもよい。   In the embodiment described above, the position of the face image portion detected by the previous imaging is stored, but the size and orientation of the face may be stored in addition to the position of the face image portion. . In addition to the name that identifies the person, the age of gender, etc. may be stored, the number of times corresponding to the face image portion detected from the previously captured subject image, the timing for determining the specific person, etc. It may be.

上述の実施例では,ディジタル・スチル・カメラにおける撮像時の画角等を確認するための動画表示についてのものであるが,ディジタル・スチル・カメラに限らずムービ・ビデオ・カメラ,ディジタル・ムービ/スチル・カメラにも適用できるのはいうまでのない。   In the above-described embodiment, the moving image display for confirming the angle of view at the time of imaging in the digital still camera is performed. However, the present invention is not limited to the digital still camera, but is a movie video camera, a digital movie / Needless to say, it can also be applied to still cameras.

1 ディジタル・スチル・カメラ(撮像装置)
2 CPU(決定手段,人物認識手段)
18 顔検出回路
19 領域検出回路
1 Digital still camera (imaging device)
2 CPU (decision means, person recognition means)
18 Face detection circuit
19 Area detection circuit

Claims (6)

一定周期で被写体を連続撮像して得られた被写体像を表示画面に表示するように表示装置を制御する表示制御装置において,
上記複数駒の被写体像のうちある特定の一駒の被写体像から顔画像部分を検出する顔画像部分検出手段,
上記顔画像部分検出手段によって検出された顔画像部分の位置と,上記複数駒の被写体像のうち上記ある特定の一駒の被写体像の前の駒の被写体像に含まれていた顔画像部分の位置とが対応するかどうかを判定する判定手段,
上記対応判定手段によって顔画像部分の位置が対応すると判定されたことに応じて,上記前の駒の被写体像に含まれていた顔画像部分によって特定される人物または動物と上記顔画像部分検出手段によって検出された顔画像部分によって特定される人物または動物とが同一であると決定する決定手段,および
上記対応判定手段によって顔画像部分の位置が対応すると判定されなかったことに応じて,上記顔画像部分検出手段によって検出された顔画像部分の顔をもつ特定の人物または動物を認識して決定する認識手段,
を備えた表示制御装置。
In a display control device for controlling a display device to display a subject image obtained by continuously imaging a subject at a constant cycle on a display screen,
A face image portion detecting means for detecting a face image portion from a certain one frame subject image among the plurality of frame subject images;
The position of the face image portion detected by the face image portion detection means and the position of the face image portion included in the subject image of the frame before the certain one subject image among the plurality of subject images. Judgment means for judging whether to correspond,
In response to the fact that the position of the face image portion is determined to correspond by the correspondence determination means, the person or animal specified by the face image portion included in the subject image of the previous frame and the face image portion detection means Determining means for determining that the person or animal specified by the detected face image portion is the same, and the face image portion in response to the fact that the position of the face image portion has not been determined to correspond by the correspondence determining means; Recognition means for recognizing and determining a specific person or animal having the face of the face image portion detected by the partial detection means;
A display control device.
上記対応判定手段によって顔画像部分の位置が対応すると判定されたことに応じて,上記認識手段による特定の人物または動物の決定から一定時間以上経過したかどうかを判定する判定手段,および
上記判定手段により一定時間以上経過したと判定されたことに応じて,特定の人物または動物の決定処理を行うように上記認識手段を制御し,上記判定手段により一定時間以上経過していないと判定されたことに応じて同一決定処理が行われるように上記決定手段を制御する第1の制御手段,
をさらに備えた請求項1に記載の表示制御装置。
Determining means for determining whether or not a certain time or more has elapsed from the determination of the specific person or animal by the recognizing means in response to determining that the position of the face image portion corresponds by the correspondence determining means; and the determining means The recognition means is controlled to perform a process of determining a specific person or animal in response to the determination that a certain time or more has passed, and the determination means determines that a certain time or more has not passed. First control means for controlling the determination means so that the same determination processing is performed according to
The display control apparatus according to claim 1, further comprising:
上記認識手段は,特定の人物または動物についての特徴をスコア化したスコアにもとづいて特定の人物または動物を決定するものであり,
一定時間以前に特定の人物または動物と決定されたときのスコアよりも上記撮像によって得られた被写体像の中から検出された顔画像部分についてのスコアの方が大きい場合に,同一決定処理が行われるように上記決定手段を制御する第2の制御手段,
をさらに備えた請求項2に記載の表示制御装置。
The recognition means determines a specific person or animal based on a score obtained by scoring characteristics of the specific person or animal.
When the score for the face image portion detected from the subject image obtained by the above imaging is larger than the score when it is determined as a specific person or animal before a certain time, the same determination process is performed. Second control means for controlling the determining means as
The display control device according to claim 2, further comprising:
上記認識手段は,特定の人物または動物についての特徴をスコア化したスコアにもとづいて特定の人物を決定するためのものであり,
一定時間以前に特定の人物または動物を決定するときに得られたスコアと上記撮像によって得られた被写体像の中から検出された顔画像部分についてのスコアとの和が大きい顔画像によって特定される人物について同一決定処理が行われるように上記決定手段を制御する第3の制御手段,
をさらに備えた請求項2または3に記載の表示制御装置。
The recognition means is for determining a specific person based on a score obtained by scoring characteristics of the specific person or animal.
It is specified by a face image having a large sum of a score obtained when a specific person or animal is determined before a certain time and a score for a face image portion detected from the subject image obtained by the above imaging. Third control means for controlling the determination means so that the same determination processing is performed for a person
The display control apparatus according to claim 2, further comprising:
被写体を連続撮像して得られた複数駒の被写体像を表示画面に表示するように表示装置を制御する表示制御装置の動作制御方法において,
顔画像部分検出手段が,上記複数駒の被写体像のうちある特定の一駒の被写体像から顔画像部分を検出し,
判定手段が,上記顔画像部分検出手段によって検出された顔画像部分の位置と,上記複数駒の被写体像のうち上記ある特定の一駒の被写体像の前の駒の被写体像に含まれていた顔画像部分の位置とが対応するかどうかを判定し,
決定手段が,上記対応判定手段によって顔画像部分の位置が対応すると判定されたことに応じて,上記前の駒の被写体像に含まれていた顔画像部分によって特定される人物または動物と上記顔画像部分検出手段によって検出された顔画像部分によって特定される人物または動物とが同一であると決定し,
認識手段が,上記対応判定手段によって顔画像部分の位置が対応すると判定されなかったことに応じて,上記顔画像部分検出手段によって検出された顔画像部分の顔をもつ特定の人物または動物を認識して決定する,
表示制御装置の動作制御方法。
In an operation control method of a display control device for controlling a display device to display a plurality of subject images obtained by continuously imaging a subject on a display screen,
A face image part detecting means detects a face image part from a subject image of one specific frame among the plurality of subject images;
The position of the face image portion detected by the face image portion detection means and the face image portion included in the subject image of the frame before the certain one subject image among the plurality of subject images. To determine whether or not
When the determining means determines that the position of the face image portion corresponds to the position of the face image portion, the person or animal specified by the face image portion included in the subject image of the previous frame and the face image are determined. Determining that the person or animal identified by the face image portion detected by the partial detection means is identical;
The recognizing means recognizes a specific person or animal having the face of the face image portion detected by the face image portion detecting means when the correspondence determining means does not determine that the position of the face image portion corresponds. To decide,
An operation control method for a display control device.
被写体を連続撮像して得られた複数の被写体像を表示画面に表示するように表示装置を制御する表示制御装置を制御するプログラムであって,
上記複数駒の被写体像のうちある特定の一駒の被写体像から顔画像部分を検出させ,
検出された顔画像部分の位置と,上記複数駒の被写体像のうち上記ある特定の一駒の被写体像の前の駒の被写体像に含まれていた顔画像部分の位置とが対応するかどうかを判定させ,
顔画像部分の位置が対応すると判定されたことに応じて,上記前の駒の被写体像に含まれていた顔画像部分によって特定される人物または動物と検出された顔画像部分によって特定される人物または動物とが同一であると決定させ,
顔画像部分の位置が対応すると判定されなかったことに応じて,検出された顔画像部分の顔をもつ特定の人物または動物を認識して決定させるように表示制御装置を制御するコンピュータ読み取り可能なプログラム。
A program for controlling a display control device for controlling a display device so as to display a plurality of subject images obtained by continuously imaging a subject on a display screen,
The face image portion is detected from the subject image of one specific frame among the subject images of the plurality of frames,
It is determined whether or not the position of the detected face image portion corresponds to the position of the face image portion included in the subject image of the frame in front of the certain specific subject image of the plurality of subject images. ,
When it is determined that the position of the face image portion corresponds, the person or animal specified by the face image portion included in the subject image of the previous frame and the person specified by the detected face image portion or Determine that the animal is identical,
A computer readable control for controlling the display control device to recognize and determine a specific person or animal having the face of the detected face image portion when the position of the face image portion is not determined to correspond program.
JP2009107229A 2009-04-27 2009-04-27 Display control apparatus and operation control method thereof Expired - Fee Related JP5242491B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009107229A JP5242491B2 (en) 2009-04-27 2009-04-27 Display control apparatus and operation control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009107229A JP5242491B2 (en) 2009-04-27 2009-04-27 Display control apparatus and operation control method thereof

Publications (2)

Publication Number Publication Date
JP2010257265A true JP2010257265A (en) 2010-11-11
JP5242491B2 JP5242491B2 (en) 2013-07-24

Family

ID=43318089

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009107229A Expired - Fee Related JP5242491B2 (en) 2009-04-27 2009-04-27 Display control apparatus and operation control method thereof

Country Status (1)

Country Link
JP (1) JP5242491B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016167322A (en) * 2016-06-23 2016-09-15 東芝テック株式会社 Intrusion alarm device and program therefor

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008252296A (en) * 2007-03-29 2008-10-16 Kddi Corp Face index preparation apparatus for moving image and face image tracking method thereof
JP2009017135A (en) * 2007-07-03 2009-01-22 Canon Inc Imaging device, imaging method, and program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008252296A (en) * 2007-03-29 2008-10-16 Kddi Corp Face index preparation apparatus for moving image and face image tracking method thereof
JP2009017135A (en) * 2007-07-03 2009-01-22 Canon Inc Imaging device, imaging method, and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016167322A (en) * 2016-06-23 2016-09-15 東芝テック株式会社 Intrusion alarm device and program therefor

Also Published As

Publication number Publication date
JP5242491B2 (en) 2013-07-24

Similar Documents

Publication Publication Date Title
JP5251215B2 (en) Digital camera
US8879802B2 (en) Image processing apparatus and image processing method
JP5713055B2 (en) Imaging apparatus, imaging method, and program
JP4974812B2 (en) Electronic camera
JP2010068128A (en) Image capturing apparatus, existence or nonexistence decision method of image area, and program
JP2008109336A (en) Image processor and imaging apparatus
JP2011166442A (en) Imaging device
JP2007178543A (en) Imaging apparatus
US10121067B2 (en) Image processing apparatus that determines processing target area of an image based on degree of saliency, image processing method, and storage medium
JP4127521B2 (en) Digital camera and control method thereof
KR20120047594A (en) Digital photographing apparatus and control method thereof
JP2009111716A (en) Imaging apparatus, program and template generating method
US20140285649A1 (en) Image acquisition apparatus that stops acquisition of images
US8571404B2 (en) Digital photographing apparatus, method of controlling the same, and a computer-readable medium storing program to execute the method
JP2014067315A (en) Authentication device, authentication method and program therefor
JP5242491B2 (en) Display control apparatus and operation control method thereof
JP2007005966A (en) System for calculation amount of exposure, and control method and control program thereof
JP2011107550A (en) Imaging apparatus
JP2017011451A (en) Detection device, detection method and program
JP2016092513A (en) Image acquisition device, shake reduction method and program
JP2011151482A (en) Imaging apparatus and method for controlling the same
JP5374612B2 (en) Image data identification method, imaging apparatus, program, and storage medium
JP5395503B2 (en) Display control apparatus and operation control method thereof
JP2008160280A (en) Imaging apparatus and automatic imaging method
JP2016134060A (en) Image processor, control method thereof, control program, and imaging apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120116

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121101

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121113

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130312

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130403

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160412

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5242491

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees