JP2009009456A - Face detection device and face detection program - Google Patents

Face detection device and face detection program Download PDF

Info

Publication number
JP2009009456A
JP2009009456A JP2007171759A JP2007171759A JP2009009456A JP 2009009456 A JP2009009456 A JP 2009009456A JP 2007171759 A JP2007171759 A JP 2007171759A JP 2007171759 A JP2007171759 A JP 2007171759A JP 2009009456 A JP2009009456 A JP 2009009456A
Authority
JP
Japan
Prior art keywords
face
area
image
detector
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007171759A
Other languages
Japanese (ja)
Other versions
JP4818997B2 (en
Inventor
Fumiyuki Shiratani
文行 白谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2007171759A priority Critical patent/JP4818997B2/en
Priority to PCT/JP2008/060720 priority patent/WO2009004901A1/en
Publication of JP2009009456A publication Critical patent/JP2009009456A/en
Priority to US12/647,890 priority patent/US8643738B2/en
Application granted granted Critical
Publication of JP4818997B2 publication Critical patent/JP4818997B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To improve the detection precision of a face of a person who becomes a subject with a high frequency, without burdening a user. <P>SOLUTION: A digital camera includes a speed prioritized face detector 42 and a precision prioritized face detector 43. A control part 4 of the digital camera extracts an area which has been detected as a face area by the precision prioritized face detector 43 but has not been detected as a face area by the speed prioritized face detector 42, as an undetected area and performs learning of the speed prioritized face detector 42 on the basis of the undetected area so that the undetected area may be detected as a face area. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、画像から顔領域を検出する技術に関する。   The present invention relates to a technique for detecting a face area from an image.

近年、顔検出処理の自動化が進み、顔検出器を搭載したデジタルカメラが増えてきている。デジタルカメラに顔検出器を搭載することにより、被写体となる人物の顔に対してピント、露出値を自動的に最適化する自動焦点制御・自動露出制御が可能になり、人物の顔を綺麗に撮影することができる。   In recent years, automation of face detection processing has progressed, and digital cameras equipped with face detectors have increased. By installing a face detector in the digital camera, it is possible to focus on the face of the person who is the subject and to automatically optimize the exposure value, and to perform automatic focus control and automatic exposure control, making the face of the person beautiful You can shoot.

顔検出器としては、複数の識別器をカスケード接続するViolaらが提案する顔検出器(特許文献1)の他、ニューラルネットワークを用いた顔検出器(特許文献2)などが用いられている。
P. Viola and M. Jones. "Rapid Object Detection Using a Boosted Cascade of Simple Features," in Proc. of CVPR, vol.1, ppp.511-518, December, 2001 特開2006-301779公報 特開2003-323615公報
As a face detector, a face detector using a neural network (Patent Document 2) and the like are used in addition to a face detector proposed by Viola et al. That cascade-connects a plurality of discriminators (Patent Document 1).
P. Viola and M. Jones. "Rapid Object Detection Using a Boosted Cascade of Simple Features," in Proc. Of CVPR, vol.1, ppp.511-518, December, 2001 JP 2006-301779 A JP2003-323615A

デジタルカメラなどの製品には学習済みの顔検出器が製品に搭載される。しかしながら、顔検出器の学習は標準的な顔の画像を用いて所望の検出精度が得られるように行われるため、あらゆる人物の顔について高い検出精度が得られるわけではない。したがって、ユーザーによっては、家族や知人といった被写体となる頻度の高い人物の顔が検出されにくいといった場合も生じうる。   Products such as digital cameras are equipped with learned face detectors. However, since learning of the face detector is performed so that a desired detection accuracy can be obtained using a standard face image, high detection accuracy cannot be obtained for every human face. Accordingly, depending on the user, it may be difficult to detect the face of a person who frequently becomes a subject such as a family member or acquaintance.

この点に関して特許文献3では、被写体となる頻度が高い人物の特徴をユーザーに入力させることで、当該人物の顔の検出精度を向上させている。しかしながら、このような操作をユーザーに求める手法では手間がかかる。   In this regard, in Patent Document 3, the user's face detection accuracy is improved by allowing a user to input the characteristics of a person who frequently becomes a subject. However, the method for requesting such an operation from the user is time-consuming.

本発明は、このような従来技術の技術的課題を鑑みてなされたもので、ユーザーに負担をかけずに、被写体となる頻度の高い人物の顔の検出精度を向上させることを目的とする。   The present invention has been made in view of such technical problems of the prior art, and an object of the present invention is to improve the detection accuracy of the face of a person who frequently becomes a subject without burdening the user.

本発明に係る顔検出装置は、画像から顔領域を検出する第1の顔検出器と、前記画像と同一ないし略同一の画像から顔領域を検出し、前記第1の顔検出器とは異なる検出精度を有する第2の顔検出器と、前記第2の顔検出器では顔領域として検出されたが前記第1の顔検出器では顔領域として検出されなかった領域を未検出領域として抽出する未検出領域抽出手段と、前記未検出領域に基づき、前記未検出領域が顔領域として検出されるように前記第1の顔検出器の学習を行う学習手段と、を備える。   The face detection apparatus according to the present invention detects a face area from a first face detector that detects a face area from an image, and the same or substantially the same image as the image, and is different from the first face detector. A second face detector having detection accuracy and a region detected as a face region by the second face detector but not detected as a face region by the first face detector are extracted as undetected regions. Undetected area extraction means; and learning means for learning the first face detector based on the undetected area so that the undetected area is detected as a face area.

本発明によれば、第1の顔検出器によって検出することができなかった顔領域(未検出領域)に基づき第1の顔検出器の学習が行われるので、顔検出の対象となる頻度が高く、かつ、第1の顔検出器によって検出しにくい顔がある場合に、第1の顔検出器による当該顔の検出精度を高めることができる。   According to the present invention, since the learning of the first face detector is performed based on the face area (undetected area) that could not be detected by the first face detector, the frequency of the face detection target is increased. When there is a face that is high and difficult to detect by the first face detector, the detection accuracy of the face by the first face detector can be increased.

以下、添付図面を参照しながら本発明の実施形態について説明する。   Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings.

図1は、本発明に係る顔検出装置が搭載されたデジタルカメラの概略構成図である。   FIG. 1 is a schematic configuration diagram of a digital camera equipped with a face detection apparatus according to the present invention.

光学系1はレンズ、絞りで構成され、撮像部2はCCDやCMOSなどの電荷撮像素子で構成される。光学系1を介して撮像部2で撮影された画像は、A/Dコンバータ3でリアルタイムにデジタル信号に変換され、制御部4に送られる。   The optical system 1 includes a lens and a diaphragm, and the imaging unit 2 includes a charge imaging element such as a CCD or a CMOS. An image taken by the imaging unit 2 via the optical system 1 is converted into a digital signal in real time by the A / D converter 3 and sent to the control unit 4.

制御部4は、マイクロプロセッサを中心として構成され、一時メモリ41、速度重視顔検出器(第1の顔検出器)42、精度重視顔検出器(第2の顔検出器)43を備える。また、制御部4は、撮像部2で撮影された画像をスルー画像として一時メモリ41に逐次記録するとともに、スルー画像をカメラの背面に設けられた液晶モニタ5に表示する。カメラの上面及び背面にはボタン、ダイヤル等からなる操作部9が設けられており、ユーザーは液晶モニタ5に表示されるメニュー画面、撮影された画像のサムネイル画像等を見ながら各種操作を行うことができる。   The control unit 4 is configured around a microprocessor, and includes a temporary memory 41, a speed-oriented face detector (first face detector) 42, and an accuracy-oriented face detector (second face detector) 43. In addition, the control unit 4 sequentially records the images taken by the imaging unit 2 as a through image in the temporary memory 41 and displays the through image on a liquid crystal monitor 5 provided on the back of the camera. An operation unit 9 composed of buttons, dials, and the like is provided on the top and back of the camera, and the user can perform various operations while viewing the menu screen displayed on the liquid crystal monitor 5, thumbnail images of the captured images, and the like. Can do.

制御部4に接続される学習用画像データベース6には、複数の画像がそれぞれ顔画像、非顔画像のいずれかであることを示す教師信号と対応付けられた状態で格納されており、学習用画像データベース6は速度重視顔検出器42の学習を行う際に用いられる。速度重視顔検出器42の学習方法については後述する。   The learning image database 6 connected to the control unit 4 stores a plurality of images in association with a teacher signal indicating that each of the images is a face image or a non-face image. The image database 6 is used when the speed-oriented face detector 42 is learned. A learning method of the speed-oriented face detector 42 will be described later.

制御部4は、レリーズボタン7が押されるまでは、速度重視顔検出器42をスルー画像に対して適用し、スルー画像から顔領域を検出する。そして、制御部4は、検出された顔領域の位置(中心位置)、大きさに基づき、検出された顔領域に対してピント、露出値が最適になるように、自動焦点(AF)・自動露出(AE)制御部10に信号を送り、レンズの位置、絞りを調節する。   Until the release button 7 is pressed, the control unit 4 applies the speed-oriented face detector 42 to the through image and detects a face area from the through image. Then, the control unit 4 automatically focuses (AF) / automatically so that the focus and exposure values are optimized with respect to the detected face area based on the position (center position) and size of the detected face area. A signal is sent to the exposure (AE) control unit 10 to adjust the position and aperture of the lens.

本撮影はユーザーがレリーズボタン7を押すことで行われる。制御部4は、本撮影によって撮影された画像を本撮影画像としてフラッシュメモリ8に記録する。   The actual shooting is performed when the user presses the release button 7. The control unit 4 records an image photographed by the main photographing in the flash memory 8 as a main photographing image.

制御部4は、本撮影画像に対して精度重視顔検出器43を適用し、本撮影画像から顔領域を検出する。そして、制御部4は、速度重視顔検出器42の顔検出結果と精度重視顔検出器43の顔検出結果とを比較し、精度重視顔検出器43で顔領域として検出されたが速度重視顔検出器42では顔領域として検出されなかった領域を未検出領域として抽出し、抽出された未検出領域の画像を顔画像であることを示す教師信号の値1と対応づけて学習用画像データベース6に追加する。   The control unit 4 applies a precision-oriented face detector 43 to the actual captured image, and detects a face area from the actual captured image. Then, the control unit 4 compares the face detection result of the speed emphasis face detector 42 with the face detection result of the accuracy emphasis face detector 43, and the speed emphasis face detector 43 detects the face area. The detector 42 extracts an area that is not detected as a face area as an undetected area, and associates the extracted image of the undetected area with a value 1 of a teacher signal indicating that it is a face image. Add to

制御部4は、学習用画像データベース6に追加された画像の数が所定数に達したところで、追加された未検出領域の画像が顔領域として検出されるよう、速度重視顔検出器42の学習を行う。   When the number of images added to the learning image database 6 reaches a predetermined number, the control unit 4 learns the speed-oriented face detector 42 so that the added undetected area image is detected as a face area. I do.

速度重視顔検出器42と精度重視顔検出器43についてさらに説明すると、2つの顔検出器はいずれもViolaらが提案する方法を用いた顔検出器であり、Adaboostアルゴリズムによって生成される複数の識別器Hk(k=1〜S)を、図2に示すようにカスケード接続した構造を有している。 The speed-oriented face detector 42 and the accuracy-oriented face detector 43 will be further described. Both of the two face detectors are face detectors using the method proposed by Viola et al., And a plurality of identifications generated by the Adaboost algorithm. The apparatus H k (k = 1 to S) has a cascade connection structure as shown in FIG.

画像のある領域が顔領域か否かを判断するには、まず、1段目の識別器H1でその領域が顔領域か否か判定する。顔領域でないと判定した場合は処理を終了し、顔領域と判定した場合は2段目の識別器H2に進む。そして、2段目以降の識別器Hkでも顔領域か否かの判定を行い、顔領域でないと判定した場合は処理を終了し、顔領域と判定した場合のみ次の段へと進む。 In order to determine whether or not a certain area of the image is a face area, first, it is determined by the first-stage discriminator H 1 whether or not the area is a face area. If it is determined not to be a face region ends the process, if it is determined that the face area advances to the discriminator of H 2 2 stage. Then, it is determined whether the face area even classifier H k of the second and subsequent stages, when it is determined not to be a face region terminates the processing proceeds to the next stage only when it is determined that the face area.

したがって、顔判別器は、最終段の識別器HSまで顔領域であるとの判定が続いた場合のみその領域が顔領域であると判定するので、高い検出精度が得られる。その一方で、途中の段で顔領域でないと判定した場合は直ちに処理が終了するので、高い処理速度が得られる。 Therefore, since the face discriminator determines that the area is a face area only when it is determined that the area is a face area up to the final classifier H S , high detection accuracy can be obtained. On the other hand, if it is determined that the face area is not in the middle of the process, the processing is immediately terminated, so that a high processing speed can be obtained.

識別器Hkは、それぞれ複数の弱識別器を線形結合することによって構成される。弱識別器は図3に示すような黒矩形と白矩形からなる矩形フィルターと閾値θの組である。弱識別器は、矩形フィルターを顔検出の対象となる領域に重ね合わせ、黒矩形に対応する領域内の輝度値の和と白矩形に対応する領域内の輝度値の和との差が閾値θよりも大きいか判断し、閾値θよりも大きいときは顔であることを示す1、小さいときは非顔であることを示す0を出力する。 Each classifier H k is configured by linearly combining a plurality of weak classifiers. The weak classifier is a set of a rectangular filter composed of a black rectangle and a white rectangle as shown in FIG. The weak classifier superimposes the rectangular filter on the area to be face-detected, and the difference between the sum of the luminance values in the area corresponding to the black rectangle and the sum of the luminance values in the area corresponding to the white rectangle is the threshold θ. If it is larger than the threshold value θ, 1 indicating that it is a face is output, and if it is smaller, 0 indicating that it is a non-face is output.

顔検出の対象となる領域が識別器Hkに入力されると、識別器Hkは、弱識別器の出力にその弱識別器の信頼度αを掛けた値の総和を算出し、その総和から所定の閾値ThTを減じた値を確信度Conv(k)として算出する。確信度Conv(k)は、その領域に顔が含まれていることの確かさを表す値である。そして、識別器Hkは、確信度Conv(k)が正の場合は当該領域が顔領域と判定して+1を出力し、負の場合は非顔領域であると判定して−1の値を出力する。 When subject to areas of the face detection is inputted to the discriminator H k, identifier H k calculates the sum of values reliability multiplied by α for the weak discriminator to output a weak classifier, the sum Then, a value obtained by subtracting a predetermined threshold value Th T is calculated as the confidence level Conv (k). The certainty factor Conv (k) is a value representing the certainty that the face is included in the region. When the certainty factor Conv (k) is positive, the discriminator H k determines that the region is a face region and outputs +1, and when negative, determines that the region is a non-face region and has a value of −1. Is output.

図4は識別器Hkを生成する処理の内容を示したフローチャートである。識別器Hkを構成する弱識別器の選出はAdaboostアルゴリズムにより行われ、識別器Hkが学習用画像データベース6に格納されている画像に対して所望の精度で顔、非顔の判断ができるようになるまで繰り返される。添え字tは識別器Hkの更新回数(弱識別器を識別器Hkに追加した回数)であり、初期値は1である。 Figure 4 is a flow chart showing the contents of processing for generating an identifier H k. The weak classifiers constituting the classifier H k are selected by the Adaboost algorithm, and the classifier H k can determine a face or a non-face with desired accuracy with respect to an image stored in the learning image database 6. Repeat until The subscript t is the number of times the classifier H k has been updated (the number of times the weak classifier has been added to the classifier H k ). The initial value is 1.

これによると、まず、ステップS1では、次式(1)により、学習用画像データベース6に格納されている各画像の重みを初期値W1(i)に設定する。iは各画像に割り当てられる通し番号であり、Nは学習用画像データベース6に格納されている画像の総数である。 According to this, first, in step S1, the weight of each image stored in the learning image database 6 is set to the initial value W 1 (i) by the following equation (1). i is a serial number assigned to each image, and N is the total number of images stored in the learning image database 6.

Figure 2009009456
ステップS2では、様々な弱識別器を全画像に対して適用し、次式(2)により誤り率εtを算出する。
Figure 2009009456
In step S2, various weak classifiers are applied to all images, and an error rate ε t is calculated by the following equation (2).

Figure 2009009456
ステップS3では、誤り率εtが最小になる弱識別器を、識別器Hkを構成する弱識別器htとして選出する。そして、選出された弱識別器htを識別器Hkに追加し、識別器Hkを更新する。
Figure 2009009456
In step S3, the weak classifier that minimizes the error rate ε t is selected as the weak classifier h t constituting the classifier H k . Then, add the elected weak classifier h t the discriminator H k, updating the classifier H k.

ステップS4では、選出された弱識別器htの誤り率εtに基づき、次式(3)により選出された弱識別器htの信頼度αtを算出する。 In step S4, based on the error rate epsilon t the elected weak classifier h t, it calculates the reliability alpha t of the weak classifier h t elected by the following equation (3).

Figure 2009009456
ステップS5では、選出された弱識別器htの信頼度αtに基づき、弱識別器htが判定を誤った画像の重みWt(i)を次式(4)により増加させ、逆に、判定が正しかった画像の重みWt(i)を次式(5)によって減少させる。さらに、更新後の重みWt(i)をそれらの総和で割って重みWt(i)を正規化する。
Figure 2009009456
In step S5, based on the reliability alpha t the elected weak classifier h t, it is increased by the following equation (4) the weight W t of the image weak classifier h t is the wrong decision (i), the opposite The weight W t (i) of the image for which the determination is correct is reduced by the following equation (5). Further, the weight W t (i) after the update is divided by the sum of them to normalize the weight W t (i).

Figure 2009009456
Figure 2009009456

Figure 2009009456
ステップS6では、次式(6)により、弱識別器htを全画像に適用し、その結果に対応する信頼度αtを掛けた値の総和を求め、その総和から閾値ThTを引いた値を確信度Conv(k)として算出する。xは画像の輝度情報である。確信度Conv(k)は、0から1の間に正規化されるように、シグモイド関数を施してもよく、最大値で割ってもよい。
Figure 2009009456
In step S6, by the following equation (6), applying a weak classifier h t the entire image, the total sum of the value obtained by multiplying the reliability alpha t corresponding to the result, by subtracting the threshold Th T from the sum The value is calculated as the certainty factor Conv (k). x is the luminance information of the image. The certainty factor Conv (k) may be subjected to a sigmoid function so as to be normalized between 0 and 1, and may be divided by the maximum value.

Figure 2009009456
ステップS7では、全画像について確信度Conv(k)の符号の正負に応じて顔検出対象となる領域が顔領域か否かを判断する。そして、顔領域、非顔領域の判断が正しく行われた画像の数を学習用画像データベースに格納されている画像の総数Nで割って、検出精度を算出する。
Figure 2009009456
In step S7, it is determined whether or not the area to be face-detected is a face area according to the sign of the certainty factor Conv (k) for all images. Then, the detection accuracy is calculated by dividing the number of images in which the determination of the face area and the non-face area is correctly performed by the total number N of images stored in the learning image database.

ステップS8では、所望の検出精度が得られているか判断する。所望の検出精度が得られている場合はステップS9に進む。   In step S8, it is determined whether a desired detection accuracy is obtained. If the desired detection accuracy is obtained, the process proceeds to step S9.

ステップS9では、次式(7)により識別器Hkを構成する。 In step S9, the discriminator Hk is configured by the following equation (7).

Figure 2009009456
識別器Hkは、画像のある領域の輝度情報が入力されると式(6)により確信度Conv(k)を算出し、確信度Conv(k)の符号が正の場合は当該領域が顔領域と判定して+1を出力し、負の場合は非顔領域と判定して−1を出力する。
Figure 2009009456
When the luminance information of a certain area of the image is input, the discriminator H k calculates the certainty factor Conv (k) according to the equation (6). If the sign of the certainty factor Conv (k) is positive, the region is the face The area is determined to be +1, and if it is negative, it is determined to be a non-face area and -1 is output.

なお、通常、カスケード処理では前段の情報を持ち越さない場合が多いが、識別器Hkにおいて1段目からk段目の確信度Conv(k)の総和を次式(8)により算出し、Convsumの符号によって顔領域、非顔領域を判断するようにしてもよい。このように確信度Conv(k)の総和をとり、以前の段で算出した確信度も反映させたほうが、経験上、高い検出精度を得ることができることがわかっている。 Usually, in cascade processing, the previous stage information is often not carried over, but in the classifier H k , the sum of confidence levels Conv (k) from the first stage to the kth stage is calculated by the following equation (8), and Convsum The face area and the non-face area may be determined based on the reference numeral. In this way, it is known from experience that high detection accuracy can be obtained by taking the sum of the certainty levels Conv (k) and reflecting the certainty levels calculated in the previous stage.

Figure 2009009456
一方、ステップS8で所望の検出精度が得られていないと判断された場合は、更新回数tに1が加算され、ステップS2に戻って新たな弱識別器の選出及び選出した弱識別器の識別器Hkへの追加が行われる。弱識別器の追加は所望の検出精度が得られるまで繰り返し行われる。
Figure 2009009456
On the other hand, if it is determined in step S8 that the desired detection accuracy is not obtained, 1 is added to the update count t, and the process returns to step S2 to select a new weak classifier and identify the selected weak classifier. Addition to vessel H k is performed. The addition of the weak classifier is repeatedly performed until a desired detection accuracy is obtained.

速度重視顔検出器42と精度重視顔検出器43は、いずれも上記手順を経て構成されるが、両検出器42、43の違いは、例えば、弱識別器の閾値θを変えることによって得られる。   Both the speed-oriented face detector 42 and the accuracy-oriented face detector 43 are configured through the above-described procedure, but the difference between the two detectors 42 and 43 is obtained, for example, by changing the threshold value θ of the weak classifier. .

例えば、閾値θを図5に示すように低めの値θAに設定すると、顔を含む領域をほぼ正しく顔領域と判定するが、顔を含まない領域を顔領域と誤判定してしまう率が高い弱識別器が得られる。精度重視顔検出器43を構成する識別器はこのような弱識別器を多数組み合わせることで構成され、顔領域、非顔領域を高い精度で認識する。ただし、識別器を構成する弱識別器の数が多い分、処理は遅くなる。 For example, when the threshold value θ is set to a low value θ A as shown in FIG. 5, a region that includes a face is determined as a face region almost correctly, but a region that does not include a face is erroneously determined as a face region. A high weak classifier is obtained. The classifier constituting the accuracy-oriented face detector 43 is configured by combining a number of such weak classifiers, and recognizes a face area and a non-face area with high accuracy. However, since the number of weak classifiers constituting the classifier is large, processing is slowed down.

一方、閾値θを高めのθBに設定すれば、顔を含む領域を正しく顔領域と判定する率、顔を含まない領域を非顔領域と判定する率ともにある程度高い弱識別器となる。したがって、このような弱識別器を少ない個数組み合わせれば、未検出と過検出がやや多めではあるが処理の速い識別器が得られ、速度重視顔判別器42はこのような識別器を組み合わせて構成される。 On the other hand, if the threshold value θ is set to a higher θ B , a weak discriminator having a relatively high rate at which an area including a face is correctly determined as a face area and an area at which a face is not included is determined as a non-face area. Therefore, if a small number of such weak classifiers are combined, a classifier having a relatively high number of undetected and overdetected but a fast process can be obtained, and the speed-oriented face classifier 42 combines such classifiers. Composed.

なお、精度重視顔検出器43は、例えば、公知のガボールフィルターとグラフマッチング処理を組み合わせた方法とViolaらが提案する方法の2つを併用する等、異なる方法を組み合わせたものであってもよい。   Note that the accuracy-oriented face detector 43 may be a combination of different methods, for example, a combination of a known Gabor filter and graph matching processing and a method proposed by Viola et al. .

続いて撮影時のデジタルカメラの撮影時の処理内容について説明する。   Next, processing contents at the time of shooting by the digital camera at the time of shooting will be described.

図6は制御部4の処理内容を示したフローチャートである。この処理は、デジタルカメラが撮影モードにあるときに、制御部4において繰り返し実行される。   FIG. 6 is a flowchart showing the processing contents of the control unit 4. This process is repeatedly executed by the control unit 4 when the digital camera is in the shooting mode.

これによると、ステップS11では、撮像部2でスルー画像を撮影し、液晶モニタ5に撮影したスルー画像を表示する。   According to this, in step S <b> 11, a through image is captured by the imaging unit 2, and the captured through image is displayed on the liquid crystal monitor 5.

ステップS12では、一時メモリ41に格納されているスルー画像を消去し、新たに撮影されたスルー画像を一時メモリ41に保存する。   In step S <b> 12, the through image stored in the temporary memory 41 is deleted, and the newly captured through image is stored in the temporary memory 41.

ステップS13では、一時メモリ41に保存されているスルー画像に対して速度重視顔検出器42を適用し、スルー画像から顔領域を検出する。顔領域が検出された場合は、液晶モニタ5に当該領域を囲む矩形の枠を表示し、ユーザーに顔領域が検出されたことを示す。   In step S13, the speed-oriented face detector 42 is applied to the through image stored in the temporary memory 41, and a face area is detected from the through image. When a face area is detected, a rectangular frame surrounding the area is displayed on the liquid crystal monitor 5 to indicate to the user that the face area has been detected.

ステップS14では、検出された顔領域の位置、大きさ情報に基づき、AF・AE制御部10を介してレンズ位置、絞りを調節し、検出された顔領域についてピント、露出値を最適化する。   In step S14, the lens position and the aperture are adjusted via the AF / AE control unit 10 based on the detected position and size information of the face area, and the focus and exposure values are optimized for the detected face area.

ステップS15ではレリーズボタン7が押されたか判断する。レリーズボタン7が押された場合はステップS16に進む。そうでない場合はステップS11に戻り、スルー画像の撮影及びスルー画像からの顔領域の検出を繰り返す。   In step S15, it is determined whether the release button 7 has been pressed. If the release button 7 has been pressed, the process proceeds to step S16. Otherwise, the process returns to step S11, and the capturing of the through image and the detection of the face area from the through image are repeated.

ステップS16では本撮影を行う。このとき、速度重視顔検出器42で検出された顔領域について既にピント、露出値が既に最適化されているので、本撮影では被写体となっている人物の顔が綺麗に撮影される。   In step S16, actual photographing is performed. At this time, since the focus and exposure values have already been optimized for the face area detected by the speed-oriented face detector 42, the face of the person who is the subject is photographed beautifully in the main photographing.

ステップS17では撮影された画像を本撮影画像としてフラッシュメモリ8に保存する。本撮影画像は直前に撮影されたスルー画像と略同一の画像である。   In step S17, the captured image is stored in the flash memory 8 as a main captured image. The actual captured image is substantially the same as the through image captured immediately before.

ステップS18ではフラッシュメモリ8に保存されている本撮影画像に対して精度重視顔検出器43を適用し、本撮影画像から顔領域を検出する。   In step S18, the accuracy-oriented face detector 43 is applied to the actual captured image stored in the flash memory 8, and a face area is detected from the actual captured image.

ステップS19では、2つの検出器42、43の検出結果を比較し、精度重視顔検出器43で顔領域として検出されたが速度重視顔検出器42では顔領域として検出されなかった領域を未検出領域として抽出する。図7はそのときの様子を示したものである。この例では、被写体となっている3人の顔のうち、画面右下の人物の顔を囲む矩形領域が未検出領域として抽出される。   In step S19, the detection results of the two detectors 42 and 43 are compared, and an area that is detected as a face area by the accuracy-oriented face detector 43 but not detected as a face area by the speed-oriented face detector 42 is not detected. Extract as a region. FIG. 7 shows the state at that time. In this example, a rectangular area surrounding the face of the person at the lower right of the screen is extracted as an undetected area among the three faces as subjects.

ステップS20では、抽出された未検出領域の画像が、顔画像であることを示す教師信号の値1と対応付けられ、学習用画像データベース6に格納される。   In step S <b> 20, the extracted image of the undetected area is associated with a teacher signal value 1 indicating that it is a face image and stored in the learning image database 6.

なお、未検出領域の画像を無条件に学習用画像データベース6に顔画像として格納するようにすると、精度重視顔検出器43が顔を含まない領域を顔領域であると誤判定した場合に非顔画像が顔画像として学習用画像データベース6に格納されてしまい、その後の速度重視顔検出器42の学習結果に悪影響を及ぼす。   If the image of the undetected area is unconditionally stored as a face image in the learning image database 6, it is not used when the accuracy-oriented face detector 43 erroneously determines that the area not including the face is a face area. The face image is stored as a face image in the learning image database 6 and adversely affects the subsequent learning result of the speed-oriented face detector 42.

そこで、ステップS20では、抽出された未検出領域が、精度重視顔検出器43で顔と判定されたときの確信度が所定値以上か否かを判断し、所定値以上である場合に抽出された未検出領域の画像を学習用画像データベース6に格納するようにしてもよい。   Therefore, in step S20, it is determined whether or not the degree of certainty when the extracted undetected area is determined to be a face by the accuracy-oriented face detector 43 is greater than or equal to a predetermined value. Alternatively, the image of the undetected area may be stored in the learning image database 6.

あるいは、抽出された未検出領域の画像を液晶モニタ5に表示し、ユーザーが当該画像に顔が含まれていることを確認した上で、ユーザーが操作部9を操作し、抽出された未検出領域の画像を顔画像として学習用画像データベース6に追加するようにしてもよい。このとき、未検出領域に顔が含まれていない場合は、当該画像を非顔画像であることを示す教師信号の値0と対応付け、非顔画像として学習用画像データベース6に追加するようにしてもよい。   Alternatively, the extracted image of the undetected area is displayed on the liquid crystal monitor 5, and after the user confirms that the face is included in the image, the user operates the operation unit 9 to extract the undetected area. The image of the area may be added to the learning image database 6 as a face image. At this time, if a face is not included in the undetected area, the image is associated with a teacher signal value 0 indicating that it is a non-face image and added to the learning image database 6 as a non-face image. May be.

ステップS21では、追加された画像の個数が所定数に達したか判断し、所定数に達している場合は速度重視顔検出器42の学習を行う。追加された画像の個数が所定数に達した場合に学習を行うのは、学習による演算負荷を考慮したものである。   In step S21, it is determined whether or not the number of added images has reached a predetermined number. If the predetermined number has been reached, the speed-oriented face detector 42 is trained. Learning is performed when the number of added images reaches a predetermined number in consideration of the computation load due to learning.

速度重視顔検出器42の学習は、未検出領域の画像が追加された学習用画像データベース6を用い、図4に示した処理を再度実行して速度重視顔検出器42を作り直すことで行われる。学習は未検出領域が顔領域として検出されるように行われるので、作り直された速度重視顔検出器42では、それまで顔領域として検出されなかった未検出領域の画像が顔領域として検出されるようになる。   Learning of the speed-oriented face detector 42 is performed by using the learning image database 6 to which an image of an undetected area is added and executing the process shown in FIG. 4 again to recreate the speed-oriented face detector 42. . Since the learning is performed so that the undetected area is detected as the face area, the recreated speed-oriented face detector 42 detects the image of the undetected area that has not been detected as the face area until now as the face area. It becomes like this.

ステップ22では撮影を終了するか判断し、撮影を終了する場合は処理を終了し、終了しない場合はステップS11に戻る。   In step 22, it is determined whether or not the shooting is to be ended. If the shooting is to be ended, the process is ended.

以上の構成によれば、速度重視顔検出器42で未検出領域が発生すると、当該未検出領域が顔領域として検出されるよう速度重視顔検出器42の学習が行われる。学習は実際に撮影された人物の顔に基づき行われるので、学習が進むにつれ、被写体となる頻度の高い人物の顔の検出精度が向上する。また、速度重視顔検出器42の学習はユーザーが意識しないうちに行われ、ユーザーへの負担も少ない。   According to the above configuration, when an undetected area is generated in the speed-oriented face detector 42, the speed-oriented face detector 42 is learned so that the undetected area is detected as a face area. Since the learning is performed based on the face of the actually photographed person, the detection accuracy of the face of the person who frequently becomes the subject improves as the learning progresses. Further, the learning of the speed-oriented face detector 42 is performed before the user is conscious, and the burden on the user is small.

なお、上記実施形態では、スルー画像に対して速度重視顔検出器42、本撮影画像に対して精度重視顔検出器43を適用しているが、同一ないし略同一の画像に対して顔検出器42、43を適用する構成であればよく、例えば、同一の本撮影画像に対して顔検出器42、43を適用しても同様の学習が可能である。   In the above embodiment, the speed-oriented face detector 42 is applied to the through image and the accuracy-oriented face detector 43 is applied to the actual captured image, but the face detector is applied to the same or substantially the same image. For example, the same learning is possible even if the face detectors 42 and 43 are applied to the same actual captured image.

学習により検出精度の向上が期待できる対象は特定の人物の顔に限らない。例えば、犬、猫等のペットの写真をよく撮影する場合でも、ペットの顔を精度重視顔検出器43で検出することができれば、撮影されたペットの顔の画像が顔画像として学習用画像データベースk6に追加され、速度重視顔検出器42の学習が行われるので、速度重視顔検出器42によるペットの顔の検出精度を向上させることも可能である。   An object whose detection accuracy can be improved by learning is not limited to a specific person's face. For example, even when a photograph of a pet such as a dog or a cat is often taken, if the pet face can be detected by the accuracy-oriented face detector 43, the photographed pet face image is used as a learning image database. In addition to k6, learning of the speed-oriented face detector 42 is performed, so that the accuracy of detection of the pet's face by the speed-oriented face detector 42 can be improved.

また、ここでは速度重視顔検出器42を構成する識別器Hkを作り直すことで学習しているが、学習の方法はこれに限らない。例えば、非顔と判定された領域が正しく顔領域として検出されるように、誤った検出を行った弱識別器の閾値θや信頼度αの値を変更するようにしてもよい。この方法によれば、速度重視顔検出器42を作り直す学習方法にくらべ、演算負荷を下げることができる。 Although here are learning to recreate the identifier H k constituting the speed-oriented face detector 42, a method of learning is not limited to this. For example, the threshold value θ and the reliability α of the weak classifier that performed the erroneous detection may be changed so that the area determined to be a non-face is correctly detected as the face area. According to this method, the calculation load can be reduced as compared with the learning method for remaking the speed-oriented face detector 42.

あるいは、識別器Hkを作り直す場合であっても、顔を含むにも関わらず非顔領域と判定された領域の画像に対する重みについては、他の画像に対する重みとは異なる制限を加える等の改変が可能である。例えば、非顔領域と判定されてしまった顔画像の重みについては、学習の途中で正しい判定を行った場合であっても、一定値よりも小さくならないような制限を加えたり、更新時には、常に、一定値より大きくなるような制限を加えたりする。こうすることで、この画像に対して正しい判定が行えるよう学習が進むことが期待される。 Or, even when re-creating the classifier H k , the weight for the image of the area determined to be a non-face area even though it includes a face is modified such that a restriction different from the weight for the other image is added. Is possible. For example, for the weight of a face image that has been determined to be a non-face area, even if correct determination is performed during learning, a restriction that does not become smaller than a certain value is added, or when updating, always , Or add restrictions that are larger than a certain value. By doing so, it is expected that learning proceeds so that correct determination can be performed on this image.

また、学習処理は制御部4の負担が大きいので、デジタルカメラの充電中等に学習させるようにしても良い。デジタルカメラの充電中等のユーザーが撮影を行わない時期に学習を行わせることで、学習による演算負荷が撮影動作に影響を及ぼすのを防止することができる。なお、学習のための演算は、制御部4ではなくデジタルカメラの充電器やクレードル側に設けられたプロセッサで行うようにしてもかまわない。   In addition, since the learning process is heavy on the control unit 4, the learning process may be performed while the digital camera is being charged. By performing learning at a time when the user does not perform shooting such as during charging of the digital camera, it is possible to prevent the calculation load due to learning from affecting the shooting operation. Note that the calculation for learning may be performed not by the control unit 4 but by a digital camera charger or a processor provided on the cradle side.

また、顔検出器をViolaらが提案する方法によらず他の方法によって構成してもかまわない。顔検出器は、例えば、ニューラルネットワークにより構成してもよく、この場合、学習は、顔を含むにも関わらず非顔画像と判定されてしまった画像を顔検出器に与え、正しく顔であるという判定値の+1が出力されるように、中間層等の重みパラメータを更新すればよい。   Further, the face detector may be configured by other methods without depending on the method proposed by Viola et al. For example, the face detector may be configured by a neural network. In this case, learning gives the face detector an image that has been determined to be a non-face image even though it includes a face, and is a correct face. The weight parameter such as the intermediate layer may be updated so that the determination value +1 is output.

また、図8に示すように、デジタルカメラ外部のネットワークに接続するための無線LAN、Bluetooth等の通信装置からなる通信部11を設け、インターネット等のネットワークを通じて外部のサーバーから最新の学習結果を取り込み、最新の学習結果に基づき精度重視顔検出器43を更新するようにしてもよい。   In addition, as shown in FIG. 8, a communication unit 11 including a communication device such as a wireless LAN or Bluetooth for connecting to a network outside the digital camera is provided, and the latest learning result is captured from an external server through a network such as the Internet. The accuracy-oriented face detector 43 may be updated based on the latest learning result.

精度重視顔検出器43の検出精度が向上すれば、速度重視顔検出器42で検出できなかった顔領域を精度重視顔検出器43で検出できる可能性が高くなり、速度重視顔検出器42の学習がさらに進むので、結果として、被写体となる頻度の高い人物の顔の速度重視顔検出器42による検出精度をさらに上げることができる。   If the detection accuracy of the accuracy-oriented face detector 43 is improved, the possibility that the accuracy-oriented face detector 43 can detect a face area that cannot be detected by the speed-oriented face detector 42 increases. Since learning further proceeds, as a result, it is possible to further improve the accuracy of detection by the speed-oriented face detector 42 of the face of a person who frequently becomes a subject.

さらに、速度重視顔検出器42の未検出領域を、ネットワークを通じてサービスセンターに伝送するように構成し、サービスセンターのオペレータが顔領域、非顔領域の判定を行うようにしても良い。判定結果はネットワークを通じて教師信号としてデジタルカメラの制御部4に戻され、未検出領域の画像と対応付けられた状態で学習用画像データベース6に追加される。   Further, the undetected area of the speed-oriented face detector 42 may be configured to be transmitted to the service center through the network, and the operator of the service center may determine the face area and the non-face area. The determination result is returned to the control unit 4 of the digital camera as a teacher signal through the network, and added to the learning image database 6 in a state associated with the image of the undetected area.

この方法によれば、ユーザーの操作負担を増やすことなく、顔を含まない領域の画像が顔画像であるとして学習用画像データベース6に追加されるのを防止し、速度重視顔検出器42の学習に悪影響を及ぼすのを防止できる。   According to this method, it is possible to prevent the image of the area not including the face from being added to the learning image database 6 as a face image without increasing the operation burden on the user, and to learn the speed-oriented face detector 42. Can be adversely affected.

また、速度重視顔検出器42の学習が進みすぎると、普段撮影しない人物の顔の検出精度が下がるため、撮影シーンによっては顔検出が正しく行われない可能性がある。これを回避するには図9に示すように、2つの速度重視顔検出器42、44を用意しておき、一方の速度重視顔検出器42に対してのみ学習を行い、他方の速度重視顔検出器(第3の顔検出器)43に対しては学習を行わないようにする。そして、ユーザーが撮影シーンに応じて学習後の速度重視顔検出器42、未学習の速度重視顔検出器44のいずれかを操作部9を操作することで選択できるようにする。   Also, if the speed-oriented face detector 42 learns too much, the detection accuracy of a person's face that is not normally photographed decreases, and face detection may not be performed correctly depending on the shooting scene. In order to avoid this, as shown in FIG. 9, two speed-oriented face detectors 42 and 44 are prepared, learning is performed only for one speed-oriented face detector 42, and the other speed-oriented face detector 42 is used. Learning is not performed for the detector (third face detector) 43. Then, the user can select either the learned speed-oriented face detector 42 after learning or the unlearned speed-oriented face detector 44 by operating the operation unit 9 according to the shooting scene.

この構成によれば、未学習の速度重視顔検出器44を選択するようにすれば、未学習の速度重視顔検出器44を用いてスルー画像から顔検出が行われるので、普段撮影しない人物を撮影する場合であっても所定レベル以上の検出精度が得られる。   According to this configuration, if the unlearned speed-oriented face detector 44 is selected, face detection is performed from the through image using the unlearned speed-oriented face detector 44. Even when shooting, detection accuracy of a predetermined level or higher can be obtained.

また、学習用画像データベース6に格納されている画像をメンテナンスする機能をデジタルカメラに持たせるようにしてもよい。例えば、液晶モニタ5に学習用画像データベース6に格納されている画像を教師信号とともにサムネイル表示し、顔を含まない画像の教師信号の値が顔画像を示す1になっている場合は、ユーザーが操作部9を操作することで、当該画像の教師信号の値を0に書き換える(その逆も可)、あるいは、当該画像を学習用画像データベース6から削除できるようにしてもよい。これにより、被写体となる頻度の高い人物の顔の検出精度をさらに上げることが可能である。   Further, the digital camera may be provided with a function for maintaining the images stored in the learning image database 6. For example, when the image stored in the learning image database 6 is displayed as a thumbnail together with the teacher signal on the liquid crystal monitor 5 and the value of the teacher signal of the image not including the face is 1 indicating the face image, the user By operating the operation unit 9, the value of the teacher signal of the image may be rewritten to 0 (or vice versa), or the image may be deleted from the learning image database 6. As a result, it is possible to further improve the accuracy of detecting the face of a person who frequently becomes a subject.

以上、本発明の実施形態について説明したが、上記実施形態は本発明の適用例の一つを示したに過ぎず、本発明の技術的範囲を上記実施形態の具体的構成に限定する趣旨ではない。   The embodiment of the present invention has been described above. However, the above embodiment is merely one example of application of the present invention, and the technical scope of the present invention is limited to the specific configuration of the above embodiment. Absent.

本発明に係る顔検出装置を備えたデジタルカメラの概略構成図である。It is a schematic block diagram of the digital camera provided with the face detection apparatus which concerns on this invention. 顔検出器を説明するための図である。It is a figure for demonstrating a face detector. 弱識別器を構成する矩形フィルターの例である。It is an example of the rectangular filter which comprises a weak discriminator. 識別器を生成する処理の内容を示したフローチャートである。It is the flowchart which showed the content of the process which produces | generates a discriminator. 閾値の大小と認識されるサンプル数の関係を示した図である。It is the figure which showed the relationship between the number of samples recognized as the magnitude of a threshold value. 撮影時の制御部の処理内容を示したフローチャートである。It is the flowchart which showed the processing content of the control part at the time of imaging | photography. 2つの顔検出器による顔検出結果のイメージである。It is an image of the face detection result by two face detectors. 本発明の一部変更例である。It is a partial modification of this invention. 同じく本発明の一部変更例である。Similarly, this is a partial modification of the present invention.

符号の説明Explanation of symbols

4 制御部
6 学習用画像データベース
42 速度重視顔検出器(第1の顔検出器)
43 精度重視顔検出器(第2の顔検出器)
44 速度重視顔検出器(第3の顔検出器)
4 Control unit 6 Learning image database 42 Speed-oriented face detector (first face detector)
43 Precision-oriented face detector (second face detector)
44 Speed-sensitive face detector (third face detector)

Claims (7)

画像から顔領域を検出する第1の顔検出器と、
前記画像と同一ないし略同一の画像から顔領域を検出し、前記第1の顔検出器とは異なる検出精度を有する第2の顔検出器と、
前記第2の顔検出器では顔領域として検出されたが前記第1の顔検出器では顔領域として検出されなかった領域を未検出領域として抽出する未検出領域抽出手段と、
前記未検出領域に基づき、前記未検出領域が顔領域として検出されるように前記第1の顔検出器の学習を行う学習手段と、
を備えたことを特徴とする顔検出装置。
A first face detector for detecting a face region from an image;
A second face detector that detects a face region from the same or substantially the same image as the image and has a detection accuracy different from that of the first face detector;
Undetected area extracting means for extracting, as an undetected area, an area detected as a face area by the second face detector but not detected as a face area by the first face detector;
Learning means for learning the first face detector based on the undetected area so that the undetected area is detected as a face area;
A face detection apparatus comprising:
顔画像を複数格納する学習用画像データベースと、
前記未検出領域の画像を前記学習用画像データベースに追加する画像追加手段と、
を備え、
前記学習手段は、前記未検出領域の画像が追加された前記学習用画像データベースを用いて前記第1の顔検出器の学習を行う、
ことを特徴とする請求項1に記載の顔検出装置。
A learning image database for storing a plurality of face images;
Image adding means for adding the image of the undetected area to the learning image database;
With
The learning means learns the first face detector using the learning image database to which an image of the undetected region is added.
The face detection apparatus according to claim 1.
前記未検出領域に顔が含まれることの確からしさを示す確信度を算出する確信度算出手段を備え、
前記画像追加手段は、前記確信度が所定値よりも大きい場合に前記未検出領域の画像を前記学習用画像データベースに追加する、
ことを特徴とする請求項1または2に記載の顔検出装置。
Comprising a certainty factor calculating means for calculating a certainty factor indicating the certainty that the face is included in the undetected region;
The image adding means adds the image of the undetected area to the learning image database when the certainty factor is larger than a predetermined value.
The face detection apparatus according to claim 1 or 2, wherein
前記未検出領域に顔が含まれるか否かを確認する確認手段を備え、
前記画像追加手段は、前記未検出領域に顔が含まれることが確認された場合に前記未検出領域の画像を前記学習用画像データベースに追加する、
ことを特徴とする請求項1または2に記載の顔検出装置。
Confirmation means for confirming whether or not a face is included in the undetected region,
The image adding means adds an image of the undetected area to the learning image database when it is confirmed that a face is included in the undetected area.
The face detection apparatus according to claim 1 or 2, wherein
前記顔検出装置はデジタルカメラに搭載され、
前記第1の顔検出器は前記デジタルカメラのスルー画像から顔領域を検出し、
前記第2の顔検出器は前記デジタルカメラの本撮影画像から顔領域を検出する、
ことを特徴とする請求項1から4のいずれか一つに記載の顔検出装置。
The face detection device is mounted on a digital camera,
The first face detector detects a face area from a through image of the digital camera;
The second face detector detects a face area from a real captured image of the digital camera;
The face detection apparatus according to claim 1, wherein the face detection apparatus is a part of the face detection apparatus.
画像から顔領域を検出する第3の顔検出器と、
前記第1の顔検出器、前記第3の顔検出器のいずれを用いて顔検出を行うかを選択する選択手段と、
を備えたことを特徴とする請求項1または5のいずれか一つに記載の顔検出装置。
A third face detector for detecting a face area from the image;
Selecting means for selecting whether to perform face detection using the first face detector or the third face detector;
The face detection device according to claim 1, further comprising:
画像から顔領域を検出する第1の顔検出処理と、
前記画像と同一ないし略同一の画像から顔領域を検出し、前記第1の顔検出処理とは異なる検出精度を有する第2の顔検出処理と、
前記第2の顔検出器では顔領域として検出されたが前記第1の顔検出器では顔領域として検出されなかった領域を未検出領域として抽出する未検出領域抽出処理と、
前記未検出領域に基づき、前記未検出領域が顔領域として検出されるように前記第1の顔検出器の学習を行う学習処理と、
を含むことを特徴とする顔検出プログラム。
A first face detection process for detecting a face area from an image;
A second face detection process that detects a face region from an image that is the same or substantially the same as the image, and has a detection accuracy different from the first face detection process;
An undetected area extraction process for extracting an area detected as a face area in the second face detector but not detected as a face area in the first face detector;
A learning process for learning the first face detector based on the undetected area so that the undetected area is detected as a face area;
A face detection program comprising:
JP2007171759A 2007-06-29 2007-06-29 Face detection device and face detection program Expired - Fee Related JP4818997B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2007171759A JP4818997B2 (en) 2007-06-29 2007-06-29 Face detection device and face detection program
PCT/JP2008/060720 WO2009004901A1 (en) 2007-06-29 2008-06-05 Face detection device, digital camera, and face detection program
US12/647,890 US8643738B2 (en) 2007-06-29 2009-12-28 Face detection device, digital camera, and computer readable storage medium which stores a face detection program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007171759A JP4818997B2 (en) 2007-06-29 2007-06-29 Face detection device and face detection program

Publications (2)

Publication Number Publication Date
JP2009009456A true JP2009009456A (en) 2009-01-15
JP4818997B2 JP4818997B2 (en) 2011-11-16

Family

ID=40324452

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007171759A Expired - Fee Related JP4818997B2 (en) 2007-06-29 2007-06-29 Face detection device and face detection program

Country Status (1)

Country Link
JP (1) JP4818997B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013033331A (en) * 2011-08-01 2013-02-14 Universal Entertainment Corp Identifying device and identifying program
JP2013122723A (en) * 2011-12-12 2013-06-20 Seiko Epson Corp Detection device and detection method
JP2016535888A (en) * 2013-11-07 2016-11-17 同方威視技術股▲分▼有限公司 Detection method and apparatus
JP2019197471A (en) * 2018-05-11 2019-11-14 トヨタ自動車株式会社 Autonomous mobile system, autonomous mobile body, charging doc, control method, and program

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007128127A (en) * 2005-11-01 2007-05-24 Fujifilm Corp Face detection method, device, and program
JP2008311921A (en) * 2007-06-14 2008-12-25 Fujifilm Corp Imaging apparatus

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007128127A (en) * 2005-11-01 2007-05-24 Fujifilm Corp Face detection method, device, and program
JP2008311921A (en) * 2007-06-14 2008-12-25 Fujifilm Corp Imaging apparatus

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013033331A (en) * 2011-08-01 2013-02-14 Universal Entertainment Corp Identifying device and identifying program
JP2013122723A (en) * 2011-12-12 2013-06-20 Seiko Epson Corp Detection device and detection method
JP2016535888A (en) * 2013-11-07 2016-11-17 同方威視技術股▲分▼有限公司 Detection method and apparatus
US10013615B2 (en) 2013-11-07 2018-07-03 Nuctech Company Limited Inspection methods and devices
JP2019197471A (en) * 2018-05-11 2019-11-14 トヨタ自動車株式会社 Autonomous mobile system, autonomous mobile body, charging doc, control method, and program
JP7052546B2 (en) 2018-05-11 2022-04-12 トヨタ自動車株式会社 Autonomous mobile systems, autonomous mobiles, charging docks, control methods, and programs

Also Published As

Publication number Publication date
JP4818997B2 (en) 2011-11-16

Similar Documents

Publication Publication Date Title
US9338311B2 (en) Image-related handling support system, information processing apparatus, and image-related handling support method
US8477993B2 (en) Image taking apparatus and image taking method
US7672580B2 (en) Imaging apparatus and method for controlling display device
US9013589B2 (en) Digital image processing apparatus and digital image processing method capable of obtaining sensibility-based image
US9041832B2 (en) Imaging apparatus and method for controlling the same
EP2104058A1 (en) Priority target determining device, electronic equipment, priority target determining method, program, and recording medium
KR101710626B1 (en) Digital photographing apparatus and control method thereof
WO2009004901A1 (en) Face detection device, digital camera, and face detection program
KR101762769B1 (en) Apparatus and method for capturing subject in photographing device
US8558935B2 (en) Scene information displaying method and apparatus and digital photographing apparatus using the scene information displaying method and apparatus
CN106131441A (en) Photographic method and device, electronic equipment
WO2023071933A1 (en) Camera photographing parameter adjustment method and apparatus and electronic device
JP2020123174A (en) Image file generating apparatus, image file generating method, image management apparatus, and image management method
JP4818997B2 (en) Face detection device and face detection program
JP7403995B2 (en) Information processing device, control method and program
JP4772756B2 (en) Imaging apparatus and imaging program
JP6270578B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM
JP2020119322A (en) Learning requesting device and method for requesting learning
JP2018084861A (en) Information processing apparatus, information processing method and information processing program
US8736693B2 (en) Digital photographing apparatus that corrects hand shake, method of controlling the same, and recording medium storing the method
JP5222429B2 (en) Subject tracking device and control method thereof
JP2013157675A (en) Imaging device, method for controlling the same, program, and storage medium
JP7046340B2 (en) Image processing device, terminal, image processing method, program
JP6833607B2 (en) Control device, image pickup device, control method, program, and storage medium
JP2009065450A (en) Imaging apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100428

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110531

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110729

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110816

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110831

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140909

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4818997

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140909

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees