JP2009009456A - Face detection device and face detection program - Google Patents
Face detection device and face detection program Download PDFInfo
- Publication number
- JP2009009456A JP2009009456A JP2007171759A JP2007171759A JP2009009456A JP 2009009456 A JP2009009456 A JP 2009009456A JP 2007171759 A JP2007171759 A JP 2007171759A JP 2007171759 A JP2007171759 A JP 2007171759A JP 2009009456 A JP2009009456 A JP 2009009456A
- Authority
- JP
- Japan
- Prior art keywords
- face
- area
- image
- detector
- learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Analysis (AREA)
- Image Processing (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、画像から顔領域を検出する技術に関する。 The present invention relates to a technique for detecting a face area from an image.
近年、顔検出処理の自動化が進み、顔検出器を搭載したデジタルカメラが増えてきている。デジタルカメラに顔検出器を搭載することにより、被写体となる人物の顔に対してピント、露出値を自動的に最適化する自動焦点制御・自動露出制御が可能になり、人物の顔を綺麗に撮影することができる。 In recent years, automation of face detection processing has progressed, and digital cameras equipped with face detectors have increased. By installing a face detector in the digital camera, it is possible to focus on the face of the person who is the subject and to automatically optimize the exposure value, and to perform automatic focus control and automatic exposure control, making the face of the person beautiful You can shoot.
顔検出器としては、複数の識別器をカスケード接続するViolaらが提案する顔検出器(特許文献1)の他、ニューラルネットワークを用いた顔検出器(特許文献2)などが用いられている。
デジタルカメラなどの製品には学習済みの顔検出器が製品に搭載される。しかしながら、顔検出器の学習は標準的な顔の画像を用いて所望の検出精度が得られるように行われるため、あらゆる人物の顔について高い検出精度が得られるわけではない。したがって、ユーザーによっては、家族や知人といった被写体となる頻度の高い人物の顔が検出されにくいといった場合も生じうる。 Products such as digital cameras are equipped with learned face detectors. However, since learning of the face detector is performed so that a desired detection accuracy can be obtained using a standard face image, high detection accuracy cannot be obtained for every human face. Accordingly, depending on the user, it may be difficult to detect the face of a person who frequently becomes a subject such as a family member or acquaintance.
この点に関して特許文献3では、被写体となる頻度が高い人物の特徴をユーザーに入力させることで、当該人物の顔の検出精度を向上させている。しかしながら、このような操作をユーザーに求める手法では手間がかかる。
In this regard, in
本発明は、このような従来技術の技術的課題を鑑みてなされたもので、ユーザーに負担をかけずに、被写体となる頻度の高い人物の顔の検出精度を向上させることを目的とする。 The present invention has been made in view of such technical problems of the prior art, and an object of the present invention is to improve the detection accuracy of the face of a person who frequently becomes a subject without burdening the user.
本発明に係る顔検出装置は、画像から顔領域を検出する第1の顔検出器と、前記画像と同一ないし略同一の画像から顔領域を検出し、前記第1の顔検出器とは異なる検出精度を有する第2の顔検出器と、前記第2の顔検出器では顔領域として検出されたが前記第1の顔検出器では顔領域として検出されなかった領域を未検出領域として抽出する未検出領域抽出手段と、前記未検出領域に基づき、前記未検出領域が顔領域として検出されるように前記第1の顔検出器の学習を行う学習手段と、を備える。 The face detection apparatus according to the present invention detects a face area from a first face detector that detects a face area from an image, and the same or substantially the same image as the image, and is different from the first face detector. A second face detector having detection accuracy and a region detected as a face region by the second face detector but not detected as a face region by the first face detector are extracted as undetected regions. Undetected area extraction means; and learning means for learning the first face detector based on the undetected area so that the undetected area is detected as a face area.
本発明によれば、第1の顔検出器によって検出することができなかった顔領域(未検出領域)に基づき第1の顔検出器の学習が行われるので、顔検出の対象となる頻度が高く、かつ、第1の顔検出器によって検出しにくい顔がある場合に、第1の顔検出器による当該顔の検出精度を高めることができる。 According to the present invention, since the learning of the first face detector is performed based on the face area (undetected area) that could not be detected by the first face detector, the frequency of the face detection target is increased. When there is a face that is high and difficult to detect by the first face detector, the detection accuracy of the face by the first face detector can be increased.
以下、添付図面を参照しながら本発明の実施形態について説明する。 Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings.
図1は、本発明に係る顔検出装置が搭載されたデジタルカメラの概略構成図である。 FIG. 1 is a schematic configuration diagram of a digital camera equipped with a face detection apparatus according to the present invention.
光学系1はレンズ、絞りで構成され、撮像部2はCCDやCMOSなどの電荷撮像素子で構成される。光学系1を介して撮像部2で撮影された画像は、A/Dコンバータ3でリアルタイムにデジタル信号に変換され、制御部4に送られる。
The
制御部4は、マイクロプロセッサを中心として構成され、一時メモリ41、速度重視顔検出器(第1の顔検出器)42、精度重視顔検出器(第2の顔検出器)43を備える。また、制御部4は、撮像部2で撮影された画像をスルー画像として一時メモリ41に逐次記録するとともに、スルー画像をカメラの背面に設けられた液晶モニタ5に表示する。カメラの上面及び背面にはボタン、ダイヤル等からなる操作部9が設けられており、ユーザーは液晶モニタ5に表示されるメニュー画面、撮影された画像のサムネイル画像等を見ながら各種操作を行うことができる。
The control unit 4 is configured around a microprocessor, and includes a
制御部4に接続される学習用画像データベース6には、複数の画像がそれぞれ顔画像、非顔画像のいずれかであることを示す教師信号と対応付けられた状態で格納されており、学習用画像データベース6は速度重視顔検出器42の学習を行う際に用いられる。速度重視顔検出器42の学習方法については後述する。
The learning image database 6 connected to the control unit 4 stores a plurality of images in association with a teacher signal indicating that each of the images is a face image or a non-face image. The image database 6 is used when the speed-
制御部4は、レリーズボタン7が押されるまでは、速度重視顔検出器42をスルー画像に対して適用し、スルー画像から顔領域を検出する。そして、制御部4は、検出された顔領域の位置(中心位置)、大きさに基づき、検出された顔領域に対してピント、露出値が最適になるように、自動焦点(AF)・自動露出(AE)制御部10に信号を送り、レンズの位置、絞りを調節する。
Until the
本撮影はユーザーがレリーズボタン7を押すことで行われる。制御部4は、本撮影によって撮影された画像を本撮影画像としてフラッシュメモリ8に記録する。
The actual shooting is performed when the user presses the
制御部4は、本撮影画像に対して精度重視顔検出器43を適用し、本撮影画像から顔領域を検出する。そして、制御部4は、速度重視顔検出器42の顔検出結果と精度重視顔検出器43の顔検出結果とを比較し、精度重視顔検出器43で顔領域として検出されたが速度重視顔検出器42では顔領域として検出されなかった領域を未検出領域として抽出し、抽出された未検出領域の画像を顔画像であることを示す教師信号の値1と対応づけて学習用画像データベース6に追加する。
The control unit 4 applies a precision-
制御部4は、学習用画像データベース6に追加された画像の数が所定数に達したところで、追加された未検出領域の画像が顔領域として検出されるよう、速度重視顔検出器42の学習を行う。
When the number of images added to the learning image database 6 reaches a predetermined number, the control unit 4 learns the speed-
速度重視顔検出器42と精度重視顔検出器43についてさらに説明すると、2つの顔検出器はいずれもViolaらが提案する方法を用いた顔検出器であり、Adaboostアルゴリズムによって生成される複数の識別器Hk(k=1〜S)を、図2に示すようにカスケード接続した構造を有している。
The speed-
画像のある領域が顔領域か否かを判断するには、まず、1段目の識別器H1でその領域が顔領域か否か判定する。顔領域でないと判定した場合は処理を終了し、顔領域と判定した場合は2段目の識別器H2に進む。そして、2段目以降の識別器Hkでも顔領域か否かの判定を行い、顔領域でないと判定した場合は処理を終了し、顔領域と判定した場合のみ次の段へと進む。
In order to determine whether or not a certain area of the image is a face area, first, it is determined by the first-stage discriminator H 1 whether or not the area is a face area. If it is determined not to be a face region ends the process, if it is determined that the face area advances to the discriminator of
したがって、顔判別器は、最終段の識別器HSまで顔領域であるとの判定が続いた場合のみその領域が顔領域であると判定するので、高い検出精度が得られる。その一方で、途中の段で顔領域でないと判定した場合は直ちに処理が終了するので、高い処理速度が得られる。 Therefore, since the face discriminator determines that the area is a face area only when it is determined that the area is a face area up to the final classifier H S , high detection accuracy can be obtained. On the other hand, if it is determined that the face area is not in the middle of the process, the processing is immediately terminated, so that a high processing speed can be obtained.
識別器Hkは、それぞれ複数の弱識別器を線形結合することによって構成される。弱識別器は図3に示すような黒矩形と白矩形からなる矩形フィルターと閾値θの組である。弱識別器は、矩形フィルターを顔検出の対象となる領域に重ね合わせ、黒矩形に対応する領域内の輝度値の和と白矩形に対応する領域内の輝度値の和との差が閾値θよりも大きいか判断し、閾値θよりも大きいときは顔であることを示す1、小さいときは非顔であることを示す0を出力する。 Each classifier H k is configured by linearly combining a plurality of weak classifiers. The weak classifier is a set of a rectangular filter composed of a black rectangle and a white rectangle as shown in FIG. The weak classifier superimposes the rectangular filter on the area to be face-detected, and the difference between the sum of the luminance values in the area corresponding to the black rectangle and the sum of the luminance values in the area corresponding to the white rectangle is the threshold θ. If it is larger than the threshold value θ, 1 indicating that it is a face is output, and if it is smaller, 0 indicating that it is a non-face is output.
顔検出の対象となる領域が識別器Hkに入力されると、識別器Hkは、弱識別器の出力にその弱識別器の信頼度αを掛けた値の総和を算出し、その総和から所定の閾値ThTを減じた値を確信度Conv(k)として算出する。確信度Conv(k)は、その領域に顔が含まれていることの確かさを表す値である。そして、識別器Hkは、確信度Conv(k)が正の場合は当該領域が顔領域と判定して+1を出力し、負の場合は非顔領域であると判定して−1の値を出力する。 When subject to areas of the face detection is inputted to the discriminator H k, identifier H k calculates the sum of values reliability multiplied by α for the weak discriminator to output a weak classifier, the sum Then, a value obtained by subtracting a predetermined threshold value Th T is calculated as the confidence level Conv (k). The certainty factor Conv (k) is a value representing the certainty that the face is included in the region. When the certainty factor Conv (k) is positive, the discriminator H k determines that the region is a face region and outputs +1, and when negative, determines that the region is a non-face region and has a value of −1. Is output.
図4は識別器Hkを生成する処理の内容を示したフローチャートである。識別器Hkを構成する弱識別器の選出はAdaboostアルゴリズムにより行われ、識別器Hkが学習用画像データベース6に格納されている画像に対して所望の精度で顔、非顔の判断ができるようになるまで繰り返される。添え字tは識別器Hkの更新回数(弱識別器を識別器Hkに追加した回数)であり、初期値は1である。 Figure 4 is a flow chart showing the contents of processing for generating an identifier H k. The weak classifiers constituting the classifier H k are selected by the Adaboost algorithm, and the classifier H k can determine a face or a non-face with desired accuracy with respect to an image stored in the learning image database 6. Repeat until The subscript t is the number of times the classifier H k has been updated (the number of times the weak classifier has been added to the classifier H k ). The initial value is 1.
これによると、まず、ステップS1では、次式(1)により、学習用画像データベース6に格納されている各画像の重みを初期値W1(i)に設定する。iは各画像に割り当てられる通し番号であり、Nは学習用画像データベース6に格納されている画像の総数である。 According to this, first, in step S1, the weight of each image stored in the learning image database 6 is set to the initial value W 1 (i) by the following equation (1). i is a serial number assigned to each image, and N is the total number of images stored in the learning image database 6.
ステップS4では、選出された弱識別器htの誤り率εtに基づき、次式(3)により選出された弱識別器htの信頼度αtを算出する。 In step S4, based on the error rate epsilon t the elected weak classifier h t, it calculates the reliability alpha t of the weak classifier h t elected by the following equation (3).
ステップS8では、所望の検出精度が得られているか判断する。所望の検出精度が得られている場合はステップS9に進む。 In step S8, it is determined whether a desired detection accuracy is obtained. If the desired detection accuracy is obtained, the process proceeds to step S9.
ステップS9では、次式(7)により識別器Hkを構成する。 In step S9, the discriminator Hk is configured by the following equation (7).
なお、通常、カスケード処理では前段の情報を持ち越さない場合が多いが、識別器Hkにおいて1段目からk段目の確信度Conv(k)の総和を次式(8)により算出し、Convsumの符号によって顔領域、非顔領域を判断するようにしてもよい。このように確信度Conv(k)の総和をとり、以前の段で算出した確信度も反映させたほうが、経験上、高い検出精度を得ることができることがわかっている。 Usually, in cascade processing, the previous stage information is often not carried over, but in the classifier H k , the sum of confidence levels Conv (k) from the first stage to the kth stage is calculated by the following equation (8), and Convsum The face area and the non-face area may be determined based on the reference numeral. In this way, it is known from experience that high detection accuracy can be obtained by taking the sum of the certainty levels Conv (k) and reflecting the certainty levels calculated in the previous stage.
速度重視顔検出器42と精度重視顔検出器43は、いずれも上記手順を経て構成されるが、両検出器42、43の違いは、例えば、弱識別器の閾値θを変えることによって得られる。
Both the speed-oriented
例えば、閾値θを図5に示すように低めの値θAに設定すると、顔を含む領域をほぼ正しく顔領域と判定するが、顔を含まない領域を顔領域と誤判定してしまう率が高い弱識別器が得られる。精度重視顔検出器43を構成する識別器はこのような弱識別器を多数組み合わせることで構成され、顔領域、非顔領域を高い精度で認識する。ただし、識別器を構成する弱識別器の数が多い分、処理は遅くなる。
For example, when the threshold value θ is set to a low value θ A as shown in FIG. 5, a region that includes a face is determined as a face region almost correctly, but a region that does not include a face is erroneously determined as a face region. A high weak classifier is obtained. The classifier constituting the accuracy-oriented
一方、閾値θを高めのθBに設定すれば、顔を含む領域を正しく顔領域と判定する率、顔を含まない領域を非顔領域と判定する率ともにある程度高い弱識別器となる。したがって、このような弱識別器を少ない個数組み合わせれば、未検出と過検出がやや多めではあるが処理の速い識別器が得られ、速度重視顔判別器42はこのような識別器を組み合わせて構成される。
On the other hand, if the threshold value θ is set to a higher θ B , a weak discriminator having a relatively high rate at which an area including a face is correctly determined as a face area and an area at which a face is not included is determined as a non-face area. Therefore, if a small number of such weak classifiers are combined, a classifier having a relatively high number of undetected and overdetected but a fast process can be obtained, and the speed-oriented
なお、精度重視顔検出器43は、例えば、公知のガボールフィルターとグラフマッチング処理を組み合わせた方法とViolaらが提案する方法の2つを併用する等、異なる方法を組み合わせたものであってもよい。
Note that the accuracy-oriented
続いて撮影時のデジタルカメラの撮影時の処理内容について説明する。 Next, processing contents at the time of shooting by the digital camera at the time of shooting will be described.
図6は制御部4の処理内容を示したフローチャートである。この処理は、デジタルカメラが撮影モードにあるときに、制御部4において繰り返し実行される。 FIG. 6 is a flowchart showing the processing contents of the control unit 4. This process is repeatedly executed by the control unit 4 when the digital camera is in the shooting mode.
これによると、ステップS11では、撮像部2でスルー画像を撮影し、液晶モニタ5に撮影したスルー画像を表示する。
According to this, in step S <b> 11, a through image is captured by the
ステップS12では、一時メモリ41に格納されているスルー画像を消去し、新たに撮影されたスルー画像を一時メモリ41に保存する。
In step S <b> 12, the through image stored in the
ステップS13では、一時メモリ41に保存されているスルー画像に対して速度重視顔検出器42を適用し、スルー画像から顔領域を検出する。顔領域が検出された場合は、液晶モニタ5に当該領域を囲む矩形の枠を表示し、ユーザーに顔領域が検出されたことを示す。
In step S13, the speed-oriented
ステップS14では、検出された顔領域の位置、大きさ情報に基づき、AF・AE制御部10を介してレンズ位置、絞りを調節し、検出された顔領域についてピント、露出値を最適化する。
In step S14, the lens position and the aperture are adjusted via the AF /
ステップS15ではレリーズボタン7が押されたか判断する。レリーズボタン7が押された場合はステップS16に進む。そうでない場合はステップS11に戻り、スルー画像の撮影及びスルー画像からの顔領域の検出を繰り返す。
In step S15, it is determined whether the
ステップS16では本撮影を行う。このとき、速度重視顔検出器42で検出された顔領域について既にピント、露出値が既に最適化されているので、本撮影では被写体となっている人物の顔が綺麗に撮影される。
In step S16, actual photographing is performed. At this time, since the focus and exposure values have already been optimized for the face area detected by the speed-oriented
ステップS17では撮影された画像を本撮影画像としてフラッシュメモリ8に保存する。本撮影画像は直前に撮影されたスルー画像と略同一の画像である。
In step S17, the captured image is stored in the
ステップS18ではフラッシュメモリ8に保存されている本撮影画像に対して精度重視顔検出器43を適用し、本撮影画像から顔領域を検出する。
In step S18, the accuracy-oriented
ステップS19では、2つの検出器42、43の検出結果を比較し、精度重視顔検出器43で顔領域として検出されたが速度重視顔検出器42では顔領域として検出されなかった領域を未検出領域として抽出する。図7はそのときの様子を示したものである。この例では、被写体となっている3人の顔のうち、画面右下の人物の顔を囲む矩形領域が未検出領域として抽出される。
In step S19, the detection results of the two
ステップS20では、抽出された未検出領域の画像が、顔画像であることを示す教師信号の値1と対応付けられ、学習用画像データベース6に格納される。
In step S <b> 20, the extracted image of the undetected area is associated with a
なお、未検出領域の画像を無条件に学習用画像データベース6に顔画像として格納するようにすると、精度重視顔検出器43が顔を含まない領域を顔領域であると誤判定した場合に非顔画像が顔画像として学習用画像データベース6に格納されてしまい、その後の速度重視顔検出器42の学習結果に悪影響を及ぼす。
If the image of the undetected area is unconditionally stored as a face image in the learning image database 6, it is not used when the accuracy-oriented
そこで、ステップS20では、抽出された未検出領域が、精度重視顔検出器43で顔と判定されたときの確信度が所定値以上か否かを判断し、所定値以上である場合に抽出された未検出領域の画像を学習用画像データベース6に格納するようにしてもよい。
Therefore, in step S20, it is determined whether or not the degree of certainty when the extracted undetected area is determined to be a face by the accuracy-oriented
あるいは、抽出された未検出領域の画像を液晶モニタ5に表示し、ユーザーが当該画像に顔が含まれていることを確認した上で、ユーザーが操作部9を操作し、抽出された未検出領域の画像を顔画像として学習用画像データベース6に追加するようにしてもよい。このとき、未検出領域に顔が含まれていない場合は、当該画像を非顔画像であることを示す教師信号の値0と対応付け、非顔画像として学習用画像データベース6に追加するようにしてもよい。
Alternatively, the extracted image of the undetected area is displayed on the
ステップS21では、追加された画像の個数が所定数に達したか判断し、所定数に達している場合は速度重視顔検出器42の学習を行う。追加された画像の個数が所定数に達した場合に学習を行うのは、学習による演算負荷を考慮したものである。
In step S21, it is determined whether or not the number of added images has reached a predetermined number. If the predetermined number has been reached, the speed-oriented
速度重視顔検出器42の学習は、未検出領域の画像が追加された学習用画像データベース6を用い、図4に示した処理を再度実行して速度重視顔検出器42を作り直すことで行われる。学習は未検出領域が顔領域として検出されるように行われるので、作り直された速度重視顔検出器42では、それまで顔領域として検出されなかった未検出領域の画像が顔領域として検出されるようになる。
Learning of the speed-oriented
ステップ22では撮影を終了するか判断し、撮影を終了する場合は処理を終了し、終了しない場合はステップS11に戻る。 In step 22, it is determined whether or not the shooting is to be ended. If the shooting is to be ended, the process is ended.
以上の構成によれば、速度重視顔検出器42で未検出領域が発生すると、当該未検出領域が顔領域として検出されるよう速度重視顔検出器42の学習が行われる。学習は実際に撮影された人物の顔に基づき行われるので、学習が進むにつれ、被写体となる頻度の高い人物の顔の検出精度が向上する。また、速度重視顔検出器42の学習はユーザーが意識しないうちに行われ、ユーザーへの負担も少ない。
According to the above configuration, when an undetected area is generated in the speed-oriented
なお、上記実施形態では、スルー画像に対して速度重視顔検出器42、本撮影画像に対して精度重視顔検出器43を適用しているが、同一ないし略同一の画像に対して顔検出器42、43を適用する構成であればよく、例えば、同一の本撮影画像に対して顔検出器42、43を適用しても同様の学習が可能である。
In the above embodiment, the speed-oriented
学習により検出精度の向上が期待できる対象は特定の人物の顔に限らない。例えば、犬、猫等のペットの写真をよく撮影する場合でも、ペットの顔を精度重視顔検出器43で検出することができれば、撮影されたペットの顔の画像が顔画像として学習用画像データベースk6に追加され、速度重視顔検出器42の学習が行われるので、速度重視顔検出器42によるペットの顔の検出精度を向上させることも可能である。
An object whose detection accuracy can be improved by learning is not limited to a specific person's face. For example, even when a photograph of a pet such as a dog or a cat is often taken, if the pet face can be detected by the accuracy-oriented
また、ここでは速度重視顔検出器42を構成する識別器Hkを作り直すことで学習しているが、学習の方法はこれに限らない。例えば、非顔と判定された領域が正しく顔領域として検出されるように、誤った検出を行った弱識別器の閾値θや信頼度αの値を変更するようにしてもよい。この方法によれば、速度重視顔検出器42を作り直す学習方法にくらべ、演算負荷を下げることができる。
Although here are learning to recreate the identifier H k constituting the speed-oriented
あるいは、識別器Hkを作り直す場合であっても、顔を含むにも関わらず非顔領域と判定された領域の画像に対する重みについては、他の画像に対する重みとは異なる制限を加える等の改変が可能である。例えば、非顔領域と判定されてしまった顔画像の重みについては、学習の途中で正しい判定を行った場合であっても、一定値よりも小さくならないような制限を加えたり、更新時には、常に、一定値より大きくなるような制限を加えたりする。こうすることで、この画像に対して正しい判定が行えるよう学習が進むことが期待される。 Or, even when re-creating the classifier H k , the weight for the image of the area determined to be a non-face area even though it includes a face is modified such that a restriction different from the weight for the other image is added. Is possible. For example, for the weight of a face image that has been determined to be a non-face area, even if correct determination is performed during learning, a restriction that does not become smaller than a certain value is added, or when updating, always , Or add restrictions that are larger than a certain value. By doing so, it is expected that learning proceeds so that correct determination can be performed on this image.
また、学習処理は制御部4の負担が大きいので、デジタルカメラの充電中等に学習させるようにしても良い。デジタルカメラの充電中等のユーザーが撮影を行わない時期に学習を行わせることで、学習による演算負荷が撮影動作に影響を及ぼすのを防止することができる。なお、学習のための演算は、制御部4ではなくデジタルカメラの充電器やクレードル側に設けられたプロセッサで行うようにしてもかまわない。 In addition, since the learning process is heavy on the control unit 4, the learning process may be performed while the digital camera is being charged. By performing learning at a time when the user does not perform shooting such as during charging of the digital camera, it is possible to prevent the calculation load due to learning from affecting the shooting operation. Note that the calculation for learning may be performed not by the control unit 4 but by a digital camera charger or a processor provided on the cradle side.
また、顔検出器をViolaらが提案する方法によらず他の方法によって構成してもかまわない。顔検出器は、例えば、ニューラルネットワークにより構成してもよく、この場合、学習は、顔を含むにも関わらず非顔画像と判定されてしまった画像を顔検出器に与え、正しく顔であるという判定値の+1が出力されるように、中間層等の重みパラメータを更新すればよい。 Further, the face detector may be configured by other methods without depending on the method proposed by Viola et al. For example, the face detector may be configured by a neural network. In this case, learning gives the face detector an image that has been determined to be a non-face image even though it includes a face, and is a correct face. The weight parameter such as the intermediate layer may be updated so that the determination value +1 is output.
また、図8に示すように、デジタルカメラ外部のネットワークに接続するための無線LAN、Bluetooth等の通信装置からなる通信部11を設け、インターネット等のネットワークを通じて外部のサーバーから最新の学習結果を取り込み、最新の学習結果に基づき精度重視顔検出器43を更新するようにしてもよい。
In addition, as shown in FIG. 8, a
精度重視顔検出器43の検出精度が向上すれば、速度重視顔検出器42で検出できなかった顔領域を精度重視顔検出器43で検出できる可能性が高くなり、速度重視顔検出器42の学習がさらに進むので、結果として、被写体となる頻度の高い人物の顔の速度重視顔検出器42による検出精度をさらに上げることができる。
If the detection accuracy of the accuracy-oriented
さらに、速度重視顔検出器42の未検出領域を、ネットワークを通じてサービスセンターに伝送するように構成し、サービスセンターのオペレータが顔領域、非顔領域の判定を行うようにしても良い。判定結果はネットワークを通じて教師信号としてデジタルカメラの制御部4に戻され、未検出領域の画像と対応付けられた状態で学習用画像データベース6に追加される。
Further, the undetected area of the speed-oriented
この方法によれば、ユーザーの操作負担を増やすことなく、顔を含まない領域の画像が顔画像であるとして学習用画像データベース6に追加されるのを防止し、速度重視顔検出器42の学習に悪影響を及ぼすのを防止できる。
According to this method, it is possible to prevent the image of the area not including the face from being added to the learning image database 6 as a face image without increasing the operation burden on the user, and to learn the speed-oriented
また、速度重視顔検出器42の学習が進みすぎると、普段撮影しない人物の顔の検出精度が下がるため、撮影シーンによっては顔検出が正しく行われない可能性がある。これを回避するには図9に示すように、2つの速度重視顔検出器42、44を用意しておき、一方の速度重視顔検出器42に対してのみ学習を行い、他方の速度重視顔検出器(第3の顔検出器)43に対しては学習を行わないようにする。そして、ユーザーが撮影シーンに応じて学習後の速度重視顔検出器42、未学習の速度重視顔検出器44のいずれかを操作部9を操作することで選択できるようにする。
Also, if the speed-oriented
この構成によれば、未学習の速度重視顔検出器44を選択するようにすれば、未学習の速度重視顔検出器44を用いてスルー画像から顔検出が行われるので、普段撮影しない人物を撮影する場合であっても所定レベル以上の検出精度が得られる。
According to this configuration, if the unlearned speed-oriented
また、学習用画像データベース6に格納されている画像をメンテナンスする機能をデジタルカメラに持たせるようにしてもよい。例えば、液晶モニタ5に学習用画像データベース6に格納されている画像を教師信号とともにサムネイル表示し、顔を含まない画像の教師信号の値が顔画像を示す1になっている場合は、ユーザーが操作部9を操作することで、当該画像の教師信号の値を0に書き換える(その逆も可)、あるいは、当該画像を学習用画像データベース6から削除できるようにしてもよい。これにより、被写体となる頻度の高い人物の顔の検出精度をさらに上げることが可能である。
Further, the digital camera may be provided with a function for maintaining the images stored in the learning image database 6. For example, when the image stored in the learning image database 6 is displayed as a thumbnail together with the teacher signal on the
以上、本発明の実施形態について説明したが、上記実施形態は本発明の適用例の一つを示したに過ぎず、本発明の技術的範囲を上記実施形態の具体的構成に限定する趣旨ではない。 The embodiment of the present invention has been described above. However, the above embodiment is merely one example of application of the present invention, and the technical scope of the present invention is limited to the specific configuration of the above embodiment. Absent.
4 制御部
6 学習用画像データベース
42 速度重視顔検出器(第1の顔検出器)
43 精度重視顔検出器(第2の顔検出器)
44 速度重視顔検出器(第3の顔検出器)
4 Control unit 6
43 Precision-oriented face detector (second face detector)
44 Speed-sensitive face detector (third face detector)
Claims (7)
前記画像と同一ないし略同一の画像から顔領域を検出し、前記第1の顔検出器とは異なる検出精度を有する第2の顔検出器と、
前記第2の顔検出器では顔領域として検出されたが前記第1の顔検出器では顔領域として検出されなかった領域を未検出領域として抽出する未検出領域抽出手段と、
前記未検出領域に基づき、前記未検出領域が顔領域として検出されるように前記第1の顔検出器の学習を行う学習手段と、
を備えたことを特徴とする顔検出装置。 A first face detector for detecting a face region from an image;
A second face detector that detects a face region from the same or substantially the same image as the image and has a detection accuracy different from that of the first face detector;
Undetected area extracting means for extracting, as an undetected area, an area detected as a face area by the second face detector but not detected as a face area by the first face detector;
Learning means for learning the first face detector based on the undetected area so that the undetected area is detected as a face area;
A face detection apparatus comprising:
前記未検出領域の画像を前記学習用画像データベースに追加する画像追加手段と、
を備え、
前記学習手段は、前記未検出領域の画像が追加された前記学習用画像データベースを用いて前記第1の顔検出器の学習を行う、
ことを特徴とする請求項1に記載の顔検出装置。 A learning image database for storing a plurality of face images;
Image adding means for adding the image of the undetected area to the learning image database;
With
The learning means learns the first face detector using the learning image database to which an image of the undetected region is added.
The face detection apparatus according to claim 1.
前記画像追加手段は、前記確信度が所定値よりも大きい場合に前記未検出領域の画像を前記学習用画像データベースに追加する、
ことを特徴とする請求項1または2に記載の顔検出装置。 Comprising a certainty factor calculating means for calculating a certainty factor indicating the certainty that the face is included in the undetected region;
The image adding means adds the image of the undetected area to the learning image database when the certainty factor is larger than a predetermined value.
The face detection apparatus according to claim 1 or 2, wherein
前記画像追加手段は、前記未検出領域に顔が含まれることが確認された場合に前記未検出領域の画像を前記学習用画像データベースに追加する、
ことを特徴とする請求項1または2に記載の顔検出装置。 Confirmation means for confirming whether or not a face is included in the undetected region,
The image adding means adds an image of the undetected area to the learning image database when it is confirmed that a face is included in the undetected area.
The face detection apparatus according to claim 1 or 2, wherein
前記第1の顔検出器は前記デジタルカメラのスルー画像から顔領域を検出し、
前記第2の顔検出器は前記デジタルカメラの本撮影画像から顔領域を検出する、
ことを特徴とする請求項1から4のいずれか一つに記載の顔検出装置。 The face detection device is mounted on a digital camera,
The first face detector detects a face area from a through image of the digital camera;
The second face detector detects a face area from a real captured image of the digital camera;
The face detection apparatus according to claim 1, wherein the face detection apparatus is a part of the face detection apparatus.
前記第1の顔検出器、前記第3の顔検出器のいずれを用いて顔検出を行うかを選択する選択手段と、
を備えたことを特徴とする請求項1または5のいずれか一つに記載の顔検出装置。 A third face detector for detecting a face area from the image;
Selecting means for selecting whether to perform face detection using the first face detector or the third face detector;
The face detection device according to claim 1, further comprising:
前記画像と同一ないし略同一の画像から顔領域を検出し、前記第1の顔検出処理とは異なる検出精度を有する第2の顔検出処理と、
前記第2の顔検出器では顔領域として検出されたが前記第1の顔検出器では顔領域として検出されなかった領域を未検出領域として抽出する未検出領域抽出処理と、
前記未検出領域に基づき、前記未検出領域が顔領域として検出されるように前記第1の顔検出器の学習を行う学習処理と、
を含むことを特徴とする顔検出プログラム。 A first face detection process for detecting a face area from an image;
A second face detection process that detects a face region from an image that is the same or substantially the same as the image, and has a detection accuracy different from the first face detection process;
An undetected area extraction process for extracting an area detected as a face area in the second face detector but not detected as a face area in the first face detector;
A learning process for learning the first face detector based on the undetected area so that the undetected area is detected as a face area;
A face detection program comprising:
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007171759A JP4818997B2 (en) | 2007-06-29 | 2007-06-29 | Face detection device and face detection program |
PCT/JP2008/060720 WO2009004901A1 (en) | 2007-06-29 | 2008-06-05 | Face detection device, digital camera, and face detection program |
US12/647,890 US8643738B2 (en) | 2007-06-29 | 2009-12-28 | Face detection device, digital camera, and computer readable storage medium which stores a face detection program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007171759A JP4818997B2 (en) | 2007-06-29 | 2007-06-29 | Face detection device and face detection program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009009456A true JP2009009456A (en) | 2009-01-15 |
JP4818997B2 JP4818997B2 (en) | 2011-11-16 |
Family
ID=40324452
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007171759A Expired - Fee Related JP4818997B2 (en) | 2007-06-29 | 2007-06-29 | Face detection device and face detection program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4818997B2 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013033331A (en) * | 2011-08-01 | 2013-02-14 | Universal Entertainment Corp | Identifying device and identifying program |
JP2013122723A (en) * | 2011-12-12 | 2013-06-20 | Seiko Epson Corp | Detection device and detection method |
JP2016535888A (en) * | 2013-11-07 | 2016-11-17 | 同方威視技術股▲分▼有限公司 | Detection method and apparatus |
JP2019197471A (en) * | 2018-05-11 | 2019-11-14 | トヨタ自動車株式会社 | Autonomous mobile system, autonomous mobile body, charging doc, control method, and program |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007128127A (en) * | 2005-11-01 | 2007-05-24 | Fujifilm Corp | Face detection method, device, and program |
JP2008311921A (en) * | 2007-06-14 | 2008-12-25 | Fujifilm Corp | Imaging apparatus |
-
2007
- 2007-06-29 JP JP2007171759A patent/JP4818997B2/en not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007128127A (en) * | 2005-11-01 | 2007-05-24 | Fujifilm Corp | Face detection method, device, and program |
JP2008311921A (en) * | 2007-06-14 | 2008-12-25 | Fujifilm Corp | Imaging apparatus |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013033331A (en) * | 2011-08-01 | 2013-02-14 | Universal Entertainment Corp | Identifying device and identifying program |
JP2013122723A (en) * | 2011-12-12 | 2013-06-20 | Seiko Epson Corp | Detection device and detection method |
JP2016535888A (en) * | 2013-11-07 | 2016-11-17 | 同方威視技術股▲分▼有限公司 | Detection method and apparatus |
US10013615B2 (en) | 2013-11-07 | 2018-07-03 | Nuctech Company Limited | Inspection methods and devices |
JP2019197471A (en) * | 2018-05-11 | 2019-11-14 | トヨタ自動車株式会社 | Autonomous mobile system, autonomous mobile body, charging doc, control method, and program |
JP7052546B2 (en) | 2018-05-11 | 2022-04-12 | トヨタ自動車株式会社 | Autonomous mobile systems, autonomous mobiles, charging docks, control methods, and programs |
Also Published As
Publication number | Publication date |
---|---|
JP4818997B2 (en) | 2011-11-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9338311B2 (en) | Image-related handling support system, information processing apparatus, and image-related handling support method | |
US8477993B2 (en) | Image taking apparatus and image taking method | |
US7672580B2 (en) | Imaging apparatus and method for controlling display device | |
US9013589B2 (en) | Digital image processing apparatus and digital image processing method capable of obtaining sensibility-based image | |
US9041832B2 (en) | Imaging apparatus and method for controlling the same | |
EP2104058A1 (en) | Priority target determining device, electronic equipment, priority target determining method, program, and recording medium | |
KR101710626B1 (en) | Digital photographing apparatus and control method thereof | |
WO2009004901A1 (en) | Face detection device, digital camera, and face detection program | |
KR101762769B1 (en) | Apparatus and method for capturing subject in photographing device | |
US8558935B2 (en) | Scene information displaying method and apparatus and digital photographing apparatus using the scene information displaying method and apparatus | |
CN106131441A (en) | Photographic method and device, electronic equipment | |
WO2023071933A1 (en) | Camera photographing parameter adjustment method and apparatus and electronic device | |
JP2020123174A (en) | Image file generating apparatus, image file generating method, image management apparatus, and image management method | |
JP4818997B2 (en) | Face detection device and face detection program | |
JP7403995B2 (en) | Information processing device, control method and program | |
JP4772756B2 (en) | Imaging apparatus and imaging program | |
JP6270578B2 (en) | IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM | |
JP2020119322A (en) | Learning requesting device and method for requesting learning | |
JP2018084861A (en) | Information processing apparatus, information processing method and information processing program | |
US8736693B2 (en) | Digital photographing apparatus that corrects hand shake, method of controlling the same, and recording medium storing the method | |
JP5222429B2 (en) | Subject tracking device and control method thereof | |
JP2013157675A (en) | Imaging device, method for controlling the same, program, and storage medium | |
JP7046340B2 (en) | Image processing device, terminal, image processing method, program | |
JP6833607B2 (en) | Control device, image pickup device, control method, program, and storage medium | |
JP2009065450A (en) | Imaging apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100428 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110531 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110729 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110816 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110831 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140909 Year of fee payment: 3 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 4818997 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140909 Year of fee payment: 3 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |