JP2010002960A - 画像処理装置、画像処理方法及び画像処理プログラム - Google Patents
画像処理装置、画像処理方法及び画像処理プログラム Download PDFInfo
- Publication number
- JP2010002960A JP2010002960A JP2008158860A JP2008158860A JP2010002960A JP 2010002960 A JP2010002960 A JP 2010002960A JP 2008158860 A JP2008158860 A JP 2008158860A JP 2008158860 A JP2008158860 A JP 2008158860A JP 2010002960 A JP2010002960 A JP 2010002960A
- Authority
- JP
- Japan
- Prior art keywords
- image
- face
- area
- image processing
- discriminator
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
【課題】画像から対象物を検出する画像処理において検出精度を向上させる。
【解決手段】画像から対象物を検出する画像処理装置は、前記対象物に含まれる第1の領域を写した複数枚の画像を教師画像として学習してその学習結果を用いて前記対象物の判別を行う第1の判別器(21)と、前記対象物に含まれる前記第1の領域と異なる第2の領域を写した複数枚の画像を教師画像として学習してその学習結果を用いて前記対象物の判別を行う第2の判別器(22)を有する対象物検出部(2)を備える。前記対象物検出部(2)は、前記対象物のうち特定の対象物のコントラストに基づき前記第1の判別器(21)及び前記第2の判別器(22)のうち前記前記特定の対象物の検出に適した判別器を選択し、選択した判別器を用いて前記画像から前記対象物を検出する。
【選択図】図1
【解決手段】画像から対象物を検出する画像処理装置は、前記対象物に含まれる第1の領域を写した複数枚の画像を教師画像として学習してその学習結果を用いて前記対象物の判別を行う第1の判別器(21)と、前記対象物に含まれる前記第1の領域と異なる第2の領域を写した複数枚の画像を教師画像として学習してその学習結果を用いて前記対象物の判別を行う第2の判別器(22)を有する対象物検出部(2)を備える。前記対象物検出部(2)は、前記対象物のうち特定の対象物のコントラストに基づき前記第1の判別器(21)及び前記第2の判別器(22)のうち前記前記特定の対象物の検出に適した判別器を選択し、選択した判別器を用いて前記画像から前記対象物を検出する。
【選択図】図1
Description
本発明は画像から顔等の対象物を検出する画像処理技術に関する。
画像から人物の顔を検出する技術は、デジタルカメラのAF(自動焦点)やAE(自動露出)や、複数の画像から検索用インデキシングを自動生成するのに用いられている。
画像から人物の顔を検出する方法としては、Viola-Jonesの方法(非特許文献1)が有力であり、この方法によれば、予め機械学習させておいた複数の識別器を画像に対して適用することで、画像から人物の顔等を高速に検出することが可能である。
P. Viola and M. Jones. "Rapid Object Detection Using a Boosted Cascade of Simple Features," in Proc. of CVPR, vol.1, ppp.511-518, December, 2001
P. Viola and M. Jones. "Rapid Object Detection Using a Boosted Cascade of Simple Features," in Proc. of CVPR, vol.1, ppp.511-518, December, 2001
人物の顔に限らず、ペットの顔を検出したいという要求も少なからずあり、ペットの顔の検出に上記人物の顔を検出する方法を応用することが考えられる。
しかしながら、上記人物の顔を検出する方法をペットの顔の検出にそのまま適用しても所望の検出精度が得られない。これは、ペットは種別が多く、顔の輪郭、耳の位置・大きさのバラツキが人物に比べて大きいためであると考えられる。
顔の輪郭等のバラツキの影響を抑えるためには、これらを除いた顔の中心領域を検出するようにすればよい。しかしながら、この方法では、検出したいペットの毛が黒く、かつ、目、鼻も黒い場合のように、ペットの顔のコントラストが低いと検出精度が低下する。
本発明は、このような技術的課題に鑑みてなされたもので、画像から対象物を検出する画像処理において検出精度を向上させることを目的とする。
本発明の第1の態様によれば、画像から対象物を検出する画像処理装置であって、前記対象物に含まれる第1の領域を写した複数枚の画像を教師画像として学習してその学習結果を用いて前記対象物の判別を行う第1の判別器と、前記対象物に含まれる前記第1の領域と異なる第2の領域を写した複数枚の画像を教師画像として学習してその学習結果を用いて前記対象物の判別を行う第2の判別器を有する対象物検出部を備え、前記対象物検出部は、前記対象物のうち特定の対象物のコントラストに基づき、前記第1の判別器及び前記第2の判別器のうち前記特定の対象物の検出に適した判別器を選択し、選択した判別器を用いて前記画像から前記対象物を検出する、ことを特徴とする画像処理装置が提供される。
また、上記画像処理装置による画像処理方法、同方法をコンピュータに実行させるためのプログラムが提供される。
第1の態様によれば、特定の対象物のコントラストに基づき特定の対象物の検出に適した判別器を選択し、これを用いて対象物の検出を行うので、特定の対象物の検出精度が向上する。
例えば、画像から特定の対象物として飼い犬・飼い猫の顔(ペットの顔)を検出する場合、ペットの顔のコントラストが高い場合は、その様な顔の検出に適した顔中心領域を判別する第1の判別器を用いて顔検出を行い、毛が黒くコントラストが低い場合は、その様な顔の検出に適した顔の輪郭も含めた顔全体領域を判別する第2の判別器を用いて顔検出を行う。これにより、例えば、犬・猫の顔の中でも特にペットの顔検出に適した判別器を用いて顔検出が行われることになり、ペットの顔検出の精度が向上する。
また、本発明の第2の態様によれば、画像から対象物を検出する画像処理装置であって、前記対象物に含まれる第1の領域を写した複数枚の画像を教師画像として学習してその学習結果を用いて前記対象物の判別を行う第1の判別器と、前記対象物に含まれる前記第1の領域と異なる第2の領域を写した複数枚の画像を教師画像として学習してその学習結果を用いて前記対象物の判別を行う第2の判別器を有する対象物検出部を備え、前記対象物検出部は、前記画像の全部ないし一部を探索領域として抽出し、前記探索領域のコントラストに基づき、前記第1の判別器及び前記第2の判別器のうち前記探索領域に含まれている可能性のある前記対象物の検出に適した判別器を選択し、選択した判別器を用いて前記探索領域から前記対象物を検出する、ことを特徴とする画像処理装置が提供される。
また、上記画像処理装置による画像処理方法、同方法をコンピュータに実行させるためのプログラムが提供される。
第2の態様によれば、画像から対象物を検出するにあたり、探索領域のコントラストに基づき、探索領域に含まれている可能性のある対象物の検出に適した判別器を選択し、これを用いて対象物の検出を行うので、対象物の検出精度が向上する。
例えば、画像から対象物として犬・猫の顔を検出する場合、コントラストが高い探索領域にはコントラストが高い犬・猫の顔が含まれている可能性が高いので、その様な顔の検出に適した顔中心領域を判別する第1の判別器を用いて顔検出を行う。これに対し、コントラストが低い探索領域にはコントラストが低い犬・猫の顔(例えば、毛が黒い犬・猫)が含まれている可能性が高いので、その様な顔の検出に適した顔の輪郭も含めた顔全体領域を判別する第2の判別器を用いて顔検出を行う。これにより、探索領域に含まれている可能性のある対象物の検出に適した判別器を用いて対象物の検出が行われることになり、犬・猫の顔等の対象物の検出精度が向上する。
また、本発明の第3の態様によれば、画像から対象物を検出する画像処理装置であって、前記対象物に含まれる第1の領域を写した複数枚の画像を教師画像として学習してその学習結果を用いて前記対象物の判別を行う第1の判別器と、前記対象物に含まれる前記第1の領域と異なる第2の領域を写した複数枚の画像を教師画像として学習してその学習結果を用いて前記対象物の判別を行う第2の判別器を有する対象物検出部を備え、前記対象物検出部は、前記対象物のうち特定の対象物の前記第1の領域のコントラストが前記第2の領域のコントラストよりも高いときは、前記第1の判別器を用いて前記画像から前記対象物を検出し、低いときは前記第2の判別器を用いて前記画像から前記対象物を検出する、ことを特徴とする画像処理装置が提供される。
また、上記画像処理装置による画像処理方法、同方法をコンピュータに実行させるためのプログラムが提供される。
第3の態様によれば、特定の対象物の第1の領域と第2の領域のコントラストを比較し、より高いコントラストを有する領域を写した画像を教師画像として学習させた判別器を用いて画像から対象物を検出する。これにより、特定の対象物のコントラストの高い領域を手がかりに対象物の検出が行われるので、特定の対象物の検出精度が向上する。
例えば、画像から特定の対象物として飼い犬・飼い猫の顔(ペットの顔)を検出する場合、ペットの顔中心領域のコントラストが高い場合は、その領域を写した画像を教師画像として学習された第1の判別器を用いて顔検出を行い、顔全体領域のコントラストが高い場合は、その領域を写した画像を教師画像として学習された第2の判別器を用いて顔検出を行う。これにより、例えば、犬・猫の顔等の対象物の中でも特にペットの顔検出に適した判別器を用いて顔検出が行われることになり、ペットの顔検出の精度が向上する。
本発明によれば、画像から対象物を検出する画像処理において検出精度を向上させることができる。
以下、添付図面を参照しながら本発明の実施形態について説明する。なお、ここでは画像処理装置が犬・猫の顔(本明細書中では、例えば、「対象物」に対応する。)を検出し、犬・猫の中でも飼い犬・飼い猫といった特定の犬・猫の顔(本明細書中では、例えば、「特定の対象物」に対応する。この「特定の対象物」とは、前記「対象物」の概念に含まれる二以上のもののなかで、周波数特性などの検出特性が既知のものを指し、例えば、ユーザーにより選択されるものである。以下、一例として、「ペットの顔」という。)をユーザーが検出したい、すなわち、その検出精度を向上させたい場合について説明する。
また、顔のうち、目、鼻、口(本明細書中では、例えば、「感覚器官」に対応する。)を含むが顔の輪郭(顔の外縁を指す。顔全体の外縁でもよいし、顎から頬にかけての外縁等、顔の部分的な外縁でもよい。)を含まない領域を「顔中心領域」と称し、顔中心領域だけでなく顔の輪郭も含む領域を「顔全体領域」と称する(本明細書中では、例えば、「顔中心領域」、「顔全体領域」がそれぞれ「第1の領域」、「第2の領域」に対応する。)。なお、「顔中心領域」は理想的には顔の輪郭を含まない領域であるが、顔の形状、目、鼻、口の配置によっては、顔の輪郭を全く含まないように目、鼻、口を含む領域を考えることが難しい場合もあるので、このような場合は顔中心領域が顔の輪郭の一部を含んでいてもよい。
(第1実施形態)
第1実施形態に係る画像処理装置は、CPU、RAM、ROM、入出力インターフェース等で構成され、機能ブロックで表すと、図1に示すように、入力部1と、顔検出部2(本明細書中では、例えば、「対象物検出部」に対応する。)と、出力部3と、画像登録部4と、コントラスト解析部5とを有している。入力部1は顔検出部2に接続し、顔検出部2は出力部3に接続する。また、画像登録部4はコントラスト解析部5に接続し、コントラスト解析部5は顔検出部2に接続する。
第1実施形態に係る画像処理装置は、CPU、RAM、ROM、入出力インターフェース等で構成され、機能ブロックで表すと、図1に示すように、入力部1と、顔検出部2(本明細書中では、例えば、「対象物検出部」に対応する。)と、出力部3と、画像登録部4と、コントラスト解析部5とを有している。入力部1は顔検出部2に接続し、顔検出部2は出力部3に接続する。また、画像登録部4はコントラスト解析部5に接続し、コントラスト解析部5は顔検出部2に接続する。
入力部1は、ペットの顔の検出を行う画像(以下、「入力画像」という。)を外部より入手する。例えば、この画像処理装置をデジタルカメラのAF、AEに利用する場合は、入力画像は撮像部により撮像されたスルー画像である。また、この画像処理装置を画像の検索用インデキシングの自動作成に利用する場合は、検索用インデキシングを作成する複数の画像である。
画像登録部4は、検出したいペットの顔の画像を格納する(以下、この画像を「登録画像」という。)。登録画像にはペットの顔がなるべく大きく含まれるようにし、かつ、ペットの顔以外は極力含まれないようにする。例えば、本画像処理装置をデジタルカメラに適用する場合は、本撮影の前に先立ちユーザーが所定の枠内一杯にペットの顔が含まれるように撮像しておき、この枠内の画像を登録画像として用いるようにする。あるいは、ペットの顔が含まれるよう本撮像を行い、後述する第1の顔判別器21あるいは第2の顔判別器22と同様の処理により撮像画像から犬・猫の顔を検出する。そして、検出された犬・猫の顔からペットの顔をユーザーが選択し、これを登録画像として用いるようにしてもよい。
登録画像は、撮像した画像から生成するのではなく、画像登録部4に予め登録しておくことも可能である。登録する画像は、例えば、ユーザーが予め用意したペットの顔の画像である。あるいは、複数種類の犬・猫の顔の画像を画像登録部4に格納しておき、この中からペットと同種の犬・猫の顔ないしペットの顔に最も類似する顔をユーザーが選択し、これを登録画像として用いるようにしてもよい。
コントラスト解析部5は、画像登録部4に格納されている登録画像を読み込み、登録画像における黒色の面積占有率B1を算出する。コントラスト解析部5における処理の詳細は後述する。
顔検出部2は、第1の顔判別器21(本明細書中では、例えば、「第1の判別器」に対応する。)と第2の顔判別器22(本明細書中では、例えば、「第2の判別器」に対応する。)を備える。顔判別器21、22は、いずれも任意の領域が犬・猫の顔であるか否かを判定する判別器で、入力画像から犬・猫の顔を検出するのに用いられる。ただし、後述するように顔判別器21、22は学習に用いる教師画像が相違し、これにより、第1の顔判別器21はコントラストの高い顔の検出に適し、第2の顔判別器22はコントラストの低い顔の検出に適しているという検出特性を有する。
顔検出部2は、入力画像から矩形の探索領域を抽出し、登録画像のコントラストに応じて第1の顔判別器21あるいは第2の顔判別器22を探索領域に対して適用し、探索領域が犬・猫の顔であるか否かを判定する。探索領域の抽出は、大きさ、座標を変えながら入力画像の全領域から行われ、これによって入力画像の全領域から犬・猫の顔の検出が行われる。顔検出部2はある探索領域を犬・猫の顔と判定すると、その位置、大きさを出力部3に出力する。
出力部3は、顔検出部2から受け取った犬・猫の顔の位置、大きさを外部に出力する。例えば、この画像処理装置をデジタルカメラのAF、AEに用いる場合は、出力部3は検出された顔を背面液晶に矩形枠で囲んで表示するとともに、デジタルカメラのAF制御部、AE制御部に顔の位置、大きさを出力する。また、この画像処理装置を画像の検索用インデキシングの作成に利用する場合は、入力画像のデータに対し、犬・猫の顔が含まれていることを示すラベルを付加し、他の処理部や記憶装置に出力する。
続いて、顔判別器21、22について詳しく説明する。
第1の顔判別器21は、図2に示すように、非特許文献1に開示されるAdaboostアルゴリズムによって生成される複数の識別器Hk(k=1〜S)をカスケード接続した構成である。複数の識別器Hk(k=1〜S)はいずれも探索領域が犬・猫の顔であるか否かを判定する識別器である。第1の顔判別器21は、探索領域に対して複数の識別器Hk(k=1〜S)を適用し、全ての識別器Hk(k=1〜S)で犬・猫の顔であるとの判定がなされたとき、当該探索領域が犬・猫の顔であると判定する。
前段の識別器で探索領域が犬・猫の顔であるという判定がなされた場合にのみ後段の識別器に進み、途中の識別器で探索領域が犬・猫の顔でないとの判定がなされると直ちに処理を終了するので、高速な処理が可能である。
識別器Hkは、それぞれ複数の弱識別器を線形結合することによって構成される。弱識別器は図3に示すような黒矩形と白矩形からなる矩形フィルタと閾値の組である。弱識別器は、矩形フィルタを探索領域に重ね合わせ、黒矩形に対応する領域内の輝度値の和と白矩形に対応する領域内の輝度値の和との差が閾値よりも大きいか判定する。そして、閾値よりも大きいときは犬・猫の顔であることを示す1、小さいときは犬・猫の顔でないことを示す0を出力する。
ある探索領域が識別器Hkに入力されると、識別器Hkは、識別器Hkを構成する各弱識別器の出力にその弱識別器の信頼度αを掛けた値の総和を算出し、その総和から所定の閾値ThTを減じて確信度C(k)を算出する(後述する式(6))。確信度C(k)はその領域が犬・猫の顔であることの確かさを表す値である。そして、識別器Hkは、確信度C(k)の符号を判定し、符号が正の場合は当該領域が犬・猫の顔であると判定する。
図4は識別器Hkを生成する学習処理の詳細を示したフローチャートである。識別器Hkを構成する弱識別器の選出はAdaboostアルゴリズムにより行われ、識別器Hkが予め用意されている複数の教師画像に対して所望の精度で犬・猫の顔か否かの判定ができるようになるまで繰り返される。第1の顔判別器21の学習には、犬・猫に含まれる顔中心領域を写した複数枚の画像(図5)と犬・猫に含まれる顔中心領域が写っていない複数枚の画像(図示せず)からなる画像セットが用いられる。なお、以下の説明で、添え字tは識別器Hkの更新回数(弱識別器を識別器Hkに追加した回数)であり、初期値は1である。
まず、次式(1)により、各教師画像の重みを初期値W1(i)に設定する(S1)。Nは教師画像の総数である。iは各画像に割り当てられる通し番号であり、1〜Nの値をとる。
次に、様々な弱識別器を全教師画像に対して適用し、次式(2)により誤り率εtを算出する(S2)。
次に、誤り率εtが最小になる弱識別器を、識別器Hkを構成する弱識別器htとして選出する(S3)。そして、選出された弱識別器htを識別器Hkに追加し、識別器Hkを更新する。
次に、選出された弱識別器htの誤り率εtに基づき、次式(3)により選出された弱識別器htの信頼度αtを算出する(S4)。
次に、選出された弱識別器htの信頼度αtに基づき、弱識別器htが判定を誤った教師画像の重みWt(i)を次式(4)により増加させ、逆に、判定が正しかった教師画像の重みWt(i)を次式(5)によって減少させる。さらに、更新後の重みWt(i)をそれらの総和で割って重みWt(i)を正規化する(S5)。
次に、次式(6)により、弱識別器htを全教師画像に適用し、その結果に対応する信頼度αtを掛けた値の総和から閾値ThTを引いて、確信度C(k)を算出する(S6)。xは画像の輝度情報である。
次に、全教師画像について確信度C(k)の正負に応じて犬・猫の顔か否かを判定する。そして、判定が正しく行われた画像の数を教師画像の総数Nで割って、検出精度を算出する(S7)。
次に、所望の検出精度が得られているか判定する(S8)。所望の検出精度が得られている場合は、選出された弱識別器htを線形結合して識別器Hkを構成する(S9)。
一方、所望の検出精度が得られていないと判定された場合は、更新回数tに1が加算され、S2に戻って新たな弱識別器の選出及び選出した弱識別器の識別器Hkへの追加が行われる。弱識別器の追加は所望の検出精度が得られるまで繰り返し行われる。
なお、通常、カスケード処理では前段の情報を持ち越さない場合が多いが、識別器Hkにおいて1段目からk段目の確信度C(k)の総和Cs(k)を次式(7)により算出し、Cs(k)の正負によって犬・猫の顔か否かを判定するようにしてもよい。このように、前段で算出した確信度も反映させたほうが、経験上、高い検出精度を得ることができることがわかっている。
第2の顔判別器22も第1の顔判別器21と同様に、複数の識別器Hkをカスケード接続した構成であり、複数の識別器Hkはそれぞれ図4に示した学習処理により生成される。ただし、第2の顔判別器22の学習には、第1の顔判別器21の学習とは異なり、犬・猫に含まれる顔全体領域を写した複数枚の画像(図6)と犬・猫に含まれる顔全体領域が写っていない複数枚の画像(図示せず)からなる画像セットが用いられる。
続いて、各処理部の処理の詳細について説明する。
図7は、コントラスト解析部5の処理内容の詳細を示したフローチャートである。この処理は顔検出部2により入力画像から顔検出を行う前に行われる。
これによると、まず、コントラスト解析部5は入力部1から登録画像を読み込む(S11)。図8は登録画像の一例であり、登録画像には検出したいペットの顔が含まれている。
次に、コントラスト解析部5は、登録画像中の各画素について黒色か否かを判定し、登録画像における黒色の面積占有率B1を算出する(S12)。黒色か否かの判定では、例えば、明度を黒を0、白を10とする10段階で表現した場合、明度が2以下の画素を黒色であると判定する。
したがって、この処理によれば、登録画像のコントラストの解析値として登録画像における黒色の面積占有率B1が算出される。
図9は顔検出部2の処理内容の詳細を示したフローチャートである。
これによると、まず、顔検出部2は入力部1から入力画像を読み込む(S21)。
次に、顔検出部2は入力画像から矩形の探索領域を抽出する(S22)。探索領域の抽出は、大きさ、座標を変えながら入力画像の全領域から行われる。
次に、顔検出部2はコントラスト解析部5で算出された登録画像における黒色の面積占有率B1が所定値よりも大きいか否かを判定する(S23)。所定値は例えば0.8に設定される。黒色の面積占有率B1が所定値よりも大きいときは、ペットの顔のコントラストが低いので、この場合は、顔検出部2は探索領域に対して第2の顔判別器22を適用し、犬・猫の顔の検出を行う(S24)。そうでない場合は、探索領域に対して第1の顔判別器21を適用し、犬・猫の顔の検出を行う(S25)。
顔検出部2は入力画像の全領域から探索が完了するまで上記S22〜S25の処理を繰り返す(S26)。そして、顔検出部2は、第1の顔判別器21あるいは第2の顔判別器22により犬・猫の顔と判定された探索領域の大きさ、座標を出力部3に出力する(S27)。
したがって、この処理によれば、登録画像のコントラストに基づき、第1の顔判別器21あるいは第2の顔判別器22が選択され、選択された顔判別器を用いて入力画像から犬・猫の顔が検出される。
続いて、第1実施形態に係る画像処理装置による作用効果について説明する。
上記画像処理装置によれば、検出したいペットの顔のコントラストが高い場合は、犬・猫に含まれる顔中心領域を写した画像を教師画像として学習させた第1の顔判別器21を用いて犬・猫の顔検出が行われる。逆に、コントラストが低い場合は、犬・猫に含まれる顔全体領域を写した画像を教師画像として学習させた第2の顔判別器22を用いて犬・猫の顔検出が行われる。
検出したいペットの顔のコントラストが高い場合は、種別によるバラツキの大きい顔の輪郭を含まない顔中心領域を判別する第1の顔判別器21を用いて犬・猫の顔検出が行われるので、ペットの顔を高い精度で検出することができる。
一方、検出したいペットの毛が黒く、その顔のコントラストが低い場合は、第1の顔判別器21では目、鼻といった特徴を判別できず、ペットの顔の検出精度が低下する。このため、この場合は、顔の輪郭も含む顔全体領域を判別する第2の顔判別器22を用いて犬・猫の顔検出が行われる。顔のコントラストが低くてもその輪郭を識別できる場合が多く、このように第2の顔判別器22を用いれば、コントラストの低いペットの顔の検出精度を向上させることができる。
したがって、上記画像処理装置によれば、検出したいペットの顔のコントラストに基づき、第1の顔判別器21及び第2の顔判別器22のうちペットの顔の検出に適した顔判別器を選択し、選択した顔判別器を用いてペットの顔の検出が行われるので、ペットの顔の検出精度を向上させることができる。
(第2実施形態)
続いて本発明の第2実施形態について説明する。
続いて本発明の第2実施形態について説明する。
図11は第2実施形態に係る画像処理装置の機能ブロック図を示す。第1実施形態と略同じ構成であるが、第2実施形態に係る画像処理装置は画像登録部4を備えていない。
さらに、顔検出部2、コントラスト解析部5における処理が第1実施形態と相違する。すなわち、第2実施形態に係る画像処理装置では、コントラスト解析部5は画像登録部4からではなく顔検出部2で抽出された探索領域の情報を受け取り、その探索領域のコントラストを解析し、解析結果を顔検出部2に返す。さらに、顔検出部2はその解析結果に基づき顔検出に用いる顔判別器21、22を選択する。
図12は顔検出部2の処理内容の詳細を示したフローチャートである。
これによると、まず、顔検出部2は入力部1から入力画像を読み込む(S31)。
次に、顔検出部2は入力画像から矩形の探索領域を抽出する(S32)。探索領域の抽出は、大きさ、座標を変えながら入力画像の全領域から行われる。
次に、顔検出部2は、探索領域の情報をコントラスト解析部5に送り、コントラスト解析部5で算出される探索領域における黒色の面積占有率B2を入手する。
次に、顔検出部2は、黒色の面積占有率B2が所定値よりも大きいか判定する(S34)。所定値は例えば0.8に設定される。
黒色の面積占有率B2が所定値よりも大きいときは、コントラストの高い顔が探索領域に含まれている可能性は低く、含まれているとすれば黒犬・黒猫等のコントラストの低い顔である。したがって、この場合は、顔検出部2はコントラストの低い顔の検出に適した第2の顔判別器22を用いて顔検出を行う(S35)。
一方、黒色の面積占有率B2が所定値よりも小さいときは、黒犬・黒猫等のコントラストの低い顔が探索領域に含まれている可能性は低く、含まれているとすればコントラストの高い顔である。したがって、この場合は、顔検出部2はコントラストの高い顔の検出に適した第1の顔判別器21を用いて顔検出を行う(S36)。
顔検出部2は入力画像の全領域から探索が完了するまで上記S34〜S36の処理を繰り返す(S37)。そして、顔検出部2は、第1の顔判別器21あるいは第2の顔判別器22により犬・猫の顔であると判定された探索領域の大きさ、座標を出力部3に出力する(S38)。
したがって、第2実施形態に係る画像処理装置によれば、探索領域のコントラストに基づき、探索領域に含まれている可能性のある犬・猫の顔の検出に適した顔判別器を選択し、選択した顔判別器を用いて顔検出が行われるので、犬・猫の顔検出の精度を向上させることができる。また、結果として、ペットの顔の検出精度も向上する。
(第3実施形態)
続いて本発明の第3実施形態について説明する。
続いて本発明の第3実施形態について説明する。
第3実施形態に係る画像処理装置の機能ブロック図は図1に示した第1実施形態のものと同じである。ただし、顔検出部2、コントラスト解析部5における処理が第1実施形態と相違する。なお、第3実施形態は、第1実施形態と同様に、検出したいペットの顔の検出精度を直接的に向上させるものである。
図12はコントラスト解析部5の処理の詳細を示したフローチャートである。
これによると、まず、コントラスト解析部5は入力部1から登録画像を読み込む(S41)。
次に、コントラスト解析部5は、第1の顔判別器21と同じ処理を登録画像に対して行い、登録画像から顔中心領域を検出する(S42)。また、コントラスト解析部5は、第2の顔判別器22と同じ処理を登録画像に対して行い、登録画像から顔全体領域を検出する(S43)。図13は登録画像から検出された顔中心領域、顔全体領域の例を示している。なお、図13に示す例では登録画像として第1実施形態と同じものを用いているが、第3実施形態では登録画像そのものではなく顔中心領域、顔全体領域を検出してそれらの領域のコントラストを解析するので、第1実施形態のように登録画像にペットの顔がなるべく大きく含まれるようにする必要はない。
そして、コントラスト解析部5は、登録画像から検出された顔中心領域、顔全体領域それぞれについて黒色の面積占有率Ba、Bbを算出する(S44)。顔中心領域、顔全体領域が検出されない場合は、検出されない領域における黒色の面積占有率を100%とすればよい。
したがって、この処理によれば、登録画像から検出された顔中心領域、顔全体領域それぞれにおける黒色の面積占有率Ba、Bbが各領域のコントラストの解析値として算出される。
図14は顔検出部2の処理の詳細を示したフローチャートである。
これによると、まず、顔検出部2は入力部1から入力画像を読み込む(S51)。
次に、顔検出部2は入力画像から矩形の探索領域を抽出する(S52)。探索領域の抽出は、大きさ、座標を変えながら入力画像の全領域から行われる。
次に、顔検出部2は登録画像から検出された顔中心領域における黒色の面積占有率Baが登録画像から検出された顔全体領域における黒色の面積占有率Bbよりも大きいか判定する(S53)。
BaがBbよりも大きいときは、検出したいペットの顔中心領域のコントラストが低い。この場合は、輪郭を含む顔全体領域を判別する第2の顔判別器22を適用した方がペットの顔の検出精度が高くなるので、第2の顔判別器22を用いて顔検出を行う(S54)。
逆に、BaがBbよりも小さいときは、検出したいペットの顔中心領域のコントラストが高い。この場合は、顔中心領域を判別する第1の顔判別器21を適用した方がペットの検出精度が高くなるので、第1の顔判別器21を用いて顔検出を行う(S55)。
顔検出部2は入力画像の全領域から探索が完了するまで上記S52〜S55の処理を繰り返す(S56)。そして、顔検出部2は、第1の顔判別器21あるいは第2の顔判別器22により犬・猫の顔であると判定された探索領域の大きさ、座標を出力部3に出力する(S57)。
したがって、第3実施形態に係る画像処理装置によれば、検出したいペットの顔の顔中心領域、顔全体領域のコントラストを比較し、コントラストのより高い領域を写した画像を教師画像として学習させた顔判別器、すなわち、ペットの顔の検出に適した判別器を用いて顔検出が行われるので、ペットの顔の検出精度を向上させることができる。
以上、本発明の実施形態について説明したが、上記実施形態は本発明の適用例を示したに過ぎず、本発明の技術的範囲を上記実施形態の具体的構成に限定する趣旨ではない。上記実施形態は本発明の趣旨を逸脱しない範囲で様々な変更が可能であり、そのような変更例も本発明の技術的範囲に含まれる。
例えば、上記実施形態に係る画像処理装置の検出対象は犬・猫の顔であるが、検出対象はこれに限定されず、様々な動植物、工業製品等の様々な部位(全体含む)の検出に利用することが可能である。
また、上記実施形態では、登録画像あるいは探索領域のコントラストに基づき第1の顔判別器21、第2の顔判別器22のいずれを用いるかを決定しているが、ユーザーが適宜、いずれの判別器を用いるかを選択できるようにしてもよい。
また、上記実施形態では、コントラストの解析値として黒色の面積占有率を算出しているが、登録画像あるいは探索領域における輝度値の最大値と最小値に基づき、コントラストを直接算出するようにしてもよい。これにより、毛が黒いことによりコントラストが低い場合だけでなく、毛と目、鼻の色が近いことによりコントラストが低い場合(例えば毛、目、鼻がいずれもグレーの場合)にも上記顔判別器21、22の使い分けが可能になり、検出精度をさらに向上させることができる。
また、上記実施形態では、第2の顔判別器22の学習に用いる教師画像の領域(顔全体領域)が第1の顔判別器21の学習に用いる教師画像の領域(顔中心領域)を包含する関係にあるが、2つの領域は必ずしも包含する関係にある必要はない。例えば、第2の顔判別器22の学習に用いる教師画像を顔の下半分領域を写した画像(口及び顎部の輪郭の画像)としてもよく、この場合、2つの顔判別器21、22の学習に用いる教師画像の領域は部分的に重なる関係となる。さらに、2つの顔判別器21、22の学習に用いる教師画像の領域が重なっていなくてもよく、2つの領域の大小関係が逆転しても構わない。
また、別の判別処理を追加することで、検出精度をさらに向上させることが可能である。この場合、顔判別器21、22を、顔の未検出を抑え、顔でない領域の過検出をある程度許容するようにし、過検出された顔でない領域を別の判別処理により除外するようにする。
顔判別器21、22をそのような検出特性とするには、顔判別器21、22を構成する識別器Hkの数を減らしたり(例えば20個から15個に変更)、識別器Hkの確信度C(k)を算出する際に用いる閾値ThTを小さな値に変更すればよい。
また、追加する別の判別処理としては、顔判別器21、22により顔と判定された領域の上部領域から耳を探索する処理を追加することができる。犬・猫の顔の場合、顔の上部領域に耳を有することが多いので、当該領域から耳が検出されたか否かにより、顔か否かをさらに絞り込むことができる。
この処理では、例えば、顔判別器21、22で顔と判定された領域の上部領域からHarrisの方法、SIFTによる特徴点の検出方法等を用いてコーナーを検出し、検出されたコーナーの角度が所定範囲(例えば20°〜80°)にあるときに耳の先端と判定する。そして、上部領域から耳の先端が検出されたか否かにより、顔判別器21、22で顔と判定された領域が顔であるか否かを再度判定する。
あるいは、別の判別処理としてコーナー特徴に基づき顔らしさのスコアを算出する処理を追加してもよい。この処理では、まず、顔判別器21、22で顔と判定された領域に含まれるコーナーを探索する。次に、眼、鼻に対応する領域(例えば、顔中央のT字型の領域)にコーナーが集中しやすいので、この領域に存在するコーナーの特徴量を重み付けし、コーナーの特徴量を合計することで顔らしさのスコアを算出する。そして、この顔らしさのスコアがしきい値よりも高いか否かにより、顔判別器21、22で顔と判定された領域が顔であるか否かを再度判定する。
また、上記画像処理装置は、デジタルカメラの他、デジタルビデオカメラ、電子内視鏡など、正しく作動するために電流または電磁界に依存する機器である電子機器に搭載することが可能である。
また、上記実施形態の説明では、画像処理装置が行う処理としてハードウェアによる処理を前提としていたが、このような構成に限定される必要はない。例えば、別途ソフトウェアにて処理する構成も可能である。
この場合、画像処理装置は、CPU、RAM等の主記憶装置、上記処理の全て或いは一部を実現させるためのプログラムが記憶されたコンピュータ読取り可能な記憶媒体を備える。ここでは、このプログラムを画像処理プログラムと呼ぶ。そして、CPUが上記記憶媒体に記憶されている画像処理プログラムを読み出して、情報の加工・演算処理を実行することにより、上記画像処理装置と同様の処理を実現させる。
ここで、コンピュータ読取り可能な記録媒体とは、磁気ディスク、光磁気ディスク、CD−ROM、DVD−ROM、半導体メモリ等をいう。また、この画像処理プログラムを通信回線によってコンピュータに配信し、この配信を受けたコンピュータが当該画像処理プログラムを実行するようにしても良い。
2 顔検出部(対象物検出部)
4 画像登録部
5 コントラスト解析部
21 第1の顔判別器(第1の判別器)
22 第2の顔判別器(第2の判別器)
4 画像登録部
5 コントラスト解析部
21 第1の顔判別器(第1の判別器)
22 第2の顔判別器(第2の判別器)
Claims (14)
- 画像から対象物を検出する画像処理装置であって、
前記対象物に含まれる第1の領域を写した複数枚の画像を教師画像として学習してその学習結果を用いて前記対象物の判別を行う第1の判別器と、前記対象物に含まれる前記第1の領域と異なる第2の領域を写した複数枚の画像を教師画像として学習してその学習結果を用いて前記対象物の判別を行う第2の判別器を有する対象物検出部を備え、
前記対象物検出部は、
前記対象物のうち特定の対象物のコントラストに基づき、前記第1の判別器及び前記第2の判別器のうち前記特定の対象物の検出に適した判別器を選択し、
選択した判別器を用いて前記画像から前記対象物を検出する、
ことを特徴とする画像処理装置。 - 前記特定の対象物の画像を登録する画像登録部と、
前記画像登録部に登録された画像に基づき前記特定の対象物のコントラストを解析するコントラスト解析部と、
を備えたことを特徴とする請求項1に記載の画像処理装置。 - 画像から対象物を検出する画像処理装置であって、
前記対象物に含まれる第1の領域を写した複数枚の画像を教師画像として学習してその学習結果を用いて前記対象物の判別を行う第1の判別器と、前記対象物に含まれる前記第1の領域と異なる第2の領域を写した複数枚の画像を教師画像として学習してその学習結果を用いて前記対象物の判別を行う第2の判別器を有する対象物検出部を備え、
前記対象物検出部は、
前記画像の全部ないし一部を探索領域として抽出し、
前記探索領域のコントラストに基づき、前記第1の判別器及び前記第2の判別器のうち前記探索領域に含まれている可能性のある前記対象物の検出に適した判別器を選択し、
選択した判別器を用いて前記探索領域から前記対象物を検出する、
ことを特徴とする画像処理装置。 - 画像から対象物を検出する画像処理装置であって、
前記対象物に含まれる第1の領域を写した複数枚の画像を教師画像として学習してその学習結果を用いて前記対象物の判別を行う第1の判別器と、前記対象物に含まれる前記第1の領域と異なる第2の領域を写した複数枚の画像を教師画像として学習してその学習結果を用いて前記対象物の判別を行う第2の判別器を有する対象物検出部を備え、
前記対象物検出部は、
前記対象物のうち特定の対象物の前記第1の領域のコントラストが前記第2の領域のコントラストよりも高いときは、前記第1の判別器を用いて前記画像から前記対象物を検出し、低いときは前記第2の判別器を用いて前記画像から前記対象物を検出する、
ことを特徴とする画像処理装置。 - 前記特定の対象物の画像を登録する画像登録部と、
前記画像登録部に登録された画像に基づき前記特定の対象物の前記第1の領域及び前記第2の領域のコントラストを解析するコントラスト解析部と、
を備えたことを特徴とする請求項4に記載の画像処理装置。 - 前記第2の領域は前記第1の領域に含まれない前記対象物の特徴を含む領域であることを特徴とする請求項1から5のいずれか一つに記載の画像処理装置。
- 前記対象物は生物の顔であり、
前記第1の領域は前記顔にある感覚器官を含むが前記顔の輪郭を含まない領域であり、
前記第2の領域は前記顔の輪郭を含む領域である、
ことを特徴とする請求項6に記載の画像処理装置。 - 請求項1から7のいずれか一つに記載の画像処理装置を備えたことを特徴とする電子機器。
- 画像から対象物を検出する画像処理方法であって、
前記対象物に含まれる第1の領域を写した複数枚の画像を教師画像として学習してその学習結果を用いて前記対象物の判別を行う第1の判別手順と、前記対象物に含まれる前記第1の領域と異なる第2の領域を写した複数枚の画像を教師画像として学習してその学習結果を用いて前記対象物の判別を行う第2の判別手順を有する対象物検出手順を備え、
前記対象物検出手順は、
前記対象物のうち特定の対象物のコントラストに基づき、前記第1の判別手順及び前記第2の判別手順のうち前記特定の対象物の検出に適した判別手順を選択し、
選択した判別手順を用いて前記画像から前記対象物を検出する、
ことを特徴とする画像処理方法。 - 画像から対象物を検出する画像処理方法であって、
前記対象物に含まれる第1の領域を写した複数枚の画像を教師画像として学習してその学習結果を用いて前記対象物の判別を行う第1の判別手順と、前記対象物に含まれる前記第1の領域と異なる第2の領域を写した複数枚の画像を教師画像として学習してその学習結果を用いて前記対象物の判別を行う第2の判別手順を有する対象物検出手順を備え、
前記対象物検出手順は、
前記画像の全部ないし一部を探索領域として抽出し、
前記探索領域のコントラストに基づき、前記第1の判別手順及び前記第2の判別手順のうち前記探索領域に含まれている可能性のある前記対象物の検出に適した判別手順を選択し、
選択した判別手順を用いて前記探索領域から前記対象物を検出する、
ことを特徴とする画像処理方法。 - 画像から対象物を検出する画像処理方法であって、
前記対象物に含まれる第1の領域を写した複数枚の画像を教師画像として学習してその学習結果を用いて前記対象物の判別を行う第1の判別手順と、前記対象物に含まれる前記第1の領域と異なる第2の領域を写した複数枚の画像を教師画像として学習してその学習結果を用いて前記対象物の判別を行う第2の判別手順を有する対象物検出手順を備え、
前記対象物検出手順は、
前記対象物のうち特定の対象物の前記第1の領域のコントラストが前記第2の領域のコントラストよりも高いときは、前記第1の判別手順を用いて前記画像から前記対象物を検出し、低いときは前記第2の判別手順を用いて前記画像から前記対象物を検出する、
ことを特徴とする画像処理方法。 - 画像から対象物を検出する画像処理をコンピュータに実行させる画像処理プログラムであって、
前記対象物に含まれる第1の領域を写した複数枚の画像を教師画像として学習してその学習結果を用いて前記対象物の判別を行う第1の判別手順と、前記対象物に含まれる前記第1の領域と異なる第2の領域を写した複数枚の画像を教師画像として学習してその学習結果を用いて前記対象物の判別を行う第2の判別手順を有する対象物検出手順を備え、
前記対象物検出手順は、
前記対象物のうち特定の対象物のコントラストに基づき、前記第1の判別手順及び前記第2の判別手順のうち前記特定の対象物の検出に適した判別手順を選択し、
選択した判別手順を用いて前記画像から前記対象物を検出する、
ことを特徴とする画像処理プログラム。 - 画像から対象物を検出する画像処理をコンピュータに実行させる画像処理プログラムであって、
前記対象物に含まれる第1の領域を写した複数枚の画像を教師画像として学習してその学習結果を用いて前記対象物の判別を行う第1の判別手順と、前記対象物に含まれる前記第1の領域と異なる第2の領域を写した複数枚の画像を教師画像として学習してその学習結果を用いて前記対象物の判別を行う第2の判別手順を有する対象物検出手順を備え、
前記対象物検出手順は、
前記画像の全部ないし一部を探索領域として抽出し、
前記探索領域のコントラストに基づき、前記第1の判別手順及び前記第2の判別手順のうち前記探索領域に含まれている可能性のある前記対象物の検出に適した判別手順を選択し、
選択した判別手順を用いて前記探索領域から前記対象物を検出する、
ことを特徴とする画像処理プログラム。 - 画像から対象物を検出する画像処理をコンピュータに実行させる画像処理プログラムであって、
前記対象物に含まれる第1の領域を写した複数枚の画像を教師画像として学習してその学習結果を用いて前記対象物の判別を行う第1の判別手順と、前記対象物に含まれる前記第1の領域と異なる第2の領域を写した複数枚の画像を教師画像として学習してその学習結果を用いて前記対象物の判別を行う第2の判別手順を有する対象物検出手順を備え、
前記対象物検出手順は、
前記対象物のうち特定の対象物の前記第1の領域のコントラストが前記第2の領域のコントラストよりも高いときは、前記第1の判別手順を用いて前記画像から前記対象物を検出し、低いときは前記第2の判別手順を用いて前記画像から前記対象物を検出する、
ことを特徴とする画像処理プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008158860A JP2010002960A (ja) | 2008-06-18 | 2008-06-18 | 画像処理装置、画像処理方法及び画像処理プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008158860A JP2010002960A (ja) | 2008-06-18 | 2008-06-18 | 画像処理装置、画像処理方法及び画像処理プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010002960A true JP2010002960A (ja) | 2010-01-07 |
Family
ID=41584671
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008158860A Withdrawn JP2010002960A (ja) | 2008-06-18 | 2008-06-18 | 画像処理装置、画像処理方法及び画像処理プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2010002960A (ja) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012129796A (ja) * | 2010-12-15 | 2012-07-05 | Sanyo Electric Co Ltd | 画像処理装置 |
CN103309643A (zh) * | 2012-03-14 | 2013-09-18 | 欧姆龙株式会社 | 图像处理器及图像处理方法 |
CN104217438A (zh) * | 2014-09-19 | 2014-12-17 | 西安电子科技大学 | 基于半监督的图像显著性检测方法 |
JP2015036123A (ja) * | 2013-08-09 | 2015-02-23 | 株式会社東芝 | 医用画像処理装置、医用画像処理方法及び分類器トレーニング方法 |
CN105241886A (zh) * | 2015-07-16 | 2016-01-13 | 西北大学 | 一种基于hvs与引导滤波器的土遗址裂缝检测方法 |
-
2008
- 2008-06-18 JP JP2008158860A patent/JP2010002960A/ja not_active Withdrawn
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012129796A (ja) * | 2010-12-15 | 2012-07-05 | Sanyo Electric Co Ltd | 画像処理装置 |
CN103309643A (zh) * | 2012-03-14 | 2013-09-18 | 欧姆龙株式会社 | 图像处理器及图像处理方法 |
JP2013191105A (ja) * | 2012-03-14 | 2013-09-26 | Omron Corp | 画像処理装置、画像処理方法、制御プログラムおよび記録媒体 |
JP2015036123A (ja) * | 2013-08-09 | 2015-02-23 | 株式会社東芝 | 医用画像処理装置、医用画像処理方法及び分類器トレーニング方法 |
CN104217438A (zh) * | 2014-09-19 | 2014-12-17 | 西安电子科技大学 | 基于半监督的图像显著性检测方法 |
CN104217438B (zh) * | 2014-09-19 | 2017-03-01 | 西安电子科技大学 | 基于半监督的图像显著性检测方法 |
CN105241886A (zh) * | 2015-07-16 | 2016-01-13 | 西北大学 | 一种基于hvs与引导滤波器的土遗址裂缝检测方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102192899B1 (ko) | 이미지에 보케 효과를 적용하는 방법 및 기록매체 | |
US10002313B2 (en) | Deeply learned convolutional neural networks (CNNS) for object localization and classification | |
JP4708909B2 (ja) | デジタル画像の対象物検出方法および装置並びにプログラム | |
JP5055166B2 (ja) | 眼の開閉度判定装置、方法及びプログラム、撮像装置 | |
KR20190028349A (ko) | 이미지 내 휴먼 분리를 위한 전자 장치 및 방법 | |
KR20220150868A (ko) | 모션벡터 및 특징벡터 기반 위조 얼굴 검출 방법 및 장치 | |
US11106903B1 (en) | Object detection in image data | |
CN104919791A (zh) | 图像处理设备、图像处理方法以及程序 | |
CN101983507A (zh) | 自动红眼检测 | |
KR102280201B1 (ko) | 머신 러닝을 이용하여 은닉 이미지를 추론하는 방법 및 장치 | |
KR20100075167A (ko) | 얼굴인식 기능을 이용한 디지털 영상 촬영 장치 및 방법 | |
JP2007065844A (ja) | 顔検出方法および装置並びにプログラム | |
JP5640621B2 (ja) | 赤目オブジェクト候補を分類する方法、コンピューター読み取り可能な媒体および画像処理装置 | |
JPWO2018216648A1 (ja) | 群衆状態認識装置、学習方法および学習プログラム | |
JP4757598B2 (ja) | 顔検出方法および装置並びにプログラム | |
JP2010002960A (ja) | 画像処理装置、画像処理方法及び画像処理プログラム | |
CN111598065A (zh) | 深度图像获取方法及活体识别方法、设备、电路和介质 | |
US20200267331A1 (en) | Capturing a photo using a signature motion of a mobile device | |
JP2012027572A (ja) | 画像処理装置および方法、並びにプログラム | |
JP2008003749A (ja) | 特徴点検出装置および方法並びにプログラム | |
JP6511950B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP6647134B2 (ja) | 被写体追跡装置及びそのプログラム | |
JP6098133B2 (ja) | 顔構成部抽出装置、顔構成部抽出方法及びプログラム | |
JP2009289230A (ja) | 画像処理装置、画像処理方法及び画像処理プログラム | |
KR101592087B1 (ko) | 배경 영상의 위치를 이용한 관심맵 생성 방법 및 이를 기록한 기록 매체 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20110906 |