JP2006323779A - 画像処理方法、画像処理装置 - Google Patents
画像処理方法、画像処理装置 Download PDFInfo
- Publication number
- JP2006323779A JP2006323779A JP2005148555A JP2005148555A JP2006323779A JP 2006323779 A JP2006323779 A JP 2006323779A JP 2005148555 A JP2005148555 A JP 2005148555A JP 2005148555 A JP2005148555 A JP 2005148555A JP 2006323779 A JP2006323779 A JP 2006323779A
- Authority
- JP
- Japan
- Prior art keywords
- image
- area
- rectangle
- face
- luminance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
【課題】 画像中の被写体を正確に検出するための技術を提供すること。
【解決手段】 入力された画像の輝度画像を再帰的に縮小することで複数枚の縮小画像を生成し(S103)、それぞれの縮小画像について、顔とおぼしき領域を検出し(S106)、検出したそれぞれの領域について、この領域を包含する近傍領域を設定し(S107)、設定したそれぞれの近傍領域について、この近傍領域内で顔とおぼしき領域を検出する(S110)。
【選択図】 図2
【解決手段】 入力された画像の輝度画像を再帰的に縮小することで複数枚の縮小画像を生成し(S103)、それぞれの縮小画像について、顔とおぼしき領域を検出し(S106)、検出したそれぞれの領域について、この領域を包含する近傍領域を設定し(S107)、設定したそれぞれの近傍領域について、この近傍領域内で顔とおぼしき領域を検出する(S110)。
【選択図】 図2
Description
本発明は、画像から検出対象を検出するための技術に関するものである。
画像から特定の被写体パターンを自動的に検出する画像処理方法は非常に有用であり、このような画像処理方法は例えば、人間の顔を検出するために利用することができる。このような方法は、通信会議、マン・マシン・インタフェース、セキュリティ、人間の顔を追跡するためのモニタ・システム、画像圧縮などの多くの分野で使用することができる。このような画像中から顔を検出する技術としては、例えば、非特許文献1に各種方式が挙げられている。その中では、いくつかの顕著な特徴(2つの目、口、鼻など)とその特徴間の固有の幾何学的位置関係とを利用するか、又は人間の顔の対称的特徴、人間の顔色の特徴、テンプレート・マッチング、ニューラル・ネットワークなどを利用することによって、人間の顔を検出する方式が示されている。
例えば、非特許文献2で提案されている方式は、ニューラル・ネットワークにより画像中の顔パターンを検出する方法である。以下、非特許文献2による顔検出の方法について簡単に説明する。
まず、顔を含む画像をメモリに読み込み、この画像から、顔と照合する所定の領域を切り出す。そして、切り出した領域を構成する各画素の画素値の分布を入力としてニューラル・ネットワークによる演算で一つの出力を得る。
このとき、ニューラル・ネットワークの重み、閾値は、膨大な顔画像パターンと非顔画像パターンによりあらかじめ学習されており、このようなニューラル・ネットワークを用いれば、例えば、ニューラル・ネットワークの出力が0以上なら顔、それ以外は非顔であると判別することができる。
そして、ニューラル・ネットワークの入力である顔と照合する画像パターンの切り出し位置を、例えば、画像全域から縦横順次に走査していくことにより、画像中から顔を検出する。
また、様々な大きさの顔の検出に対応するため、読み込んだ画像を所定の割合で順次縮小し、それぞれに対して、前述した顔検出の走査を行うようにしている。
上述の方法で1つの判別器を利用して顔検出を行った場合、本来顔でないものが顔であると判別され、誤ったパターンが検出される状況が発生する。そこで、非特許文献2では、異なるサンプルセットを用いて学習した複数の判別器を組み合わせて利用することで、誤検出パターンを減少させている。複数判別器の組合せ方法として、全ての判別器で検出されたパターンのみを正解顔パターンとするAND接続、それぞれの判別器で検出されたパターンを全て正解顔パターンとするOR接続、等が提案されている。
例えば、判別器1により顔であると判別されたパターンが図6(a)において実線で示した矩形部分で、判別器2により顔であると判別されたパターンが図6(b)において点線で示した矩形部分である場合、複数判別器のAND接続では、それぞれの画像を重ね合わせるのであるが、その場合には図6(c)に示す如く、実線で示す矩形と点線で示す矩形とはずれてしまうことが多い。即ち、二つの判別器で共通して顔であると判別されたパターンは存在しない。図6は、様々な判別器で判別された結果を示す図である。
しかしながら、それぞれの判別器は明らかに画像中の顔を正確に検出している。このように、ANDを取った場合は、検出パターンの画像上における位置のわずかなずれによって、正確な顔パターンが落ちてしまう問題がある。
また、OR接続では、明らかに顔でない部分に検出されたパターンも残ってしまい、1つの判別器を利用した場合より誤検出が増加してしまう問題がある。
IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE, VOL.24 , NO.1, JANUARY 2002、"Detecting Faces in Images: A Survey" IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE, VOL.20 , NO.1, JANUARY 1998、"Neural network-based face detection"
IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE, VOL.24 , NO.1, JANUARY 2002、"Detecting Faces in Images: A Survey" IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE, VOL.20 , NO.1, JANUARY 1998、"Neural network-based face detection"
本発明は以上の問題に鑑みてなされたものであり、画像中の被写体を正確に検出するための技術を提供することを目的とする。
本発明の目的を達成するために、例えば本発明の画像処理方法は以下の構成を備える。
即ち、画像から所定の被写体を検出する画像処理方法であって、
前記画像の輝度成分で構成される輝度画像を生成する生成工程と、
前記輝度画像を再帰的に縮小することで、複数枚の縮小画像を生成する縮小工程と、
それぞれの縮小画像について、所定の被写体とおぼしき領域を検出する第1の検出工程と、
前記第1の検出工程で検出したそれぞれの領域について、当該領域を包含する近傍領域を設定する設定工程と、
前記設定工程で設定したそれぞれの近傍領域について、当該近傍領域内で前記所定の被写体とおぼしき領域を検出する第2の検出工程と
を備えることを特徴とする。
前記画像の輝度成分で構成される輝度画像を生成する生成工程と、
前記輝度画像を再帰的に縮小することで、複数枚の縮小画像を生成する縮小工程と、
それぞれの縮小画像について、所定の被写体とおぼしき領域を検出する第1の検出工程と、
前記第1の検出工程で検出したそれぞれの領域について、当該領域を包含する近傍領域を設定する設定工程と、
前記設定工程で設定したそれぞれの近傍領域について、当該近傍領域内で前記所定の被写体とおぼしき領域を検出する第2の検出工程と
を備えることを特徴とする。
本発明の目的を達成するために、例えば本発明の画像処理装置は以下の構成を備える。
即ち、画像から所定の被写体を検出する画像処理装置であって、
前記画像の輝度成分で構成される輝度画像を生成する生成手段と、
前記輝度画像を再帰的に縮小することで、複数枚の縮小画像を生成する縮小手段と、
それぞれの縮小画像について、所定の被写体とおぼしき領域を検出する第1の検出手段と、
前記第1の検出手段によって検出したそれぞれの領域について、当該領域を包含する近傍領域を設定する設定手段と、
前記設定手段によって設定したそれぞれの近傍領域について、当該近傍領域内で前記所定の被写体とおぼしき領域を検出する第2の検出手段と
を備えることを特徴とする。
前記画像の輝度成分で構成される輝度画像を生成する生成手段と、
前記輝度画像を再帰的に縮小することで、複数枚の縮小画像を生成する縮小手段と、
それぞれの縮小画像について、所定の被写体とおぼしき領域を検出する第1の検出手段と、
前記第1の検出手段によって検出したそれぞれの領域について、当該領域を包含する近傍領域を設定する設定手段と、
前記設定手段によって設定したそれぞれの近傍領域について、当該近傍領域内で前記所定の被写体とおぼしき領域を検出する第2の検出手段と
を備えることを特徴とする。
本発明の構成により、画像中の被写体を正確に検出することができる。
以下添付図面を参照して、本発明を好適な実施形態に従って詳細に説明する。
本実施形態に係る画像処理装置は、PC(パーソナルコンピュータ)やWS(ワークステーション)等のコンピュータにより構成されており、ディジタルカメラなどの撮像装置から入力した画像、インターネットなどのネットワークを介して外部機器からダウンロードした画像、CD−ROMやDVD−ROMなどの記憶媒体からの読み出しにより入力した画像など、様々な入力形態で入力した画像中に含まれている所定の被写体を検出する。なお、本実施形態では被写体として人間の顔を用いるが、その他の被写体を用いても良い。
先ず、このような処理を行う本実施形態に係る画像処理装置について説明する。図3は、本実施形態に係る画像処理装置に適用可能なコンピュータのハードウェア構成を示す図である。
201はCPUで、RAM202やROM203に格納されているプログラムやデータを用いてコンピュータ全体の制御を行うと共に、コンピュータが行う後述の各処理を実行する。
202はRAMで、外部記憶装置207や記憶媒体ドライブ装置208から読み出したプログラムやデータを一時的に記憶するためのエリア、I/F209を介して外部から受信したデータを一時的に記憶する為のエリア、CPU201が各種の処理を実行する為に用いるワークエリア等、各種のエリアを適宜提供することができる。
203はROMで、ここにブートプログラムや本コンピュータの設定データなどを格納する。
204、205は夫々キーボード、マウスで、コンピュータの操作者が操作することで各種の指示をCPU201に対して入力することができる。
206は表示部で、CRTや液晶画面などにより構成されており、CPU201による処理結果を文字や画像等でもって表示する。
207は外部記憶装置で、例えばハードディスクドライブ装置等の大容量情報記憶装置であって、ここにOS(オペレーティングシステム)や、コンピュータが行う後述の各処理をCPU201に実行させるためのプログラムやデータが格納されており、これらはCPU201による制御に従って適宜RAM202に読み出される。
208は記憶媒体ドライブ装置で、CD−ROMやDVD−ROMなどの記憶媒体に記録されているプログラムやデータを読み出して、RAM202や外部記憶装置207に出力する。なお、上記外部記憶装置207に記憶されているプログラムやデータの一部を上記記憶媒体に記録しておいても良く、その場合には、これら記憶されているプログラムやデータを使用する際に、記憶媒体ドライブ装置208がこの記憶媒体に記録されているプログラムやデータを読み出して、RAM202に出力する。
209はI/F(インターフェース)で、ここにディジタルカメラやインターネットやLANのネットワーク回線等を接続することができる。
210は上述の各部を繋ぐバスである。
なお、コンピュータへの画像の入力形態については特に限定するものではなく、様々な形態が考えられる。
図1は、本実施形態に係る画像処理装置に適用可能なコンピュータの機能構成を示すブロック図である。
10は画像入力部で、例えばディジタルスチルカメラ、フィルムスキャナーなどの装置から出力された画像データを受け、後段の画像縮小部20に出力するものである。なお、上述の通り、画像の入力形態については特に限定するものではない。
20は画像縮小部で、画像入力部10から受けた画像データに基づいて輝度画像を生成する。そして生成した輝度画像を再帰的に縮小することで、複数枚の縮小画像を生成する。生成したそれぞれの縮小画像(画像入力部10から受けた画像データに基づいて生成したオリジナルの輝度画像も1/1の縮小画像と解釈すれば、このオリジナルもまた、縮小画像に含めることができる)は順次後段の照合パターン抽出部30に出力する。
30は照合パターン抽出部で、画像縮小部20から縮小画像を受けると、この縮小画像上で所定サイズの矩形を移動させながら、この矩形に含まれる部分(画素群)を「照合対象のパターン」として順次抽出し、後段の輝度正規化部40に出力する。このような処理は、画像縮小部20から受けたそれぞれの縮小画像について行う。
40は輝度正規化部で、照合パターン抽出部30から受けた照合対象のパターンを構成する画素群の輝度分布を正規化する。
50は第1の顔判別部で、輝度正規化部40で正規化された照合パターンが顔パターンであるか、それとも非顔パターンであるのかを判別する処理を行う。
60は近傍候補設定部で、第1の顔判別部50が顔パターンと判断した照合パターンを包含する領域(近傍候補領域)を設定する。なお、近傍候補設定部60が近傍候補領域を設定すると、設定した近傍候補領域を示す情報は照合パターン抽出部30に入力される。すると照合パターン抽出部30は、近傍候補設定部60が設定した近傍候補領域(縮小画像中、顔とおぼしき領域を包含する領域)に含まれる部分(画素群)上で所定サイズの矩形を移動させながら、この矩形に含まれる部分(画素群)を「照合対象のパターン」として順次抽出し、後段の輝度正規化部40に出力する。輝度正規化部40はこの照合対象のパターンを構成する画素群の輝度分布を正規化する。
70は第2の顔判別部で、輝度正規化部40で輝度分布が正規化された照合対象のパターン(近傍候補領域中の照合パターンの輝度分布を正規化したもの)が顔パターンか非顔パターンかを判別する。第2の顔判別部70は、第1の顔判別部50とはあらかじめ異なるサンプルセットを用いて学習して得たものである。また、第2の顔判別部70における顔検出処理は、第1の顔判別部50における処理と同様に、様々な検出方法が適用可能である。
80は顔領域出力部で、第2の顔判別部70が顔パターンと判別した照合パターンに係る情報を出力する。
以上の各部は、例えば、CPU201の一機能として動作するものである。
次に、CPU201が図1に示した各部として動作することでなされる処理、即ち、画像中に含まれている被写体を検出するための処理について、同処理のフローチャートを示す図2を用いて以下説明する。なお、同図のフローチャートに従った処理をCPU201に実行させるためのプログラムやデータは外部記憶装置207(もしくは記憶媒体ドライブ装置208が読み取り可能な記憶媒体)に保存されており、これをCPU201の制御に従って適宜RAM202にロードし、CPU201がこれを用いて処理を実行することで、コンピュータは以下説明する各処理を実行することになる。
外部記憶装置207から、若しくはI/F209を介して外部から画像データが入力されると、CPU201はこれをRAM202に一時的に格納する(ステップS101)。なお、本コンピュータに入力した画像が圧縮されている場合には、これを伸張してからRAM202に一時的に格納する。
本実施形態では、入力された画像データを構成する各画素は、R、G、Bで表現されるものであるとする。従って、ステップS101でRAM202に格納した画像データに基づいて、この画像の輝度成分で構成される画像(輝度画像)、即ち、この画像を構成する各画素の値をこの画素の輝度値に変換した画像を生成する(ステップS102)。しかし、ステップS101でRAM202に格納した画像データを構成する各画素がYCrCbで表現されるものである場合には、ステップS102では、Y成分のみを用いて輝度画像を生成する。
次に、生成した輝度画像を再帰的に縮小することで、複数枚の縮小画像を生成する(ステップS103)。例えば、元の画像の縦横のサイズを1/1.2倍した縮小画像1を生成し、次に縮小画像1の縦横のサイズを1/1.2倍した縮小画像2を生成する、というように、複数枚の縮小画像を生成する。なお、生成する縮小画像の枚数については特に限定するものではない。
そして、ステップS104以降では、生成したそれぞれの縮小画像について処理を行う。即ち、ステップS104以降の処理は、生成した縮小画像の数だけ繰り返し行うことになる。
以降の説明では、生成した縮小画像はサイズの大きい順に縮小画像1、縮小画像2、、、、縮小画像Nと呼称するものとし、先ず、縮小画像1について以降の処理を行うものとする。なお、処理の対象として選択する順番については特に限定するものではない。
先ず、縮小画像1上に所定サイズの矩形を配置し、矩形内の部分(画素群)を照合パターンとして抽出する(ステップS104)。この矩形は、縮小画像1上の各位置に配置した場合に、それぞれの位置における矩形内の輝度分布を得るためのものであるので、例えばこの矩形は最初は画像の左上隅に配置する。
次に、ステップS104で抽出した照合パターン内の各画素の輝度分布を正規化する処理を行う(ステップS105)。例えば、ヒストグラム平滑化などの輝度補正を行う。これは、撮像される被写体パターンはその照明条件によって輝度分布が変わるので被写体照合の精度が劣化するのを抑制するためである。
次に、ステップS105で輝度分布が正規化された照合パターン(輝度パターン)が顔のパターン(顔とおぼしきパターン)を示すものであるのかを判別する処理を行う(ステップS106)。
図5は、所定領域内のパターンを識別する為のニューラルネットワークの動作について示した図である。同図においてRは、例えば画像上で識別する領域を示すものであり、本実施形態ではこの領域Rを同図に示す如く、3種類の方法にてさらに領域分割し、各ニューロン(Nで示す)への受容野とする。そして、分割された領域の輝度分布を各ニューロンに入力し、中間層での出力が得られる。そして、各ニューロンの出力を出力層のニューロンの入力として最終出力が得られる。
ここで、各ニューロンでは予め学習によって得られた重みと輝度分布との積和演算およびその結果のシグモイド関数による演算が行われる。本実施形態では出力層のニューロンの出力値を顔確率とした(ニューラル・ネットワークの詳細および学習の方法については、上記非特許文献2を参照されたい)。なお、顔判別処理の方法がこれに限定するものではなく、例えば、Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2001に”Rapid Object Detection using a Boosted Cascade of Simple Features”と題するViolaとJonesによる報告で提案されているAdaBoostによる方式を用いてもよい。
図4は、様々なサイズの縮小画像(本実施形態の場合には縮小画像1、縮小画像2、、、、縮小画像N)について、顔のパターンを検出するための処理を説明する図である。それぞれの縮小画像上の各位置に同じサイズの矩形を配置した場合に、それぞれの位置における矩形内の領域が顔のパターンであるのか否かを判断するために、先ず、同図左側に示す如く、縮小画像の左上隅に矩形を配置し、そこから右側に、上から下に向かって矩形の位置を移動させる。移動させる毎に矩形内の画素群は照合パターンとして顔のパターンの判別に用いられる。
図2に戻って、顔のパターンであると判別した場合には処理をステップS106からステップS107に進め、照合パターンを包含する所定のサイズの領域、即ち、上記近傍候補領域を設定する(ステップS107)。ここで近傍候補領域について図7を用いて説明する。
図7は、近傍候補領域について説明する図である。ステップS106で顔のパターンと判別された領域(照合パターン)を図7(a)中のPとすると、この領域Pを包含する近傍候補領域は図7(a)中のRである。この近傍候補領域Rは同図に示す如く、顔のパターンと判別された領域Pを所定の範囲だけ拡張したものとなる。この時、どれ位の範囲を近傍候補領域として決定するのかは、照合パターンのサイズと縮小画像1の大きさによって決定してもよい。
図2に戻って、次に、近傍候補領域上に所定サイズの矩形を配置し、矩形内の部分(画素群)を照合パターンとして抽出する(ステップS108)。この矩形は、近傍候補領域上の各位置に配置した場合に、それぞれの位置における矩形内の輝度分布を得るためのものであるので、例えばこの矩形は最初は近傍候補領域の左上隅に配置する。
そして、次に、ステップS108で抽出した照合パターン内の各画素の輝度分布を、ステップS105と同様にして正規化する処理を行う(ステップS109)。
次に、ステップS109で輝度分布が正規化された照合パターン(輝度パターン)が顔のパターン(顔とおぼしきパターン)を示すものであるのかを判別する処理をステップS106と同様にして行う(ステップS110)。
判別処理の結果、顔のパターンである場合には処理をステップS111に進め、現在の照合パターンの画像中における位置、及び縮小画像1に対する照合パターンの相対的なサイズをRAM202、若しくは外部記憶装置207に記録する処理を行う(ステップS111)。縮小画像1に対する照合パターンの相対的なサイズとは、例えば、縮小画像kの縮小率がk(0<k<1)、照合パターンの絶対サイズがsである場合、s/kとなる。
なお、必要に応じて、縮小画像1を識別するための情報(例えばID)も記録するようにしても良い。そして処理をステップS114に進める。
一方、判別処理の結果、顔のパターンではない場合には処理をステップS112に進め、近傍候補領域上における矩形の移動先があるのかをチェックする(ステップS112)。即ち、近傍候補領域上における矩形の位置を移動させ、次の位置における矩形内の部分(画素群)を照合パターンとして抽出する処理を行う場合に、移動先が無い場合、例えば、現在の矩形の位置が既に近傍候補領域の右下隅の位置であれば、もう矩形の移動は行えない。一方、現在の矩形の位置が既に近傍候補領域の右下隅の位置でなければ、矩形の移動を行うことができる。
従って、移動先がある場合には処理をステップS112からステップS113に進め、近傍候補領域上における矩形の位置を移動させる(ステップS113)。矩形の移動は図7(b)に示す如く、近傍候補領域内を左から右へ、上から下へ移動させる。そして矩形の移動が完了すると、処理をステップS108に進め、移動先の矩形内における照合パターンを抽出する。
一方、矩形の移動先がない場合には、この近傍候補領域内には顔のパターンは存在しないことになる。よって処理をステップS114に進める。
ステップS114では、縮小画像1上における矩形の移動先があるのかをチェックする(ステップS114)。即ち、縮小画像1上における矩形の位置を移動させ、次の位置における矩形内の部分(画素群)を照合パターンとして抽出する処理を行う場合に、移動先が無い場合、例えば、現在の矩形の位置が既に縮小画像1の右下隅の位置であれば、もう矩形の移動は行えない。一方、現在の矩形の位置が既に縮小画像1の右下隅の位置でなければ、矩形の移動を行うことができる。
従って、移動先がある場合には処理をステップS114からステップS115に進め、縮小画像1上における矩形の位置を移動させる(ステップS115)。矩形の移動は図4に示す如く、縮小画像1内を左から右へ、上から下へ移動させる。矩形の移動が終わったら、処理をステップS104に進め、移動先の矩形内における照合パターンを抽出する。
一方、矩形の移動先がない場合には、処理をステップS116に進め、全ての縮小画像について以上の処理を行ったのかを判断し(ステップS116)、まだ顔の検出処理を行っていない縮小画像がある場合には処理をステップS117に進め、縮小画像上に配置する矩形の位置を初期化(例えば縮小画像の左上隅の位置に戻す)し(ステップS117)、次の縮小画像についてステップS104以降の処理を行う。
本実施形態では現在縮小画像1について顔の検出処理を行ったので、次は縮小画像2について顔の検出処理を行う。よってこの場合には、縮小画像2上の左上隅の位置に矩形を配置し(ステップS117)、この縮小画像2についてステップS104以降の処理を行う。
よって、以上のように、異なる縮小率の縮小画像のそれぞれについて、同じサイズの照合パターンを抽出し、抽出した照合パターンを用いて顔の検出処理を行うことで、顔が画像中にどのような比率で占めていようとも、画像中における顔を検出することができる。例えば縮小率の高い縮小画像のサイズは限りなく照合パターンのサイズに近づくので、例え画像中に大きく顔が占めているような場合であっても、この顔は照合パターン内に収まる可能性が高く、この顔を検出する可能性は高い。
なお、図2のフローチャートに従って、全ての縮小画像について顔の検出処理を行うと、複数の顔のパターンが検出される可能性がある。そのような場合には、ステップS110における判別処理で、例えば、ニューラルネットワークを用いた場合には、最終層からの出力値が最も大きかったときにステップS111で記録した位置、サイズを最終的な出力としても良い。
また、本実施形態では、画像から顔とおぼしき領域を検出しても、それが顔の領域であるのかをより正確に判断するために、この領域を包含する領域を設定し、設定したこの包含領域内で更に顔とおぼしき領域の検出処理を行うので、顔とおぼしき領域の誤検出を減少させることができる。
また、本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記録媒体(または記憶媒体)を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムコードを読み出し実行することによっても、達成されることは言うまでもない。この場合、記録媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記録した記録媒体は本発明を構成することになる。
また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
さらに、記録媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
本発明を上記記録媒体に適用する場合、その記録媒体には、先に説明したフローチャートに対応するプログラムコードが格納されることになる。
Claims (7)
- 画像から所定の被写体を検出する画像処理方法であって、
前記画像の輝度成分で構成される輝度画像を生成する生成工程と、
前記輝度画像を再帰的に縮小することで、複数枚の縮小画像を生成する縮小工程と、
それぞれの縮小画像について、所定の被写体とおぼしき領域を検出する第1の検出工程と、
前記第1の検出工程で検出したそれぞれの領域について、当該領域を包含する近傍領域を設定する設定工程と、
前記設定工程で設定したそれぞれの近傍領域について、当該近傍領域内で前記所定の被写体とおぼしき領域を検出する第2の検出工程と
を備えることを特徴とする画像処理方法。 - 前記第1の検出工程ではそれぞれの縮小画像について、
縮小画像上の各位置に所定サイズの矩形を配置した場合に、それぞれの位置における矩形内の輝度分布を正規化する第1の計算工程と、
矩形内の輝度分布を正規化した結果に基づいて、当該矩形内の領域が前記所定の被写体とおぼしき領域であるのかを判断する処理を、それぞれの位置における矩形について行う第1の判断工程と
を備えることを特徴とする請求項1に記載の画像処理方法。 - 前記第2の検出工程では、
前記設定工程で設定したそれぞれの近傍領域について、当該近傍領域内の輝度分布を正規化する第2の計算工程と、
輝度分布を正規化した近傍領域上の各位置に所定サイズの矩形を配置した場合に、それぞれの位置における矩形のうち、何れの矩形内の領域が前記所定の被写体とおぼしき領域であるのかを判断する第2の判断工程と
を備えることを特徴とする請求項1又は2に記載の画像処理方法。 - 前記所定の被写体は、人間の顔であることを特徴とする請求項1乃至3の何れか1項に記載の画像処理方法。
- 画像から所定の被写体を検出する画像処理装置であって、
前記画像の輝度成分で構成される輝度画像を生成する生成手段と、
前記輝度画像を再帰的に縮小することで、複数枚の縮小画像を生成する縮小手段と、
それぞれの縮小画像について、所定の被写体とおぼしき領域を検出する第1の検出手段と、
前記第1の検出手段によって検出したそれぞれの領域について、当該領域を包含する近傍領域を設定する設定手段と、
前記設定手段によって設定したそれぞれの近傍領域について、当該近傍領域内で前記所定の被写体とおぼしき領域を検出する第2の検出手段と
を備えることを特徴とする画像処理装置。 - コンピュータに請求項1乃至4の何れか1項に記載の画像処理方法を実行させることを特徴とするプログラム。
- 請求項6に記載のプログラムを格納したことを特徴とする、コンピュータ読み取り可能な記憶媒体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005148555A JP2006323779A (ja) | 2005-05-20 | 2005-05-20 | 画像処理方法、画像処理装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005148555A JP2006323779A (ja) | 2005-05-20 | 2005-05-20 | 画像処理方法、画像処理装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006323779A true JP2006323779A (ja) | 2006-11-30 |
Family
ID=37543392
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005148555A Withdrawn JP2006323779A (ja) | 2005-05-20 | 2005-05-20 | 画像処理方法、画像処理装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006323779A (ja) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2009004901A1 (ja) * | 2007-06-29 | 2009-01-08 | Olympus Corporation | 顔検出装置、デジタルカメラ及び顔検出プログラム |
WO2009130899A1 (ja) * | 2008-04-25 | 2009-10-29 | パナソニック株式会社 | 画像処理装置、画像処理方法、及び画像処理用集積回路 |
WO2010032294A1 (ja) * | 2008-09-17 | 2010-03-25 | 富士通株式会社 | 画像処理装置、画像処理方法および画像処理プログラム |
JP2010117981A (ja) * | 2008-11-14 | 2010-05-27 | Mitsubishi Electric Corp | 顔検出装置 |
US8249359B2 (en) | 2007-04-13 | 2012-08-21 | Panasonic Corporation | Detector for detecting a predetermined image in an input image, and detection method and integrated circuit for performing the same |
JP2019530039A (ja) * | 2017-06-06 | 2019-10-17 | ミデア グループ カンパニー リミテッドMidea Group Co., Ltd. | ディープニューラルネットワークを用いた粗略から精細な手検出方法 |
CN118314125A (zh) * | 2024-06-05 | 2024-07-09 | 中铁七局集团第三工程有限公司 | 一种用于盾构刀盘的磨损影像检测方法及系统 |
-
2005
- 2005-05-20 JP JP2005148555A patent/JP2006323779A/ja not_active Withdrawn
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8249359B2 (en) | 2007-04-13 | 2012-08-21 | Panasonic Corporation | Detector for detecting a predetermined image in an input image, and detection method and integrated circuit for performing the same |
US8643738B2 (en) | 2007-06-29 | 2014-02-04 | Olympus Corporation | Face detection device, digital camera, and computer readable storage medium which stores a face detection program |
WO2009004901A1 (ja) * | 2007-06-29 | 2009-01-08 | Olympus Corporation | 顔検出装置、デジタルカメラ及び顔検出プログラム |
WO2009130899A1 (ja) * | 2008-04-25 | 2009-10-29 | パナソニック株式会社 | 画像処理装置、画像処理方法、及び画像処理用集積回路 |
US8265339B2 (en) | 2008-04-25 | 2012-09-11 | Panasonic Corporation | Image processing device, image processing method, and integrated circuit for processing images |
WO2010032294A1 (ja) * | 2008-09-17 | 2010-03-25 | 富士通株式会社 | 画像処理装置、画像処理方法および画像処理プログラム |
JP4719825B2 (ja) * | 2008-09-17 | 2011-07-06 | 富士通株式会社 | 画像処理装置、画像処理方法および画像処理プログラム |
JPWO2010032294A1 (ja) * | 2008-09-17 | 2012-02-02 | 富士通株式会社 | 画像処理装置、画像処理方法および画像処理プログラム |
US8358849B2 (en) | 2008-09-17 | 2013-01-22 | Fujitsu Limited | Image processing apparatus and image processing method |
JP2010117981A (ja) * | 2008-11-14 | 2010-05-27 | Mitsubishi Electric Corp | 顔検出装置 |
JP2019530039A (ja) * | 2017-06-06 | 2019-10-17 | ミデア グループ カンパニー リミテッドMidea Group Co., Ltd. | ディープニューラルネットワークを用いた粗略から精細な手検出方法 |
US10817716B2 (en) | 2017-06-06 | 2020-10-27 | Midea Group Co., Ltd. | Coarse-to-fine hand detection method using deep neural network |
CN118314125A (zh) * | 2024-06-05 | 2024-07-09 | 中铁七局集团第三工程有限公司 | 一种用于盾构刀盘的磨损影像检测方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8923564B2 (en) | Face searching and detection in a digital image acquisition device | |
US8781221B2 (en) | Hand gesture recognition system | |
US8401250B2 (en) | Detecting objects of interest in still images | |
JP4410732B2 (ja) | 顔画像検出装置、顔画像検出方法および顔画像検出プログラム | |
US20180211138A1 (en) | Information processing device, information processing method, and storage medium | |
KR101896357B1 (ko) | 객체를 검출하는 방법, 디바이스 및 프로그램 | |
WO2019033572A1 (zh) | 人脸遮挡检测方法、装置及存储介质 | |
JP5361524B2 (ja) | パターン認識システム及びパターン認識方法 | |
JP2009211179A (ja) | 画像処理方法、パターン検出方法、パターン認識方法及び画像処理装置 | |
JP2008033424A (ja) | 画像処理装置、画像処理方法、プログラム及び記憶媒体 | |
US7831068B2 (en) | Image processing apparatus and method for detecting an object in an image with a determining step using combination of neighborhoods of a first and second region | |
JP2005056387A (ja) | 画像処理装置、撮像装置、画像処理方法 | |
JP2000132688A (ja) | 顔パーツ検出方法及びその装置 | |
CN101983507A (zh) | 自动红眼检测 | |
JP2006323779A (ja) | 画像処理方法、画像処理装置 | |
JP2005190400A (ja) | 顔画像検出方法及び顔画像検出システム並びに顔画像検出プログラム | |
JP2007025902A (ja) | 画像処理装置、画像処理方法 | |
JP2008102611A (ja) | 画像処理装置 | |
US7403636B2 (en) | Method and apparatus for processing an image | |
JP2010176504A (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP2007026308A (ja) | 画像処理方法、画像処理装置 | |
JP2005134966A (ja) | 顔画像候補領域検索方法及び検索システム並びに検索プログラム | |
JP2006040231A (ja) | 画像処理装置及びその方法、撮像装置、プログラム | |
JP4789526B2 (ja) | 画像処理装置、画像処理方法 | |
JP2007025901A (ja) | 画像処理装置、画像処理方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20080805 |