JP2004054442A - Face detecting device, face detecting method, and face detecting program - Google Patents

Face detecting device, face detecting method, and face detecting program Download PDF

Info

Publication number
JP2004054442A
JP2004054442A JP2002208881A JP2002208881A JP2004054442A JP 2004054442 A JP2004054442 A JP 2004054442A JP 2002208881 A JP2002208881 A JP 2002208881A JP 2002208881 A JP2002208881 A JP 2002208881A JP 2004054442 A JP2004054442 A JP 2004054442A
Authority
JP
Japan
Prior art keywords
face
reference point
existence probability
information
calculated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002208881A
Other languages
Japanese (ja)
Other versions
JP4011426B2 (en
Inventor
Kozo Kawada
河田 耕三
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Glory Ltd
Original Assignee
Glory Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Glory Ltd filed Critical Glory Ltd
Priority to JP2002208881A priority Critical patent/JP4011426B2/en
Publication of JP2004054442A publication Critical patent/JP2004054442A/en
Application granted granted Critical
Publication of JP4011426B2 publication Critical patent/JP4011426B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To perform highly reliable and quick face detection by quickly and surely absorbing the fluctuation of the position relation of face parts. <P>SOLUTION: A face detecting device 1 is provided with an image pickup part 2 and a storage part 4 and a detecting part 3. The image pickup part 2 inputs an arbitrary image. The storage part 4 stores the preliminary information of each face parts including the existence probability of the reference points of a face with each face parts as a reference and the partial space of each face parts. The detecting part 3 recognizes the face parts existing in the image based on the partial space, and calculates the reference points of the face in the image based on each face parts, and detects the face image from the image based on the reference points of the face. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、入力画像中の顔画像を検出する顔検出装置、顔検出方法および顔検出プログラムに関し、特に、顔パーツの位置関係のばらつきを迅速かつ確実に吸収し、もって信頼性の高い迅速な顔検出をおこなうことができる顔検出装置、顔検出方法および顔検出プログラムに関する。
【0002】
【従来技術】
監視カメラシステムでは、監視カメラが捉えた画像に人物が映っているか否かを自動的に認識させることが必要になるので、部分空間法と呼ばれる顔検出技術を用いる技術が知られている。
【0003】
たとえば、Matthew A.Turk,Alex Pentland,“Face Recognition Using Eigefaces”,Proc.CVPR,pp.586−591,1991には、多人数の顔画像のデータを集めて部分空間を構成する技術が開示されており、この先行技術では、顔全体を表現する低次元の部分空間を用意し、入力画像中のどの位置における部分画像が、用意された部分空間に最もよく当てはまるかを調べることによって顔位置を検出している。
【0004】
具体的には、学習用に用意した顔画像データセットから得られる平均および共分散行列をパラメータとする正規分布を仮定したパターン分布を表現するモデルにおいて、共分散行列の上位固有値に随伴する固有ベクトルで張られる部分空間にパターンを制限し、この部分空間を顔空間とみなすことによって入力パターンと部分空間との距離を計量することとしている。
【0005】
ところで、かかる部分空間法を利用した顔検出をおこなう場合には、個人間で顔パーツ(目、鼻および口など)の位置のばらつきが大きいので、このばらつきを吸収するのが難しい。すなわち、顔検出においては顔画像の大きさを正規化する必要があるが、たとえばその基準を「両目の間隔」とすると、この両目の中点から他の顔パーツ(たとえば「口」)までの距離は、面長の顔と丸顔の顔とでは大きく異なってしまう。
【0006】
このことから、特開平9−91429号公報(従来技術1)には、縦横比を変えながら部分空間とのマッチングを取るようにした発明が開示されている。また、特開平9−44676号公報(従来技術2)には、複数の顔パーツを検出した後、各顔パーツの位置関係に基づいて顔の位置を特定する発明が記載されている。かかる従来技術1および従来技術2にそれぞれ開示された発明を利用することにより、顔パーツの位置のばらつきをある程度吸収することができる。
【0007】
【発明が解決しようとする課題】
しかしながら、上記従来技術1を用いた場合には、マッチング演算回数が縦横比を変える回数に比例するため、計算時間が膨大になってしまうため、結果的に顔検出を迅速におこなうことができないという問題がある。
【0008】
また、上記従来技術2を用いた場合には、顔パーツの位置のばらつきはある程度吸収できるものの、各顔パーツのパターンが顔全体に比較して単純なため、顔パーツ検出の信頼性が低く、結果的に、顔検出の信頼性が低下してしまうという問題がある。
【0009】
この発明は、上述した問題点を解消するためになされたものであり、顔パーツの位置関係のばらつきを迅速かつ確実に吸収し、もって信頼性の高い迅速な顔検出をおこなうことができる顔検出装置、顔検出方法および顔検出プログラムを提供することを目的とする。
【0010】
【課題を解決するための手段】
本発明は、上記目的を達成するためになされたものであり、請求項1に係る顔検出装置は、入力画像中に存在する顔画像を検出する顔検出装置であって、各顔パーツを基準とした顔の基準点の存在確率および各顔パーツの部分空間を含む各顔パーツの事前情報を記憶する記憶手段と、前記事前情報に基づいて前記入力画像中に存在する各顔パーツを認識し、認識した各顔パーツに基づいて前記入力画像中の顔の基準点を算出し、算出した顔の基準点に基づいて前記入力画像から顔画像を検出する検出手段とを備えたことを特徴とする。
【0011】
また、請求項2に係る顔検出装置は、請求項1の発明において、前記検出手段は、前記部分空間を用いて各顔パーツらしさをパーツ情報として算定するパーツ情報算定手段と、前記パーツ情報算定手段によって算定されたパーツ情報と前記事前情報の一つである各顔パーツを基準とした顔の基準点の存在確率とに基づいて、それぞれの顔パーツに基づく顔の基準点の存在確率を算定する存在確率算定手段と、前記存在確率算定手段によって算定された各顔パーツに基づく顔の基準点の存在確率に対して各顔パーツの重要度による重み付けをおこない、該重み付け結果から得られる各顔パーツに基づく顔の基準点の存在確率の総和を算定する総和算定手段と、前記総和算定手段により算定された存在確率の総和の最大値を求め、この最大値を顔の基準点として特定する基準点特定手段とを備えたことを特徴とする。
【0012】
また、請求項3に係る顔検出装置は、請求項1または2の発明において、前記存在確率算定手段は、前記パーツ情報算定手段によって算定されたパーツ情報と、前記事前情報の一つである各顔パーツの存在確率との畳み込みにより、各顔パーツに基づく顔の基準点の存在確率を算出することを特徴とする。
【0013】
また、請求項4に係る顔検出方法は、入力画像中に存在する顔画像を検出する顔検出方法であって、各顔パーツを基準とした顔の基準点の存在確率および各顔パーツの部分空間を含む各顔パーツの事前情報を記憶部に格納する格納工程と、前記事前情報に基づいて前記入力画像中に存在する各顔パーツを認識し、認識した各顔パーツに基づいて前記入力画像中の顔の基準点を算出し、算出した顔の基準点に基づいて前記入力画像から顔画像を検出する検出工程とを含んだことを特徴とする。
【0014】
また、請求項5に係る顔検出装置は、請求項4の発明において、前記検出工程は、前記部分空間を用いて各顔パーツらしさをパーツ情報として算定するパーツ情報算定工程と、前記パーツ情報算定工程によって算定されたパーツ情報と前記事前情報の一つである各顔パーツを基準とした顔の基準点の存在確率とに基づいて、それぞれの顔パーツに基づく顔の基準点の存在確率を算定する存在確率算定工程と、前記存在確率算定工程によって算定された各顔パーツに基づく顔の基準点の存在確率に対して各顔パーツの重要度による重み付けをおこない、該重み付け結果から得られる各顔パーツに基づく顔の基準点の存在確率の総和を算定する総和算定工程と、前記総和算定工程により算定された存在確率の総和の最大値を求め、この最大値を顔の基準点として特定する基準点特定工程とを含んだことを特徴とする。
【0015】
また、請求項6に係る顔検出装置は、請求項4または5の発明において、前記存在確率算定工程は、前記パーツ情報算定工程によって算定されたパーツ情報と、前記事前情報の一つである各顔パーツの存在確率との畳み込みにより、各顔パーツに基づく顔の基準点の存在確率を算出することを特徴とする。
【0016】
また、請求項7に係る顔検出プログラムは、入力画像中に存在する顔画像を検出する顔検出プログラムであって、各顔パーツを基準とした顔の基準点の存在確率および各顔パーツの部分空間を含む各顔パーツの事前情報を記憶部に格納する格納手順と、前記事前情報に基づいて前記入力画像中に存在する各顔パーツを認識し、認識した各顔パーツに基づいて前記入力画像中の顔の基準点を算出し、算出した顔の基準点に基づいて前記入力画像から顔画像を検出する検出手順とをコンピュータに実行させることを特徴とする。
【0017】
また、請求項8に係る顔検出プログラムは、請求項7の発明において、前記検出手順は、前記部分空間を用いて各顔パーツらしさをパーツ情報として算定するパーツ情報算定手順と、前記パーツ情報算定手順によって算定されたパーツ情報と前記事前情報の一つである各顔パーツを基準とした顔の基準点の存在確率とに基づいて、それぞれの顔パーツに基づく顔の基準点の存在確率を算定する存在確率算定手順と、前記存在確率算定手順によって算定された各顔パーツに基づく顔の基準点の存在確率に対して各顔パーツの重要度による重み付けをおこない、該重み付け結果から得られる各顔パーツに基づく顔の基準点の存在確率の総和を算定する総和算定手順と、前記総和算定手順により算定された存在確率の総和の最大値を求め、この最大値を顔の基準点として特定する基準点特定手順とを含んだことを特徴とする。
【0018】
また、請求項9に係る顔検出プログラムは、請求項7または8の発明において、前記存在確率算定手順は、前記パーツ情報算定手順によって算定されたパーツ情報と、前記事前情報の一つである各顔パーツの存在確率との畳み込みにより、各顔パーツに基づく顔の基準点の存在確率を算出することを特徴とする。
【0019】
【発明の実施の形態】
以下に添付図面を参照して、この発明に係る顔検出装置、顔検出方法および顔検出プログラムの好適な実施の形態を詳細に説明する。
【0020】
図1は、本発明の実施の形態に係る顔検出装置の概略構成を示すブロック図である。図1に示すように、この顔検出装置1は、撮像部2と、記憶部4に記憶された各顔パーツの事前情報に基づいて、入力画像中に存在する顔パーツを認識し、これら各顔パーツに基づいて入力画像中の顔の基準点を算出し、この顔の基準点に基づいて入力画像中から顔画像を検出する検出部3と、各顔パーツを基準とした基準点の存在確率を含む各顔パーツの事前情報を記憶する記憶部4とを備えている。この記憶部4に記憶される事前情報については後述する。ここで、この顔パーツとは、右目、左目、鼻および口などの顔の構成要素のことを指す。
【0021】
撮像部2は、本例の場合、従来から知られているCCD等を利用したカメラ装置を採用している。また、検出部3は、コンピュータ装置(CPU)を用いている。さらに、記憶部4は、検出部3をなすコンピュータ装置に付設のハードディスクを採用している。なお、この記憶部4は、コンピュータ装置とは別のコンピュータ装置を採用することもできる。
【0022】
検出部3は、図1に示すように、パーツ情報算定部3a、存在確率算定部3b、総和算定部3cおよび基準点特定部3dを有する。このパーツ情報算定部3aは、撮像部2によって入力された入力画像の各位置に対して記憶部4に記憶されている部分空間を用いて各顔パーツらしさを求める処理部である。
【0023】
また、存在確率算定部3bは、上記パーツ情報算定部3aによって得られた各顔パーツらしさと、事前情報の一つである各顔パーツを基準とした顔の基準点の存在確率とにより、それぞれの顔パーツに基づく顔の基準点の存在確率を算出する処理部である。ここでは、それぞれの顔パーツに基づく顔の基準点の存在確率は、各顔パーツらしさと、記憶部4に記憶されているそれぞれの顔パーツに対する顔の基準位置存在確率との畳み込み(コンボリューション)により算出することとしている。
【0024】
また、総和算定部3cは、まず存在確率算定部3bによって得られたそれぞれの顔パーツに基づく顔の基準点の存在確率に各顔パーツの重要度による重み付けをおこない、この重み付けをおこなうことで得られる各顔パーツに基づく顔の基準点の存在確率の総和を求める処理部である。
【0025】
また、基準点特定部3dは、総和算定部3cで得られた存在確率の和の最大値を求め、この最大値を顔の基準点とする処理部である。
【0026】
上記構成を有する顔検出装置1を用いて、撮像部2から得られた入力画像中の顔画像の検出手順は、図3に示すフローチャートのようになる。ただし、かかる顔検出に先立って、図2に示すフローチャートの学習処理をおこない、この学習処理で得られた各種事前情報を記憶部4に格納しておく必要がある。以下では、かかる学習処理について説明した後、顔検出処理について説明する。
【0027】
図2は、顔検出に先だっておこなわれる学習処理手順を示すフローチャートである。同図に示すように、あらかじめ多数の顔画像を入力して記憶部4に記憶する(ステップS201)。かかる顔画像は、撮像部2を用いて学習用としての顔画像を撮像することによって入力することができる。また、スキャナなどの図示しない別の入力装置を用いても良い。
【0028】
この入力作業を終えたならば、ステップS202に進み、ステップS201で入力した各顔画像に対して、顔の基準点と、各顔パーツの位置を指定し、各顔パーツの位置を基準とした所定の大きさの顔パーツ画像を抽出する。なお、顔の基準点および各顔パーツの位置は、作業者が適宜に指定する。
【0029】
次に、ステップS203に進み、ステップS202で定めた顔の基準点の各顔パーツ位置に対する相対位置を求める。この後、ステップS204に進み、ステップS203で求めた複数の相対位置の平均と共分散とを求める。更に、これら平均および共分散に基づいて、正規分布を用いて各顔パーツに対する顔の基準点の存在確率Qi(x)を求める。
【0030】
具体的には、2次元の平均列ベクトルをm、共分散行列の逆行列をVとすると、
Qi(x)=Cexp{−<m,Vm>}
として求める。なお、Cは定数であり、<m,Vm>は、mとVmの内積を示すものとする。
【0031】
最後に、ステップS205に進み、各顔パーツ画像について前述した部分空間法を用いて学習する。すなわち、各顔パーツの平均画像および固有画像を作成し、記憶部4に記憶させる。これら各顔パーツの平均画像や固有画像、各顔パーツに対する顔の基準点の存在確率Qi(x)が、特許請求の範囲に記載された事前情報に相当する。
【0032】
上述したような学習を終えたならば、撮像部2から取り込んだ入力画像から顔画像を検出することが可能となる。次に、この顔検出手順について図3を用いて説明する。
【0033】
図3のステップS301に示すように、撮像部2で取得した検出対象用の入力画像を検出部3に入力したならば、入力画像中のすべての位置に対してその位置を中心とする部分画像を抽出し、各顔パーツiに対して部分空間法を適用して、各顔パーツiの位置xにおける各顔パーツiの部分空間との距離をdi(x)とした場合の、それぞれの各顔パーツらしさPi(x)=exp(−di(x)/d0)を算出する。これは、検出部3のパーツ情報算定部3aが担当する。
【0034】
具体的には、顔パーツiに関し、i=1を右目、i=2を左目、i=3を鼻、i=4を口とすると、これら各顔パーツである、右目、左目、鼻、口に対して上記部分空間法を適用して、それぞれ右目らしさP1(x)、左目らしさP2(x)、鼻らしさP3(x)、口らしさP4(x)を、上記Pi(x)の式に基づいて算出する。
【0035】
次に、ステップ303に進み、各顔パーツiを用いた顔の基準点の存在確率Ri(x)を求める。この存在確率Ri(x)は、上記Pi(x)と各顔パーツに対する顔の基準点の存在確率Qi(x)とにより、Pi(x)*Qi(x)で求める。上記演算記号「*」は、コンボリューション(畳み込み)を表している。なお、かかるRiは、確率であることの条件ΣRi=1を満たさないが、Ri(x)が大きいほどxが顔の基準点である確率が大きくなるという意味で、ここでは確率と言う。上記ステップS303に係る作業は、検出部3の存在確率算定部3bが担当する。
【0036】
図4は、各顔パーツに対する顔の基準点のばらつきを示したものである。たとえば、図4(A)は、右目の位置K1が決まったときに、顔の基準点が楕円Q1の範囲内にある確率が高いことを表している。同様に、同図(B)は、左目の位置K2が決まったときに、顔の基準点が楕円Q2の範囲内にある確率が高いことを表しており、同図(C)は、鼻の位置K3が決まったときに、顔の基準点が楕円Q3の範囲内にある確率が高いことを表しており、同図(D)は、口の位置K4が決まったときに、顔の基準点が楕円Q4の範囲内にある確率が高いことを表している。
【0037】
次いでステップS304に進み、上記ステップS303で求めた各顔パーツiにおけるそれぞれの存在確率Ri(x)ごとに、その重要度に応じた重みを付加し、重みを付加した後の各存在確率Wi・Ri(x)の総和を求める。すなわち、R(x)=ΣWi・Ri(x)を求める。このステップS304に係る作業は、検出部3の総和算定部3cが担当する。
【0038】
このように重みを付加した後の各存在確率の総和R(x)が求まったならば、ステップS305に進み、R(x)の最大値Rmax(x)を求める。さらに、このRmax(x)を満たす位置xを顔の基準点とする。すなわち、各顔パーツiのそれぞれの存在確率Ri(x)に基づいて、各顔パーツiごとのそれぞれの顔の基準点が、図5(A)に示すように得られる。これら各基準点についてR(x)の最大値Rmax(x)を求めることにより、図5(B)に示すように、各顔パーツiが統合された状態における上記位置xが得られる。上記ステップS305に係る作業は、検出部3の基準点特定部3dが担当する。
【0039】
上述してきたように、本発明に係る顔検出装置は、各顔パーツらしさを求めた後、それらの結果を位置のばらつきを考慮して統合する。このため、従来方法のように個人間における各顔パーツの大きなばらつきが生じることがない。すなわち、このようなばらつきを有効に吸収できる。この結果、確実な顔検出を行えるようになり、顔検出の信頼性が向上する。
【0040】
なお、本実施の形態では撮像部2としてCCDカメラを用いた場合について説明したが、本発明はこれに限定されるものではなく、例えばスキャナを採用して写真中の顔画像を検出する装置に応用することもできる。
【0041】
また図1に示す検出部3は一のコンピュータ装置によって構成しているが、この場合、当該コンピュータ装置に、パーツ情報算定部3a、存在確率算定部3b、総和算定部3c、基準点特定部3dにそれぞれ対応するプログラムを組み込んでいる。
【0042】
【発明の効果】
以上説明したように、本発明に係る顔検出装置、顔検出方法、顔検出プログラムによれば、各顔パーツらしさを求めた後、それらの結果を位置のばらつきを考慮して統合する。このため、従来方法のように個人間における各顔パーツの大きなばらつきが生じることがない。すなわち、このようなばらつきを有効に吸収できる。この結果、確実な顔検出を行えるようになり、顔検出の信頼性が向上する。また、例えば監視装置に本発明を組み込む等、従来知られた種々の装置に組み込んで適用可能であるため、産業の発展に寄与できる。
【図面の簡単な説明】
【図1】この発明の実施の形態である顔検出装置の概略構成を示すブロック図である。
【図2】顔検出に先だって行われる学習の手順を示すフローチャートである。
【図3】顔検出の手順を示すフローチャートである。
【図4】各顔パーツに対する顔の基準点のばらつきを示す図である。
【図5】最終的な顔の基準点を求める際の作用を説明するための略図であり、(A)は各顔パーツの統合前を、(B)は統合後を、それぞれ示す略図である。
【符号の説明】
1 顔検出装置
2 撮像部
3 検出部
3a パーツ情報算定部
3b 存在確率算定部
3c 総和算定部
3d 基準点特定部
4 記憶部
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a face detection device, a face detection method, and a face detection program for detecting a face image in an input image, and more particularly, to a method for quickly and surely absorbing a variation in the positional relationship between face parts, and thereby achieving a highly reliable and quick process. The present invention relates to a face detection device capable of performing face detection, a face detection method, and a face detection program.
[0002]
[Prior art]
In a surveillance camera system, it is necessary to automatically recognize whether or not a person is included in an image captured by the surveillance camera. Therefore, a technique using a face detection technique called a subspace method is known.
[0003]
For example, Matthew A. See Turk, Alex Pentland, "Face Recognition Using Eigenfaces", Proc. CVPR, pp. 586-591, 1991 discloses a technique for collecting data of a large number of face images to form a partial space. In this prior art, a low-dimensional partial space representing the entire face is prepared and input is performed. The face position is detected by checking at which position in the image the partial image best fits the prepared partial space.
[0004]
Specifically, in a model expressing a pattern distribution assuming a normal distribution using a mean and a covariance matrix as parameters obtained from a face image data set prepared for learning, an eigenvector associated with a higher eigenvalue of the covariance matrix is used. The pattern is limited to a subspace to be set, and the distance between the input pattern and the subspace is measured by regarding the subspace as a face space.
[0005]
By the way, when performing face detection using such a subspace method, it is difficult to absorb this variation because the position of face parts (eyes, nose, mouth, etc.) varies greatly between individuals. In other words, in face detection, it is necessary to normalize the size of the face image. For example, if the criterion is “the distance between both eyes”, the distance from the midpoint of these eyes to other face parts (eg, “mouth”) The distance differs greatly between a long face and a round face.
[0006]
For this reason, Japanese Patent Application Laid-Open No. 9-91429 (Prior Art 1) discloses an invention in which matching with a subspace is performed while changing the aspect ratio. Japanese Patent Application Laid-Open No. 9-44676 (Prior Art 2) discloses an invention in which after detecting a plurality of face parts, the position of the face is specified based on the positional relationship between the face parts. By using the inventions disclosed in the related art 1 and the related art 2, variations in the position of the face parts can be absorbed to some extent.
[0007]
[Problems to be solved by the invention]
However, when the above-described conventional technology 1 is used, the number of matching calculations is proportional to the number of times the aspect ratio is changed, so that the calculation time becomes enormous. As a result, face detection cannot be performed quickly. There's a problem.
[0008]
In addition, when the above-described related art 2 is used, the variation in the position of the face parts can be absorbed to some extent, but the pattern of each face part is simpler than the entire face, so that the reliability of the face part detection is low. As a result, there is a problem that the reliability of face detection is reduced.
[0009]
The present invention has been made in order to solve the above-described problem, and a face detection method capable of quickly and reliably absorbing a variation in the positional relationship between face parts and performing highly reliable and quick face detection. It is an object to provide an apparatus, a face detection method, and a face detection program.
[0010]
[Means for Solving the Problems]
The present invention has been made to achieve the above object, and a face detection apparatus according to claim 1 is a face detection apparatus that detects a face image present in an input image, wherein each face part is referenced. Storage means for storing prior information of each face part including the existence probability of the reference point of the face and the subspace of each face part, and recognizing each face part present in the input image based on the prior information Detecting means for calculating a reference point of the face in the input image based on each recognized face part, and detecting a face image from the input image based on the calculated reference point of the face. And
[0011]
Further, in the face detecting apparatus according to claim 2, in the invention according to claim 1, the detecting means calculates the likeness of each face part as part information using the partial space, and the part information calculating means. Based on the part information calculated by the means and the existence probability of the face reference point based on each face part, which is one of the prior information, the existence probability of the face reference point based on each face part is calculated. The existence probability calculating means for calculating, and the existence probability of the reference point of the face based on each face part calculated by the existence probability calculating means is weighted by the importance of each face part, and each weight obtained from the weighting result is obtained. A sum calculation means for calculating the sum of the existence probabilities of the reference points of the face based on the face parts; anda maximum value of the sum of the existence probabilities calculated by the sum calculation means, Characterized in that a reference point specifying means for specifying as a reference point.
[0012]
Further, in the face detecting device according to claim 3, in the invention according to claim 1 or 2, the existence probability calculating means is one of the part information calculated by the part information calculating means and the prior information. The present invention is characterized in that the existence probability of the reference point of the face based on each face part is calculated by convolution with the existence probability of each face part.
[0013]
A face detection method according to claim 4 is a face detection method for detecting a face image present in an input image, wherein a face reference point existence probability based on each face part and a part of each face part are included. A storing step of storing prior information of each face part including a space in a storage unit; recognizing each face part present in the input image based on the prior information; and performing the input based on the recognized face parts. Calculating a reference point of the face in the image, and detecting a face image from the input image based on the calculated reference point of the face.
[0014]
According to a fifth aspect of the present invention, in the face detection device according to the fourth aspect of the present invention, the detection step includes a part information calculation step of calculating each face part likeness as part information using the partial space; Based on the part information calculated by the process and the existence probability of the reference point of the face based on each face part which is one of the prior information, the existence probability of the reference point of the face based on each face part is calculated. The existence probability calculation step of calculating, and the existence probability of the reference point of the face based on each face part calculated in the existence probability calculation step is weighted by the importance of each face part, and each weight obtained from the weighting result is obtained. A sum calculation step of calculating the sum of the existence probabilities of the reference points of the face based on the face parts; anda maximum value of the sum of the existence probabilities calculated in the sum calculation step, and calculating the maximum value for the face. Characterized in that it includes a reference point specifying step of specifying as a reference point.
[0015]
Also, in the face detection device according to claim 6, in the invention according to claim 4 or 5, the existence probability calculation step is one of the part information calculated in the part information calculation step and the prior information. The present invention is characterized in that the existence probability of the reference point of the face based on each face part is calculated by convolution with the existence probability of each face part.
[0016]
A face detection program according to claim 7, which is a face detection program for detecting a face image present in an input image, comprising: a face reference point existence probability based on each face part; A storage procedure of storing prior information of each face part including a space in a storage unit, and recognizing each face part present in the input image based on the prior information, and performing the input based on the recognized face parts. And (c) calculating a reference point of the face in the image, and detecting the face image from the input image based on the calculated reference point of the face.
[0017]
The face detection program according to claim 8 is the invention according to claim 7, wherein the detection step includes: a part information calculation step of calculating each face part likeness as part information using the subspace; and the part information calculation step. Based on the part information calculated by the procedure and the existence probability of a face reference point based on each face part, which is one of the prior information, the existence probability of a face reference point based on each face part is calculated. The existence probability calculation procedure to be calculated and the existence probability of the reference point of the face based on each face part calculated by the existence probability calculation procedure are weighted by the importance of each face part, and each weight obtained from the weighting result is obtained. A sum calculation procedure for calculating the sum of the existence probabilities of the reference points of the face based on the face parts, and a maximum value of the sum of the existence probabilities calculated by the sum calculation procedure, Characterized in that it includes a reference point specifying step of specifying as the reference point of the face.
[0018]
The face detection program according to claim 9 is the invention according to claim 7 or 8, wherein the existence probability calculation step is one of the part information calculated by the part information calculation step and the prior information. The present invention is characterized in that the existence probability of the reference point of the face based on each face part is calculated by convolution with the existence probability of each face part.
[0019]
BEST MODE FOR CARRYING OUT THE INVENTION
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Exemplary embodiments of the present invention will be described in detail below with reference to the accompanying drawings.
[0020]
FIG. 1 is a block diagram illustrating a schematic configuration of a face detection device according to an embodiment of the present invention. As shown in FIG. 1, the face detection device 1 recognizes face parts present in an input image based on prior information of each face part stored in an imaging unit 2 and a storage unit 4, and recognizes each of these face parts. A detection unit 3 that calculates a reference point of the face in the input image based on the face parts and detects a face image from the input image based on the reference points of the face; and the presence of a reference point based on each face part A storage unit 4 for storing prior information of each face part including probabilities. The advance information stored in the storage unit 4 will be described later. Here, the face parts refer to face components such as the right eye, the left eye, the nose and the mouth.
[0021]
In the case of this example, the imaging unit 2 employs a conventionally known camera device using a CCD or the like. The detection unit 3 uses a computer device (CPU). Further, the storage unit 4 employs a hard disk attached to the computer device forming the detection unit 3. Note that the storage unit 4 may employ a computer device different from the computer device.
[0022]
As shown in FIG. 1, the detecting unit 3 includes a parts information calculating unit 3a, an existence probability calculating unit 3b, a sum calculating unit 3c, and a reference point specifying unit 3d. The part information calculation unit 3a is a processing unit that obtains the likeness of each face part using the subspace stored in the storage unit 4 for each position of the input image input by the imaging unit 2.
[0023]
Further, the existence probability calculation unit 3b uses the likelihood of each face part obtained by the parts information calculation unit 3a and the existence probability of the reference point of the face based on each face part, which is one of the advance information, respectively. Is a processing unit that calculates the existence probability of the reference point of the face based on the face part. Here, the existence probability of the reference point of the face based on each face part is determined by convolving the likelihood of each face part with the reference position existence probability of the face for each face part stored in the storage unit 4 (convolution). It is to be calculated by:
[0024]
Further, the sum calculation unit 3c first weights the existence probability of the reference point of the face based on each face part obtained by the existence probability calculation unit 3b according to the importance of each face part, and obtains the weight by performing this weighting. The processing unit obtains the sum of the probabilities of existence of the reference points of the face based on the respective face parts.
[0025]
The reference point specifying unit 3d is a processing unit that obtains the maximum value of the sum of the existence probabilities obtained by the sum calculation unit 3c, and uses this maximum value as the reference point of the face.
[0026]
A procedure for detecting a face image in an input image obtained from the imaging unit 2 using the face detection device 1 having the above configuration is as shown in a flowchart in FIG. However, prior to such face detection, the learning process of the flowchart shown in FIG. 2 needs to be performed, and various pieces of advance information obtained by this learning process need to be stored in the storage unit 4. Hereinafter, after the learning process is described, the face detection process will be described.
[0027]
FIG. 2 is a flowchart illustrating a learning processing procedure performed before face detection. As shown in the figure, a large number of face images are input in advance and stored in the storage unit 4 (step S201). Such a face image can be input by capturing a face image for learning using the image capturing unit 2. Further, another input device (not shown) such as a scanner may be used.
[0028]
When this input operation is completed, the process proceeds to step S202, and for each face image input in step S201, the reference point of the face and the position of each face part are designated, and the position of each face part is set as a reference. A face part image having a predetermined size is extracted. The reference point of the face and the position of each face part are appropriately designated by the operator.
[0029]
Next, the process proceeds to step S203, and the relative position of the reference point of the face determined in step S202 with respect to each face part position is obtained. Thereafter, the process proceeds to step S204, and the average and covariance of the plurality of relative positions obtained in step S203 are obtained. Further, based on these averages and covariances, the existence probability Qi (x) of the reference point of the face for each face part is obtained using a normal distribution.
[0030]
Specifically, assuming that the two-dimensional average column vector is m and the inverse matrix of the covariance matrix is V,
Qi (x) = Cexp {-<m, Vm>}
Asking. Note that C is a constant, and <m, Vm> indicates an inner product of m and Vm.
[0031]
Finally, the process proceeds to step S205, and learning is performed on each face part image using the above-described subspace method. That is, an average image and a unique image of each face part are created and stored in the storage unit 4. The average image and unique image of each face part and the existence probability Qi (x) of the reference point of the face for each face part correspond to the prior information described in the claims.
[0032]
After completing the learning as described above, the face image can be detected from the input image captured from the imaging unit 2. Next, the face detection procedure will be described with reference to FIG.
[0033]
As shown in step S301 in FIG. 3, if the input image for the detection target acquired by the imaging unit 2 is input to the detection unit 3, the partial images centered on the positions for all the positions in the input image Is extracted, and the subspace method is applied to each of the face parts i. When the distance between the position x of each face part i and the subspace of each face part i is di (x), The facial part likeness Pi (x) = exp (−di (x) / d0) is calculated. This is performed by the parts information calculation unit 3a of the detection unit 3.
[0034]
Specifically, regarding face part i, if i = 1 is the right eye, i = 2 is the left eye, i = 3 is the nose, and i = 4 is the mouth, these face parts are right eye, left eye, nose, and mouth. The above-mentioned subspace method is applied to the above expression to convert the likelihood of right eye P1 (x), likelihood of left eye P2 (x), likeness of nose P3 (x), and likeness of mouth P4 (x) into the above equation of Pi (x). Calculated based on
[0035]
Next, the process proceeds to step 303, where the existence probability Ri (x) of the reference point of the face using each face part i is obtained. The existence probability Ri (x) is obtained by Pi (x) * Qi (x) using the above Pi (x) and the existence probability Qi (x) of the face reference point for each face part. The operation symbol “*” represents convolution (convolution). Note that this Ri does not satisfy the condition ΣRi = 1 that is a probability, but is referred to as a probability here in the sense that the greater Ri (x), the greater the probability that x is the reference point of the face. The operation relating to step S303 is performed by the existence probability calculation unit 3b of the detection unit 3.
[0036]
FIG. 4 shows the variation of the reference point of the face with respect to each face part. For example, FIG. 4A shows that when the position K1 of the right eye is determined, the probability that the reference point of the face is within the range of the ellipse Q1 is high. Similarly, FIG. 17B shows that when the position K2 of the left eye is determined, there is a high probability that the reference point of the face is within the range of the ellipse Q2, and FIG. This indicates that when the position K3 is determined, the probability that the reference point of the face is within the range of the ellipse Q3 is high. FIG. Indicates that the probability of being within the range of the ellipse Q4 is high.
[0037]
Next, the process proceeds to step S304, where a weight corresponding to the importance is added to each existence probability Ri (x) in each face part i obtained in step S303, and the existence probability Wi · Find the sum of Ri (x). That is, R (x) = ΣWi · Ri (x) is obtained. The operation related to step S304 is performed by the sum total calculation unit 3c of the detection unit 3.
[0038]
When the total sum R (x) of the respective existence probabilities after weighting is obtained, the process proceeds to step S305, and the maximum value Rmax (x) of R (x) is obtained. Further, a position x satisfying Rmax (x) is set as a reference point of the face. That is, based on the existence probability Ri (x) of each face part i, the reference point of each face for each face part i is obtained as shown in FIG. By obtaining the maximum value Rmax (x) of R (x) for each of these reference points, the position x in a state where the face parts i are integrated is obtained as shown in FIG. 5B. The operation related to step S305 is performed by the reference point specifying unit 3d of the detection unit 3.
[0039]
As described above, the face detection device according to the present invention obtains the likelihood of each face part, and then integrates the results in consideration of positional variations. Therefore, unlike the conventional method, there is no large variation in face parts between individuals. That is, such variations can be effectively absorbed. As a result, reliable face detection can be performed, and the reliability of face detection is improved.
[0040]
In the present embodiment, a case where a CCD camera is used as the imaging unit 2 has been described. However, the present invention is not limited to this. For example, an apparatus that employs a scanner to detect a face image in a photograph will be described. It can also be applied.
[0041]
The detecting unit 3 shown in FIG. 1 is constituted by one computer device. In this case, the computer device includes a parts information calculating unit 3a, an existence probability calculating unit 3b, a sum calculating unit 3c, and a reference point specifying unit 3d. The program corresponding to each is incorporated.
[0042]
【The invention's effect】
As described above, according to the face detection device, the face detection method, and the face detection program according to the present invention, after determining the likelihood of each face part, the results are integrated in consideration of the positional variation. Therefore, unlike the conventional method, there is no large variation in face parts between individuals. That is, such variations can be effectively absorbed. As a result, reliable face detection can be performed, and the reliability of face detection is improved. Further, for example, the present invention can be incorporated in a monitoring apparatus, and the present invention can be incorporated in various known apparatuses and applied, thereby contributing to industrial development.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a schematic configuration of a face detection device according to an embodiment of the present invention.
FIG. 2 is a flowchart showing a learning procedure performed before face detection.
FIG. 3 is a flowchart illustrating a procedure of face detection.
FIG. 4 is a diagram showing a variation of a face reference point for each face part.
FIGS. 5A and 5B are schematic diagrams illustrating an operation when a final reference point of a face is obtained. FIG. 5A is a schematic diagram illustrating a state before the integration of each face part, and FIG. .
[Explanation of symbols]
REFERENCE SIGNS LIST 1 face detection device 2 imaging unit 3 detection unit 3a parts information calculation unit 3b existence probability calculation unit 3c total sum calculation unit 3d reference point specification unit 4 storage unit

Claims (9)

入力画像中に存在する顔画像を検出する顔検出装置であって、
各顔パーツを基準とした顔の基準点の存在確率および各顔パーツの部分空間を含む各顔パーツの事前情報を記憶する記憶手段と、
前記事前情報に基づいて前記入力画像中に存在する各顔パーツを認識し、認識した各顔パーツに基づいて前記入力画像中の顔の基準点を算出し、算出した顔の基準点に基づいて前記入力画像から顔画像を検出する検出手段と
を備えたことを特徴とする顔検出装置。
A face detection device that detects a face image present in an input image,
Storage means for storing the prior probability of each face part including the existence probability of the reference point of the face based on each face part and the subspace of each face part;
Recognizing each face part present in the input image based on the prior information, calculating a reference point of the face in the input image based on the recognized face part, and based on the calculated reference point of the face And a detecting means for detecting a face image from the input image.
前記検出手段は、
前記部分空間を用いて各顔パーツらしさをパーツ情報として算定するパーツ情報算定手段と、
前記パーツ情報算定手段によって算定されたパーツ情報と前記事前情報の一つである各顔パーツを基準とした顔の基準点の存在確率とに基づいて、それぞれの顔パーツに基づく顔の基準点の存在確率を算定する存在確率算定手段と、
前記存在確率算定手段によって算定された各顔パーツに基づく顔の基準点の存在確率に対して各顔パーツの重要度による重み付けをおこない、該重み付け結果から得られる各顔パーツに基づく顔の基準点の存在確率の総和を算定する総和算定手段と、
前記総和算定手段により算定された存在確率の総和の最大値を求め、この最大値を顔の基準点として特定する基準点特定手段と
を備えたことを特徴とする請求項1に記載の顔検出装置。
The detecting means,
Part information calculation means for calculating the likeness of each face part as part information using the subspace,
Based on the part information calculated by the part information calculating means and the existence probability of the reference point of the face based on each face part, which is one of the preliminary information, the reference point of the face based on each face part Existence probability calculating means for calculating the existence probability of
The existence probability of the face reference point based on each face part calculated by the existence probability calculation means is weighted by the importance of each face part, and the face reference point based on each face part obtained from the weighting result is obtained. Sum calculation means for calculating the sum of the existence probabilities of
2. The face detection device according to claim 1, further comprising: reference point specifying means for obtaining a maximum value of the sum of the existence probabilities calculated by said total calculation means, and specifying the maximum value as a reference point of the face. apparatus.
前記存在確率算定手段は、前記パーツ情報算定手段によって算定されたパーツ情報と、前記事前情報の一つである各顔パーツの存在確率との畳み込みにより、各顔パーツに基づく顔の基準点の存在確率を算出することを特徴とする請求項1または2に記載の顔検出装置。The existence probability calculation means convolves the part information calculated by the parts information calculation means with the existence probability of each face part, which is one of the pieces of prior information, to thereby obtain a reference point of a face based on each face part. The face detection device according to claim 1, wherein an existence probability is calculated. 入力画像中に存在する顔画像を検出する顔検出方法であって、
各顔パーツを基準とした顔の基準点の存在確率および各顔パーツの部分空間を含む各顔パーツの事前情報を記憶部に格納する格納工程と、
前記事前情報に基づいて前記入力画像中に存在する各顔パーツを認識し、認識した各顔パーツに基づいて前記入力画像中の顔の基準点を算出し、算出した顔の基準点に基づいて前記入力画像から顔画像を検出する検出工程と
を含んだことを特徴とする顔検出方法。
A face detection method for detecting a face image present in an input image,
A storage step of storing in the storage unit the prior probability of each face part including the existence probability of the reference point of the face based on each face part and the subspace of each face part,
Recognizing each face part present in the input image based on the prior information, calculating a reference point of the face in the input image based on the recognized face part, and based on the calculated reference point of the face And detecting a face image from the input image.
前記検出工程は、
前記部分空間を用いて各顔パーツらしさをパーツ情報として算定するパーツ情報算定工程と、
前記パーツ情報算定工程によって算定されたパーツ情報と前記事前情報の一つである各顔パーツを基準とした顔の基準点の存在確率とに基づいて、それぞれの顔パーツに基づく顔の基準点の存在確率を算定する存在確率算定工程と、
前記存在確率算定工程によって算定された各顔パーツに基づく顔の基準点の存在確率に対して各顔パーツの重要度による重み付けをおこない、該重み付け結果から得られる各顔パーツに基づく顔の基準点の存在確率の総和を算定する総和算定工程と、
前記総和算定工程により算定された存在確率の総和の最大値を求め、この最大値を顔の基準点として特定する基準点特定工程と
を含んだことを特徴とする請求項4に記載の顔検出方法。
The detection step,
A part information calculation step of calculating each face part likeness as part information using the subspace;
Based on the part information calculated in the part information calculation step and the existence probability of the reference point of the face based on each face part, which is one of the preliminary information, the reference point of the face based on each face part Existence probability calculation step of calculating the existence probability of
The existence probability of the reference point of the face based on each face part calculated in the existence probability calculation step is weighted by the importance of each face part, and the reference point of the face based on each face part obtained from the weighting result Sum calculation step of calculating the sum of the existence probabilities of
5. The face detection method according to claim 4, further comprising: determining a maximum value of the sum of the existence probabilities calculated in the sum calculation step, and specifying the maximum value as a face reference point. Method.
前記存在確率算定工程は、前記パーツ情報算定工程によって算定されたパーツ情報と、前記事前情報の一つである各顔パーツの存在確率との畳み込みにより、各顔パーツに基づく顔の基準点の存在確率を算出することを特徴とする請求項4または5に記載の顔検出方法。The existence probability calculation step is a convolution of the part information calculated in the part information calculation step with the existence probability of each face part, which is one of the pieces of prior information, to thereby determine the reference point of the face based on each face part. The face detection method according to claim 4, wherein an existence probability is calculated. 入力画像中に存在する顔画像を検出する顔検出プログラムであって、
各顔パーツを基準とした顔の基準点の存在確率および各顔パーツの部分空間を含む各顔パーツの事前情報を記憶部に格納する格納手順と、
前記事前情報に基づいて前記入力画像中に存在する各顔パーツを認識し、認識した各顔パーツに基づいて前記入力画像中の顔の基準点を算出し、算出した顔の基準点に基づいて前記入力画像から顔画像を検出する検出手順と
をコンピュータに実行させることを特徴とする顔検出プログラム。
A face detection program for detecting a face image present in an input image,
A storage procedure for storing in the storage unit the prior probability of each face part including the existence probability of the reference point of the face based on each face part and the subspace of each face part,
Recognizing each face part present in the input image based on the prior information, calculating a reference point of the face in the input image based on the recognized face part, and based on the calculated reference point of the face And a detection procedure for detecting a face image from the input image.
前記検出手順は、
前記部分空間を用いて各顔パーツらしさをパーツ情報として算定するパーツ情報算定手順と、
前記パーツ情報算定手順によって算定されたパーツ情報と前記事前情報の一つである各顔パーツを基準とした顔の基準点の存在確率とに基づいて、それぞれの顔パーツに基づく顔の基準点の存在確率を算定する存在確率算定手順と、
前記存在確率算定手順によって算定された各顔パーツに基づく顔の基準点の存在確率に対して各顔パーツの重要度による重み付けをおこない、該重み付け結果から得られる各顔パーツに基づく顔の基準点の存在確率の総和を算定する総和算定手順と、
前記総和算定手順により算定された存在確率の総和の最大値を求め、この最大値を顔の基準点として特定する基準点特定手順と
を含んだことを特徴とする請求項7に記載の顔検出プログラム。
The detection procedure includes:
A part information calculation procedure for calculating the likeness of each face part as part information using the subspace,
Based on the part information calculated by the part information calculation procedure and the existence probability of the reference point of the face based on each face part, which is one of the preliminary information, the reference point of the face based on each face part Existence probability calculation procedure for calculating the existence probability of
The existence probability of the reference point of the face based on each face part calculated by the existence probability calculation procedure is weighted by the importance of each face part, and the reference point of the face based on each face part obtained from the weighting result Sum calculation procedure for calculating the sum of the existence probabilities of
8. A reference point specifying step of obtaining a maximum value of the total sum of the existence probabilities calculated by the total sum calculation procedure, and specifying this maximum value as a reference point of the face. program.
前記存在確率算定手順は、前記パーツ情報算定手順によって算定されたパーツ情報と、前記事前情報の一つである各顔パーツの存在確率との畳み込みにより、各顔パーツに基づく顔の基準点の存在確率を算出することを特徴とする請求項7または8に記載の顔検出プログラム。The existence probability calculation step is performed by convolving the part information calculated by the part information calculation step with the existence probability of each face part, which is one of the pieces of the advance information, to obtain a reference point of a face based on each face part. 9. The face detection program according to claim 7, wherein an existence probability is calculated.
JP2002208881A 2002-07-17 2002-07-17 Face detection device, face detection method, and face detection program Expired - Fee Related JP4011426B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002208881A JP4011426B2 (en) 2002-07-17 2002-07-17 Face detection device, face detection method, and face detection program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002208881A JP4011426B2 (en) 2002-07-17 2002-07-17 Face detection device, face detection method, and face detection program

Publications (2)

Publication Number Publication Date
JP2004054442A true JP2004054442A (en) 2004-02-19
JP4011426B2 JP4011426B2 (en) 2007-11-21

Family

ID=31932913

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002208881A Expired - Fee Related JP4011426B2 (en) 2002-07-17 2002-07-17 Face detection device, face detection method, and face detection program

Country Status (1)

Country Link
JP (1) JP4011426B2 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007013529A1 (en) * 2005-07-27 2007-02-01 Glory Ltd. Face image detecting device, face image detecting method, and face image detecting program
JP2007226424A (en) * 2006-02-22 2007-09-06 Fujifilm Corp Feature point detecting method, device and program
JP2008003749A (en) * 2006-06-21 2008-01-10 Fujifilm Corp Feature point detection device, method, and program
JP2008146329A (en) * 2006-12-08 2008-06-26 Toshiba Corp Face feature point detection device and method
JP4998637B1 (en) * 2011-06-07 2012-08-15 オムロン株式会社 Image processing apparatus, information generation apparatus, image processing method, information generation method, control program, and recording medium
JP2013210968A (en) * 2012-03-30 2013-10-10 Canon Inc Object detecting device and method, and program
WO2015049826A1 (en) * 2013-10-01 2015-04-09 日本電気株式会社 Object detection apparatus, method for detecting object, and learning apparatus
JP2015529354A (en) * 2012-08-15 2015-10-05 クゥアルコム・インコーポレイテッドQualcomm Incorporated Method and apparatus for face recognition
JP2016066114A (en) * 2014-09-22 2016-04-28 株式会社東芝 Feature point detection device, method, and program

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007013529A1 (en) * 2005-07-27 2007-02-01 Glory Ltd. Face image detecting device, face image detecting method, and face image detecting program
KR101445281B1 (en) * 2005-07-27 2014-09-26 글로리 가부시키가이샤 Face image detecting device, face image detecting method, and computer readable medium with face image detecting program
US8311291B2 (en) 2005-07-27 2012-11-13 Glory Ltd. Face image detecting device, face image detecting method, and face image detecting program
CN101228552B (en) * 2005-07-27 2012-10-03 光荣株式会社 Face image detecting device, and face image detecting method
JP4532419B2 (en) * 2006-02-22 2010-08-25 富士フイルム株式会社 Feature point detection method, apparatus, and program
JP2007226424A (en) * 2006-02-22 2007-09-06 Fujifilm Corp Feature point detecting method, device and program
JP2008003749A (en) * 2006-06-21 2008-01-10 Fujifilm Corp Feature point detection device, method, and program
JP2008146329A (en) * 2006-12-08 2008-06-26 Toshiba Corp Face feature point detection device and method
JP4745207B2 (en) * 2006-12-08 2011-08-10 株式会社東芝 Facial feature point detection apparatus and method
WO2012169251A1 (en) * 2011-06-07 2012-12-13 オムロン株式会社 Image processing device, information generation device, image processing method, information generation method, control program, and recording medium
JP4998637B1 (en) * 2011-06-07 2012-08-15 オムロン株式会社 Image processing apparatus, information generation apparatus, image processing method, information generation method, control program, and recording medium
KR101525133B1 (en) * 2011-06-07 2015-06-10 오므론 가부시키가이샤 Image Processing Device, Information Generation Device, Image Processing Method, Information Generation Method, Control Program, and Recording Medium
JP2013210968A (en) * 2012-03-30 2013-10-10 Canon Inc Object detecting device and method, and program
JP2015529354A (en) * 2012-08-15 2015-10-05 クゥアルコム・インコーポレイテッドQualcomm Incorporated Method and apparatus for face recognition
WO2015049826A1 (en) * 2013-10-01 2015-04-09 日本電気株式会社 Object detection apparatus, method for detecting object, and learning apparatus
JPWO2015049826A1 (en) * 2013-10-01 2017-03-09 日本電気株式会社 Object detection apparatus, object detection method, and learning apparatus
US10026002B2 (en) 2013-10-01 2018-07-17 Nec Corporation Object detection apparatus, method for detecting object, and learning apparatus
JP2016066114A (en) * 2014-09-22 2016-04-28 株式会社東芝 Feature point detection device, method, and program

Also Published As

Publication number Publication date
JP4011426B2 (en) 2007-11-21

Similar Documents

Publication Publication Date Title
US11449971B2 (en) Method and apparatus with image fusion
KR101956071B1 (en) Method and apparatus for verifying a user
JP5693162B2 (en) Image processing system, imaging apparatus, image processing apparatus, control method therefor, and program
US20160379050A1 (en) Method for determining authenticity of a three-dimensional object
JP6544900B2 (en) Object identification device, object identification method and program
JP6007682B2 (en) Image processing apparatus, image processing method, and program
EP3975039A1 (en) Masked face recognition
KR102476016B1 (en) Apparatus and method for determining position of eyes
JP2011100175A (en) Device and program for deciding personal action
KR20190054702A (en) Method and apparatus for detecting action of object in viedio stream
US9858501B2 (en) Reliability acquiring apparatus, reliability acquiring method, and reliability acquiring program
JP5087037B2 (en) Image processing apparatus, method, and program
JP2013065119A (en) Face authentication device and face authentication method
JP2006343859A (en) Image processing system and image processing method
JP7151875B2 (en) Image processing device, image processing method, and program
CN111104925A (en) Image processing method, image processing apparatus, storage medium, and electronic device
JP5787686B2 (en) Face recognition device and face recognition method
JP2004054442A (en) Face detecting device, face detecting method, and face detecting program
US11222439B2 (en) Image processing apparatus with learners for detecting orientation and position of feature points of a facial image
JP7255173B2 (en) Human detection device and human detection method
JP4708835B2 (en) Face detection device, face detection method, and face detection program
US20230018589A1 (en) Information processing apparatus, control method, and non-transitory storage medium
JP2006338103A (en) Parameter learning device, parameter learning method, and program
CN114743264A (en) Shooting behavior detection method, device, equipment and storage medium
WO2021214540A1 (en) Robust camera localization based on a single color component image and multi-modal learning

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050413

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20051213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070515

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070712

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070904

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070905

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100914

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110914

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110914

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120914

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120914

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130914

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130914

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees