JP4011426B2 - Face detection device, face detection method, and face detection program - Google Patents

Face detection device, face detection method, and face detection program Download PDF

Info

Publication number
JP4011426B2
JP4011426B2 JP2002208881A JP2002208881A JP4011426B2 JP 4011426 B2 JP4011426 B2 JP 4011426B2 JP 2002208881 A JP2002208881 A JP 2002208881A JP 2002208881 A JP2002208881 A JP 2002208881A JP 4011426 B2 JP4011426 B2 JP 4011426B2
Authority
JP
Japan
Prior art keywords
face
reference point
existence probability
face part
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002208881A
Other languages
Japanese (ja)
Other versions
JP2004054442A (en
Inventor
耕三 河田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Glory Ltd
Original Assignee
Glory Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Glory Ltd filed Critical Glory Ltd
Priority to JP2002208881A priority Critical patent/JP4011426B2/en
Publication of JP2004054442A publication Critical patent/JP2004054442A/en
Application granted granted Critical
Publication of JP4011426B2 publication Critical patent/JP4011426B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、入力画像中の顔画像を検出する顔検出装置、顔検出方法および顔検出プログラムに関し、特に、顔パーツの位置関係のばらつきを迅速かつ確実に吸収し、もって信頼性の高い迅速な顔検出をおこなうことができる顔検出装置、顔検出方法および顔検出プログラムに関する。
【0002】
【従来技術】
監視カメラシステムでは、監視カメラが捉えた画像に人物が映っているか否かを自動的に認識させることが必要になるので、部分空間法と呼ばれる顔検出技術を用いる技術が知られている。
【0003】
たとえば、Matthew A.Turk,Alex Pentland,“Face Recognition Using Eigefaces”,Proc.CVPR,pp.586-591,1991には、多人数の顔画像のデータを集めて部分空間を構成する技術が開示されており、この先行技術では、顔全体を表現する低次元の部分空間を用意し、入力画像中のどの位置における部分画像が、用意された部分空間に最もよく当てはまるかを調べることによって顔位置を検出している。
【0004】
具体的には、学習用に用意した顔画像データセットから得られる平均および共分散行列をパラメータとする正規分布を仮定したパターン分布を表現するモデルにおいて、共分散行列の上位固有値に随伴する固有ベクトルで張られる部分空間にパターンを制限し、この部分空間を顔空間とみなすことによって入力パターンと部分空間との距離を計量することとしている。
【0005】
ところで、かかる部分空間法を利用した顔検出をおこなう場合には、個人間で顔パーツ(目、鼻および口など)の位置のばらつきが大きいので、このばらつきを吸収するのが難しい。すなわち、顔検出においては顔画像の大きさを正規化する必要があるが、たとえばその基準を「両目の間隔」とすると、この両目の中点から他の顔パーツ(たとえば「口」)までの距離は、面長の顔と丸顔の顔とでは大きく異なってしまう。
【0006】
このことから、特開平9−91429号公報(従来技術1)には、縦横比を変えながら部分空間とのマッチングを取るようにした発明が開示されている。また、特開平9−44676号公報(従来技術2)には、複数の顔パーツを検出した後、各顔パーツの位置関係に基づいて顔の位置を特定する発明が記載されている。かかる従来技術1および従来技術2にそれぞれ開示された発明を利用することにより、顔パーツの位置のばらつきをある程度吸収することができる。
【0007】
【発明が解決しようとする課題】
しかしながら、上記従来技術1を用いた場合には、マッチング演算回数が縦横比を変える回数に比例するため、計算時間が膨大になってしまうため、結果的に顔検出を迅速におこなうことができないという問題がある。
【0008】
また、上記従来技術2を用いた場合には、顔パーツの位置のばらつきはある程度吸収できるものの、各顔パーツのパターンが顔全体に比較して単純なため、顔パーツ検出の信頼性が低く、結果的に、顔検出の信頼性が低下してしまうという問題がある。
【0009】
この発明は、上述した問題点を解消するためになされたものであり、顔パーツの位置関係のばらつきを迅速かつ確実に吸収し、もって信頼性の高い迅速な顔検出をおこなうことができる顔検出装置、顔検出方法および顔検出プログラムを提供することを目的とする。
【0010】
【課題を解決するための手段】
本発明は、上記目的を達成するためになされたものであり、請求項1に係る顔検出装置は、入力画像中に存在する顔画像を検出する顔検出装置であって、各顔パーツを基準とした顔の基準点の第1の存在確率および各顔パーツの部分空間を含む各顔パーツの事前情報を記憶する記憶手段と、前記部分空間に基づいて前記入力画像中に存在する各顔パーツを認識し、認識した各顔パーツと前記顔パーツを基準とした顔の基準点の第1の存在確率に基づいて前記入力画像中の顔の基準点を算出し、算出した顔の基準点に基づいて前記入力画像から顔画像を検出する検出手段とを備え、前記検出手段は、前記部分空間を用いて各顔パーツらしさをパーツ情報として算定するパーツ情報算定手段と、前記パーツ情報算定手段によって算定されたパーツ情報と前記事前情報の一つである各顔パーツを基準とした顔の基準点の第1の存在確率とに基づいて、それぞれの顔パーツに基づく顔の基準点の第2の存在確率を算定する存在確率算定手段と、前記存在確率算定手段によって算定された各顔パーツに基づく顔の基準点の第2の存在確率に対して各顔パーツの重要度による重み付けをおこない、該重み付け結果から得られる各顔パーツに基づく顔の基準点の第2の存在確率の総和を算定する総和算定手段と、前記総和算定手段により算定された第2の存在確率の総和の最大値を求め、この最大値をとる位置を顔の基準点として特定する基準点特定手段とを備えたことを特徴とする。
【0012】
また、請求項に係る顔検出装置は、請求項1の発明において、前記存在確率算定手段は、前記パーツ情報算定手段によって算定されたパーツ情報と、前記事前情報の一つである各顔パーツを基準とした顔の基準点の第1の存在確率との畳み込みにより、各顔パーツに基づく顔の基準点の第2の存在確率を算出することを特徴とする。
【0013】
また、請求項に係る顔検出方法は、入力画像中に存在する顔画像を検出する顔検出方法であって、各顔パーツを基準とした顔の基準点の第1の存在確率および各顔パーツの部分空間を含む各顔パーツの事前情報を記憶部に格納する格納工程と、前記部分空間に基づいて前記入力画像中に存在する各顔パーツを認識し、認識した各顔パーツと前記顔パーツを基準とした顔の基準点の第1の存在確率に基づいて前記入力画像中の顔の基準点を算出し、算出した顔の基準点に基づいて前記入力画像から顔画像を検出する検出工程とを含み、前記検出工程は、前記部分空間を用いて各顔パーツらしさをパーツ情報として算定するパーツ情報算定工程と、前記パーツ情報算定工程によって算定されたパーツ情報と前記事前情報の一つである各顔パーツを基準とした顔の基準点の第1の存在確率とに基づいて、それぞれの顔パーツに基づく顔の基準点の第2の存在確率を算定する存在確率算定工程と、前記存在確率算定工程によって算定された各顔パーツに基づく顔の基準点の第2の存在確率に対して各顔パーツの重要度による重み付けをおこない、該重み付け結果から得られる各顔パーツに基づく顔の基準点の第2の存在確率の総和を算定する総和算定工程と、前記総和算定工程により算定された第2の存在確率の総和の最大値を求め、この最大値をとる位置を顔の基準点として特定する基準点特定工程とを含んだことを特徴とする。
【0015】
また、請求項に係る顔検出装置は、請求項3の発明において、前記存在確率算定工程は、前記パーツ情報算定工程によって算定されたパーツ情報と、前記事前情報の一つである各顔パーツを基準とした顔の基準点の第1の存在確率との畳み込みにより、各顔パーツに基づく顔の基準点の第2の存在確率を算出することを特徴とする。
【0016】
また、請求項に係る顔検出プログラムは、入力画像中に存在する顔画像を検出する顔検出プログラムであって、各顔パーツを基準とした顔の基準点の第1の存在確率および各顔パーツの部分空間を含む各顔パーツの事前情報を記憶部に格納する格納手順と、前記部分空間に基づいて前記入力画像中に存在する各顔パーツを認識し、認識した各顔パーツと前記顔パーツを基準とした顔の基準点の第1の存在確率に基づいて前記入力画像中の顔の基準点を算出し、算出した顔の基準点に基づいて前記入力画像から顔画像を検出する検出手順とを備え、前記検出手順は、前記部分空間を用いて各顔パーツらしさをパーツ情報として算定するパーツ情報算定手順と、前記パーツ情報算定手順によって算定されたパーツ情報と前記事前情報の一つである各顔パーツを基準とした顔の基準点の第1の存在確率とに基づいて、それぞれの顔パーツに基づく顔の基準点の第2の存在確率を算定する存在確率算定手順と、前記存在確率算定手順によって算定された各顔パーツに基づく顔の基準点の第2の存在確率に対して各顔パーツの重要度による重み付けをおこない、該重み付け結果から得られる各顔パーツに基づく顔の基準点の第2の存在確率の総和を算定する総和算定手順と、前記総和算定手順により算定された第2の存在確率の総和の最大値を求め、この最大値をとる位置を顔の基準点として特定する基準点特定手順とを含んだ各手順をコンピュータに実行させることを特徴とする。
【0018】
また、請求項に係る顔検出プログラムは、請求項5の発明において、前記存在確率算定手順は、前記パーツ情報算定手順によって算定されたパーツ情報と、前記事前情報の一つである各顔パーツを基準とした顔の基準点の第1の存在確率との畳み込みにより、各顔パーツに基づく顔の基準点の第2の存在確率を算出することを特徴とする。
【0019】
【発明の実施の形態】
以下に添付図面を参照して、この発明に係る顔検出装置、顔検出方法および顔検出プログラムの好適な実施の形態を詳細に説明する。
【0020】
図1は、本発明の実施の形態に係る顔検出装置の概略構成を示すブロック図である。図1に示すように、この顔検出装置1は、撮像部2と、記憶部4に記憶された各顔パーツの事前情報に基づいて、入力画像中に存在する顔パーツを認識し、これら各顔パーツに基づいて入力画像中の顔の基準点を算出し、この顔の基準点に基づいて入力画像中から顔画像を検出する検出部3と、各顔パーツを基準とした基準点の存在確率を含む各顔パーツの事前情報を記憶する記憶部4とを備えている。この記憶部4に記憶される事前情報については後述する。ここで、この顔パーツとは、右目、左目、鼻および口などの顔の構成要素のことを指す。
【0021】
撮像部2は、本例の場合、従来から知られているCCD等を利用したカメラ装置を採用している。また、検出部3は、コンピュータ装置(CPU)を用いている。さらに、記憶部4は、検出部3をなすコンピュータ装置に付設のハードディスクを採用している。なお、この記憶部4は、コンピュータ装置とは別のコンピュータ装置を採用することもできる。
【0022】
検出部3は、図1に示すように、パーツ情報算定部3a、存在確率算定部3b、総和算定部3cおよび基準点特定部3dを有する。このパーツ情報算定部3aは、撮像部2によって入力された入力画像の各位置に対して記憶部4に記憶されている部分空間を用いて各顔パーツらしさを求める処理部である。
【0023】
また、存在確率算定部3bは、上記パーツ情報算定部3aによって得られた各顔パーツらしさと、事前情報の一つである各顔パーツを基準とした顔の基準点の存在確率とにより、それぞれの顔パーツに基づく顔の基準点の存在確率を算出する処理部である。ここでは、それぞれの顔パーツに基づく顔の基準点の存在確率は、各顔パーツらしさと、記憶部4に記憶されているそれぞれの顔パーツを基準とした顔の基準点に対する存在確率との畳み込み(コンボリューション)により算出することとしている。
【0024】
また、総和算定部3cは、まず存在確率算定部3bによって得られたそれぞれの顔パーツに基づく顔の基準点の存在確率に各顔パーツの重要度による重み付けをおこない、この重み付けをおこなうことで得られる各顔パーツに基づく顔の基準点の存在確率の総和を求める処理部である。
【0025】
また、基準点特定部3dは、総和算定部3cで得られた存在確率の和の最大値を求め、この最大値を顔の基準点とする処理部である。
【0026】
上記構成を有する顔検出装置1を用いて、撮像部2から得られた入力画像中の顔画像の検出手順は、図3に示すフローチャートのようになる。ただし、かかる顔検出に先立って、図2に示すフローチャートの学習処理をおこない、この学習処理で得られた各種事前情報を記憶部4に格納しておく必要がある。以下では、かかる学習処理について説明した後、顔検出処理について説明する。
【0027】
図2は、顔検出に先だっておこなわれる学習処理手順を示すフローチャートである。同図に示すように、あらかじめ多数の顔画像を入力して記憶部4に記憶する(ステップS201)。かかる顔画像は、撮像部2を用いて学習用としての顔画像を撮像することによって入力することができる。また、スキャナなどの図示しない別の入力装置を用いても良い。
【0028】
この入力作業を終えたならば、ステップS202に進み、ステップS201で入力した各顔画像に対して、顔の基準点と、各顔パーツの位置を指定し、各顔パーツの位置を基準とした所定の大きさの顔パーツ画像を抽出する。なお、顔の基準点および各顔パーツの位置は、作業者が適宜に指定する。
【0029】
次に、ステップS203に進み、ステップS202で定めた顔の基準点の各顔パーツ位置に対する相対位置を求める。この後、ステップS204に進み、ステップS203で求めた複数の相対位置の平均と共分散とを求める。更に、これら平均および共分散に基づいて、正規分布を用いて各顔パーツに対する顔の基準点の存在確率Qi(x)を求める。
【0030】
具体的には、2次元の平均列ベクトルをm、共分散行列の逆行列をVとすると、
Qi(x)=Cexp{−<m,Vm>}
として求める。なお、Cは定数であり、<m,Vm>は、mとVmの内積を示すものとする。
【0031】
最後に、ステップS205に進み、各顔パーツ画像について前述した部分空間法を用いて学習する。すなわち、各顔パーツの平均画像および固有画像を作成し、記憶部4に記憶させる。これら各顔パーツの平均画像や固有画像、各顔パーツに対する顔の基準点の存在確率Qi(x)が、特許請求の範囲に記載された事前情報に相当する。
【0032】
上述したような学習を終えたならば、撮像部2から取り込んだ入力画像から顔画像を検出することが可能となる。次に、この顔検出手順について図3を用いて説明する。
【0033】
図3のステップS301に示すように、撮像部2で取得した検出対象用の入力画像を検出部3に入力したならば、入力画像中のすべての位置に対してその位置を中心とする部分画像を抽出し、各顔パーツiに対して部分空間法を適用して、各顔パーツiの位置xにおける各顔パーツiの部分空間との距離をdi(x)とした場合の、それぞれの各顔パーツらしさPi(x)=exp(−di(x)/d0)を算出する。これは、検出部3のパーツ情報算定部3aが担当する。
【0034】
具体的には、顔パーツiに関し、i=1を右目、i=2を左目、i=3を鼻、i=4を口とすると、これら各顔パーツである、右目、左目、鼻、口に対して上記部分空間法を適用して、それぞれ右目らしさP1(x)、左目らしさP2(x)、鼻らしさP3(x)、口らしさP4(x)を、上記Pi(x)の式に基づいて算出する。
【0035】
次に、ステップ303に進み、各顔パーツiを用いた顔の基準点の存在確率Ri(x)を求める。この存在確率Ri(x)は、上記Pi(x)と各顔パーツに対する顔の基準点の存在確率Qi(x)とにより、Pi(x)*Qi(x)で求める。上記演算記号「*」は、コンボリューション(畳み込み)を表している。なお、かかるRiは、確率であることの条件ΣRi=1を満たさないが、Ri(x)が大きいほどxが顔の基準点である確率が大きくなるという意味で、ここでは確率と言う。上記ステップS303に係る作業は、検出部3の存在確率算定部3bが担当する。
【0036】
図4は、各顔パーツに対する顔の基準点のばらつきを示したものである。たとえば、図4(A)は、右目の位置K1が決まったときに、顔の基準点が楕円Q1の範囲内にある確率が高いことを表している。同様に、同図(B)は、左目の位置K2が決まったときに、顔の基準点が楕円Q2の範囲内にある確率が高いことを表しており、同図(C)は、鼻の位置K3が決まったときに、顔の基準点が楕円Q3の範囲内にある確率が高いことを表しており、同図(D)は、口の位置K4が決まったときに、顔の基準点が楕円Q4の範囲内にある確率が高いことを表している。
【0037】
次いでステップS304に進み、上記ステップS303で求めた各顔パーツiにおけるそれぞれの存在確率Ri(x)ごとに、その重要度に応じた重みを付加し、重みを付加した後の各存在確率Wi・Ri(x)の総和を求める。すなわち、R(x)=ΣWi・Ri(x)を求める。このステップS304に係る作業は、検出部3の総和算定部3cが担当する。
【0038】
このように重みを付加した後の各存在確率の総和R(x)が求まったならば、ステップS305に進み、R(x)の最大値Rmax(x)を求める。さらに、このRmax(x)を満たす位置xを顔の基準点とする。すなわち、各顔パーツiのそれぞれの存在確率Ri(x)に基づいて、各顔パーツiごとのそれぞれの顔の基準点が、図5(A)に示すように得られる。これら各基準点についてR(x)の最大値Rmax(x)を求めることにより、図5(B)に示すように、各顔パーツiが統合された状態における上記位置xが得られる。上記ステップS305に係る作業は、検出部3の基準点特定部3dが担当する。
【0039】
上述してきたように、本発明に係る顔検出装置は、各顔パーツらしさを求めた後、それらの結果を位置のばらつきを考慮して統合する。このため、従来方法のように個人間における各顔パーツの大きなばらつきが生じることがない。すなわち、このようなばらつきを有効に吸収できる。この結果、確実な顔検出を行えるようになり、顔検出の信頼性が向上する。
【0040】
なお、本実施の形態では撮像部2としてCCDカメラを用いた場合について説明したが、本発明はこれに限定されるものではなく、例えばスキャナを採用して写真中の顔画像を検出する装置に応用することもできる。
【0041】
また図1に示す検出部3は一のコンピュータ装置によって構成しているが、この場合、当該コンピュータ装置に、パーツ情報算定部3a、存在確率算定部3b、総和算定部3c、基準点特定部3dにそれぞれ対応するプログラムを組み込んでいる。
【0042】
【発明の効果】
以上説明したように、本発明に係る顔検出装置、顔検出方法、顔検出プログラムによれば、各顔パーツらしさを求めた後、それらの結果を位置のばらつきを考慮して統合する。このため、従来方法のように個人間における各顔パーツの大きなばらつきが生じることがない。すなわち、このようなばらつきを有効に吸収できる。この結果、確実な顔検出を行えるようになり、顔検出の信頼性が向上する。また、例えば監視装置に本発明を組み込む等、従来知られた種々の装置に組み込んで適用可能であるため、産業の発展に寄与できる。
【図面の簡単な説明】
【図1】この発明の実施の形態である顔検出装置の概略構成を示すブロック図である。
【図2】顔検出に先だって行われる学習の手順を示すフローチャートである。
【図3】顔検出の手順を示すフローチャートである。
【図4】各顔パーツに対する顔の基準点のばらつきを示す図である。
【図5】最終的な顔の基準点を求める際の作用を説明するための略図であり、(A)は各顔パーツの統合前を、(B)は統合後を、それぞれ示す略図である。
【符号の説明】
1 顔検出装置
2 撮像部
3 検出部
3a パーツ情報算定部
3b 存在確率算定部
3c 総和算定部
3d 基準点特定部
4 記憶部
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a face detection apparatus, a face detection method, and a face detection program for detecting a face image in an input image, and in particular, quickly and reliably absorb variations in the positional relationship of face parts, thereby having high reliability and speed. The present invention relates to a face detection apparatus, a face detection method, and a face detection program capable of performing face detection.
[0002]
[Prior art]
In the surveillance camera system, since it is necessary to automatically recognize whether or not a person is reflected in an image captured by the surveillance camera, a technique using a face detection technique called a subspace method is known.
[0003]
For example, Matthew A. Turk, Alex Pentland, “Face Recognition Using Eigefaces”, Proc. CVPR, pp. 586-591, 1991, discloses a technique for constructing a partial space by collecting data of face images of a large number of people. In this prior art, a low-dimensional subspace that represents the entire face is prepared, and the face position is determined by examining which position in the input image best fits the prepared subspace. Detected.
[0004]
Specifically, in a model expressing a pattern distribution assuming a normal distribution with parameters of the mean and covariance matrix obtained from the face image data set prepared for learning, an eigenvector associated with the upper eigenvalue of the covariance matrix The pattern is limited to the subspace to be stretched, and the distance between the input pattern and the subspace is measured by regarding the subspace as a face space.
[0005]
By the way, when performing face detection using such a subspace method, it is difficult to absorb this variation because the variation in position of face parts (eyes, nose, mouth, etc.) is large among individuals. That is, in face detection, it is necessary to normalize the size of the face image. For example, if the reference is “interval between eyes”, the distance from the midpoint of both eyes to other face parts (eg, “mouth”) The distance is greatly different between a face with a face length and a face with a round face.
[0006]
For this reason, Japanese Patent Laid-Open No. 9-91429 (Prior Art 1) discloses an invention in which matching with a partial space is performed while changing the aspect ratio. Japanese Patent Application Laid-Open No. 9-44676 (Prior Art 2) describes an invention in which after detecting a plurality of face parts, the position of the face is specified based on the positional relationship of each face part. By utilizing the inventions disclosed in the related art 1 and the related art 2, it is possible to absorb the variation in the position of the face parts to some extent.
[0007]
[Problems to be solved by the invention]
However, when the above prior art 1 is used, since the number of matching calculations is proportional to the number of times the aspect ratio is changed, the calculation time becomes enormous, and as a result face detection cannot be performed quickly. There's a problem.
[0008]
In addition, when using the above-described conventional technique 2, although the variation in the position of the face part can be absorbed to some extent, the pattern of each face part is simple compared to the entire face, so the reliability of face part detection is low, As a result, there is a problem that the reliability of face detection is lowered.
[0009]
The present invention has been made to solve the above-described problems, and is capable of quickly and reliably absorbing variations in the positional relationship of face parts, and thus performing face detection with high reliability and quickness. An object is to provide an apparatus, a face detection method, and a face detection program.
[0010]
[Means for Solving the Problems]
The present invention has been made to achieve the above object, and the face detection device according to claim 1 is a face detection device that detects a face image present in an input image, and is based on each face part. Storage means for storing the first existence probability of the reference point of the face and the prior information of each face part including the partial space of each face part, and each face part existing in the input image based on the partial space And calculating a reference point of the face in the input image based on each recognized face part and a first existence probability of a face reference point based on the face part. Detecting means for detecting a face image from the input image based on the input information, and the detecting means includes parts information calculating means for calculating the likelihood of each face part as part information using the partial space, and the parts information calculating means. Calculated parts The second existence probability of the reference point of the face based on each face part based on the information and the first existence probability of the reference point of the face based on each face part which is one of the prior information. An existence probability calculating means for calculating, and weighting the importance of each face part to the second existence probability of the face reference point based on each face part calculated by the existence probability calculating means, A sum total calculating means for calculating the sum of the second existence probabilities of the reference points of the face based on each face part obtained, and obtaining a maximum value of the sum of the second existence probabilities calculated by the sum calculating means; Reference point specifying means for specifying the position where the value is taken as the reference point of the face is provided .
[0012]
The face detection device according to claim 2 is the face detection device according to claim 1 , wherein the existence probability calculation means is a part information calculated by the parts information calculation means and each face as one of the prior information. The second existence probability of the face reference point based on each face part is calculated by convolution with the first existence probability of the face reference point based on the part.
[0013]
According to a third aspect of the present invention, there is provided a face detection method for detecting a face image existing in an input image, wherein the first presence probability of a face reference point based on each face part and each face A storing step of storing in advance a front part information of each face part including a partial space of the parts in the storage unit, and recognizing each facial part existing in the input image based on the partial space, and recognizing each recognized facial part and the face Detection of calculating a reference point of a face in the input image based on a first existence probability of a reference point of a face with reference to a part, and detecting a face image from the input image based on the calculated reference point of the face a step seen including, the detecting step includes a part information calculation step of calculating a respective face part likeness as part information using the subspace, the part information calculating part information calculated by steps and the prior information Each face part that is one Based on the first existence probability of the reference point of the face as a reference, the existence probability calculation step of calculating the second existence probability of the face reference point based on each face part, and the calculation by the existence probability calculation step The second existence probability of the face reference point based on each face part is weighted according to the importance of each face part, and the second of the face reference points based on each face part obtained from the weight result A sum total calculation step for calculating the sum of existence probabilities, and a reference point specification for obtaining a maximum value of the second sum of existence probabilities calculated by the sum calculation step and specifying a position where the maximum value is obtained as a reference point of the face And a process .
[0015]
According to a fourth aspect of the present invention, in the invention of the third aspect , the presence probability calculating step includes each piece of face information that is one of the part information calculated in the part information calculating step and the prior information. The second existence probability of the face reference point based on each face part is calculated by convolution with the first existence probability of the face reference point based on the part.
[0016]
According to a fifth aspect of the present invention, there is provided a face detection program for detecting a face image existing in an input image, wherein the first presence probability of a face reference point based on each face part and each face A storing procedure for storing in advance a front part information of each face part including a partial space of the parts in the storage unit, and recognizing each facial part existing in the input image based on the partial space, and recognizing each recognized facial part and the face Detection of calculating a reference point of a face in the input image based on a first existence probability of a reference point of a face with reference to a part, and detecting a face image from the input image based on the calculated reference point of the face The detection procedure includes a part information calculation procedure for calculating the likelihood of each facial part as part information using the partial space, a part information calculated by the part information calculation procedure, and one of the prior information. One An existence probability calculation procedure for calculating a second existence probability of a face reference point based on each face part based on the first existence probability of a face reference point based on each face part; and the existence probability Weighting according to the importance of each face part to the second existence probability of the face reference point based on each face part calculated by the calculation procedure, and the face reference point based on each face part obtained from the weighting result The sum total calculation procedure for calculating the sum of the second existence probabilities of the first and the maximum value of the second sum of the second existence probabilities calculated by the sum calculation procedure, and specifying the position where this maximum value is taken as the reference point of the face The computer is caused to execute each procedure including a reference point specifying procedure to be performed.
[0018]
The face detection program according to claim 6 is the face detection program according to claim 5 , wherein the existence probability calculation procedure is a part information calculated by the parts information calculation procedure and each face as one of the prior information. The second existence probability of the face reference point based on each face part is calculated by convolution with the first existence probability of the face reference point based on the part.
[0019]
DETAILED DESCRIPTION OF THE INVENTION
Exemplary embodiments of a face detection device, a face detection method, and a face detection program according to the present invention will be explained below in detail with reference to the accompanying drawings.
[0020]
FIG. 1 is a block diagram showing a schematic configuration of a face detection apparatus according to an embodiment of the present invention. As shown in FIG. 1, the face detection device 1 recognizes facial parts existing in an input image based on the imaging unit 2 and the prior information of each facial part stored in the storage unit 4. The detection unit 3 that calculates the reference point of the face in the input image based on the face part and detects the face image from the input image based on the reference point of the face, and the presence of the reference point based on each face part And a storage unit 4 for storing prior information of each face part including the probability. Prior information stored in the storage unit 4 will be described later. Here, the facial parts refer to facial components such as the right eye, left eye, nose and mouth.
[0021]
In the case of this example, the imaging unit 2 employs a conventionally known camera device using a CCD or the like. The detection unit 3 uses a computer device (CPU). Further, the storage unit 4 employs a hard disk attached to the computer device forming the detection unit 3. The storage unit 4 may employ a computer device different from the computer device.
[0022]
As shown in FIG. 1, the detection unit 3 includes a parts information calculation unit 3a, an existence probability calculation unit 3b, a sum calculation unit 3c, and a reference point specifying unit 3d. The parts information calculation unit 3 a is a processing unit that determines the likelihood of each face part using the partial space stored in the storage unit 4 for each position of the input image input by the imaging unit 2.
[0023]
In addition, the existence probability calculation unit 3b is based on each face part obtained by the part information calculation unit 3a and the existence probability of the reference point of the face based on each face part which is one of the prior information. It is a processing part which calculates the existence probability of the reference point of the face based on this face part. Here, the existence probability of the reference points of the face based on the respective face parts, the convolution of the existence probability relative to the reference point of the likeness each face part, relative to the respective face parts stored in the storage unit 4 faces (Convolution).
[0024]
Also, the sum total calculation unit 3c first weights the existence probabilities of the face reference points based on the respective face parts obtained by the existence probability calculation unit 3b according to the importance of each face part, and obtains the weight by performing this weighting. It is a processing part which calculates | requires the sum total of the existence probability of the reference point of the face based on each face part obtained.
[0025]
The reference point specifying unit 3d is a processing unit that obtains the maximum value of the sum of the existence probabilities obtained by the total calculation unit 3c and uses the maximum value as the reference point of the face.
[0026]
The procedure for detecting a face image in an input image obtained from the imaging unit 2 using the face detection apparatus 1 having the above configuration is as shown in the flowchart of FIG. However, prior to the face detection, it is necessary to perform the learning process of the flowchart shown in FIG. 2 and store various pre-information obtained by this learning process in the storage unit 4. In the following, after describing the learning process, the face detection process will be described.
[0027]
FIG. 2 is a flowchart showing a learning processing procedure performed prior to face detection. As shown in the figure, a number of face images are input in advance and stored in the storage unit 4 (step S201). Such a face image can be input by capturing a face image for learning using the imaging unit 2. Further, another input device (not shown) such as a scanner may be used.
[0028]
When this input operation is completed, the process proceeds to step S202, where the face reference point and the position of each face part are designated for each face image input in step S201, and the position of each face part is used as a reference. A face part image having a predetermined size is extracted. The face reference point and the position of each face part are appropriately designated by the operator.
[0029]
Next, the process proceeds to step S203, and the relative position of the face reference point determined in step S202 with respect to each face part position is obtained. Thereafter, the process proceeds to step S204, and the average and covariance of the plurality of relative positions obtained in step S203 are obtained. Further, based on these averages and covariances, the existence probability Qi (x) of the face reference point for each face part is obtained using a normal distribution.
[0030]
Specifically, when the two-dimensional average column vector is m and the inverse matrix of the covariance matrix is V,
Qi (x) = Cexp {-<m, Vm>}
Asking. C is a constant, and <m, Vm> represents an inner product of m and Vm.
[0031]
Finally, the process proceeds to step S205, where each face part image is learned using the subspace method described above. That is, an average image and a unique image of each face part are created and stored in the storage unit 4. The average image and unique image of each face part, and the presence probability Qi (x) of the face reference point for each face part correspond to the prior information described in the claims.
[0032]
When learning as described above is completed, a face image can be detected from the input image captured from the imaging unit 2. Next, the face detection procedure will be described with reference to FIG.
[0033]
As shown in step S301 of FIG. 3, if the detection target input image acquired by the imaging unit 2 is input to the detection unit 3, the partial image centered on that position with respect to all the positions in the input image. , And applying the subspace method to each face part i, each distance of each face part i at the position x of each face part i is di (x). The facial part likelihood Pi (x) = exp (−di (x) / d0) is calculated. This is handled by the part information calculation unit 3a of the detection unit 3.
[0034]
Specifically, regarding face part i, if i = 1 is the right eye, i = 2 is the left eye, i = 3 is the nose, and i = 4 is the mouth, these face parts are the right eye, left eye, nose, mouth. By applying the above subspace method, the right eye-likeness P1 (x), the left eye-likeness P2 (x), the nasal-likeness P3 (x), and the mouth-likeness P4 (x) are respectively expressed in the above Pi (x). Calculate based on
[0035]
Next, the process proceeds to step 303, where the existence probability Ri (x) of the reference point of the face using each face part i is obtained. The existence probability Ri (x) is obtained as Pi (x) * Qi (x) from the above Pi (x) and the existence probability Qi (x) of the face reference point for each face part. The arithmetic symbol “*” represents convolution (convolution). Note that such Ri does not satisfy the probability condition ΣRi = 1, but here, the larger Ri (x), the larger the probability that x is the reference point of the face, and here it is referred to as a probability. The work relating to step S303 is handled by the existence probability calculation unit 3b of the detection unit 3.
[0036]
FIG. 4 shows the variation of the face reference point for each face part. For example, FIG. 4A shows that when the position K1 of the right eye is determined, the probability that the face reference point is within the range of the ellipse Q1 is high. Similarly, FIG. 5B shows that when the position K2 of the left eye is determined, the probability that the face reference point is within the range of the ellipse Q2 is high. FIG. When the position K3 is determined, the probability that the face reference point is within the range of the ellipse Q3 is high. FIG. 4D shows the face reference point when the mouth position K4 is determined. Represents a high probability of being within the range of the ellipse Q4.
[0037]
Next, the process proceeds to step S304, for each existence probability Ri (x) in each face part i obtained in step S303, a weight corresponding to the importance is added, and each existence probability Wi · Find the sum of Ri (x). That is, R (x) = ΣWi · Ri (x) is obtained. The operation relating to step S304 is handled by the sum total calculation unit 3c of the detection unit 3.
[0038]
When the sum R (x) of the respective existence probabilities after adding weights is obtained in this way, the process proceeds to step S305, and the maximum value Rmax (x) of R (x) is obtained. Further, a position x satisfying this Rmax (x) is set as a reference point of the face. That is, based on the existence probability Ri (x) of each face part i, the reference point of each face for each face part i is obtained as shown in FIG. By obtaining the maximum value Rmax (x) of R (x) for each of these reference points, the position x in the state where the face parts i are integrated is obtained as shown in FIG. The reference point specifying unit 3d of the detection unit 3 is in charge of the work related to step S305.
[0039]
As described above, the face detection device according to the present invention obtains the likelihood of each face part, and then integrates the results in consideration of the position variation. For this reason, there is no large variation in individual facial parts among individuals as in the conventional method. That is, such variation can be effectively absorbed. As a result, reliable face detection can be performed, and the reliability of face detection is improved.
[0040]
In this embodiment, the case where a CCD camera is used as the imaging unit 2 has been described. However, the present invention is not limited to this, and for example, a device that detects a face image in a photograph using a scanner. It can also be applied.
[0041]
1 comprises a single computer device. In this case, the computer device includes a parts information calculation unit 3a, an existence probability calculation unit 3b, a sum calculation unit 3c, and a reference point specifying unit 3d. Each program has a corresponding program.
[0042]
【The invention's effect】
As described above, according to the face detection device, the face detection method, and the face detection program according to the present invention, after obtaining the likelihood of each face part, the results are integrated in consideration of the variation in position. For this reason, there is no large variation in individual facial parts among individuals as in the conventional method. That is, such variation can be effectively absorbed. As a result, reliable face detection can be performed, and the reliability of face detection is improved. In addition, since the present invention can be incorporated and applied to various conventionally known devices, for example, the present invention is incorporated into a monitoring device, it can contribute to industrial development.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a schematic configuration of a face detection apparatus according to an embodiment of the present invention.
FIG. 2 is a flowchart showing a learning procedure performed prior to face detection.
FIG. 3 is a flowchart illustrating a face detection procedure.
FIG. 4 is a diagram showing variations in facial reference points for each facial part.
FIGS. 5A and 5B are schematic diagrams for explaining an action in obtaining a final face reference point, where FIG. 5A is a schematic diagram showing before and after integration of each facial part; FIG. .
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 Face detection apparatus 2 Imaging part 3 Detection part 3a Parts information calculation part 3b Existence probability calculation part 3c Sum total calculation part 3d Reference point specific | specification part 4 Memory | storage part

Claims (6)

入力画像中に存在する顔画像を検出する顔検出装置であって、
各顔パーツを基準とした顔の基準点の第1の存在確率および各顔パーツの部分空間を含む各顔パーツの事前情報を記憶する記憶手段と、
前記部分空間に基づいて前記入力画像中に存在する各顔パーツを認識し、認識した各顔パーツと前記顔パーツを基準とした顔の基準点の第1の存在確率に基づいて前記入力画像中の顔の基準点を算出し、算出した顔の基準点に基づいて前記入力画像から顔画像を検出する検出手段とを備え
前記検出手段は、
前記部分空間を用いて各顔パーツらしさをパーツ情報として算定するパーツ情報算定手段と、前記パーツ情報算定手段によって算定されたパーツ情報と前記事前情報の一つである各顔パーツを基準とした顔の基準点の第1の存在確率とに基づいて、それぞれの顔パーツに基づく顔の基準点の第2の存在確率を算定する存在確率算定手段と、前記存在確率算定手段によって算定された各顔パーツに基づく顔の基準点の第2の存在確率に対して各顔パーツの重要度による重み付けをおこない、該重み付け結果から得られる各顔パーツに基づく顔の基準点の第2の存在確率の総和を算定する総和算定手段と、前記総和算定手段により算定された第2の存在確率の総和の最大値を求め、この最大値をとる位置を顔の基準点として特定する基準点特定手段とを備えた
ことを特徴とする顔検出装置。
A face detection device for detecting a face image present in an input image,
Storage means for storing prior information of each face part including a first existence probability of a reference point of the face relative to each face part and a partial space of each face part;
Recognizing each face part present in the input image based on the partial space, and in the input image based on a first existence probability of each recognized face part and a reference point of a face based on the face part. Detecting means for detecting a face image from the input image based on the calculated face reference point ,
The detection means includes
Parts information calculation means for calculating the likelihood of each face part as part information using the partial space, and the parts information calculated by the parts information calculation means and each face part as one of the prior information A presence probability calculating means for calculating a second existence probability of the face reference point based on each face part based on the first existence probability of the face reference point; and each of the existence probability calculating means calculated by the existence probability calculating means The second existence probability of the face reference point based on the face part is weighted according to the importance of each face part, and the second existence probability of the face reference point based on each face part obtained from the weighting result Sum total calculating means for calculating the sum, and a reference point specifying means for determining a maximum value of the total sum of the second existence probabilities calculated by the sum calculating means and specifying a position where the maximum value is obtained as a reference point of the face Face detection apparatus characterized by comprising and.
前記存在確率算定手段は、前記パーツ情報算定手段によって算定されたパーツ情報と、前記事前情報の一つである各顔パーツを基準とした顔の基準点の第1の存在確率との畳み込みにより、各顔パーツに基づく顔の基準点の第2の存在確率を算出することを特徴とする請求項1に記載の顔検出装置。The existence probability calculation means is a convolution of the part information calculated by the parts information calculation means and a first existence probability of a face reference point based on each face part which is one of the prior information. The face detection apparatus according to claim 1 , wherein a second existence probability of a face reference point based on each face part is calculated. 入力画像中に存在する顔画像を検出する顔検出方法であって、
各顔パーツを基準とした顔の基準点の第1の存在確率および各顔パーツの部分空間を含む各顔パーツの事前情報を記憶部に格納する格納工程と、
前記部分空間に基づいて前記入力画像中に存在する各顔パーツを認識し、認識した各顔パーツと前記顔パーツを基準とした顔の基準点の第1の存在確率に基づいて前記入力画像中の顔の基準点を算出し、算出した顔の基準点に基づいて前記入力画像から顔画像を検出する検出工程とを含み、
前記検出工程は、
前記部分空間を用いて各顔パーツらしさをパーツ情報として算定するパーツ情報算定工程と、前記パーツ情報算定工程によって算定されたパーツ情報と前記事前情報の一つである各顔パーツを基準とした顔の基準点の第1の存在確率とに基づいて、それぞれの顔パーツに基づく顔の基準点の第2の存在確率を算定する存在確率算定工程と、前記存在確率算定工程によって算定された各顔パーツに基づく顔の基準点の第2の存在確率に対して各顔パーツの重要度による重み付けをおこない、該重み付け結果から得られる各顔パーツに基づく顔の基準点の第2の存在確率の総和を算定する総和算定工程と、前記総和算定工程により算定された第2の存在確率の総和の最大値を求め、この最大値をとる位置を顔の基準点として特定する基準点特定工程とを含んだ
ことを特徴とする顔検出方法。
A face detection method for detecting a face image present in an input image,
A storing step of storing in the storage unit prior information of each face part including a first existence probability of a reference point of the face relative to each face part and a partial space of each face part;
Recognizing each face part present in the input image based on the partial space, and in the input image based on a first existence probability of each recognized face part and a reference point of a face based on the face part. of calculating the reference points of the face, seen including a detection step of detecting a face image from the input image based on the reference point of the calculated face,
The detection step includes
A part information calculation step for calculating the likelihood of each facial part as part information using the partial space, and part information calculated by the part information calculation step and each face part as one of the prior information. A presence probability calculating step of calculating a second presence probability of the face reference point based on each face part based on the first presence probability of the face reference point; The second existence probability of the face reference point based on the face part is weighted according to the importance of each face part, and the second existence probability of the face reference point based on each face part obtained from the weighting result A total point calculation process for calculating the total sum and a reference point specifying process for determining the maximum value of the total sum of the second existence probabilities calculated by the total calculation step and specifying a position where the maximum value is obtained as a reference point of the face Face detection method characterized by including and.
前記存在確率算定工程は、前記パーツ情報算定工程によって算定されたパーツ情報と、前記事前情報の一つである各顔パーツを基準とした顔の基準点の第1の存在確率との畳み込みにより、各顔パーツに基づく顔の基準点の第2の存在確率を算出することを特徴とする請求項3に記載の顔検出方法。The existence probability calculating step is a convolution of the part information calculated by the parts information calculating step and the first existence probability of the reference point of the face based on each face part which is one of the prior information. The face detection method according to claim 3 , wherein a second existence probability of a face reference point based on each face part is calculated. 入力画像中に存在する顔画像を検出する顔検出プログラムであって、
各顔パーツを基準とした顔の基準点の第1の存在確率および各顔パーツの部分空間を含む各顔パーツの事前情報を記憶部に格納する格納手順と、
前記部分空間に基づいて前記入力画像中に存在する各顔パーツを認識し、認識した各顔パーツと前記顔パーツを基準とした顔の基準点の第1の存在確率に基づいて前記入力画像中の顔の基準点を算出し、算出した顔の基準点に基づいて前記入力画像から顔画像を検出する検出手順とを備え、
前記検出手順は、
前記部分空間を用いて各顔パーツらしさをパーツ情報として算定するパーツ情報算定手順と、前記パーツ情報算定手順によって算定されたパーツ情報と前記事前情報の一つである各顔パーツを基準とした顔の基準点の第1の存在確率とに基づいて、それぞれの顔パーツに基づく顔の基準点の第2の存在確率を算定する存在確率算定手順と、前記存在確率算定手順によって算定された各顔パーツに基づく顔の基準点の第2の存在確率に対して各顔パーツの重要度による重み付けをおこない、該重み付け結果から得られる各顔パーツに基づく顔の基準点の第2の存在確率の総和を算定する総和算定手順と、前記総和算定手順により算定された第2の存在確率の総和の最大値を求め、この最大値とる位置を顔の基準点として特定する基準点特定手順とを含んだ
各手順をコンピュータに実行させることを特徴とする顔検出プログラム。
A face detection program for detecting a face image present in an input image,
A storage procedure for storing in advance a first information on each face part including a first existence probability of a reference point of a face relative to each face part and a partial space of each face part in a storage unit;
Recognizing each face part present in the input image based on the partial space, and in the input image based on a first existence probability of each recognized face part and a reference point of a face based on the face part. And a detection procedure for detecting a face image from the input image based on the calculated face reference point .
The detection procedure includes:
A part information calculation procedure for calculating the likelihood of each face part as part information using the partial space, and part information calculated by the part information calculation procedure and each face part as one of the prior information. An existence probability calculation procedure for calculating a second existence probability of a face reference point based on each face part based on the first existence probability of the face reference point; and each of the existence probability calculation procedures calculated by the existence probability calculation procedure The second existence probability of the face reference point based on the face part is weighted according to the importance of each face part, and the second existence probability of the face reference point based on each face part obtained from the weighting result Sum total calculation procedure for calculating the sum, and a reference point specifying procedure for obtaining the maximum value of the total sum of the second existence probabilities calculated by the total calculation procedure and specifying the position where the maximum value is taken as the reference point of the face Including
A face detection program for causing a computer to execute each procedure .
前記存在確率算定手順は、前記パーツ情報算定手順によって算定されたパーツ情報と、前記事前情報の一つである各顔パーツを基準とした顔の基準点の第1の存在確率との畳み込みにより、各顔パーツに基づく顔の基準点の第2の存在確率を算出することを特徴とする請求項5に記載の顔検出プログラム。The existence probability calculation procedure is a convolution of the part information calculated by the part information calculation procedure and the first existence probability of the reference point of the face with each face part as one of the prior information. The face detection program according to claim 5 , wherein a second existence probability of a face reference point based on each face part is calculated.
JP2002208881A 2002-07-17 2002-07-17 Face detection device, face detection method, and face detection program Expired - Fee Related JP4011426B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002208881A JP4011426B2 (en) 2002-07-17 2002-07-17 Face detection device, face detection method, and face detection program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002208881A JP4011426B2 (en) 2002-07-17 2002-07-17 Face detection device, face detection method, and face detection program

Publications (2)

Publication Number Publication Date
JP2004054442A JP2004054442A (en) 2004-02-19
JP4011426B2 true JP4011426B2 (en) 2007-11-21

Family

ID=31932913

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002208881A Expired - Fee Related JP4011426B2 (en) 2002-07-17 2002-07-17 Face detection device, face detection method, and face detection program

Country Status (1)

Country Link
JP (1) JP4011426B2 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4410732B2 (en) 2005-07-27 2010-02-03 グローリー株式会社 Face image detection device, face image detection method, and face image detection program
JP4532419B2 (en) * 2006-02-22 2010-08-25 富士フイルム株式会社 Feature point detection method, apparatus, and program
JP4795864B2 (en) * 2006-06-21 2011-10-19 富士フイルム株式会社 Feature point detection apparatus and method, and program
JP4745207B2 (en) * 2006-12-08 2011-08-10 株式会社東芝 Facial feature point detection apparatus and method
JP4998637B1 (en) * 2011-06-07 2012-08-15 オムロン株式会社 Image processing apparatus, information generation apparatus, image processing method, information generation method, control program, and recording medium
JP6032921B2 (en) * 2012-03-30 2016-11-30 キヤノン株式会社 Object detection apparatus and method, and program
US9183429B2 (en) * 2012-08-15 2015-11-10 Qualcomm Incorporated Method and apparatus for facial recognition
US10026002B2 (en) 2013-10-01 2018-07-17 Nec Corporation Object detection apparatus, method for detecting object, and learning apparatus
JP6325405B2 (en) * 2014-09-22 2018-05-16 株式会社東芝 Feature point detection apparatus, method and program

Also Published As

Publication number Publication date
JP2004054442A (en) 2004-02-19

Similar Documents

Publication Publication Date Title
US11741736B2 (en) Determining associations between objects and persons using machine learning models
WO2020088588A1 (en) Deep learning-based static three-dimensional method for detecting whether face belongs to living body
KR102016082B1 (en) Method and apparatus for pose-invariant face recognition based on deep learning
JP6494253B2 (en) Object detection apparatus, object detection method, image recognition apparatus, and computer program
US20160379050A1 (en) Method for determining authenticity of a three-dimensional object
JP6007682B2 (en) Image processing apparatus, image processing method, and program
KR102476016B1 (en) Apparatus and method for determining position of eyes
JP4774818B2 (en) Image processing apparatus and image processing method
CN108875533B (en) Face recognition method, device, system and computer storage medium
CN112257696B (en) Sight estimation method and computing equipment
JP5001930B2 (en) Motion recognition apparatus and method
JP5170094B2 (en) Spoofing detection system, spoofing detection method, and spoofing detection program
TWI669664B (en) Eye state detection system and method for operating an eye state detection system
JP2013065119A (en) Face authentication device and face authentication method
JP5087037B2 (en) Image processing apparatus, method, and program
CN109800682A (en) Driver attributes&#39; recognition methods and Related product
JP2021531601A (en) Neural network training, line-of-sight detection methods and devices, and electronic devices
CN106881716A (en) Human body follower method and system based on 3D cameras robot
WO2020195732A1 (en) Image processing device, image processing method, and recording medium in which program is stored
CN112562159B (en) Access control method and device, computer equipment and storage medium
CN110895802A (en) Image processing method and device
JP4011426B2 (en) Face detection device, face detection method, and face detection program
WO2021084972A1 (en) Object tracking device and object tracking method
CN116580169B (en) Digital man driving method and device, electronic equipment and storage medium
CN106406507B (en) Image processing method and electronic device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050413

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20051213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070515

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070712

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070904

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070905

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100914

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110914

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110914

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120914

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120914

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130914

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130914

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees