JP2004151978A - Figure recognition device, figure recognition method and passage control device - Google Patents
Figure recognition device, figure recognition method and passage control device Download PDFInfo
- Publication number
- JP2004151978A JP2004151978A JP2002316064A JP2002316064A JP2004151978A JP 2004151978 A JP2004151978 A JP 2004151978A JP 2002316064 A JP2002316064 A JP 2002316064A JP 2002316064 A JP2002316064 A JP 2002316064A JP 2004151978 A JP2004151978 A JP 2004151978A
- Authority
- JP
- Japan
- Prior art keywords
- face
- person
- recognition
- registration information
- image input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 28
- 238000001514 detection method Methods 0.000 claims description 63
- 238000000605 extraction Methods 0.000 claims description 38
- 241000287107 Passer Species 0.000 claims description 18
- 230000001815 facial effect Effects 0.000 abstract 2
- 239000011159 matrix material Substances 0.000 description 7
- 239000013598 vector Substances 0.000 description 7
- 238000010586 diagram Methods 0.000 description 4
- 239000000284 extract Substances 0.000 description 4
- 230000007423 decrease Effects 0.000 description 3
- 238000005286 illumination Methods 0.000 description 2
- NIXOWILDQLNWCW-UHFFFAOYSA-N acrylic acid group Chemical group C(C=C)(=O)O NIXOWILDQLNWCW-UHFFFAOYSA-N 0.000 description 1
- 230000003796 beauty Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
- Collating Specific Patterns (AREA)
- Image Input (AREA)
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は、たとえば、セキュリティ管理などにおいて人物の顔画像を認識する人物認識装置および人物認識方法に関する。
また、本発明は、上記人物認識装置を用いて通行者の通行を制御する通行制御装置に関する。
【0002】
【従来の技術】
この種の人物認識装置においては、顔画像を入力するためのカメラに対する人物の立ち位置や姿勢といった状態が登録時と認識時(照合時)とで異なる場合に人物の認識率が低下していた。これは、人物の立ち位置は漠然とカメラ(あるいは、入力画像や操作案内などの表示用ディスプレイ)の正面とされていたが、厳密な意味でのチェックがなく、細かなレベルでの変動をおさえ切れなかったのが原因でもある。
【0003】
また、登録、認識(照合)用のターゲットを個人別に記憶することは可能であり、認識前に認識対象者の判明する1対1照合では、認識時に登録時の顔サイズを表示することも容易である。しかしながら、認識開始時には認識対象者を特定できない1対N照合では、この方法は使用できない。
【0004】
さらに、1対N照合用に基本とする顔サイズ、位置を円パターンなどで表示することも可能であるが、この位置が真中であれば、身長の高い人はしゃがみ、身長の低い人は背伸びをすることになり、かえって安定した顔画像の入力はできない。
【0005】
【発明が解決しようとする課題】
顔画像も含めて、一般に生体情報を用いた人物認識装置は、登録時と認識時に同じ生体情報を入力できれば、高い一致率(認識率)を得ることができる。さらに、顔画像を用いた人物認識装置は、他の生体情報を用いるものに比べて極めて自然な形のため(装置を覗きこんだり、手を触れたりしないため)、登録時と認識時の姿勢、立ち位置の一定化が難しい。
【0006】
従来、1対N照合時には入力用のガイドがないため、立ち位置の変動があり(登録時と認識時とで立ち位置がずれてしまう)、それが認識精度の低下に結びついている。
【0007】
1対N照合では、事前に認識対象者を特定できないため、一定の入力用ガイドを表示すると、前記したように認識対象者の身長の高低によるガイドの不一致が発生し、姿勢による精度の誤差が生じてしまう。
【0008】
そこで、本発明は、再現性のある立ち位置およびその結果である再現性のある画像を入力して照合することができ、その結果として高い認識率を得ることができる人物認識装置、人物認識方法および通行制御装置を提供することを目的とする。
【0009】
また、本発明は、認識時に再現性のある画像を入力できるとともに、極端な姿勢の強制もなく、利用者にとっても使い勝手のよい人物認識装置、人物認識方法および通行制御装置を提供することを目的とする。
【0010】
【課題を解決するための手段】
本発明の人物認識装置は、認識対象となる人物の少なくとも顔画像を入力する画像入力手段と、この画像入力手段により入力された画像から前記人物の顔領域を検出する顔検出手段と、この顔検出手段の検出結果に基づき前記人物の顔の特徴量を抽出する特徴量抽出手段と、前記特徴量抽出手段により抽出された特徴量を登録情報として保持する登録情報保持手段と、前記特徴量抽出手段により抽出された特徴量と前記登録情報保持手段に保持されている登録情報とを照合することにより前記人物を認識する認識手段と、前記画像入力手段に対する前記人物の身長により変化する最適な立ち位置を案内するガイド線を表示する第1の表示手段と、前記顔検出手段の検出結果から得られる顔の位置や大きさを示す環状パターンを前記第1の表示手段により表示されるガイド線の内側に表示する第2の表示手段とを具備している。
【0011】
また、本発明の人物認識装置は、認識対象となる人物の少なくとも顔画像を入力する画像入力手段と、この画像入力手段により入力された画像から前記人物の顔領域を検出する顔検出手段と、この顔検出手段の検出結果に基づき前記人物の顔の特徴量を抽出する特徴量抽出手段と、前記特徴量抽出手段により抽出された特徴量を登録情報として保持する登録情報保持手段と、前記特徴量抽出手段により抽出された特徴量と前記登録情報保持手段に保持されている登録情報とを照合することにより前記人物を認識する認識手段と、前記画像入力手段に対する前記人物の身長により変化する最適な立ち位置を案内するガイド線を表示する第1の表示手段と、前記顔検出手段の検出結果から得られる顔の位置や大きさを示す環状パターンを前記第1の表示手段により表示されるガイド線の内側に表示する第2の表示手段とを具備している。
【0012】
また、本発明の通行制御装置は、通行者を認識して前記通行者の通行を制御する通行制御装置において、前記通行者の少なくとも顔画像を入力する画像入力手段と、この画像入力手段により入力された画像から前記通行者の顔領域を検出する顔検出手段と、この顔検出手段の検出結果に基づき前記通行者の顔の特徴量を抽出する特徴量抽出手段と、前記特徴量抽出手段により抽出された特徴量を登録情報として保持する登録情報保持手段と、前記特徴量抽出手段により抽出された特徴量と前記登録情報保持手段に保持されている登録情報とを照合することにより前記通行者を認識する認識手段と、この認識手段の認識結果に応じて前記通行者の通行を制御する通行制御手段と、前記画像入力手段に対する前記通行者の身長により変化する最適な立ち位置を案内するガイド線を表示する第1の表示手段と、前記顔検出手段の検出結果から得られる顔の位置や大きさを示す環状パターンを前記第1の表示手段により表示されるガイド線の内側に表示する第2の表示手段とを具備している。
【0013】
さらに、本発明の通行制御装置は、通行者を認識して前記通行者の通行を制御する通行制御装置において、前記通行者の少なくとも顔画像を入力する画像入力手段と、この画像入力手段により入力された画像から前記通行者の顔領域を検出する顔検出手段と、この顔検出手段の検出結果に基づき前記通行者の顔の特徴量を抽出する特徴量抽出手段と、前記特徴量抽出手段により抽出された特徴量を登録情報として保持する登録情報保持手段と、前記特徴量抽出手段により抽出された特徴量と前記登録情報保持手段に保持されている登録情報とを照合することにより前記通行者を認識する認識手段と、この認識手段の認識結果に応じて前記通行者の通行を制御する通行制御手段と、前記画像入力手段に対する前記通行者の身長により変化する最適な立ち位置を案内するガイド線を表示する第1の表示手段と、前記顔検出手段の検出結果から得られる顔の位置や大きさを示す環状パターンを前記第1の表示手段により表示されるガイド線の内側に表示する第2の表示手段とを具備している。
【0014】
【発明の実施の形態】
以下、本発明の実施の形態について図面を参照して説明する。
まず、第1の実施の形態について説明する。
図1は、第1の実施の形態に係る人物認識装置の構成を概略的に示すものである。この人物認識装置は、認識対象者(以下、人物ともいう)100の顔画像(少なくとも顔を含んでいる画像)を撮像して入力する画像入力手段としてのカメラ101、カメラ101の近傍から認識対象者100の少なくとも顔に向けて一定の照度で光を照射する照明手段としての照明部102、認識対象者100に対して入力された顔画像や各種案内を表示する表示手段としての表示部104、および、カメラ101から入力された顔画像を処理して顔画像の認識処理などを行なう処理部105から構成されている。
【0015】
なお、以下の説明では、画像入力データ、抽出した特徴量、部分空間、部分空間を構成するための固有ベクトル、相関行列、登録の時刻、日時、場所などの状況情報、暗証番号、IDコードなどの個人情報の各情報が登場してくる。そして、認識データと言うときは、部分空間、または、部分空間を構成するための固有ベクトルを含み、登録情報と言うときは、画像入力データ、抽出した特徴量、部分空間、部分空間を構成するための固有ベクトル、相関行列、状況情報、個人情報を含んでいる。したがって、認識データは登録情報に含まれる。
【0016】
カメラ101は、認識対象者100の顔画像を下方から所定角度で撮像して入力するものであり、たとえば、CCDセンサなどの撮像素子を用いたテレビジョンカメラから構成されている。
【0017】
照明部102は、カメラ101の近傍(たとえば、カメラ101の側部)から認識対象者100の顔に向けて一定の照度で光を照射する蛍光灯などの照明器具である。
【0018】
表示部104は、カメラ101で撮影されている認識対象者100の顔画像や各種ガイダンス、処理結果などを表示するモニタであり、カメラ101の近傍、たとえば、カメラ101の上部で、ほぼ認識対象者100の顔部分と相対応する位置に設けられている。
【0019】
処理部105は、画像入力手段としての画像入力部106、画像入力部106から得られた人物の顔画像を用いて、あらかじめ準備されたパターン辞書との照合で顔および目、鼻などの顔部品の位置を検出する顔検出手段としての顔検出部107、顔検出部107の出力に基づき濃淡情報あるいは部分空間情報などの特徴量を抽出する特徴量抽出手段としての特徴量抽出部108、人物情報登録時には、特徴量抽出部108で抽出された特徴量を認識データ(登録情報)として保持する登録情報保持手段としての登録情報保持部109、人物認識時には、特徴量抽出部108で抽出された特徴量と登録情報保持部109に登録されている認識データとを照合することにより認識対象者100の顔を認識する認識手段としての認識部110、および、表示部104を制御する表示手段としての表示制御部111から構成されている。
【0020】
画像入力部106は、カメラ101からの顔画像を入力し、A/D変換してデジタル化した後、顔検出部107へ送る。
顔検出部107は、まず、画像入力部106で入力された顔画像から認識対象者100の顔の領域を検出する。たとえば、あらかじめ用意されたテンプレートを、画像中を移動させながら相関値を求めることにより、最も高い相関値を持った場所を顔領域とする。なお、その他に、固有空間法や部分空間法を利用した顔領域抽出法などの顔検出手段でもよい。
【0021】
顔検出部107は、次に、検出された顔領域の部分の中から、目、鼻、口といった顔部品の位置を検出する。その検出方法は、たとえば、文献(福井和広、山口修:「形状抽出とパターン照合の組合せによる顔特徴点抽出」、電子情報通信学会論文誌(D),vol.J80−D−II,No.8,pp2170−2177(1997))などの方法を用いてよい。
【0022】
ここで、顔のテンプレートによる顔検出と、目、鼻などの顔部品の検出座標の相対位置によって顔の方向を調べることも可能になる。たとえば、図2に示すように、顔検出結果の中心座標を顔の中心座標(fx,fy)、顔の大きさを(fw,fh)とし、左右の目と鼻の検出結果をそれぞれ(EyeLx,EyeLy)、(EyeRx,EyeRy)、(NoseLx,NoseLy)、(NoseRx,NoseRy)とすれば、以下の方法で顔の方向を示す指標が得られる。
顔の方向(X方向)=((EyeRx+EyeLx)/2−fx)/fw
顔の方向(Y方向)=((EyeRy+EyeLy)/2−fy)/fh
これらの座標の原点が画面左上だとした場合、数値は顔が右下に向くほど大きくなる値となる。
【0023】
特徴量抽出部108は、顔検出部107で検出された顔部品の位置を基に、顔領域を一定の大きさ、形状に切り出し、その濃淡情報を特徴量として用いる。ここでは、たとえば、mピクセル×nピクセルの領域の濃淡値をそのまま情報として用い、m×n次元の情報を特徴ベクトルとして用いる。
【0024】
図3は、入力画像を特徴量抽出部108により処理して得られた顔画像データであり、時系列的に得られたものである。これらのデータに対し特徴ベクトルの相関行列を求め、周知のK−L展開による正規直交ベクトルを求めることにより、部分空間を計算する。部分空間の計算方法は、特徴ベクトルの相関行列(または共分散行列)を求め、そのK−L展開による正規直交ベクトル(固有ベクトル)を求めることにより、部分空間を計算する。部分空間は、固有値に対応する固有ベクトルを、固有値の大きな順にk個選び、その固有ベクトル集合を用いて表現する。
【0025】
本実施の形態では、相関行列Cdを特徴ベクトルから求め、相関行列
【数1】
と対角化して、固有ベクトルのΦを求める。この部分空間は、人物の同定を行なうための認識辞書として利用する。この情報をあらかじめ登録しておいて、それを辞書として登録しておけばよい。
また、後で述べるように、認識を行なうための入力データとして部分空間自身を利用してもよい。したがって、部分空間を算出した結果は、認識部110および登録情報保持部109に送られる。
【0026】
認識部110は、登録情報保持部109に蓄えられた認識データ(部分空間)と特徴量抽出部108で得られた特徴量(濃淡情報あるいは部分空間情報)とを照合(比較)することにより、カメラ101に写っている認識対象者100が誰であるかを認識、あるいは、該当人物であるかどうかを同定する。人物を認識するためには、どの人物のデータに最も類似しているかを求めればよく、最大類似度をとるデータに対応する人物を認識結果とすればよい。
【0027】
また、カードや登録番号、暗証番号、鍵などを用いて、顔画像による認識を行なう場合には、それぞれの人物のカードや番号などの個人情報に対応する認識データとの類似度を計算して、設定した閾値と照合し、その閾値を越えた場合に、その人物と同定する。
【0028】
これらカードや登録番号、暗証番号、鍵など入力する手段が必要であるが、たとえば、カードならICカード、IDカード、無線カードなどを用いることで実現できる。登録番号や暗証番号を用いる場合は、キー入力手段を設ければよい。
【0029】
認識の方法としては、特徴量抽出部108の情報を用いる場合は、部分空間法や複合類似度法などの方法を用いてよい。本実施の形態での認識方法は、たとえば、文献(前田賢一、渡辺貞一:「局所的構造を導入したパターン・マッチング法」、電子情報通信学会論文誌(D),vol.J68−D,No.3,pp345−352(1985))に記載されている公知の認識方法である相互部分空間法を用いる。
【0030】
この方法では、あらかじめ蓄えられた登録情報の中の認識データも、入力されるデータも部分空間として表現され、2つの部分空間のなす「角度」を類似度として定義する。ここで入力される部分空間を入力部分空間という。入力データ列に対して同様に相関行列Cinを求め、
【数2】
と対角化し、固有ベクトルΦinを求める。2つのΦin、Φdで表わされる部分空間の部分空間類似度(0.0〜1.0)を求め、それを認識するための類似度とする。
【0031】
認識部110は、図4に示すフローチャートのように動作する。まず、認識部110は、認識作業を行なうか、同定作業を行なうかによって動作が異なる(ステップST1)。同定動作を行なう場合は、まず対象とする認識対象者のIDコードを読込む(ステップST2)。次に、対象とするIDコードに対応した登録情報(部分空間)を登録情報保持部109から読出す(ステップST3)。
【0032】
次に、上述したように、部分空間法などにより認識を行なうため、各登録情報の部分空間と、入力ベクトル(特徴量抽出部108からの固有ベクトル)、または、入力部分空間との類似度を計算する(ステップST4)。次に、その類似度をあらかじめ設定されている閾値と比較し(ステップST5,ST6)、同定結果を出力する(ステップST7)。
【0033】
認識作業を行なう場合、認識対象となるデータを全て登録情報保持部109から読出す(ステップST8)。そして、それぞれの登録情報との類似度を計算する(ステップST9)。次に、計算された類似度の中から最大のものを選択し(ステップST10)、それを認識結果として出力する(ステップST12)。
【0034】
なお、図4の破線で囲んだステップST11のように、最大類似度を閾値判定することによって、認識結果が正しいかどうかを検証することもできる(ステップST13)。たとえば、類似度があまりに低い場合には、どの認識対象でもないと判断することもできる。
【0035】
登録情報保持部109は、認識対象者を同定するために利用する部分空間(または、相関行列など)や、登録の際の時刻、日時、場所などの状況情報などを蓄積できる。なお、画像入力データや抽出した特徴量などでもよい。
【0036】
以上までの処理で基本的な人物認識の動作を行なうことが可能となるが、前述したように、認識対象者の立ち位置や姿勢の変化により、認識率の低下を引き起こしてしまう。たとえば、登録時と同じ状態で認識時(照合時)も顔が画像内に存在している場合には、登録時と近い状態で特徴情報が抽出できるために登録辞書との類似度が高くなりやすいが、登録時よりも顔が大きかったり小さかったりした場合や、図には示されていないが顔の向きなどが異なる場合に類似度が低下しやすくなる。
【0037】
そこで、本実施の形態では、表示制御部111および表示部104により、たとえば、図5に示すように、撮影されている認識対象者の顔の動画像aを表示するだけでなく、認識時(および登録時)に、認識対象者をカメラ101の視野中央に自然に立たせるためのガイドとして、台形状に配置された2本の直線からな顔入力用のガイド線(2本の直線)b,cを常時表示するとともに、このガイド線b,cの内側に実際に検出した顔位置やサイズを示すガイドとして、顔入力用の環状パターン、たとえば、円パターンdを表示する。
なお、図5(a)は認識対象者が標準的な身長の場合の表示例を示し、図5(b)は認識対象者が身長が高い場合の表示例を示している。
【0038】
ガイド線b,cは、標準的なデータで得られた、平均的な顔入力用ガイドの円パターンd(直径は標準的なデータから推定)に外接した線となる。このガイド線b,cが垂直でなく、台形状に斜めの角度を持っているのは、認識対象者の身長によりカメラ101に写ることのできる立ち位置が異なるため(身長の高い人物は後ろに立ち、顔は高い位置になり、身長の低い人物は前に立ち、顔は低い位置になる)、顔の写る高さに応じて相対的に円パターンdの大きさが変化することを示すためである。
【0039】
この場合、このガイド線b,cを表示するか、図6に示すように、このガイド線b,c以外の表示エリア(斜線部分)を表示せず、マスクする(当該エリアを白色あるいはグレー色などで表示する)方法も有効である。この場合、ガイド線b,cの少し外側までを表示しないようにすることも次の点で有効である。すなわち、認識対象者が、厳密に顔サイズを特定することは、使い勝手が落ちることや、精度の問題として許容できないことが想定され、顔サイズの多少の変動を許容するためである。
【0040】
また、このガイド線b,cの傾き(上側の幅と下側の幅で定義される)は、平均的なデータで構成されるため、機器としての標準値の他、実際に登録されたデータを基に設定してもよい。
【0041】
また、顔のサイズを一定にするための顔入力用ガイドとしての円パターンdは、顔検出部107において実際に検出された目、鼻の位置から算出される顔の中心位置と直径で描画される。この表示制御は表示制御部111によって行なわれる。
【0042】
以下、顔認識動作を例にとって、ガイド線b,cおよび円パターンdの表示制御について、図7に示すフローチャートを参照して詳細に説明する。
まず、本装置側では、表示部104に図5に示したようなガイド線b,cを常に表示する(ステップS11)。
一方、認識対象者100は、本装置(カメラ101)の前に立ち、表示部104の画面を目視することにより(ステップS21)、表示部104に円パターンdが表示されているか否かをチェックし(ステップS22)、円パターンdが表示されていない場合は、顔や立ち位置を動かすことにより、円パターンdを表示させる(ステップS23)。
【0043】
一方、本装置側では、顔検出部107が、カメラ101により取込んだ画像から顔領域を検出し、その中心座標およびサイズ(顔の大きさ)を計算する(ステップS12)。次に、検出した顔のサイズは所定のY座標の±10%か否かをチェックし(ステップS13)、そうでなければステップS12に戻り、上記同様な動作を繰り返す。
【0044】
ステップS13のチェックの結果、検出した顔のサイズが所定のY座標の±10%であれば、図5に示すように、表示部104に表示されているガイド線b,cの内側で、当該認識対象者100の身長に応じた高さ(つまり、目、鼻を検出した高さ)に、検出した顔のサイズに対応した直径の円パターンdを表示する(ステップS14)。すなわち、標準のガイド線b,cに対して、一定の割合(±10%程度)の顔サイズにならないと、円パターンdの表示および次に説明する照合処理をしないように制御を行なうものである。
【0045】
なお、この場合、認識対象者100に対し、この円パターンdがガイド線b,cに接する位置に立ち位置を変更するよう、文字や音声などにより案内指示することも可能である。
【0046】
次に、認識部110において、前述したように、特徴量抽出部108で得られた特徴量と登録情報保持部109に蓄えられた認識データとを照合することにより、両者の類似度を求める(ステップS15)。次に、求めた類似度はあらかじめ設定された閾値以上か否かをチェックし(ステップS16)、閾値以上であれば、当該認識対象者100は本人であると判定し、認識処理を終了する。
【0047】
ステップS16のチェックの結果、求めた類似度が閾値以上でなければ、当該認識処理を開始してから指定時間以上経過したか否かをチェックし(ステップS17)、指定時間以上経過していなければステップS12に戻って上記同様な動作を繰り返し、指定時間以上経過していれば、ここで認識処理を終了する。
【0048】
なお、上記説明では、顔認識時を例にとってガイド線b,cおよび円パターンdの表示について説明したが、顔登録時にも同様にガイド線b,cおよび円パターンdの表示を行なうようになっており、その表示制御は顔認識時と同様であるので、説明は省略する。
【0049】
このように、顔認識時、顔登録時に表示部104にガイド線b,cおよび円パターンdを表示することにより、不特定多数の身長や顔の大きさの異なる認識対象者100に対して、適切で再現性のある位置に顔を提示させることができる。しかも、入力画像を一定にすることができるため、照合スコア(類似度)をあげることができる。
【0050】
次に、第2の実施の形態について説明する。
第2の実施の形態は、第1の実施の形態で説明した人物認識装置を、通行者の顔画像を認識して通行者の通行を制御する通行制御装置に適用した場合の例である。
【0051】
図8は、第2の実施の形態に係る通行制御装置の構成を概略的に示すものである。この通行制御装置は、たとえば、重要施設(セキュリティ重視の部屋など)への入退室管理を行なうもので、利用者(通行者)の顔画像を認識して、その認識結果に基づき重要施設の入退室用ドアの開閉制御を行なうものであり、カメラ101、照明部102、表示部104、処理部105、および、認識部110の認識結果に応じて重要施設201の入退室用ドア202の開閉制御を行なう通行制御手段としてのドア制御部113から構成されている。
なお、図8において、ドア制御部113以外は図1の人物認識装置と同じ構成であるので、同一符号を付して、その説明は省略する。
【0052】
認識部110は、たとえば、図4のステップST6において、求めた類似度が閾値よりも大きかった場合、あるいは、ステップST11において、求めた類似度が閾値よりも大きかった場合、ドア制御部113に「ドア開」の信号を出力し、求めた類似度が閾値よりも小さかった場合、ドア制御部113に「ドア閉」の信号を出力する。
【0053】
ドア制御部113は、認識部110から「ドア開」の信号を受取ると、入退室用ドア202を開状態に制御して、認識対象者(この場合は通行者)100の入室を許可し、「ドア閉」の信号を受取ると、入退室用ドア202を閉状態に保持して、通行者100の入室を拒否する。
このように、第2の実施の形態によれば、第1の実施の形態で説明した人物認識装置を用いて通行者の通行を制御することができる。
【0054】
以上説明したように、上記実施の形態によれば、顔登録時、顔認識時に、認識対象者の身長により変化する最適な位置をあらかじめ表示したガイド線b,cと、実際に検出した顔位置やサイズを示す円パターンdを外接させるようなインタフェースを提供することにより、再現性のある立ち位置およびその結果である再現性のある画像を入力して照合することができる。その結果として、照合スコア(類似度)を高く保つことができる。
【0055】
また、1対Nの照合で、複数の認識対象者に対して照合をかける際に、認識対象者の情報が特定できないため、顔登録時の顔の大きさや位置を正確には表示できないが、本実施の形態によれば、身長が決まった時点での推奨顔サイズが決定し、そのための円パターンdのサイズを特定することができる。そのため、顔認識時に再現性のある画像を入力できる外、極端な姿勢の強制もないため、認識対象者にとっても使い勝手のよいユーザインタフェイスを提供できる。
【0056】
なお、前記実施の形態では、ガイド線b,cを表示部104によって表示する場合について説明したが、必ずしも表示部104により表示する必要はなく、別の表示手段で表示するようにしてもよい。たとえば、あらかじめ表面に任意の色でガイド線b,cを描画してある透明なアクリル板(あるいはガラス板)を表示部104の画面上に配設するなどが考えられる。
また、表示部104のガイド線b,cの内側に表示する環状パターンdは円パターンに限らず、他の多角形パターンであってもよい。
【0057】
【発明の効果】
以上詳述したように本発明によれば、再現性のある立ち位置およびその結果である再現性のある画像を入力して照合することができ、その結果として高い認識率を得ることができる人物認識装置、人物認識方法および通行制御装置を提供できる。
【0058】
また、本発明によれば、認識時に再現性のある画像を入力できるとともに、極端な姿勢の強制もなく、利用者にとっても使い勝手のよい人物認識装置、人物認識方法および通行制御装置を提供できる。
【図面の簡単な説明】
【図1】本発明の第1の実施の形態に係る人物認識装置の構成を概略的に示すブロック図。
【図2】顔検出部の処理を説明するための図。
【図3】特徴量抽出部の処理を説明するための図。
【図4】認識部の認識処理の流れを説明するためのフローチャート。
【図5】表示部に対するガイド線および円パターンの表示例を示す図。
【図6】表示部に対するガイド線および円パターンの他の表示例を示す図。
【図7】ガイド線および円パターンの表示制御について説明するフローチャート。
【図8】本発明の第2の実施の形態に係る通行制御装置の構成を概略的に示すブロック図。
【符号の説明】
100…認識対象者(人物)、101…カメラ(画像入力手段)、102…照明部、104…表示部(第1の表示手段、第2の表示手段)、105…処理部、106…画像入力部(画像入力手段)、107…顔検出部(顔検出手段)、108…特徴量抽出部(特徴量抽出手段)、109…登録情報保持部(登録情報保持手段)、110…認識部(認識手段)、111…表示制御部(第1の表示手段、第2の表示手段)、113…ドア制御部(通行制御手段)、201…重要施設、202…入退室用ドア、b,c…ガイド線、d…円パターン(環状パターン)。[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a person recognizing device and a person recognizing method for recognizing a face image of a person in, for example, security management.
The present invention also relates to a traffic control device that controls the traffic of passers-by using the above-mentioned person recognition device.
[0002]
[Prior art]
In this type of person recognition device, the recognition rate of a person decreases when the state such as the standing position and posture of the person with respect to a camera for inputting a face image differs between registration and recognition (collation). . This is because the person's standing position was vaguely in front of the camera (or the display for displaying input images and operation guidance), but there was no strict check, and fluctuations at small levels could be suppressed. It is also because it was not.
[0003]
In addition, it is possible to store targets for registration and recognition (collation) for each individual, and in the one-to-one collation in which the person to be recognized is identified before recognition, it is easy to display the face size at the time of recognition at the time of recognition. It is. However, this method cannot be used for one-to-N matching in which the person to be recognized cannot be specified at the start of recognition.
[0004]
Furthermore, it is also possible to display the basic face size and position for one-to-N matching in a circular pattern or the like, but if this position is in the middle, a tall person will squat and a short person will stand out. Therefore, a stable face image cannot be input.
[0005]
[Problems to be solved by the invention]
In general, a person recognizing device using biometric information including a face image can obtain a high matching rate (recognition rate) if the same biometric information can be input at the time of registration and at the time of recognition. Furthermore, since the person recognition device using face images has a very natural shape (because it does not look into the device or touch the hand) compared to those using other biological information, the posture at the time of registration and at the time of recognition It is difficult to stabilize the standing position.
[0006]
Conventionally, since there is no input guide at the time of one-to-N matching, the standing position fluctuates (the standing position is shifted between registration and recognition), which leads to a decrease in recognition accuracy.
[0007]
In the one-to-N matching, since the recognition target cannot be specified in advance, when a certain input guide is displayed, the guide mismatch due to the height of the recognition target occurs as described above, and the accuracy error due to the posture is reduced. Will happen.
[0008]
Therefore, the present invention provides a person recognizing device and a person recognizing method capable of inputting and collating a reproducible standing position and a reproducible image as a result thereof, thereby obtaining a high recognition rate. And a traffic control device.
[0009]
Another object of the present invention is to provide a person recognizing device, a person recognizing method, and a traffic control device that can input a reproducible image at the time of recognition, do not require an extreme posture, and are easy to use for a user. And
[0010]
[Means for Solving the Problems]
The person recognizing device of the present invention comprises: image input means for inputting at least a face image of a person to be recognized; face detecting means for detecting a face area of the person from an image input by the image input means; A feature amount extraction unit that extracts a feature amount of the person's face based on a detection result of the detection unit; a registration information holding unit that holds the feature amount extracted by the feature amount extraction unit as registration information; Recognition means for recognizing the person by comparing the feature amount extracted by the means with the registration information held in the registration information holding means, and an optimal stand which changes with the height of the person with respect to the image input means. First display means for displaying a guide line for guiding the position, and an annular pattern indicating the position and size of the face obtained from the detection result of the face detection means, And and a second display means for displaying inside the guide lines displayed by stage.
[0011]
Further, the person recognition device of the present invention is an image input unit that inputs at least a face image of a person to be recognized, a face detection unit that detects a face area of the person from an image input by the image input unit, A feature amount extraction unit that extracts a feature amount of the face of the person based on a detection result of the face detection unit; a registration information holding unit that holds the feature amount extracted by the feature amount extraction unit as registration information; Recognition means for recognizing the person by comparing the feature amount extracted by the quantity extraction means with the registration information held in the registration information holding means, and an optimal means for changing the image input means depending on the height of the person. First display means for displaying a guide line for guiding a standing position; and an annular pattern indicating the position and size of the face obtained from the detection result of the face detection means. And and a second display means for displaying inside the guide line which is displayed by the display means.
[0012]
Further, the traffic control device of the present invention is a traffic control device that recognizes a traffic and controls the traffic of the traffic, wherein the image input means for inputting at least a face image of the traffic is input by the image input means. A face detection unit that detects the passer's face area from the extracted image; a feature amount extraction unit that extracts a feature amount of the passer's face based on a detection result of the face detection unit; and a feature amount extraction unit. A registration information holding unit for holding the extracted feature amount as registration information; and the passerby comparing the feature amount extracted by the feature amount extraction unit with the registration information held in the registration information holding unit. Recognizing means for recognizing a vehicle, a traffic control means for controlling the traffic of the passer in accordance with a recognition result of the recognizing means, and an optimal value which varies with the height of the passer to the image input means. First display means for displaying a guide line for guiding a standing position, and guide lines for displaying an annular pattern indicating the position and size of the face obtained from the detection result of the face detection means by the first display means And second display means for displaying the image on the inside.
[0013]
Further, the traffic control device of the present invention is a traffic control device for recognizing a passer and controlling the traffic of the passer, wherein the image input means for inputting at least a face image of the passer, and input by the image input means. A face detection unit that detects the passer's face area from the extracted image; a feature amount extraction unit that extracts a feature amount of the passer's face based on a detection result of the face detection unit; and a feature amount extraction unit. A registration information holding unit for holding the extracted feature amount as registration information; and the passerby comparing the feature amount extracted by the feature amount extraction unit with the registration information held in the registration information holding unit. Recognition means for recognizing the image, a traffic control means for controlling the traffic of the passer in accordance with the recognition result of the recognition means, First display means for displaying a guide line for guiding a standing position, and a guide for displaying an annular pattern indicating the position and size of a face obtained from the detection result of the face detection means by the first display means. Second display means for displaying the image inside the line.
[0014]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
First, a first embodiment will be described.
FIG. 1 schematically shows the configuration of the person recognition device according to the first embodiment. This person recognizing device includes a
[0015]
In the following description, image input data, extracted feature amounts, subspaces, eigenvectors for configuring the subspaces, correlation matrices, registration time, date and time, location and other status information, passwords, ID codes, etc. Each piece of personal information appears. The term "recognition data" includes a subspace or an eigenvector for configuring the subspace, and the term "registration information" refers to image input data, an extracted feature, a subspace, and a subspace. Eigenvectors, correlation matrices, situation information, and personal information. Therefore, the recognition data is included in the registration information.
[0016]
The
[0017]
The
[0018]
The
[0019]
The
[0020]
The
The
[0021]
Next, the
[0022]
Here, it is also possible to check the direction of the face based on the face detection using the face template and the relative positions of the detection coordinates of the face parts such as eyes and nose. For example, as shown in FIG. 2, the center coordinates of the face detection result are set to the center coordinates (fx, fy) of the face, the face size is set to (fw, fh), and the detection results of the left and right eyes and the nose are set to (EyeLx , EyeLy), (EyeRx, EyeRy), (NoseLx, NoseLy), and (NoseRx, NoseRy), an index indicating the direction of the face can be obtained by the following method.
Face direction (X direction) = ((EyeRx + EyeLx) / 2-fx) / fw
Face direction (Y direction) = ((EyeRy + EyeLy) / 2-fy) / fh
Assuming that the origin of these coordinates is the upper left of the screen, the numerical value becomes a value that becomes larger as the face turns to the lower right.
[0023]
The feature
[0024]
FIG. 3 shows face image data obtained by processing the input image by the feature
[0025]
In the present embodiment, the correlation matrix Cd is obtained from the feature vector, and the correlation matrix Cd is obtained.
To obtain the eigenvector Φ. This subspace is used as a recognition dictionary for identifying a person. This information may be registered in advance and registered as a dictionary.
As will be described later, the subspace itself may be used as input data for performing recognition. Therefore, the result of calculating the subspace is sent to the
[0026]
The
[0027]
In addition, when performing recognition using a face image using a card, a registration number, a personal identification number, a key, and the like, the similarity with the recognition data corresponding to personal information such as a card and a number of each person is calculated. Is compared with the set threshold value, and when the threshold value is exceeded, the person is identified.
[0028]
Means for inputting such a card, a registration number, a password, a key, and the like are required. For example, a card can be realized by using an IC card, an ID card, a wireless card, or the like. When a registration number or a password is used, key input means may be provided.
[0029]
When information of the feature
[0030]
In this method, both recognition data and input data in registration information stored in advance are expressed as subspaces, and an “angle” formed by two subspaces is defined as a similarity. The subspace input here is called an input subspace. Similarly, a correlation matrix Cin is obtained for the input data sequence,
(Equation 2)
To obtain the eigenvector Φin. The subspace similarity (0.0 to 1.0) of the subspace represented by the two Φin and Φd is obtained, and is set as the similarity for recognizing it.
[0031]
The recognizing
[0032]
Next, as described above, in order to perform recognition by the subspace method or the like, the similarity between the subspace of each registered information and the input vector (eigenvector from the feature amount extraction unit 108) or the input subspace is calculated. (Step ST4). Next, the similarity is compared with a preset threshold value (steps ST5 and ST6), and an identification result is output (step ST7).
[0033]
When performing the recognition operation, all the data to be recognized are read from the registration information holding unit 109 (step ST8). Then, the degree of similarity with each piece of registration information is calculated (step ST9). Next, the largest one of the calculated similarities is selected (step ST10), and is output as a recognition result (step ST12).
[0034]
As in step ST11 surrounded by a broken line in FIG. 4, it is also possible to verify whether or not the recognition result is correct by determining the maximum similarity as a threshold (step ST13). For example, if the similarity is too low, it can be determined that the target is not any recognition target.
[0035]
The registration
[0036]
With the above-described processing, it is possible to perform a basic person recognition operation. However, as described above, a change in the standing position or posture of the recognition target person causes a reduction in the recognition rate. For example, if a face is present in the image at the time of recognition (at the time of verification) in the same state as at the time of registration, the similarity with the registered dictionary increases because feature information can be extracted in a state similar to that at the time of registration. The degree of similarity is likely to decrease when the face is larger or smaller than at the time of registration, or when the face direction is not shown in the drawing but is different.
[0037]
Therefore, in the present embodiment, the
FIG. 5A shows a display example in a case where the recognition target person has a standard height, and FIG. 5B shows a display example in a case where the recognition target person is tall.
[0038]
The guide lines b and c are lines circumscribed to the average face input guide circular pattern d (the diameter is estimated from the standard data) obtained using standard data. The reason why the guide lines b and c are not vertical and have a trapezoidal oblique angle is that the standing position where the person to be recognized can be captured by the
[0039]
In this case, the guide lines b and c are displayed or, as shown in FIG. 6, a display area (shaded portion) other than the guide lines b and c is not displayed and the area is masked (the area is white or gray). Is also effective. In this case, it is also effective in the following point not to display a portion slightly outside the guide lines b and c. That is, it is assumed that the recognition target person strictly specifies the face size because it is assumed that the usability is deteriorated and that the recognition target cannot be tolerated as a problem of accuracy, and a slight variation in the face size is allowed.
[0040]
Also, since the slopes of the guide lines b and c (defined by the upper width and the lower width) are composed of average data, in addition to the standard values as devices, the actually registered data May be set based on
[0041]
A circular pattern d as a face input guide for keeping the size of the face constant is drawn with the center position and diameter of the face calculated from the positions of the eyes and nose actually detected by the
[0042]
Hereinafter, the display control of the guide lines b and c and the circular pattern d will be described in detail with reference to the flowchart shown in FIG.
First, the apparatus always displays the guide lines b and c as shown in FIG. 5 on the display unit 104 (step S11).
On the other hand, the person to be recognized 100 stands in front of the apparatus (camera 101) and visually checks the screen of the display unit 104 (step S21) to check whether or not the circle pattern d is displayed on the
[0043]
On the other hand, on the present apparatus side, the
[0044]
As a result of the check in step S13, if the detected face size is ± 10% of the predetermined Y coordinate, as shown in FIG. 5, inside the guide lines b and c displayed on the
[0045]
In this case, it is also possible to instruct the
[0046]
Next, as described above, the recognizing
[0047]
As a result of the check in step S16, if the obtained similarity is not equal to or greater than the threshold, it is checked whether or not a specified time has elapsed since the start of the recognition processing (step S17). Returning to step S12, the same operation as above is repeated, and if the specified time has elapsed, the recognition processing is ended here.
[0048]
In the above description, the display of the guide lines b and c and the circular pattern d has been described by taking face recognition as an example. However, the guide lines b and c and the circular pattern d are also displayed at the time of face registration. Since the display control is the same as that for the face recognition, the description is omitted.
[0049]
In this way, by displaying the guide lines b and c and the circular pattern d on the
[0050]
Next, a second embodiment will be described.
The second embodiment is an example in which the person recognition device described in the first embodiment is applied to a traffic control device that recognizes a passer's face image and controls the traffic of the passer.
[0051]
FIG. 8 schematically illustrates a configuration of a traffic control device according to the second embodiment. This traffic control device performs, for example, entry / exit management to an important facility (a room with an emphasis on security), recognizes a face image of a user (passer), and enters an important facility based on the recognition result. The opening / closing control of the exit door is performed, and the opening / closing control of the entrance /
Note that, in FIG. 8, since the configuration other than the
[0052]
For example, when the obtained similarity is larger than the threshold in step ST6 of FIG. 4, or when the obtained similarity is larger than the threshold in step ST11, the recognizing
[0053]
Upon receiving the signal of “door open” from the recognizing
As described above, according to the second embodiment, it is possible to control the passage of a pedestrian using the person recognition device described in the first embodiment.
[0054]
As described above, according to the above-described embodiment, at the time of face registration and face recognition, guide lines b and c in which optimum positions that change according to the height of the recognition target person are displayed in advance, and the actually detected face position By providing an interface for circumscribing the circle pattern d indicating the size and size, a reproducible standing position and the resulting reproducible image can be input and collated. As a result, the matching score (similarity) can be kept high.
[0055]
In addition, when performing matching with respect to a plurality of recognition targets in one-to-N matching, information on the recognition targets cannot be specified, so that the size and position of the face at the time of face registration cannot be displayed accurately. According to the present embodiment, the recommended face size when the height is determined can be determined, and the size of the circular pattern d for that can be specified. Therefore, since a reproducible image can be input at the time of face recognition, and no extreme posture is forced, a user interface that is easy to use for the person to be recognized can be provided.
[0056]
In the above-described embodiment, the case where the guide lines b and c are displayed on the
Further, the annular pattern d displayed inside the guide lines b and c of the
[0057]
【The invention's effect】
As described above in detail, according to the present invention, it is possible to input and collate a reproducible standing position and a reproducible image as a result, and as a result, a person who can obtain a high recognition rate A recognition device, a person recognition method, and a traffic control device can be provided.
[0058]
Further, according to the present invention, it is possible to provide a person recognizing device, a person recognizing method, and a traffic control device that can input a reproducible image at the time of recognition, do not require an excessive posture, and are easy for a user to use.
[Brief description of the drawings]
FIG. 1 is a block diagram schematically showing a configuration of a person recognition device according to a first embodiment of the present invention.
FIG. 2 is a view for explaining processing of a face detection unit.
FIG. 3 is a view for explaining processing of a feature amount extraction unit;
FIG. 4 is a flowchart illustrating the flow of a recognition process performed by a recognition unit.
FIG. 5 is a diagram showing a display example of a guide line and a circle pattern on a display unit.
FIG. 6 is a diagram showing another display example of a guide line and a circle pattern on a display unit.
FIG. 7 is a flowchart illustrating display control of a guide line and a circle pattern.
FIG. 8 is a block diagram schematically showing a configuration of a traffic control device according to a second embodiment of the present invention.
[Explanation of symbols]
100: person to be recognized (person), 101: camera (image input means), 102: illumination unit, 104: display unit (first display unit, second display unit), 105: processing unit, 106: image input Unit (image input unit), 107: face detection unit (face detection unit), 108: feature amount extraction unit (feature amount extraction unit), 109: registration information holding unit (registration information holding unit), 110: recognition unit (recognition) Means), 111: display control unit (first display means, second display means), 113: door control unit (passage control means), 201: important facility, 202: door for entrance and exit, b, c: guide Line, d: circular pattern (annular pattern).
Claims (13)
この画像入力手段により入力された画像から前記人物の顔領域を検出する顔検出手段と、
この顔検出手段の検出結果に基づき前記人物の顔の特徴量を抽出する特徴量抽出手段と、
前記特徴量抽出手段により抽出された特徴量を登録情報として保持する登録情報保持手段と、
前記特徴量抽出手段により抽出された特徴量と前記登録情報保持手段に保持されている登録情報とを照合することにより前記人物を認識する認識手段と、
前記画像入力手段に対する前記人物の身長により変化する最適な立ち位置を案内するガイド線を表示する第1の表示手段と、
前記顔検出手段の検出結果から得られる顔の位置や大きさを示す環状パターンを前記第1の表示手段により表示されるガイド線の内側に表示する第2の表示手段と、
を具備したことを特徴とする人物認識装置。Image input means for inputting at least a face image of a person to be recognized;
Face detection means for detecting the face area of the person from the image input by the image input means,
Feature value extracting means for extracting a feature value of the face of the person based on the detection result of the face detecting means;
Registration information holding means for holding the feature amount extracted by the feature amount extraction means as registration information,
Recognition means for recognizing the person by comparing the feature quantity extracted by the feature quantity extraction means with the registration information held in the registration information holding means,
First display means for displaying a guide line that guides an optimal standing position that changes according to the height of the person with respect to the image input means,
Second display means for displaying an annular pattern indicating the position and size of the face obtained from the detection result of the face detection means inside a guide line displayed by the first display means;
A person recognition device characterized by comprising:
この画像入力手段により入力された画像から前記人物の顔領域を検出する顔検出手段と、
この顔検出手段の検出結果に基づき前記人物の顔の特徴量を抽出する特徴量抽出手段と、
前記特徴量抽出手段により抽出された特徴量を登録情報として保持する登録情報保持手段と、
前記特徴量抽出手段により抽出された特徴量と前記登録情報保持手段に保持されている登録情報とを照合することにより前記人物を認識する認識手段と、
前記画像入力手段に対する前記人物の身長により変化する最適な立ち位置を案内するガイド線を表示する第1の表示手段と、
前記顔検出手段の検出結果から得られる顔の位置や大きさを示す環状パターンを前記第1の表示手段により表示されるガイド線の内側に表示する第2の表示手段と、
を具備したことを特徴とする人物認識装置。Image input means for inputting at least a face image of a person to be recognized;
Face detection means for detecting the face area of the person from the image input by the image input means,
Feature value extracting means for extracting a feature value of the face of the person based on the detection result of the face detecting means;
Registration information holding means for holding the feature amount extracted by the feature amount extraction means as registration information,
Recognition means for recognizing the person by comparing the feature quantity extracted by the feature quantity extraction means with the registration information held in the registration information holding means,
First display means for displaying a guide line that guides an optimal standing position that changes according to the height of the person with respect to the image input means,
Second display means for displaying an annular pattern indicating the position and size of the face obtained from the detection result of the face detection means inside a guide line displayed by the first display means;
A person recognition device characterized by comprising:
この画像入力ステップにより入力された画像から前記人物の顔領域を検出する顔検出ステップと、
この顔検出ステップの検出結果に基づき前記人物の顔の特徴量を抽出する特徴量抽出ステップと、
前記特徴量抽出ステップにより抽出された特徴量を登録情報として登録情報保持手段に保持する登録情報保持ステップと、
前記特徴量抽出ステップにより抽出された特徴量と前記登録情報保持手段に保持されている登録情報とを照合することにより前記人物を認識する認識ステップと、
前記画像入力ステップに対する前記人物の身長により変化する最適な立ち位置を案内するガイド線を表示する第1の表示ステップと、
前記顔検出ステップの検出結果から得られる顔の位置や大きさを示す環状パターンを前記第1の表示ステップにより表示されるガイド線の内側に表示する第2の表示ステップと、
を具備したことを特徴とする人物認識方法。An image input step of inputting at least a face image of a person to be recognized;
A face detection step of detecting a face area of the person from the image input by the image input step;
A feature value extraction step of extracting a feature value of the face of the person based on the detection result of the face detection step;
A registration information holding step of holding the feature amount extracted by the feature amount extraction step as registration information in a registration information holding unit;
A recognition step of recognizing the person by comparing the feature amount extracted in the feature amount extraction step with registration information held in the registration information holding means,
A first display step of displaying a guide line that guides an optimal standing position that changes according to the height of the person with respect to the image input step;
A second display step of displaying an annular pattern indicating the position and size of the face obtained from the detection result of the face detection step inside a guide line displayed by the first display step;
A person recognition method characterized by comprising:
この画像入力ステップにより入力された画像から前記人物の顔領域を検出する顔検出ステップと、
この顔検出ステップの検出結果に基づき前記人物の顔の特徴量を抽出する特徴量抽出ステップと、
前記特徴量抽出ステップにより抽出された特徴量を登録情報として登録情報保持手段に保持する登録情報保持ステップと、
前記特徴量抽出ステップにより抽出された特徴量と前記登録情報保持手段に保持されている登録情報とを照合することにより前記人物を認識する認識ステップと、
前記画像入力ステップに対する前記人物の身長により変化する最適な立ち位置を案内するガイド線を表示する第1の表示ステップと、
前記顔検出ステップの検出結果から得られる顔の位置や大きさを示す環状パターンを前記第1の表示ステップにより表示されるガイド線の内側に表示する第2の表示ステップと、
を具備したことを特徴とする人物認識方法。An image input step of inputting at least a face image of a person to be recognized;
A face detection step of detecting a face area of the person from the image input by the image input step;
A feature value extraction step of extracting a feature value of the face of the person based on the detection result of the face detection step;
A registration information holding step of holding the feature amount extracted by the feature amount extraction step as registration information in a registration information holding unit;
A recognition step of recognizing the person by comparing the feature amount extracted in the feature amount extraction step with registration information held in the registration information holding means,
A first display step of displaying a guide line that guides an optimal standing position that changes according to the height of the person with respect to the image input step;
A second display step of displaying an annular pattern indicating the position and size of the face obtained from the detection result of the face detection step inside a guide line displayed by the first display step;
A person recognition method characterized by comprising:
前記通行者の少なくとも顔画像を入力する画像入力手段と、
この画像入力手段により入力された画像から前記通行者の顔領域を検出する顔検出手段と、
この顔検出手段の検出結果に基づき前記通行者の顔の特徴量を抽出する特徴量抽出手段と、
前記特徴量抽出手段により抽出された特徴量を登録情報として保持する登録情報保持手段と、
前記特徴量抽出手段により抽出された特徴量と前記登録情報保持手段に保持されている登録情報とを照合することにより前記通行者を認識する認識手段と、
この認識手段の認識結果に応じて前記通行者の通行を制御する通行制御手段と、
前記画像入力手段に対する前記通行者の身長により変化する最適な立ち位置を案内するガイド線を表示する第1の表示手段と、
前記顔検出手段の検出結果から得られる顔の位置や大きさを示す環状パターンを前記第1の表示手段により表示されるガイド線の内側に表示する第2の表示手段と、
を具備したことを特徴とする通行制御装置。In a traffic control device that recognizes a pedestrian and controls the traffic of the pedestrian,
Image input means for inputting at least a face image of the passer-by,
Face detection means for detecting the passer's face area from the image input by the image input means,
Feature value extracting means for extracting a feature value of the passer-by's face based on the detection result of the face detecting means;
Registration information holding means for holding the feature amount extracted by the feature amount extraction means as registration information,
Recognition means for recognizing the passer-by by comparing the feature quantity extracted by the feature quantity extraction means with the registration information held in the registration information holding means,
A traffic control means for controlling the traffic of the passer in accordance with the recognition result of the recognition means,
First display means for displaying a guide line that guides an optimal standing position for the image input means that changes according to the height of the passer-by;
Second display means for displaying an annular pattern indicating the position and size of the face obtained from the detection result of the face detection means inside a guide line displayed by the first display means;
A traffic control device comprising:
前記通行者の少なくとも顔画像を入力する画像入力手段と、
この画像入力手段により入力された画像から前記通行者の顔領域を検出する顔検出手段と、
この顔検出手段の検出結果に基づき前記通行者の顔の特徴量を抽出する特徴量抽出手段と、
前記特徴量抽出手段により抽出された特徴量を登録情報として保持する登録情報保持手段と、
前記特徴量抽出手段により抽出された特徴量と前記登録情報保持手段に保持されている登録情報とを照合することにより前記通行者を認識する認識手段と、
この認識手段の認識結果に応じて前記通行者の通行を制御する通行制御手段と、
前記画像入力手段に対する前記通行者の身長により変化する最適な立ち位置を案内するガイド線を表示する第1の表示手段と、
前記顔検出手段の検出結果から得られる顔の位置や大きさを示す環状パターンを前記第1の表示手段により表示されるガイド線の内側に表示する第2の表示手段と、
を具備したことを特徴とする通行制御装置。In a traffic control device that recognizes a pedestrian and controls the traffic of the pedestrian,
Image input means for inputting at least a face image of the passer-by,
Face detection means for detecting the passer's face area from the image input by the image input means,
Feature value extracting means for extracting a feature value of the passer-by's face based on the detection result of the face detecting means;
Registration information holding means for holding the feature amount extracted by the feature amount extraction means as registration information,
Recognition means for recognizing the passer-by by comparing the feature quantity extracted by the feature quantity extraction means with the registration information held in the registration information holding means,
A traffic control means for controlling the traffic of the passer in accordance with the recognition result of the recognition means,
First display means for displaying a guide line that guides an optimal standing position for the image input means that changes according to the height of the passer-by;
Second display means for displaying an annular pattern indicating the position and size of the face obtained from the detection result of the face detection means inside a guide line displayed by the first display means;
A traffic control device comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002316064A JP2004151978A (en) | 2002-10-30 | 2002-10-30 | Figure recognition device, figure recognition method and passage control device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002316064A JP2004151978A (en) | 2002-10-30 | 2002-10-30 | Figure recognition device, figure recognition method and passage control device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2004151978A true JP2004151978A (en) | 2004-05-27 |
Family
ID=32459875
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002316064A Pending JP2004151978A (en) | 2002-10-30 | 2002-10-30 | Figure recognition device, figure recognition method and passage control device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2004151978A (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009015519A (en) * | 2007-07-03 | 2009-01-22 | Omron Corp | Smoker detection device, smoker alarm system, smoker monitoring server, unextinguished cigarette alarm device, smoker detection method and smoker detection program |
US8184866B2 (en) | 2006-09-14 | 2012-05-22 | Fujitsu Limited | Living body guidance control method for a biometrics authentication device, and biometrics authentication device |
JP2015001790A (en) * | 2013-06-14 | 2015-01-05 | セコム株式会社 | Face authentication system |
JP2017091129A (en) * | 2015-11-09 | 2017-05-25 | グローリー株式会社 | Face authentication device, control system including face authentication device, and screen display control method in face authentication device |
CN106899829A (en) * | 2017-02-07 | 2017-06-27 | 深圳云天励飞技术有限公司 | A kind of method for processing video frequency and device |
WO2021156996A1 (en) | 2020-02-06 | 2021-08-12 | 日本電気株式会社 | Gate system, gate device, method for controlling same, and program |
WO2024024986A1 (en) * | 2022-07-29 | 2024-02-01 | パナソニックIpマネジメント株式会社 | Authentication image acquisition device, authentication image acquisition method, and authentication image acquisition program |
-
2002
- 2002-10-30 JP JP2002316064A patent/JP2004151978A/en active Pending
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8184866B2 (en) | 2006-09-14 | 2012-05-22 | Fujitsu Limited | Living body guidance control method for a biometrics authentication device, and biometrics authentication device |
JP2009015519A (en) * | 2007-07-03 | 2009-01-22 | Omron Corp | Smoker detection device, smoker alarm system, smoker monitoring server, unextinguished cigarette alarm device, smoker detection method and smoker detection program |
JP2015001790A (en) * | 2013-06-14 | 2015-01-05 | セコム株式会社 | Face authentication system |
JP2017091129A (en) * | 2015-11-09 | 2017-05-25 | グローリー株式会社 | Face authentication device, control system including face authentication device, and screen display control method in face authentication device |
CN106899829A (en) * | 2017-02-07 | 2017-06-27 | 深圳云天励飞技术有限公司 | A kind of method for processing video frequency and device |
WO2021156996A1 (en) | 2020-02-06 | 2021-08-12 | 日本電気株式会社 | Gate system, gate device, method for controlling same, and program |
WO2024024986A1 (en) * | 2022-07-29 | 2024-02-01 | パナソニックIpマネジメント株式会社 | Authentication image acquisition device, authentication image acquisition method, and authentication image acquisition program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3974375B2 (en) | Person recognition device, person recognition method, and traffic control device | |
US7006671B2 (en) | Personal identification apparatus and method | |
JP4314016B2 (en) | Person recognition device and traffic control device | |
Rodriguez et al. | Face authentication using adapted local binary pattern histograms | |
US7869626B2 (en) | Iris recognition method and apparatus thereof | |
EP2336949B1 (en) | Apparatus and method for registering plurality of facial images for face recognition | |
EP2821938A1 (en) | Method and device for notification of facial recognition environment, and computer-readable recording medium for executing method | |
US20120320181A1 (en) | Apparatus and method for security using authentication of face | |
KR102005150B1 (en) | Facial expression recognition system and method using machine learning | |
Suma et al. | Real time face recognition of human faces by using LBPH and Viola Jones algorithm | |
JP2001338296A (en) | Face image recognizing device and passing through controller | |
JP2007179569A (en) | Person recognizing device, person recognizing method, passage control device | |
KR20200080533A (en) | Apparatus and Method for Recognizing Fake Face By Using Minutia Data Variation | |
Yustiawati et al. | Analyzing of different features using Haar cascade classifier | |
JP2004234355A (en) | Human body recognition device, human body recognition method and passing controller | |
JP2006031103A (en) | Biometric system, biometric method and passing control device | |
JP2004151978A (en) | Figure recognition device, figure recognition method and passage control device | |
JP2005182184A (en) | Person recognition apparatus, person recognition method and access control apparatus | |
JP2004157771A (en) | Person identification device, person identification method, and passage controller | |
JP2009037463A (en) | Personal authentication device and personal authentication method | |
JP2002334335A (en) | Face image recognition device and passage controller | |
JP2004126812A (en) | Personal recognition device, personal recognition method and passage control device | |
JP2005242777A (en) | Face collation device and passage control device | |
JP2004310287A (en) | Person recognition device and passing controller | |
JP3620938B2 (en) | Personal identification device |