JP4675492B2 - Personal authentication device using facial images - Google Patents

Personal authentication device using facial images Download PDF

Info

Publication number
JP4675492B2
JP4675492B2 JP2001083728A JP2001083728A JP4675492B2 JP 4675492 B2 JP4675492 B2 JP 4675492B2 JP 2001083728 A JP2001083728 A JP 2001083728A JP 2001083728 A JP2001083728 A JP 2001083728A JP 4675492 B2 JP4675492 B2 JP 4675492B2
Authority
JP
Japan
Prior art keywords
face
image
user
database
driver
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001083728A
Other languages
Japanese (ja)
Other versions
JP2002288670A (en
Inventor
孝裕 大橋
亮治 五十嵐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2001083728A priority Critical patent/JP4675492B2/en
Publication of JP2002288670A publication Critical patent/JP2002288670A/en
Application granted granted Critical
Publication of JP4675492B2 publication Critical patent/JP4675492B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Collating Specific Patterns (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、ヒューマン・インターフェース一般に関連し、より具体的には、画像認識を利用した個人認証システムに関する。
【0002】
【従来の技術】
個々の人間を識別する個人認証システムは、セキュリティを必要とする様々な場面に利用することができる。そのような個人認証システムで用いられる認識手法の1つに、人間の顔画像から個人を識別する顔認識を利用する手法がある。
【0003】
人間の顔画像を利用する顔認識では、顔にマーキングを付けたり、手動による特徴抽出を行ってから顔認識を実行する手法などが提案されてきたが、近年、完全に非接触な全自動の顔認識手法が提案されている。そのような完全に非接触な全自動の顔認識手法の多くは、テンプレート・マッチングなどによる特徴抽出の後で顔画像を正規化し、その正規化画像を顔データベースと照合する。顔データベースとの照合に使用することができるアルゴリズムには、正規化相互相関、固有空間法、ニューラル・ネットワーク(NN)などがあり、そのようなアルゴリズムの結果に基づいて個人認証がなされる。
【0004】
従来技術の顔認識手法は、あらかじめ記憶された顔データ(顔画像、顔テンプレートなど)に基づいて照合を実行するので、その記憶された顔データとは異なる顔の位置、向き、傾きなどの変化に非常に弱い欠点がある。例えば、顔認識で使用される顔データベースに記憶された顔データが正面を向いた顔のテンプレートである場合、その顔テンプレートとは異なる状態の顔画像(例えば斜めを向いた顔画像)を正確に認識することは困難である。そのため、従来技術の顔認識システムは、異なる状態の顔画像に対処するために認識処理前に顔画像の正規化処理を実行するのが一般的である。
【0005】
この正規化処理を実行した場合、入力画像の顔が所定の顔データ形式(所定の顔のサイズ、顔の位置、顔の傾き、および画像の明度)にされるので、顔の認識率は向上するが、従来技術の顔認識は、基本的に入力画像中の人間の顔向き自体を検出する機能を備えていないので、横向きの顔画像の場合、認識率の低下は避けられない。したがって、従来技術の顔認識を実行する場合、対象となるユーザは、カメラに対して常に所定の方向を向くよう意識しなければならず、ユーザの負担を増加させていた。
【0006】
入力画像から人間の顔の向きを検出する従来技術としては、特開平11−63927号公報、特開2000−113186号公報などがある。さらに松本ほかによる「顔・視線計測システムの開発と動作認識への応用」(第5回ロボティクス・シンポジア、2000/3/26、27)の論文では、入力画像から人間の顔向きだけでなく視線方向も検出し、入力画像からリアルタイムに顔向きと視線方向を追従するシステムが開示されている。
【0007】
【発明が解決しようとする課題】
しかしながら、これらの従来の手法は、いずれも人間の顔向きまたは視線方向を検出するもので、個々の人間を識別する顔認識は実現されていない。
【0008】
したがって、本発明は、対象となるユーザの顔の向きを自動的に検出し、その顔の向きに応じた顔認識を実行して個人認証を行う個人認証装置を提供することを目的とする。
【0009】
【課題を解決するための手段】
上記課題を解決するため、この発明の認証装置は、ユーザを撮影する1つまたは複数のカメラと、前記ユーザの顔を照射するよう設置された照明手段と、前記カメラの画像出力から前記ユーザの顔の向きを検出する検出手段と、前記検出された顔向きに応じて、前記画像出力の顔画像を正面と正面以外の顔画像に選別する手段と、前記ユーザを正面から撮影した照合用顔画像のデータベースと、前記選別手段により選別された前記正面を向いた顔画像を前記照合用顔画像のデータベースの顔画像と照合し、前記ユーザを識別する識別手段と、を備えるという構成をとる。
【0010】
この発明によると、カメラにより撮影されたユーザの顔画像から正面を向いた顔画像だけを選択して照合することが可能になる。これにより従来技術の個人認証装置と比較して高精度に個々の人間を識別することができる。
【0011】
この発明の1つの形態によると、前記認証装置は、前記検出されたユーザの顔画像を、前記照合用顔画像のデータベースに記憶されている顔画像と同じサイズおよび位置の顔画像に調整する正規化手段を備え、前記識別手段は、該正規化された画像を該照合用顔画像のデータベースの顔画像と照合し、該ユーザを識別するよう構成される。
【0012】
この形態によると、顔画像を顔の位置およびサイズに応じて正規化することが可能であり、カメラにより撮影された顔画像が、照合用顔画像のデータベースに記憶されている顔画像と同じサイズおよび位置にされるので、個人認証装置の認識精度を高めることができる。
【0013】
この発明の1つの形態によると、前記認証装置は、前記正規化手段により正規化された画像から予め定めた画像領域を抽出する抽出手段と、該予め定めた画像領域の基準データを格納する成否判断データベースと、該抽出された画像領域を該基準データと照合し、該正規化手段による正規化の成否を判定する成否判定手段と、を備えるよう構成される。
【0014】
この形態によると、正規化手段によって正規化画像が正しく正規化されているかどうかを確認することができる。したがって、個人認証装置に含まれる識別手段のエラーを低減することが可能になり、安定に動作する個人認証装置を提供することができる。
【0015】
この発明の1つの形態によると、前記認証装置は、前記ユーザを複数の顔向きのそれぞれから撮影した顔向き別の照合用顔画像のデータベースを備え、前記識別手段は、該ユーザの検出された顔向きに応じた前記顔向き別の照合用顔画像と該ユーザの横向きの顔画像とを照合し、該ユーザを識別するよう構成される。
【0016】
この形態によると、カメラにより撮影された顔画像の顔向きに応じて、個人認証することが可能になる。したがって、ユーザが顔向きを意識することなしに個人認証を実行する個人認証装置を提供することが可能になる。
【0017】
この発明の1つの形態によると、前記個人認証装置の前記顔向き検出手段は、予め定めた1つまたは複数の顔の特徴部分の基準画像および該基準画像に対応する3次元座標を格納している特徴点データベースを含み、該3次元座標が顔の特徴部分にそれぞれ関連付けられ、該特徴部分の基準画像をテンプレートにして前記カメラの画像出力から該特徴部分の基準画像に対応する画像領域を抽出する抽出手段と、該抽出された画像領域に基づいて、該抽出された画像領域の3次元座標を求める手段と、該求められた画像領域の3次元座標と該基準画像に対応する3次元座標から前記ユーザの顔の向きを検出する手段と、を含むよう構成される。
【0018】
この形態によると、顔向き検出手段は、3次元的にユーザの顔向きを検出することが可能になり、これにより、個人認証装置は、3次元的な顔向きに基づいてユーザの顔画像の正規化と識別を処理することができる。
【0019】
この発明の1つの形態によると、前記個人認証装置の前記照明手段は、前記ユーザの顔を赤外光で照射するよう構成される。
【0020】
この形態によると、赤外光を照明として使用することにより、可視光を使用して得られる画像と比較して、ユーザの周囲の照明変動に対して影響の少ない画像が得られ、さらにユーザの瞳孔を明瞭に抽出することが可能になる。
【0021】
この発明の1つの形態によると、前記認証装置の前記識別手段は、前記画像出力からの顔画像に対応する顔画像が前記照合用顔画像のデータベースに存在するか否かを判断する手段を含み、前記画像出力からの顔画像に対応する顔画像が前記照合用データベースに存在することに応答して、前記ユーザを登録済みユーザと判断し、前記画像出力からの顔画像に対応する顔画像が前記照合用データベースに存在しないことに応答して、前記ユーザを未登録ユーザと判断するよう構成される。
【0022】
この形態によると、ユーザがデータベースに登録済みか未登録かが判断され、そのユーザの属性に応じてそれぞれ異なる処理を実行することが可能になる。
【0023】
この発明の1つの形態によると、前記認証装置は、前記登録済みユーザそれぞれに関連付けられた複数の環境設定データを記憶する環境設定データベースと、前記環境設定データに応じて自動車の環境を設定する環境設定手段と、を含み、前記ユーザが登録済みユーザと判断されたときに、自動車の運転を許可し、前記環境設定データベースから前記登録済みユーザに関する環境設定データを読み取り、該登録済みユーザに関する環境設定データに応じて自動車の環境を設定するよう構成される。
【0024】
この形態によると、ユーザが登録済みユーザである場合に、各ミラーの角度、シート・ポジションなどの環境設定を個々のユーザに応じて自動的に調整することが可能になる。
【0025】
この発明の1つの形態によると、前記認証装置は、ユーザの身分を証明する身分証明手段を認証する認証手段を含み、前記ユーザが未登録ユーザと判断されたときに、前記身分証明手段の提示を前記ユーザに要求し、前記認証手段で該身分証明手段が認証されることに応答して該ユーザに自動車の使用許可を与え、前記ユーザにより前記身分証明手段が提示されなかったことおよび前記認証手段で該身分証明手段が認証されなかったことに応答して該ユーザによる自動車の使用を禁止するよう構成される。
【0026】
この形態によると、鍵、カード鍵、パスワードなどの身分証明手段によって未登録ユーザを管理することが可能になる。本発明の個人認証装置は、これらの身分証明手段がユーザによって正しく提示されなければ、自動車の使用を禁止することができる。
【0027】
【発明の実施の形態】
次に本発明の実施例を図面を参照して説明する。図1は、本発明による個人認証装置を備えた自動車の1つの実施形態を示す。図1の自動車は、画像入力部1、サイドミラー2、ルームミラー3、制御装置5、赤外線照射部6を備える。この実施形態では、運転席にいるドライバーの顔画像が画像入力部1により撮影され、その撮影された画像から運転席にいるドライバーが認識される。認識されたドライバーがその自動車のデータベースに予め登録された人物であれば、制御装置5は、その人物に応じた環境設定(ミラーの角度、ドライビング・シートのポジションなど)を参照して、アクチュエータにそれぞれ連結されたサイドミラー2、ルームミラー3などを調整する。
【0028】
図2は、本実施例における個人認証システムを備えた自動車の機能ブロック図を示す。この機能ブロック図には、画像入力部1、赤外線照射部6、顔向き・視線検出部11、顔特徴抽出部13、個人識別部15、環境設定部17、データベース19、サイドミラー・アクチュエータ21、バックミラー・アクチュエータ23、シート・アクチュエータ25が含まれる。
【0029】
個々のドライバーの情報は、データベース19に予め登録されている。登録されているドライバー情報は、個々のドライバーの顔のデータ、個々のドライバーに対応する環境設定情報などである。顔のデータは、画像入力部1で撮影された入力画像との照合のために個人識別部15によって使用される。環境設定情報には、個々のドライバー応じた各ミラーの角度、シート・ポジションなどの設定値が含まれる。本発明による個人認証システムによって運転席にいるドライバーが特定された場合、環境設定部17は、その登録された設定値を参照して、個々のドライバーのためにサイドミラー・アクチュエータ21、バックミラー・アクチュエータ23、シート・アクチュエータ25を制御する。
【0030】
この実施形態における自動車は、図2に示す各機能ブロックを使用して2種類の動作モードを処理する。第1の動作モードは、顔向き・視線検出部11が実行する顔向き・視線検出モードであり、このモードは、ドライバーの存在を検出して顔向きと視線方向の状態を連続的に検出する。第2の動作モードは、個人認証モードであり、このモードは、顔向き・視線検出モードで検出されたドライバーを特定して、そのドライバーに合わせた環境設定を実行する。
【0031】
図1に示す自動車は、通常、顔向き・視線検出モードで動作しており、ドライバーが運転席にいるかどうかを監視し、ドライバーが運転席にいる場合、ドライバーの顔向きと視線方向を常に監視している。自動車は、監視された顔向きと視線方向に基づいてドライバーの状態を判断し、それに応じた処理を実行することができる。
【0032】
個人認証モードは、ドライバーが車内に乗り込むのと同時に開始される。個人認証モードが起動された場合、自動車は、顔向き・視線検出モードで得られた顔向きに基づいて顔認識を実行し、運転席にいるドライバーを特定する。ドライバーが特定された場合には、そのドライバーに合わせた環境設定(ミラーの角度、シート位置の調整)が実行される。顔認識でドライバーが特定されなかった場合には、運転席にいる人間がデータベース19に未登録のドライバーである可能性が大きいので、未登録者に応じたシーケンスが処理される。
【0033】
どちらの動作モードも画像入力部1で撮影された画像を使用する。以下に図を参照して、本実施例で使用される画像入力部1と赤外照射部6を説明する。
【0034】
本実施例では、車内の照明変動による画像の劣化を低減するために、赤外線照射部6を使用する。したがって、赤外線照射部6は、近赤外光をドライバーの顔に照射するようドライバーの前面に設置される。
【0035】
近赤外光を照明として使用する第1の理由は、照明変動に対するロバスト性を向上させることにある。一般に自動車などの車内の明るさは、屋内外、または日中や夜間などの環境変化によって大きく変動する。また、一方向から強い可視光がドライバーの顔に当たる場合には、ドライバーの顔面上に陰影のグラデーションが発生する。このような照明の変動や陰影のグラデーションは、画像認識の精度を著しく悪化させる。したがって、本実施例では、ドライバーの正面から赤外線照射部6により近赤外光を照射して、その近赤外光で画像を撮影することによって、周囲からの可視光による顔面上の陰影のグラデーションを低減する。これにより、本実施例は、可視光を使用して得られる画像と比較して照明変化による影響を受けにくい利点があり、顔認識の精度を向上させることができる。
【0036】
近赤外光を使用する第2の理由は、ドライバーの瞳孔を明瞭に抽出することが可能な点にある。ドライバーの瞳の位置は、視線方向を検出するために使用されので、瞳を明瞭に撮像することは重要である。また、ドライバー識別の際の正規化処理において、瞳は基準座標として用いることができるので、瞳を明瞭に撮像することは、正規化精度の向上、すなわち認識精度の向上につながる。
【0037】
図3は、画像入力部1の実施例を示す。この実施例では、撮影対象を立体視するために、従来技術のステレオ法を利用する。したがって、画像入力部1は、ドライバーの前方に設置された2台のビデオカメラ(41、42)を備える。2台のビデオカメラは、ステレオ視でドライバーの顔を撮影することができるよう所定の位置に固定される。前述したように照明として近赤外光を使用するので、これらのビデオカメラは、近赤外光以外の波長の可視光を遮断する可視光遮断フィルタ43などで波長帯域をそれぞれ制限される。各ビデオカメラは、カメラ・コントロール・ユニット(45、46)を介してそれぞれ制御される。各カメラ・コントロール・ユニットは、外部同期信号線を通じて接続され、この同期信号によって左右のビデオカメラの同期がとられる。本発明の個人認証システムは、この様にして撮影された画像を入力画像として使用することによって、2次元的な物体認識だけでなく、3次元的な物体認識を処理することができる。
【0038】
図3に示すように、画像入力部1で撮影された画像は、従来の画像処理ボード47を介して様々に処理されてもよい。例えば、図3の画像処理ボード47は、NTSC方式のビデオ信号の入力ポートとして機能するだけでなく、画像を蓄積するメモリおよび複雑な画像処理を実行するハードウェア回路を備え、一般的な画像処理アルゴリズムを高速に実行することができる。例えばハードウェア回路による画像処理アルゴリズムには、斜方投影機構、ハフ変換、2値画像マッチングフィルタ、アフィン変換(画像の回転、拡大、縮小)などの処理が含まれる。この様な画像処理ボード47の使用は、画像処理ボード47が画像処理の一部を担うことによってECUの演算を緩和し、高速な画像処理を可能にする。本発明の個人認証システムは、ECUにより画像処理ボード47を制御して画像入力部1により撮影された画像の処理を行い、図2に示す各機能ブロックの機能を実現する。
【0039】
以下に各動作モードの処理を詳細に説明する。
【0040】
図2に示すように顔向き・視線検出部11は、初期探索部27、顔向き検出部29、視線検出部31を含み、顔向き・視線検出モードを実行する。この顔向き・視線検出部11は、図4と図5は、顔向き・視線検出部11が処理する顔向き・視線検出モードの全体的なフロー図を示す。顔向き・視線検出モードでは、初期探索部27、顔向き検出部29、視線検出部31がそれぞれ関連して動作し、連続的に撮影される左右の入力画像から顔向きと視線方向をリアルタイムで検出することができる。
【0041】
図4は、初期探索部27の処理のフロー図を示す。顔向き検出部29の処理は、図5のステップ111からステップ117で示され、視線検出部31の処理は、図5のステップ121からステップ125で示される。顔向き・視線検出モードにおける顔向きと視線方向のリアルタイム検出は、図5に示すステップ111からステップ125のループ処理により実現される。図4に示す初期探索部27は、顔向き・視線検出モードの開始直後の最初の初期化とリアルタイムでの顔向き・視線方向検出のエラー回復のために使用される。
【0042】
図4を参照して初期探索部27の処理を説明する。初期探索部27は、入力された画像から人間の顔が撮影されている画像領域をおおまかに探索する。ここでの処理は、顔向き検出部29のための前処理ともいえる。初期探索部27が、顔向き検出部29の処理の前に、入力画像から顔が撮影されている領域をおおまかに探索することにより、顔向き検出部29は、入力画像中の顔の詳細な解析を高速に実行することができる。
【0043】
最初に、ステップ101で画像入力部1から左右のビデオカメラの画像が入力される。次にステップ103で、入力画像全体から人間の顔が撮影されている領域がおおまかに探索される。これは、予め記憶された初期探索用テンプレート51を使用して2次元テンプレート・マッチングで実行される。
【0044】
初期探索用テンプレート51の例を図6に示す。初期探索用テンプレート59に使用される画像は、正面を向いた人間の顔を部分的に切り取った画像であり、この部分的画像には目、鼻、口などの人間の顔の特徴的な領域が1つのテンプレートとして含まれている。この初期探索用テンプレート51は、テンプレート・マッチングでの処理速度を高めるために、予め低解像度化されており、さらに照明変動の影響を低減するために微分画像にされている。このテンプレートは、複数のサンプルから作成され予め記憶されている。
【0045】
ステップ103での探索は、2次元的なテンプレート・マッチングであるので、右ビデオカメラの画像かまたは左ビデオカメラの画像のどちらかが使用される。以下では、右ビデオカメラの画像を使用したテンプレート・マッチングの例を述べる。
【0046】
右ビデオカメラの画像を使用したテンプレート・マッチングの場合、右画像に対して初期探索用テンプレート51を使用したテンプレート・マッチングが実行され、ここでマッチした右画像内の領域が入力画像中の顔の候補となる。この顔候補をテンプレートとして、同様のテンプレート・マッチングが左画像に対して実行され、そのステレオ・マッチングの結果から顔候補の3次元的な位置が求められる(ステップ105)。
【0047】
ステップ107において、これらの処理結果が評価され、入力画像から顔領域が検出されたかどうか判断がなされる。入力画像から顔領域が見つかったと判断された場合、顔向き検出部29の処理に移る(ステップ109)。初期探索部27で顔領域が見つからなかった場合、新しい入力画像を使用して一連の処理が繰り返される。初期探索部27は、人間の顔が画像入力部1によって撮影されるまで、この一連の処理を繰り返す。
【0048】
次に図5を参照して顔向き検出部29と視線検出部31の処理を説明する。先に述べたように、顔向き・視線検出モードは、ドライバーの顔向き、視線方向をリアルタイムで検出するために、図5に示すステップ111からステップ125のループを繰り返す。顔向き検出部29は、予め定めた特徴点を入力画像から抽出し、それらの特徴点から顔の3次元位置と顔の向きを求めることができる。視線検出部31は、顔向き検出部29で得られた特徴点と顔向きに基づき、入力画像から顔の視線方向を検出する。
【0049】
顔向き検出部29は、ステップ111で、入力画像からテンプレート・マッチングにより顔の特徴点を探索する。この探索に使用されるテンプレートは、データベースに予め記憶された3次元顔特徴点モデル53からの画像を使用する。図7に3次元顔特徴点モデル53の例を示す。
【0050】
本実施例における3次元顔特徴点モデル53は、正面を向いた人間の顔の特徴的な部分を画像から局所的に切り取った部分的画像(81〜91)から生成される。例えば顔特徴点の画像は、図7に示すように、左の目尻81、左の目頭83、右の目尻87、右の目頭85、口の左端89、口の右端91などのように、予め用意された顔画像から局所的に切り取られて生成される。これらの部分的画像のそれぞれは、その画像内で撮影されている対象物(この例では、左右の目尻と目頭、口の両端)の3次元位置を表す3次元座標に関連付けられ、データベースに記憶されている。本明細書では、これらの3次元座標を有した顔特徴領域の部分的画像を顔特徴点と呼び、これらの複数の顔特徴点から生成される顔モデルを3次元顔特徴点モデル53と呼ぶ。これらの3次元顔特徴点モデル53は、複数のサンプルから生成されデータベースに予め記憶されている。
【0051】
ステップ111で、顔向き検出部29は、3次元顔特徴点モデル53に対応する画像領域を入力画像から探索する。これは、3次元顔特徴点モデル53の各特徴点の画像をテンプレートとし、入力画像に対して2次元マッチングを行うことにより実行される。このマッチングは、右ビデオカメラの画像と左ビデオカメラの画像のどちらを使用しても構わないが、本実施例では、右ビデオカメラの画像を使用する。ステップ111の探索の結果、入力画像で撮影されている顔の左右の目頭と目尻、口の両端の6個の画像が得られる。
【0052】
ステップ113では、ステップ111の探索から得られた各特徴点の画像をテンプレートとして、入力画像の左画像に対してステレオ・マッチングが実行される。これにより、3次元顔特徴点モデル53の各特徴点に対応する入力画像の各特徴点の3次元座標が求められる。
【0053】
この実施例の場合、探索された入力画像中の顔の左右の目尻と目頭、口の両端の画像をテンプレートにして、ステレオ・マッチングが実行される。このステレオ・マッチングの結果、ドライバーの顔の左右の目尻と目頭、口の両端の3次元座標がそれぞれ得られる。したがって、これらの入力画像の特徴点の3次元座標から運転席にいるドライバーの顔の3次元位置を求めることができる。
【0054】
入力画像の各特徴点に関する3次元座標が求められた後で、ステップ115で予め定めた判断基準に基づいて特徴点の抽出が成功したかどうかがチェックされる。このステップ115で、もし入力画像から各特徴点が見つからなかったと判断された場合には、初期探索部27に戻り、新たな入力画像から顔が撮影されている領域を探索する。
【0055】
ステップ115で入力画像から各特徴点が見つかったと判断された場合、ステップ117で3次元顔特徴点モデル53を使用して3次元モデル・フィッティングが実行され、顔の向きが検出される。以下ではこの3次元モデル・フィッティングを説明する。
【0056】
先に述べたように、予め記憶されている3次元顔特徴点モデル53は、正面を向いた顔の特徴点から生成されている。それに対して入力画像で撮影されている顔は、必ずしも正面を向いているとは限らない。したがって、ステップ113で得られた入力画像の各特徴点(観測点)の3次元座標は、正面を向いた3次元顔特徴点モデル53の各特徴点の3次元座標から任意の角度と変位だけずれを有している。したがって、正面を向いた3次元顔特徴点モデル53を任意に回転、変位させたときに、入力画像の各特徴点と一致する角度と変位が入力画像中の顔の向きと位置に相当する。
【0057】
入力画像の各特徴点に3次元顔特徴点モデル53をフィッティングする場合、フィッティング誤差Eは、下記の式で表される。
【数1】

Figure 0004675492
ここで、Nが特徴点の数であり、xがモデル内の各特徴点の3次元座標であり、yが入力画像からの各特徴点の3次元座標を表す。ωは、各特徴点に関する重み付け係数であり、入力画像から特徴点の3次元位置を求めたときのステレオ・マッチングにおける相関値を利用する。この相関値を利用することによって、それぞれの特徴点の信頼度を考慮することができる。回転行列は、R(φ,θ,ψ)であり、位置ベクトルは、t(x,y,z)で表され、これらが、この式における変数となる。
【0058】
したがって、上記の式におけるフィッティング誤差Eを最小にする回転行列Rと位置ベクトルtを求めれば、入力画像の顔向きと顔位置が求められる。この演算は、最小二乗法または仮想バネモデルを使用したフィッティング手法などを利用することによって実行される。
【0059】
図7に示すステップ121から125で、視線検出部31は、顔向き検出部29で得られた特徴点と顔向きに基づき、入力画像から顔の視線方向を検出する。この際、眼球は、3次元的な球でモデル化され、その球の中心位置が回転中心とされる。この3次元眼モデルは、顔モデルに対する眼球の3次元的な相対位置、眼球の半径、虹彩の半径をパラメータとする。図8に視線方向を求める方法の概略を示す。
【0060】
ステップ121で、眼球の3次元的な中心位置61が、顔向き検出部29の検出結果に基づいて求められる。眼の中心位置61を求めるためのオフセット・ベクトルは、左右の目の両端の特徴点(55、57)を結ぶ直線の中点から眼の中心位置61に向かう3次元ベクトルとして予め定められている(図8の(1))。したがって、そのオフセット・ベクトル、眼球の半径、顔の位置、顔の向きを使用して眼球の中心位置61を求めることができる(図8の(2))。
【0061】
眼球上の瞳の中心位置59は、既に目の両端の位置(55、57)が入力画像の特徴点として求められているので、その両端の領域でハフ変換を実行することにより容易に得られる(ステップ123)。視線方向は、眼球の中心位置61と瞳の中心位置59とを結ぶ3次元ベクトル(視線ベクトル)として求められる(ステップ125)。
【0062】
本実施例では、入力画像として左右の画像を使用したので、右画像、左画像それぞれに対して視線ベクトルを求めることができる。さらに、両眼に関して視線ベクトルを求めることができるので、合計4つの視線ベクトルが求められる。本実施例では、この4つの視線ベクトルの平均ベクトルを入力画像の視線方向として使用する。
【0063】
ステップ125で、入力画像中の顔の視線方向が検出された後で、ステップ111に戻り、新たな入力画像を使用して一連の処理が繰り返される。この繰り返しの結果、ドライバーの顔向き、顔位置、視線方向の連続的な追従をリアルタイムで実行することが可能になる。
【0064】
次に個人認証モードに関して説明する。個人認証モードは、顔向き・視線検出モードで検出されたドライバーの顔を、データベースに登録された顔データと照合してドライバーを特定する。ドライバーが特定された場合、個人認証モードは、そのドライバーに応じた環境設定(ミラーの角度、シート位置など)を実行する。図2の機能ブロック図に示すように、個人認証モードは、入力画像の特徴を抽出する顔特徴抽出部13と、顔特徴抽出部13の処理結果に基づいてドライバーを比較照合する個人識別部15と、個人識別部15の結果に応じて環境設定を処理する環境設定部17を使用して実行される。顔向き・視線検出モードの場合、左右両方の画像を使用して処理を実行したが、個人認証モードの場合、左右の画像のどちらか1つを使用して処理が実行される。
【0065】
顔特徴抽出部13は、正面顔特徴抽出部33、横顔特徴抽出部35を含み、入力画像におけるドライバー10の顔の向きに応じた処理を実行する。画像入力部1からの入力画像に撮影されているドライバー10の顔向きが顔向き・視線検出部11により既に検出されているので、顔特徴抽出部13は、入力画像中の顔の向きに応じた処理を実行することができる。以下に顔特徴抽出部13の処理の概要を説明する。
【0066】
顔特徴抽出部13の処理の1つは、顔向き・視線検出部11から入力された画像の正規化処理である。この正規化処理は、顔認識の精度を向上させるために入力画像中の顔を所定の顔データ形式(所定の顔のサイズ、顔の位置、顔の傾き、および画像の明度)に変換する。ここで、「顔の傾き」とは、顔画像の回転のことである。より具体的に説明すると、顔特徴抽出部13で入力される画像中の顔は、任意の顔向きをして傾いている。例えば、図9aに示すように、入力画像中の顔は、正面を向いているが画像中で傾いていたり、図9cに示すように横向きで傾いていたりする。正規化処理は、画像平面上で入力画像を回転することによって画像中の「顔の傾き」を補正する。例えば、図9aの場合では、画像中の顔の傾きは、x軸とy軸との交点を回転中心とし、その画像を角度αだけ回転することによって補正することができる(図9b)。図9cの場合でも同様にして、画像中の顔の傾きは、x軸とy軸との交点を回転中心とし、画像を角度αだけ回転することにより補正することができる。本明細書では、画像平面上の回転により補正される顔の角度を「顔の傾き」として参照する。したがって、本明細書では、図9cのように顔が上を向いている場合でも「横向き」として参照され、また顔が下を向いているような場合も同様に「横向き」として参照される。
【0067】
顔特徴抽出部13のもう1つの処理は、顔画像中の顔向きの選別処理である。この選別処理では、入力画像は、顔の向きに応じて「正面向き」と「横向き」に選別される。この処理は、顔向き・視線検出部11によって検出された顔向きに基づいて選別される。本明細書では、正面とは、顔向き・視線検出モードで得られた顔向きがあらかじめ定めた範囲内にある場合を言う。そのような範囲は、正面顔認識で使用される顔認識手法の認識可能範囲に応じて定められる。したがって、あらかじめ定めた範囲以外の顔向きは、横向きであると判断される。
【0068】
さらに、顔特徴抽出部13は、個人識別部15のために入力画像の特徴抽出処理を実行する。ここで実行される特徴抽出処理は、正面顔認識または横顔認識で使用される顔認識手法に応じて様々である。例えば、顔認識手法に固有空間法を使用する場合では、この特徴抽出処理によって正規化済みの入力画像がベクトル化され、そのベクトルから入力画像の特徴を表す重みベクトルが算出される。ここで得られた重みベクトル(特徴成分)が個人識別部15に送られ、データベース19に記憶された顔データと比較照合され、個々のドライバーが特定される。
【0069】
図10は、個人認証モードの全体的なフローを示す。例えばドライバーが車内に乗り込むことにより個人認証モードが開始されると、ステップ301で、顔向き・視線検出モードでの検出結果が特徴抽出部13に入力される。ここで特徴抽出部13に入力されるデータは、画像入力部1によって撮影された画像と、その画像中のドライバーの顔向き、顔位置、視線方向のデータなどである。先に述べたように、入力画像は左右どちらの画像を使用してもよい。
【0070】
ステップ303で、特徴抽出部13は、顔向きに応じた分岐処理を実行する。本発明における個人認証システムは、それぞれの顔向きで異なる顔認識の手法を使用することができるので、高精度に顔認識を実行することができる。
【0071】
例えば、個人認証システムは、正面を向いた顔の場合には固有空間法を使用し、横を向いた顔の場合には3次元モデルのマッチングで顔認識をそれぞれ実行することができる。したがって、本発明によれば入力画像の顔向きに応じて最適な顔認識手法を選択することができる。
【0072】
個人認証システムで使用することができる顔認識手法は、固有空間法、テンプレート・マッチング、Gabor Waveletによる手法、NNなどである。本発明による個人認証システムは、ステップ301で顔向き、視線方向、顔特徴点などの情報を既に得ている。したがって、これらの基本情報と正規化処理とをうまく組み合わせて顔認識を実行すれば、いずれの顔認識手法を使用しても、精度良く個々のドライバーを識別することが可能である。
【0073】
ステップ303における顔向きの判断では、正面とは、顔向き・視線検出モードで得られた顔向きがあらかじめ定めた範囲内にある場合を言う。そのような範囲は、正面顔認識で使用される顔認識手法の認識可能範囲に応じて定められる。したがって、あらかじめ定めた範囲以外の顔向きは、横向きであると判断される。
【0074】
ステップ303で入力画像の顔向きが正面を向いていると判断された場合、正面顔特徴抽出部33は、正面に対する正規化処理と特徴抽出処理を実行する。入力画像の顔向きが横向きであると判断された場合、横顔特徴抽出部33が、その顔向きに応じた正規化処理と特徴抽出処理を実行する。ステップ303での判断に応じて、正規化処理、特徴抽出処理、比較照合の処理が分岐されるので、最初に正面に対する正規化処理、特徴抽出処理、比較照合に関して説明し、その後で横向きに対する正規化処理、特徴抽出処理、比較照合を説明する。
【0075】
ステップ305で、正面顔特徴抽出部33は、入力画像を所定の顔の形式(顔のサイズ、顔の位置、顔の傾き)に変換する。すなわち、予めデータベースに記憶された顔画像のサイズ、位置、傾きと同じになるよう、入力画像の顔のサイズ、位置、傾きを正規化する。さらに画像全体の明度も予め定めた値に整えられる。
【0076】
本実施例では、個人識別部15の顔認識手法は、固有空間法を使用する。ステップ305の正規化処理も画像平面上での1次変換として実行される。顔向き・視線検出モードにより求めた特徴点を使用すれば、入力画像における顔のサイズ、位置、傾きなどが容易に求められるので、この処理は、従来技術と比較して高精度に正規化を行うことができる。
【0077】
この正面に対する正規化処理の1つの実施形態では、左右の瞳の中心を結ぶ直線の中点を基準に、左右の瞳が水平かつ距離が一定値となるようアフィン変換が実行される。本発明による個人認証システムでは近赤外画像が使用されるので、瞳を明瞭に抽出することが可能であり、正規化を高精度に実行することができる。
【0078】
ステップ307で入力画像の正規化が正確に実行されたかどうかがチェックされる。これは、正規化画像からあらかじめ定めた領域を切り出し、予めデータベースに記憶されている成否判断用のテンプレートと照合することによって実行される。
【0079】
例えば、この成否判断を右眼のテンプレートを使用して実行する場合を説明する。この場合、成否判断用テンプレートは、所定の顔認識の形式(顔のサイズ、顔の位置、顔の傾き)の画像から右眼を中心として、一定の大きさで切り出され生成される。この成否判断用テンプレートは、十分な人数分のサンプルから作成され、典型的な眼のテンプレートとして使用される。作成された成否判断用テンプレートは、成否判断用のデータベースに予め記憶されている。
【0080】
ステップ305で入力画像が正確に正規化された場合、正規化画像中の眼は、常に所定の位置に所定の大きさで存在するはずである。したがって、成否判断用テンプレートに対応する領域を正規化画像から切り出して成否判断用テンプレートと照合すれば、正規化の成否を判断することができる。もし正規化が成功していれば、切り出した画像と成否判断用テンプレートとの相関値は高い値であり、正規化が失敗していれば、相関値は低い値を示す。したがって、予め判断基準となる相関値のしきい値を定めておくことにより、正規化の成否を判断することができる。ここでは、正規化の成否判断を簡単に説明するために右目だけで説明したが、複数の特徴的な領域を成否判断用テンプレートにし、これら複数の成否判断用テンプレートを使用することによって、より正確な正規化の成否判断を実行することができる。
【0081】
ステップ307で正面に対する顔向きの正規化が成功したと判断された場合、ステップ308で正面顔特徴抽出部33は、個人識別部15の比較照合のための特徴抽出処理を実行する。ステップ307で正面に対する顔向きの正規化が失敗したと判断された場合には、ステップ301に戻り、新たな入力画像を使用して一連の処理が再び繰り返される。
【0082】
先に述べたように、この実施例における正面に対する顔認識が固有空間法を使用するので、ステップ308の特徴抽出処理とステップ309の比較照合の処理も固有空間法に応じた態様で実施される。以下に固有空間法を使用するステップ308と309の処理の概要を説明する。
【0083】
認識対象とされる個々のドライバーの正面向きの顔画像は、データベースに予め記憶されている。固有空間法では、そのデータベースに登録された顔画像から固有ベクトルが生成される。個々のドライバーの顔を固有空間上で表す顔クラスは、データベース19に記憶された個々のドライバーの顔を固有空間に射影することにより生成される。固有空間法を使用した正面顔認識では、この顔クラスと正規化された画像の特徴が比較照合され、この結果から個々のドライバーが特定される。
【0084】
したがって、ステップ308で、正面顔特徴抽出部33は、正規化画像を固有顔空間に射影し、正規化画像の特徴を重みベクトルとして抽出する。より具体的に説明すると、最初に、正規化された入力画像が画像ベクトル化される。例えば、正規化された入力画像がn×nピクセルからなる画像であれば、その画像から個々のピクセル値を成分とするn次元ベクトル(1行、N列)が生成される。次に、この画像ベクトルが固有顔空間に射影され、重みベクトルが生成される。例えばM個の固有ベクトルがデータベース19に記憶されている場合、画像ベクトルがM次元の固有空間に射影され、M個のベクトル成分を有する重みベクトルが生成される。Mが画像ベクトルの次元数Nに対して十分小さければ、重みベクトルは、元の画像に撮影されている顔の特徴を有しながら元の画像ベクトルより小さな次元のベクトルになる。この様にして生成された重みベクトルは、個人識別部15に送られる。
【0085】
ステップ309で、個人識別部15は、正規化画像から得られた重みベクトルを個々のドライバーの顔クラスと比較照合する。この比較照合の1実施形態では、各ドライバーの顔クラスと重みベクトルとの固有顔空間上での距離がそれぞれ求められ、この求められた距離の大小に基づいて画像中のドライバーが判断される。
【0086】
次に、ステップ317で、個人識別部15は、正規化画像に対応する顔クラスが比較照合(ステップ309)により見つかったかどうかを判断する。正規化画像中の顔がデータベース19に登録されている人物の顔であれば、ステップ309の比較照合によってその人物に対応する顔クラスが見つかる。しかしながら、正規化画像中の顔がデータベース19に登録されていない人物の顔の場合、その人物に対応する顔クラスが見つからない。したがって、もし、比較照合で対応する顔クラスが見つからなければ、ステップ321に進み、未登録者用シーケンスを実行する。比較照合で対応する顔クラスが見つかった場合には、運転席にいるドライバーが決定され、ステップ319の登録者用シーケンスが処理される。登録者用シーケンスと未登録者用シーケンスは、後で詳細に説明する。
【0087】
この様な固有空間法による顔認識は、射影時の変換パラメータ(重み成分)の数に応じて演算量を低減することができるので、入力画像の画素数分の演算を必要とする正規化相関の手法と比較して、高速な処理を実現することができる。
【0088】
次に横向きに対する正規化処理と顔認識を説明する。図10に示すように、横向きに対する正規化処理と顔認識の処理のフローは、基本的には正面に対する処理(ステップ305から309)と同様のフローである。しかしながら、ステップ303で顔向きに応じて分岐処理が実行されるので、横向きの顔に対して実行される正規化処理と顔認識自体は、正面顔に対する処理とは異なる手法を用いることもできる。
【0089】
横向きに対する顔認識の実施形態には、大きく分けて2種類の実施形態を使用することができ、それに応じて正規化処理も異なる。第1の実施形態は、個々のドライバーの顔向き別画像からデータベースを予め作成しておき、検出された顔向きに応じてそれらの顔向き別データベースを使用し、顔認識を実行する実施形態である。この場合、正規化処理は、入力画像から検出された顔向きに応じて実行される。
【0090】
例えば、図9dに示すように、正規化処理における顔の位置決めの基準点(すなわち図中のx軸とy軸の交点)は、顔向きに応じて様々である。したがって、横向きの入力画像を正規化する場合、画像中の顔向きに応じて、顔の位置決めの基準点を変えなければならない。このため、横顔特徴抽出部35は、顔向き・視線検出部11で検出された顔向きに応じて正規化処理を実行する。この場合、正規化の成否判断も、顔向きに応じて異なるテンプレートを使用して実行される。これらの正規化処理および正規化の成否判断は、顔向き別に処理されることを除いて、正面に対する顔画像と同様の処理で実行される。横向きに対する比較照合では、顔向き別に撮影された顔画像の顔向き別データベースに基づいて、比較照合が実行される。
【0091】
横向きに対する顔認識のもう1つの実施形態では、入力画像から3次元顔モデルが生成され、その3次元顔モデルを使用して正規化処理が実行される。この場合、入力画像から予め定めた特徴点が抽出され、その特徴点から入力画像の3次元顔モデルが生成される。ここで生成された3次元顔モデルは、入力画像が撮影されたときの顔向きで生成された顔モデルである。したがって、顔向き・視線検出部11により得られた顔向きに応じてこの顔モデルを回転すれば、正面を向いた入力画像の顔モデルが得られる。この実施形態では、入力画像からの3次元顔モデルの生成とそのモデルの回転処理が、ステップ311の正規化処理に相当する。回転後の正規化画像は、正面を向いた顔画像と同様に処理することができるので、正規化処理の成否判断は、正面を向いた顔の正規化処理の成否判断と同様に処理される。この実施形態における顔認識は、従来技術の正面を向いた顔認識手法(例えば固有空間法)を利用して実現することができる。
【0092】
横向きに対する比較照合が実行された後のステップ317で、個人識別部15は、対応する顔クラスが比較照合により見つかったかどうかを判断する。ステップ319またはステップ321は、ステップ317の判断に応じて処理される。
【0093】
次に、ステップ319の登録者用シーケンスの実施例を説明する。図11は、登録者用シーケンスの処理のフロー図を示す。先に述べたようにステップ317において運転席にいるドライバーが決定された場合、個人識別部15は、ステップ323で、運転席にいるドライバーに自動車の運転許可を与える。この許可により自動車がドライバーにより操作可能になる。ステップ325で、個人識別部15は、決定されたドライバーに対応する環境設定データをデータベース19から読み取り、そのデータを環境設定部17に送る。ステップ327で、環境設定部17は、その環境設定データに応じて、各アクチュエータを制御してミラーの角度、シート位置を設定する。
【0094】
図12は、未登録者用シーケンスの実施例の処理のフロー図を示す。先に述べたようにステップ317において運転席のドライバーの顔がデータベースに記憶されていない未登録者の顔であれば、個人識別部15は、ドライバーに対して管理者による自動車の使用許可を要求する。ここで管理者とは、例えば、その自動車の所有者、その自動車の管理責任者など、その自動車の使用に対して責任を有する人間である。管理者は、自動車に対して身分を証明する任意の手段を有する。例えば、そのような身分証明手段は、鍵、カード鍵、パスワードなどのセキュリティを確保することが可能な手段である。未登録のドライバーが本発明による自動車を運転しようとする場合、自動車により管理者の使用許可証明が要求される。その場合、未登録のドライバーまたは管理者は、身分証明手段により使用許可を自動車に証明しなければならない。身分証明手段が自動車に提示されなければ、個人識別部15は、ステップ335で未登録ドライバーが管理者によって自動車の使用を許可されていないと判断し、ドライバーによる自動車の操作を禁止する。身分証明手段が自動車に提示された場合、個人識別部15は、未登録のドライバーが新規に登録を希望するドライバーであるかどうかを判断する。したがって、運転席にいる人間が新規に登録を希望するドライバーである場合、ステップ341で任意の手段を介してドライバーの新規登録を実行する。運転席にいる人間が新規登録を希望していなければ、単に一時的に管理者から自動車の使用許可を受けたドライバーであるので、ステップ339で一時的なドライバーとしての制約つきで自動車の操作を許可する。
【0095】
上記の実施例では、本発明による個人認証装置を備えた自動車の例を説明してきたが、本発明は、自動車での個人認証に限定されるものではなく、他の分野にも応用することが可能である。
【0096】
図13は、本発明の個人認証装置のコンピュータへの応用例である。図13では、画像入力部1が画像処理ボード47を介しコンピュータ401に接続されて個人認証装置を構成している。コンピュータ401は、モニタ402、キーボード403、マウス404などのユーザインターフェースを接続した汎用コンピュータである。例えばコンピュータは、「Linux」として知られるOSを使用して動作する。この例では、あるユーザがこのコンピュータ401を使用する場合、コンピュータ401に接続された画像入力部1が自動的にそのユーザの顔画像を撮影し、それらの画像から個人認証を実行する。個人認証が成功した場合にだけ、このコンピュータ401の使用が許可され、そのユーザがコンピュータ401を使用することが可能になる。このような個人認証は、先に述べた顔向き・視線検出部11、特徴抽出部13、個人識別部15などの機能ブロックをコンピュータ401で実行することによって実現することが可能である。
【0097】
この様に本発明は、上記の実施例だけに限定されるものではなく、多くの分野に応用することが可能である。
【0098】
【発明の効果】
この発明によると、個人認証装置がユーザの顔向きを検出する機能を含むので、その顔向きに応じた顔認識を実行することができ、従来技術の顔認識と比較して個人認証の精度を改善することが可能である。
【図面の簡単な説明】
【図1】 本発明による個人認証装置を備えた自動車の1つの実施形態。
【図2】 本実施例における個人認証システムを備えた自動車の機能ブロック図。
【図3】 画像入力部の実施例を示す図。
【図4】 初期探索部の処理のフロー図。
【図5】 顔向き検出部と視線検出部の処理のフロー図。
【図6】 初期探索用テンプレートの例を示す図。
【図7】 3次元顔特徴点モデルの例を示す図。
【図8】 視線方向を求める方法の概略図。
【図9】 正規化により顔の傾きを補正する例を示す図。
【図10】 個人認証モードの全体的なフロー図。
【図11】 登録者用シーケンスの処理のフロー図。
【図12】 未登録者用シーケンスの処理のフロー図。
【図13】 本実施例における個人認証システムを備えるコンピュータを示す図。
【符号の説明】
1 画像入力部
6 赤外線照射部
10 ユーザ
11 顔向き・視線検出部
13 特徴抽出部
15 個人識別部
17 環境設定部
19 データベース[0001]
BACKGROUND OF THE INVENTION
The present invention relates generally to human interfaces, and more specifically to a personal authentication system using image recognition.
[0002]
[Prior art]
A personal authentication system for identifying an individual person can be used in various situations that require security. One of the recognition methods used in such a personal authentication system is a method using face recognition for identifying an individual from a human face image.
[0003]
In face recognition using human face images, methods such as marking a face or performing face recognition after manually extracting features have been proposed. Face recognition techniques have been proposed. Many of such completely non-contact fully automatic face recognition methods normalize a face image after feature extraction by template matching or the like, and collate the normalized image with a face database. Algorithms that can be used for matching with the face database include normalized cross correlation, eigenspace method, neural network (NN), and the like, and personal authentication is performed based on the results of such an algorithm.
[0004]
Since the face recognition method of the prior art performs collation based on pre-stored face data (face image, face template, etc.), changes in face position, orientation, inclination, etc. that are different from the stored face data Has a very weak drawback. For example, when the face data stored in the face database used for face recognition is a face template facing forward, a face image in a state different from the face template (for example, a face image facing diagonally) is accurately obtained. It is difficult to recognize. For this reason, the face recognition system of the prior art generally executes a normalization process of the face image before the recognition process in order to deal with face images in different states.
[0005]
When this normalization processing is executed, the face recognition rate is improved because the face of the input image is in a predetermined face data format (predetermined face size, face position, face tilt, and image brightness). However, the face recognition of the prior art basically does not have a function of detecting the human face orientation itself in the input image. Therefore, in the case of a lateral face image, a reduction in the recognition rate is inevitable. Therefore, when performing the conventional face recognition, the target user has to be aware that the camera always faces a predetermined direction with respect to the camera, increasing the burden on the user.
[0006]
As conventional techniques for detecting the orientation of a human face from an input image, there are JP-A Nos. 11-63927 and 2000-113186. Furthermore, in the paper “Development of Face / Gaze Measurement System and Application to Motion Recognition” by Matsumoto et al. (5th Robotics Symposia, 2000/3/26, 27), not only the human face direction but also the gaze from the input image. A system that detects the direction and tracks the face direction and the line-of-sight direction in real time from an input image is disclosed.
[0007]
[Problems to be solved by the invention]
However, any of these conventional methods detects a human face direction or line-of-sight direction, and face recognition for identifying individual persons has not been realized.
[0008]
Therefore, an object of the present invention is to provide a personal authentication device that automatically detects the orientation of a target user's face and executes face recognition according to the face orientation to perform personal authentication.
[0009]
[Means for Solving the Problems]
In order to solve the above-described problem, an authentication apparatus according to the present invention includes one or more cameras that photograph a user, illumination means installed to illuminate the user's face, and image output from the camera based on the user's image output. Detecting means for detecting the orientation of the face; means for selecting the face image of the image output as a face image other than the front and the front according to the detected face orientation; and a collation face obtained by photographing the user from the front The image database and the identification unit for identifying the user by comparing the front face image selected by the selection unit with the face image in the database of the comparison face image are provided.
[0010]
According to the present invention, it is possible to select and collate only the face image facing the front from the face image of the user photographed by the camera. As a result, it is possible to identify individual persons with higher accuracy than in the conventional personal authentication device.
[0011]
According to one form of this invention, the said authentication apparatus adjusts the detected user's face image to the face image of the same size and position as the face image memorize | stored in the database of the said face image for collation. And the identification unit is configured to collate the normalized image with a face image in the database of the collation face image and identify the user.
[0012]
According to this form, it is possible to normalize the face image according to the position and size of the face, and the face image taken by the camera is the same size as the face image stored in the database of the face image for verification And the position of the personal authentication device can be improved.
[0013]
According to one aspect of the present invention, the authentication device stores an extraction unit that extracts a predetermined image area from the image normalized by the normalization unit, and stores reference data for the predetermined image area. A determination database; and a success / failure determination unit that compares the extracted image region with the reference data and determines whether the normalization unit performs normalization.
[0014]
According to this embodiment, it can be confirmed whether or not the normalized image is correctly normalized by the normalizing means. Therefore, it is possible to reduce the error of the identification means included in the personal authentication device, and it is possible to provide a personal authentication device that operates stably.
[0015]
According to one form of this invention, the said authentication apparatus is equipped with the database of the face image for collation according to the face direction which image | photographed the said user from each of several face direction, The said identification means detected the said user The face image for collation according to the face direction corresponding to the face direction is collated with the face image of the user in the horizontal direction to identify the user.
[0016]
According to this aspect, personal authentication can be performed according to the face orientation of the face image taken by the camera. Therefore, it is possible to provide a personal authentication device that performs personal authentication without the user being aware of the face orientation.
[0017]
According to one aspect of the present invention, the face orientation detection means of the personal authentication device stores a predetermined reference image of one or a plurality of facial feature portions and three-dimensional coordinates corresponding to the reference image. A feature point database, wherein the three-dimensional coordinates are associated with feature portions of the face, and an image region corresponding to the reference image of the feature portion is extracted from the image output of the camera using the reference image of the feature portion as a template Extracting means for obtaining a three-dimensional coordinate of the extracted image area based on the extracted image area; a three-dimensional coordinate of the obtained image area and a three-dimensional coordinate corresponding to the reference image; And means for detecting the orientation of the user's face.
[0018]
According to this aspect, the face orientation detection unit can detect the face orientation of the user three-dimensionally, whereby the personal authentication device can detect the face image of the user based on the three-dimensional face orientation. Normalization and identification can be handled.
[0019]
According to one form of this invention, the said illumination means of the said personal authentication apparatus is comprised so that the said user's face may be irradiated with infrared light.
[0020]
According to this embodiment, by using infrared light as illumination, an image having less influence on illumination fluctuations around the user can be obtained as compared with an image obtained using visible light. The pupil can be extracted clearly.
[0021]
According to one form of this invention, the said identification means of the said authentication apparatus contains a means to determine whether the face image corresponding to the face image from the said image output exists in the database of the said face image for collation. In response to the presence of a face image corresponding to the face image from the image output in the database for collation, the user is determined to be a registered user, and the face image corresponding to the face image from the image output is In response to the absence of the verification database, the user is configured to be determined as an unregistered user.
[0022]
According to this form, it is determined whether the user has been registered in the database or not registered, and different processes can be executed according to the user's attributes.
[0023]
According to one aspect of the present invention, the authentication device includes an environment setting database that stores a plurality of environment setting data associated with each of the registered users, and an environment that sets an environment of a vehicle according to the environment setting data. Setting means, permitting driving of the vehicle when the user is determined to be a registered user, reading environment setting data relating to the registered user from the environment setting database, and setting an environment relating to the registered user It is configured to set the car environment according to the data.
[0024]
According to this embodiment, when the user is a registered user, it is possible to automatically adjust the environment settings such as the angle of each mirror and the sheet position according to each user.
[0025]
According to one form of this invention, the said authentication apparatus contains the authentication means which authenticates the identity verification means which proves a user's identity, and when the said user is judged as an unregistered user, the presentation of the said identity verification means The user is permitted to use the vehicle in response to the authentication means being authenticated by the authentication means, and the authentication means is not presented by the user and the authentication Means for prohibiting the user from using the vehicle in response to the identification means not being authenticated.
[0026]
According to this form, it becomes possible to manage unregistered users by means of identification means such as a key, a card key, and a password. The personal authentication device of the present invention can prohibit the use of the automobile unless these identification means are correctly presented by the user.
[0027]
DETAILED DESCRIPTION OF THE INVENTION
Next, embodiments of the present invention will be described with reference to the drawings. FIG. 1 shows one embodiment of an automobile equipped with a personal authentication device according to the present invention. The automobile shown in FIG. 1 includes an image input unit 1, a side mirror 2, a room mirror 3, a control device 5, and an infrared irradiation unit 6. In this embodiment, the face image of the driver in the driver's seat is taken by the image input unit 1, and the driver in the driver's seat is recognized from the taken image. If the recognized driver is a person registered in advance in the car database, the control device 5 refers to the environment settings (mirror angle, driving seat position, etc.) corresponding to the person and controls the actuator. The side mirror 2 and the room mirror 3 that are connected to each other are adjusted.
[0028]
FIG. 2 shows a functional block diagram of an automobile provided with a personal authentication system in the present embodiment. This functional block diagram includes an image input unit 1, an infrared irradiation unit 6, a face orientation / gaze detection unit 11, a face feature extraction unit 13, a personal identification unit 15, an environment setting unit 17, a database 19, a side mirror / actuator 21, A rearview mirror actuator 23 and a seat actuator 25 are included.
[0029]
Information about individual drivers is registered in the database 19 in advance. The registered driver information includes face data of each driver, environment setting information corresponding to each driver, and the like. The face data is used by the personal identification unit 15 for collation with the input image taken by the image input unit 1. The environment setting information includes setting values such as the angle and sheet position of each mirror according to each driver. When the driver in the driver's seat is specified by the personal authentication system according to the present invention, the environment setting unit 17 refers to the registered setting value, and for each driver, the side mirror actuator 21, the rearview mirror The actuator 23 and the seat actuator 25 are controlled.
[0030]
The automobile in this embodiment processes two types of operation modes using each functional block shown in FIG. The first operation mode is a face direction / gaze detection mode executed by the face direction / gaze detection unit 11. This mode detects the presence of the driver and continuously detects the state of the face direction and the gaze direction. . The second operation mode is a personal authentication mode. In this mode, a driver detected in the face orientation / gaze detection mode is specified, and an environment setting according to the driver is executed.
[0031]
The vehicle shown in FIG. 1 normally operates in the face orientation / gaze detection mode, and monitors whether the driver is in the driver's seat. When the driver is in the driver's seat, the driver's face orientation and gaze direction are constantly monitored. is doing. The automobile can determine the state of the driver based on the monitored face direction and line-of-sight direction, and can execute processing corresponding to the driver's state.
[0032]
The personal authentication mode starts at the same time as the driver gets into the car. When the personal authentication mode is activated, the car performs face recognition based on the face orientation obtained in the face orientation / gaze detection mode, and identifies the driver in the driver's seat. When a driver is specified, environment settings (adjustment of mirror angle and sheet position) are executed according to the driver. If the driver is not identified by face recognition, there is a high possibility that the person in the driver's seat is an unregistered driver in the database 19, and the sequence corresponding to the unregistered person is processed.
[0033]
In both operation modes, an image taken by the image input unit 1 is used. The image input unit 1 and the infrared irradiation unit 6 used in this embodiment will be described below with reference to the drawings.
[0034]
In the present embodiment, the infrared irradiation unit 6 is used in order to reduce image deterioration due to illumination fluctuations in the vehicle. Therefore, the infrared irradiation unit 6 is installed on the front surface of the driver so as to irradiate the driver's face with near infrared light.
[0035]
The first reason for using near-infrared light as illumination is to improve robustness against illumination variation. In general, the brightness of a vehicle such as an automobile greatly fluctuates indoors or outdoors or due to environmental changes such as daytime or nighttime. Further, when strong visible light hits the driver's face from one direction, a shaded gradation is generated on the driver's face. Such illumination fluctuations and shade gradations significantly deteriorate the accuracy of image recognition. Therefore, in this embodiment, the infrared irradiation unit 6 emits near-infrared light from the front of the driver, and an image is captured with the near-infrared light, so that the gradation of the shadow on the face due to visible light from the surroundings is obtained. Reduce. As a result, this embodiment has an advantage that it is less affected by changes in illumination compared to an image obtained using visible light, and can improve the accuracy of face recognition.
[0036]
The second reason for using near-infrared light is that the driver's pupil can be clearly extracted. Since the position of the driver's pupil is used to detect the line-of-sight direction, it is important to image the pupil clearly. Further, since the pupil can be used as the reference coordinate in the normalization process for driver identification, clear imaging of the pupil leads to improvement of normalization accuracy, that is, improvement of recognition accuracy.
[0037]
FIG. 3 shows an embodiment of the image input unit 1. In this embodiment, the stereo method of the prior art is used to stereoscopically view the object to be photographed. Therefore, the image input unit 1 includes two video cameras (41, 42) installed in front of the driver. The two video cameras are fixed at predetermined positions so that the driver's face can be photographed in stereo. Since near-infrared light is used as illumination as described above, these video cameras are each limited in wavelength band by a visible light blocking filter 43 that blocks visible light having a wavelength other than near-infrared light. Each video camera is controlled via a camera control unit (45, 46). Each camera control unit is connected through an external synchronization signal line, and the left and right video cameras are synchronized by this synchronization signal. The personal authentication system of the present invention can process not only two-dimensional object recognition but also three-dimensional object recognition by using the image thus taken as an input image.
[0038]
As shown in FIG. 3, the image captured by the image input unit 1 may be variously processed via a conventional image processing board 47. For example, the image processing board 47 in FIG. 3 not only functions as an input port for an NTSC video signal, but also includes a memory for storing images and a hardware circuit for executing complex image processing. The algorithm can be executed at high speed. For example, an image processing algorithm by a hardware circuit includes processes such as an oblique projection mechanism, a Hough transform, a binary image matching filter, and an affine transform (image rotation, enlargement, reduction). The use of such an image processing board 47 relaxes the operation of the ECU by the image processing board 47 taking part of the image processing, and enables high-speed image processing. The personal authentication system of the present invention controls the image processing board 47 by the ECU and processes the image photographed by the image input unit 1, thereby realizing the functions of the functional blocks shown in FIG.
[0039]
Hereinafter, processing in each operation mode will be described in detail.
[0040]
As shown in FIG. 2, the face direction / line-of-sight detection unit 11 includes an initial search unit 27, a face direction detection unit 29, and a line-of-sight detection unit 31, and executes the face direction / line-of-sight detection mode. FIG. 4 and FIG. 5 show an overall flow diagram of the face orientation / gaze detection mode processed by the face orientation / gaze detection unit 11. In the face orientation / line-of-sight detection mode, the initial search unit 27, the face direction detection unit 29, and the line-of-sight detection unit 31 operate in association with each other, and the face direction and the line-of-sight direction are detected in real time from the left and right input images. Can be detected.
[0041]
FIG. 4 shows a flowchart of the process of the initial search unit 27. The processing of the face direction detection unit 29 is shown in steps 111 to 117 in FIG. 5, and the processing of the line-of-sight detection unit 31 is shown in steps 121 to 125 in FIG. Real-time detection of the face direction and the line-of-sight direction in the face direction / line-of-sight detection mode is realized by a loop process from step 111 to step 125 shown in FIG. The initial search unit 27 shown in FIG. 4 is used for initial initialization immediately after the start of the face orientation / gaze detection mode and for error recovery of the face orientation / gaze direction detection in real time.
[0042]
The process of the initial search unit 27 will be described with reference to FIG. The initial search unit 27 roughly searches an image area where a human face is captured from the input image. The processing here can be said to be preprocessing for the face direction detection unit 29. The initial search unit 27 roughly searches a region where the face is photographed from the input image before the processing of the face direction detection unit 29, so that the face direction detection unit 29 performs detailed processing of the face in the input image. Analysis can be executed at high speed.
[0043]
First, in step 101, images of the left and right video cameras are input from the image input unit 1. Next, in step 103, an area in which a human face is photographed is roughly searched from the entire input image. This is performed by two-dimensional template matching using a pre-stored initial search template 51.
[0044]
An example of the initial search template 51 is shown in FIG. The image used for the initial search template 59 is an image obtained by partially cutting a human face facing forward, and this partial image includes characteristic regions of the human face such as eyes, nose, and mouth. Is included as a template. The initial search template 51 is previously reduced in resolution in order to increase the processing speed in template matching, and is made into a differential image in order to reduce the influence of illumination variation. This template is created from a plurality of samples and stored in advance.
[0045]
Since the search in step 103 is a two-dimensional template matching, either the right video camera image or the left video camera image is used. In the following, an example of template matching using an image from the right video camera will be described.
[0046]
In the case of template matching using the image of the right video camera, template matching using the initial search template 51 is performed on the right image, and the region in the right image matched here is the face of the input image. Be a candidate. Using this face candidate as a template, similar template matching is performed on the left image, and the three-dimensional position of the face candidate is obtained from the result of the stereo matching (step 105).
[0047]
In step 107, these processing results are evaluated, and it is determined whether a face area is detected from the input image. When it is determined that a face area has been found from the input image, the process proceeds to the process of the face direction detection unit 29 (step 109). If the face area is not found by the initial search unit 27, a series of processing is repeated using a new input image. The initial search unit 27 repeats this series of processes until a human face is photographed by the image input unit 1.
[0048]
Next, processing of the face direction detection unit 29 and the line-of-sight detection unit 31 will be described with reference to FIG. As described above, in the face direction / line-of-sight detection mode, the loop from step 111 to step 125 shown in FIG. 5 is repeated in order to detect the driver's face direction and line-of-sight direction in real time. The face orientation detection unit 29 can extract predetermined feature points from the input image, and obtain the face three-dimensional position and the face orientation from these feature points. The line-of-sight detection unit 31 detects the line-of-sight direction of the face from the input image based on the feature points and the face direction obtained by the face direction detection unit 29.
[0049]
In step 111, the face orientation detection unit 29 searches for feature points of the face by template matching from the input image. The template used for this search uses an image from the three-dimensional face feature point model 53 stored in advance in the database. FIG. 7 shows an example of the three-dimensional face feature point model 53.
[0050]
The three-dimensional face feature point model 53 in the present embodiment is generated from a partial image (81 to 91) obtained by locally cutting a characteristic portion of a human face facing forward from an image. For example, as shown in FIG. 7, the facial feature point image is preliminarily stored in a left eye corner 81, left eye head 83, right eye tip 87, right eye head 85, left mouth end 89, right mouth end 91, It is generated by cutting out locally from the prepared face image. Each of these partial images is associated with three-dimensional coordinates representing the three-dimensional position of the object (in this example, the left and right corners of the eye, the corners of the eyes, and both ends of the mouth) captured in the image, and is stored in the database. Has been. In the present specification, a partial image of the face feature area having these three-dimensional coordinates is referred to as a face feature point, and a face model generated from the plurality of face feature points is referred to as a three-dimensional face feature point model 53. . These three-dimensional face feature point models 53 are generated from a plurality of samples and stored in advance in a database.
[0051]
In step 111, the face orientation detection unit 29 searches the input image for an image area corresponding to the three-dimensional face feature point model 53. This is executed by performing two-dimensional matching on an input image using an image of each feature point of the three-dimensional face feature point model 53 as a template. For this matching, either an image of the right video camera or an image of the left video camera may be used. In this embodiment, an image of the right video camera is used. As a result of the search in step 111, six images of the left and right eyes, the corners of the eyes, and both ends of the mouth captured in the input image are obtained.
[0052]
In step 113, stereo matching is executed on the left image of the input image using the image of each feature point obtained from the search in step 111 as a template. Thereby, the three-dimensional coordinates of each feature point of the input image corresponding to each feature point of the three-dimensional face feature point model 53 are obtained.
[0053]
In the case of this embodiment, stereo matching is executed using the images of the left and right corners of the face and the corners of the face in the searched input image as the templates. As a result of this stereo matching, three-dimensional coordinates of the left and right corners of the driver's face, the corners of the eyes, and both ends of the mouth are obtained. Therefore, the three-dimensional position of the face of the driver in the driver's seat can be obtained from the three-dimensional coordinates of the feature points of these input images.
[0054]
After the three-dimensional coordinates relating to each feature point of the input image are obtained, it is checked in step 115 whether the feature point has been successfully extracted based on a predetermined criterion. If it is determined in this step 115 that each feature point has not been found from the input image, the process returns to the initial search unit 27 to search for a region where the face is photographed from the new input image.
[0055]
If it is determined in step 115 that each feature point has been found from the input image, a three-dimensional model fitting is executed using the three-dimensional face feature point model 53 in step 117, and the face orientation is detected. Hereinafter, this three-dimensional model fitting will be described.
[0056]
As described above, the three-dimensional facial feature point model 53 stored in advance is generated from the facial feature points facing the front. On the other hand, the face photographed in the input image does not necessarily face the front. Therefore, the three-dimensional coordinates of each feature point (observation point) of the input image obtained in step 113 is an arbitrary angle and displacement from the three-dimensional coordinates of each feature point of the three-dimensional face feature point model 53 facing front. Has a gap. Therefore, when the front-facing three-dimensional face feature point model 53 is arbitrarily rotated and displaced, the angle and displacement that match each feature point of the input image correspond to the face direction and position in the input image.
[0057]
When fitting the 3D face feature point model 53 to each feature point of the input image, the fitting error E is expressed by the following equation.
[Expression 1]
Figure 0004675492
Where N is the number of feature points and x i Are the three-dimensional coordinates of each feature point in the model, y i Represents the three-dimensional coordinates of each feature point from the input image. ω i Is a weighting coefficient for each feature point, and uses a correlation value in stereo matching when the three-dimensional position of the feature point is obtained from the input image. By using this correlation value, the reliability of each feature point can be considered. The rotation matrix is R (φ, θ, ψ), the position vector is represented by t (x, y, z), and these are variables in this equation.
[0058]
Therefore, if the rotation matrix R and the position vector t that minimize the fitting error E in the above equation are obtained, the face orientation and face position of the input image can be obtained. This calculation is performed by using a least square method or a fitting method using a virtual spring model.
[0059]
In steps 121 to 125 shown in FIG. 7, the line-of-sight detection unit 31 detects the line-of-sight direction of the face from the input image based on the feature points and the face direction obtained by the face direction detection unit 29. At this time, the eyeball is modeled as a three-dimensional sphere, and the center position of the sphere is set as the rotation center. This three-dimensional eye model uses as parameters the three-dimensional relative position of the eyeball with respect to the face model, the radius of the eyeball, and the radius of the iris. FIG. 8 shows an outline of a method for obtaining the line-of-sight direction.
[0060]
In step 121, the three-dimensional center position 61 of the eyeball is obtained based on the detection result of the face direction detection unit 29. The offset vector for obtaining the eye center position 61 is determined in advance as a three-dimensional vector from the midpoint of the straight line connecting the feature points (55, 57) at both ends of the left and right eyes toward the eye center position 61. ((1) in FIG. 8). Therefore, the center position 61 of the eyeball can be obtained using the offset vector, the eyeball radius, the face position, and the face orientation ((2) in FIG. 8).
[0061]
Since the positions (55, 57) at both ends of the eye have already been obtained as the feature points of the input image, the center position 59 of the pupil on the eyeball can be easily obtained by executing the Hough transform in the regions at both ends. (Step 123). The line-of-sight direction is obtained as a three-dimensional vector (line-of-sight vector) connecting the center position 61 of the eyeball and the center position 59 of the pupil (step 125).
[0062]
In this embodiment, since the left and right images are used as the input image, the line-of-sight vector can be obtained for each of the right image and the left image. Furthermore, since a line-of-sight vector can be obtained for both eyes, a total of four line-of-sight vectors are obtained. In this embodiment, the average vector of these four line-of-sight vectors is used as the line-of-sight direction of the input image.
[0063]
In step 125, after the line-of-sight direction of the face in the input image is detected, the process returns to step 111, and a series of processing is repeated using the new input image. As a result of this repetition, it becomes possible to execute continuous tracking of the driver's face direction, face position, and line-of-sight direction in real time.
[0064]
Next, the personal authentication mode will be described. In the personal authentication mode, the driver's face detected in the face orientation / gaze detection mode is compared with the face data registered in the database to identify the driver. When a driver is specified, the personal authentication mode executes environment settings (mirror angle, sheet position, etc.) corresponding to the driver. As shown in the functional block diagram of FIG. 2, the personal authentication mode includes a face feature extraction unit 13 that extracts features of an input image, and a personal identification unit 15 that compares and collates drivers based on processing results of the face feature extraction unit 13. And the environment setting unit 17 that processes the environment setting according to the result of the personal identification unit 15. In the face orientation / line-of-sight detection mode, processing is executed using both the left and right images. In the personal authentication mode, processing is executed using one of the left and right images.
[0065]
The face feature extraction unit 13 includes a front face feature extraction unit 33 and a side face feature extraction unit 35, and executes processing according to the orientation of the face of the driver 10 in the input image. Since the face orientation of the driver 10 photographed in the input image from the image input unit 1 has already been detected by the face orientation / line-of-sight detection unit 11, the face feature extraction unit 13 responds to the face orientation in the input image. Can be executed. The outline of the process of the face feature extraction unit 13 will be described below.
[0066]
One of the processes of the face feature extraction unit 13 is a normalization process of an image input from the face orientation / gaze detection unit 11. This normalization process converts a face in the input image into a predetermined face data format (a predetermined face size, a face position, a face inclination, and an image brightness) in order to improve the accuracy of face recognition. Here, “face inclination” means rotation of the face image. More specifically, the face in the image input by the face feature extraction unit 13 is inclined with an arbitrary face orientation. For example, as shown in FIG. 9a, the face in the input image faces the front but is tilted in the image, or tilted sideways as shown in FIG. 9c. In the normalization process, the “face inclination” in the image is corrected by rotating the input image on the image plane. For example, in the case of FIG. 9a, the inclination of the face in the image can be corrected by rotating the image by the angle α with the intersection of the x axis and the y axis as the rotation center (FIG. 9b). Similarly in the case of FIG. 9c, the inclination of the face in the image can be corrected by rotating the image by the angle α with the intersection of the x axis and the y axis as the rotation center. In the present specification, the face angle corrected by the rotation on the image plane is referred to as “face inclination”. Therefore, in this specification, even when the face is facing up as shown in FIG. 9c, it is referred to as “landscape”, and when the face is facing down, it is similarly referred to as “landscape”.
[0067]
Another process of the face feature extraction unit 13 is a process for selecting the face orientation in the face image. In this sorting process, the input image is sorted into “front-facing” and “landscape” according to the orientation of the face. This process is selected based on the face orientation detected by the face orientation / gaze detection unit 11. In this specification, the front means a case where the face orientation obtained in the face orientation / gaze detection mode is within a predetermined range. Such a range is determined according to the recognizable range of the face recognition method used in front face recognition. Therefore, it is determined that the face orientation outside the predetermined range is the landscape orientation.
[0068]
Further, the face feature extraction unit 13 executes feature extraction processing of the input image for the personal identification unit 15. The feature extraction processing executed here varies depending on the face recognition method used in front face recognition or side face recognition. For example, when the eigenspace method is used for the face recognition method, the normalized input image is vectorized by this feature extraction process, and a weight vector representing the feature of the input image is calculated from the vector. The weight vector (feature component) obtained here is sent to the personal identification unit 15 and compared with face data stored in the database 19 to identify individual drivers.
[0069]
FIG. 10 shows the overall flow of the personal authentication mode. For example, when the driver enters the vehicle and the personal authentication mode is started, the detection result in the face direction / gaze detection mode is input to the feature extraction unit 13 in step 301. Here, data input to the feature extraction unit 13 includes an image photographed by the image input unit 1 and data on the driver's face orientation, face position, and line-of-sight direction in the image. As described above, either the left or right image may be used as the input image.
[0070]
In step 303, the feature extraction unit 13 executes a branch process according to the face orientation. Since the personal authentication system according to the present invention can use different face recognition methods for different face orientations, face recognition can be performed with high accuracy.
[0071]
For example, the personal authentication system can perform face recognition by using the eigenspace method for a face facing front and matching a three-dimensional model for a face facing sideways. Therefore, according to the present invention, an optimal face recognition method can be selected according to the face orientation of the input image.
[0072]
Face recognition methods that can be used in the personal authentication system include eigenspace method, template matching, Gabor Wavelet method, and NN. In step 301, the personal authentication system according to the present invention has already obtained information such as the face direction, the line-of-sight direction, and the facial feature points. Accordingly, if face recognition is executed by properly combining these basic information and normalization processing, it is possible to identify individual drivers with high accuracy using any face recognition method.
[0073]
In the determination of the face orientation in step 303, the front means that the face orientation obtained in the face orientation / gaze detection mode is within a predetermined range. Such a range is determined according to the recognizable range of the face recognition method used in front face recognition. Therefore, it is determined that the face orientation outside the predetermined range is the landscape orientation.
[0074]
When it is determined in step 303 that the face orientation of the input image is facing the front, the front face feature extraction unit 33 executes normalization processing and feature extraction processing for the front. When it is determined that the face orientation of the input image is landscape, the profile feature extraction unit 33 performs normalization processing and feature extraction processing according to the face orientation. Since normalization processing, feature extraction processing, and comparison / collation processing are branched according to the determination in step 303, the normalization processing, feature extraction processing, and comparison / collation for the front will be described first, and then the normalization for landscape orientation is performed. Processing, feature extraction processing, and comparison verification will be described.
[0075]
In step 305, the front face feature extraction unit 33 converts the input image into a predetermined face format (face size, face position, face inclination). That is, the face size, position, and inclination of the input image are normalized so as to be the same as the size, position, and inclination of the face image previously stored in the database. Further, the brightness of the entire image is adjusted to a predetermined value.
[0076]
In the present embodiment, the eigenspace method is used as the face recognition method of the personal identification unit 15. The normalization process in step 305 is also executed as a primary conversion on the image plane. If the feature points obtained in the face orientation / line-of-sight detection mode are used, the size, position, and tilt of the face in the input image can be easily obtained, so this process can be normalized with high accuracy compared to the conventional technology. It can be carried out.
[0077]
In one embodiment of the normalization processing for the front, affine transformation is executed so that the left and right pupils are horizontal and the distance is constant with reference to the midpoint of a straight line connecting the centers of the left and right pupils. Since the near-infrared image is used in the personal authentication system according to the present invention, the pupil can be extracted clearly, and normalization can be performed with high accuracy.
[0078]
In step 307, it is checked whether the normalization of the input image has been performed correctly. This is executed by cutting out a predetermined area from the normalized image and comparing it with a template for success / failure determination stored in the database in advance.
[0079]
For example, a case where this success / failure determination is executed using a right eye template will be described. In this case, the success / failure determination template is generated by cutting out a predetermined size from the image of a predetermined face recognition format (face size, face position, face tilt) around the right eye. This success / failure determination template is created from a sufficient number of samples and used as a typical eye template. The created success / failure determination template is stored in advance in a success / failure determination database.
[0080]
If the input image is correctly normalized in step 305, the eyes in the normalized image should always exist at a predetermined position and a predetermined size. Therefore, if the region corresponding to the success / failure determination template is cut out from the normalized image and collated with the success / failure determination template, the success or failure of the normalization can be determined. If normalization is successful, the correlation value between the clipped image and the success / failure determination template is a high value, and if normalization fails, the correlation value indicates a low value. Therefore, the success or failure of normalization can be determined by setting a threshold value of a correlation value as a determination criterion in advance. Here, in order to briefly explain the normalization success / failure determination, only the right eye has been described. However, by using a plurality of characteristic areas as success / failure determination templates and using these multiple success / failure determination templates, more accurate results can be obtained. Normalization success / failure judgment can be executed.
[0081]
If it is determined in step 307 that the normalization of the face direction with respect to the front is successful, the front face feature extraction unit 33 executes feature extraction processing for comparison and collation by the personal identification unit 15 in step 308. If it is determined in step 307 that the normalization of the face direction with respect to the front face has failed, the process returns to step 301, and a series of processing is repeated again using a new input image.
[0082]
As described above, since the face recognition for the front in this embodiment uses the eigenspace method, the feature extraction process in step 308 and the comparison and collation process in step 309 are also performed in a manner corresponding to the eigenspace method. . The outline of the processing in steps 308 and 309 using the eigenspace method will be described below.
[0083]
The face images of the front faces of individual drivers to be recognized are stored in advance in a database. In the eigenspace method, eigenvectors are generated from face images registered in the database. A face class representing each driver's face in the eigenspace is generated by projecting each driver's face stored in the database 19 onto the eigenspace. In front face recognition using the eigenspace method, the face class and the normalized image features are compared and collated, and the individual driver is identified from the result.
[0084]
Accordingly, in step 308, the front face feature extraction unit 33 projects the normalized image onto the unique face space, and extracts the feature of the normalized image as a weight vector. More specifically, first, the normalized input image is converted into an image vector. For example, if the normalized input image is an image composed of n × n pixels, n having individual pixel values as components from the image. 2 Dimension vector (1 row, N 2 Column) is generated. Next, this image vector is projected onto the eigenface space, and a weight vector is generated. For example, when M eigenvectors are stored in the database 19, the image vector is projected onto an M-dimensional eigenspace, and a weight vector having M vector components is generated. M is the number of dimensions of the image vector N 2 If the weight vector is sufficiently small, the weight vector is a vector of a smaller dimension than the original image vector while having the facial features captured in the original image. The weight vector generated in this way is sent to the personal identification unit 15.
[0085]
In step 309, the personal identification unit 15 compares the weight vector obtained from the normalized image with the face class of each driver. In one embodiment of this comparison and collation, the distance between each driver's face class and weight vector in the unique face space is determined, and the driver in the image is determined based on the determined distance.
[0086]
Next, in step 317, the personal identification unit 15 determines whether or not the face class corresponding to the normalized image has been found by comparison and collation (step 309). If the face in the normalized image is the face of a person registered in the database 19, a face class corresponding to that person is found by the comparison and collation in step 309. However, when the face in the normalized image is a face of a person who is not registered in the database 19, a face class corresponding to that person cannot be found. Therefore, if a corresponding face class is not found by comparison and collation, the process proceeds to step 321 to execute the unregistered person sequence. If the corresponding face class is found by comparison, the driver in the driver's seat is determined and the registrant sequence in step 319 is processed. The registrant sequence and the non-registrant sequence will be described in detail later.
[0087]
Such face recognition by the eigenspace method can reduce the amount of calculation according to the number of transformation parameters (weight components) at the time of projection, so that the normalized correlation that requires the calculation for the number of pixels of the input image Compared with this method, high-speed processing can be realized.
[0088]
Next, normalization processing and face recognition for landscape orientation will be described. As shown in FIG. 10, the flow of normalization processing and face recognition processing for landscape orientation is basically the same flow as the processing for front (steps 305 to 309). However, since the branching process is executed in accordance with the face orientation in step 303, the normalization process executed for the face in the horizontal direction and the face recognition itself can use a method different from the process for the front face.
[0089]
The face recognition embodiment for landscape orientation can be broadly divided into two types of embodiments, and the normalization process differs accordingly. The first embodiment is an embodiment in which a database is created in advance from images by face orientations of individual drivers, and face recognition is executed using those face orientation databases in accordance with the detected face orientations. is there. In this case, the normalization process is executed according to the face orientation detected from the input image.
[0090]
For example, as shown in FIG. 9d, the reference point for positioning the face in the normalization process (that is, the intersection of the x axis and the y axis in the figure) varies depending on the face orientation. Therefore, when normalizing a horizontally oriented input image, the reference point for positioning the face must be changed according to the face orientation in the image. For this reason, the side face feature extraction unit 35 executes normalization processing according to the face orientation detected by the face orientation / gaze detection unit 11. In this case, the normalization success / failure determination is also executed using different templates depending on the face orientation. These normalization processing and normalization success / failure determination are executed by the same processing as that for a face image with respect to the front, except that processing is performed for each face direction. In the comparison and collation for the horizontal direction, the comparison and collation is executed based on the database for each face direction of the face images photographed for each face direction.
[0091]
In another embodiment of face recognition for landscape orientation, a three-dimensional face model is generated from an input image, and normalization processing is performed using the three-dimensional face model. In this case, a predetermined feature point is extracted from the input image, and a three-dimensional face model of the input image is generated from the feature point. The three-dimensional face model generated here is a face model generated in the face orientation when the input image is taken. Therefore, if the face model is rotated according to the face orientation obtained by the face orientation / gaze detection unit 11, a face model of the input image facing the front can be obtained. In this embodiment, generation of a three-dimensional face model from an input image and rotation processing of the model correspond to normalization processing in step 311. Since the normalized image after rotation can be processed in the same manner as a face image facing the front, the success / failure determination of the normalization process is processed in the same manner as the determination of success / failure of the normalization process of the face facing the front. . The face recognition in this embodiment can be realized by using a face recognition method (for example, eigenspace method) facing the front of the prior art.
[0092]
In step 317 after the comparison matching for the landscape orientation is performed, the personal identification unit 15 determines whether a corresponding face class has been found by the comparison matching. Step 319 or step 321 is processed according to the determination at step 317.
[0093]
Next, an example of the registrant sequence in step 319 will be described. FIG. 11 shows a flowchart of processing of the registrant sequence. As described above, when the driver in the driver's seat is determined in step 317, the personal identification unit 15 gives the driver permission to drive the vehicle to the driver in the driver's seat in step 323. This permission allows the car to be operated by the driver. In step 325, the personal identification unit 15 reads environment setting data corresponding to the determined driver from the database 19 and sends the data to the environment setting unit 17. In step 327, the environment setting unit 17 controls each actuator according to the environment setting data to set the mirror angle and the sheet position.
[0094]
FIG. 12 shows a flowchart of the process of the embodiment for the unregistered person sequence. As described above, if the face of the driver in the driver's seat is the face of an unregistered person who is not stored in the database in step 317, the personal identification unit 15 requests the driver to use the car by the administrator. To do. Here, the manager is a person who is responsible for the use of the car, such as the owner of the car or the manager of the car. The administrator has any means to prove his identity to the car. For example, such identification means is means capable of ensuring security such as a key, a card key, and a password. When an unregistered driver wants to drive a vehicle according to the present invention, the vehicle will require a manager's use authorization certificate. In that case, an unregistered driver or administrator must prove the use permission to the vehicle by means of identification. If the identification means is not presented to the vehicle, the personal identification unit 15 determines in step 335 that the unregistered driver is not permitted to use the vehicle by the administrator, and prohibits the driver from operating the vehicle. When the identification means is presented to the vehicle, the personal identification unit 15 determines whether or not the unregistered driver is a new driver who desires registration. Therefore, if the person in the driver's seat is a new driver who wishes to register, new registration of the driver is executed through any means in step 341. If the person in the driver's seat does not want to register, it is a driver who has temporarily received permission to use the car from the administrator. Therefore, in step 339, the car is operated with restrictions as a temporary driver. to approve.
[0095]
In the above embodiment, an example of a car provided with a personal authentication device according to the present invention has been described. However, the present invention is not limited to personal authentication in a car and can be applied to other fields. Is possible.
[0096]
FIG. 13 shows an application example of the personal authentication apparatus of the present invention to a computer. In FIG. 13, the image input unit 1 is connected to a computer 401 via an image processing board 47 to constitute a personal authentication device. The computer 401 is a general-purpose computer to which a user interface such as a monitor 402, a keyboard 403, and a mouse 404 is connected. For example, a computer operates using an OS known as “Linux”. In this example, when a certain user uses the computer 401, the image input unit 1 connected to the computer 401 automatically captures the user's face image and executes personal authentication from these images. Only when the personal authentication is successful, the use of the computer 401 is permitted, and the user can use the computer 401. Such personal authentication can be realized by executing functional blocks such as the face orientation / gaze detection unit 11, the feature extraction unit 13, and the personal identification unit 15 described above on the computer 401.
[0097]
Thus, the present invention is not limited to the above-described embodiments, and can be applied to many fields.
[0098]
【The invention's effect】
According to the present invention, since the personal authentication device includes a function for detecting the face orientation of the user, face recognition according to the face orientation can be executed, and the accuracy of personal authentication is improved compared to the face recognition of the prior art. It is possible to improve.
[Brief description of the drawings]
FIG. 1 shows an embodiment of an automobile equipped with a personal authentication device according to the present invention.
FIG. 2 is a functional block diagram of an automobile provided with a personal authentication system in the present embodiment.
FIG. 3 is a diagram illustrating an example of an image input unit.
FIG. 4 is a flowchart of processing of an initial search unit.
FIG. 5 is a flowchart of processing of a face direction detection unit and a line-of-sight detection unit.
FIG. 6 is a diagram showing an example of an initial search template.
FIG. 7 is a diagram showing an example of a three-dimensional face feature point model.
FIG. 8 is a schematic view of a method for obtaining a gaze direction.
FIG. 9 is a diagram illustrating an example in which the inclination of the face is corrected by normalization.
FIG. 10 is an overall flowchart of personal authentication mode.
FIG. 11 is a flowchart of processing of a registrant sequence.
FIG. 12 is a flowchart of processing of an unregistered person sequence.
FIG. 13 is a diagram showing a computer including a personal authentication system in the present embodiment.
[Explanation of symbols]
1 Image input section
6 Infrared irradiation part
10 users
11 Face orientation / line-of-sight detection unit
13 Feature extraction unit
15 Personal Identification Department
17 Environment Setting Department
19 Database

Claims (7)

ユーザの認証を行う装置であって、
前記ユーザを撮影する複数のカメラと、
前記ユーザの顔を照射するよう設置された照明手段と、
前記カメラの画像出力から前記ユーザの顔の向きを検出する検出手段と、
前記検出された顔向きに応じて、前記画像出力の顔画像を正面と正面以外の顔画像に選別する手段と、
前記ユーザを正面および正面以外から撮影した照合用顔画像のデータベースと、
前記正面および正面以外の顔画像の各々を前記照合用顔画像のデータベースに記憶されている対応する正面または正面以外の照合用顔画像と同じサイズおよび位置の顔画像に調整する正規化手段と
前記正規化された正面および正面以外の顔画像の各々の重みベクトルを抽出し、各重みベクトルを前記照合用顔画像のデータベースに記憶されている対応する正面または正面以外の照合用顔画像の顔クラスと比較照合し、前記ユーザを識別する識別手段と、を備える認証装置。
A device for authenticating a user,
A plurality of cameras for photographing the user;
Illumination means installed to illuminate the user's face;
Detecting means for detecting the orientation of the user's face from the image output of the camera;
Means for sorting the face image of the image output into a front image and a face image other than the front according to the detected face orientation;
A database of collation face images taken from the front and other than the front;
Normalization means for adjusting each of the face images other than the front face and the front face to a face image having the same size and position as the corresponding face image for comparison other than the front face or the front face stored in the database of face images for matching ;
The weight vectors of each of the normalized front and non-front face images are extracted, and each weight vector is stored in the database of the face image for matching and the face of the matching face image other than the front or front face. An authentication device comprising: identification means for comparing with a class and identifying the user.
前記正規化手段により正規化された画像の各々から予め定めた画像領域を抽出する抽出手段と、
前記予め定めた画像領域の基準データを格納する成否判断データベースと、
前記抽出された画像領域の各々を対応する前記基準データと照合し、前記正規化手段による正規化の成否を判定する成否判定手段と、を備える請求項に記載の認証装置。
Extracting means for extracting a predetermined image region from each of the images normalized by the normalizing means;
A success / failure determination database for storing reference data of the predetermined image area;
Against the reference data corresponding to each of the extracted image area, the authentication device according to claim 1, and a determining success determining means success or failure of normalization by the normalization means.
前記顔向き検出手段は、
予め定めた1つまたは複数の顔の特徴部分の基準画像および該基準画像に対応する3次元座標を格納している特徴点データベースを含み、該3次元座標が該顔の特徴部分にそれぞれ関連付けられ、
前記特徴部分の基準画像をテンプレートにして前記カメラの画像出力から該特徴部分の基準画像に対応する画像領域を抽出する抽出手段と、
前記抽出された画像領域に基づいて、前記抽出された画像領域の3次元座標を求める手段と、
前記求められた画像領域の3次元座標と前記基準画像に対応する3次元座標から前記ユーザの顔の向きを検出する手段と、を含む請求項1に記載の認証装置。
The face direction detecting means includes
Including a predetermined reference image of one or more facial feature parts and a feature point database storing three-dimensional coordinates corresponding to the reference image, wherein the three-dimensional coordinates are respectively associated with the facial feature parts ,
Extracting means for extracting an image region corresponding to the reference image of the feature portion from the image output of the camera using the reference image of the feature portion as a template;
Means for determining three-dimensional coordinates of the extracted image region based on the extracted image region;
The authentication apparatus according to claim 1, further comprising: means for detecting the orientation of the user's face from the three-dimensional coordinates of the obtained image region and the three-dimensional coordinates corresponding to the reference image.
前記照明手段が前記ユーザの顔を赤外光で照射する請求項1に記載の認証装置。  The authentication apparatus according to claim 1, wherein the illumination unit irradiates the user's face with infrared light. 前記識別手段は、前記画像出力からの顔画像に対応する顔画像が前記照合用顔画像のデータベースに存在するか否かを判断する手段を含み、
前記画像出力からの顔画像に対応する顔画像が前記照合用データベースに存在することに応答して、前記ユーザを登録済みユーザと判断し、
前記画像出力からの顔画像に対応する顔画像が前記照合用データベースに存在しないことに応答して、前記ユーザを未登録ユーザと判断する請求項1に記載の認証装置。
The identifying means includes means for determining whether a face image corresponding to the face image from the image output exists in the database of face images for verification;
In response to the presence of a face image corresponding to the face image from the image output in the verification database, the user is determined to be a registered user;
The authentication apparatus according to claim 1, wherein the user is determined to be an unregistered user in response to a face image corresponding to the face image from the image output not existing in the verification database.
前記認証装置は、前記登録済みユーザそれぞれに関連付けられた複数の環境設定データを記憶する環境設定データベースと、
前記環境設定データに応じて自動車の環境を設定する環境設定手段と、を含み、
前記ユーザが登録済みユーザと判断されたときに、自動車の運転を許可し、前記環境設定データベースから前記登録済みユーザに関する環境設定データを読み取り、該登録済みユーザに関する環境設定データに応じて自動車の環境を設定することを含む請求項に記載の認証装置。
The authentication device includes an environment setting database that stores a plurality of environment setting data associated with each of the registered users;
Environment setting means for setting the environment of the vehicle according to the environment setting data,
When it is determined that the user is a registered user, driving of the automobile is permitted, the environment setting data relating to the registered user is read from the environment setting database, and the environment of the automobile is determined according to the environment setting data relating to the registered user. The authentication apparatus according to claim 5 , further comprising: setting.
前記認証装置は、ユーザの身分を証明する身分証明手段を認証する認証手段を含み、
前記ユーザが未登録ユーザと判断されたときに、前記身分証明手段の提示を前記ユーザに要求し、
前記認証手段で該身分証明手段が認証されることに応答して該ユーザに自動車の使用許可を与え、
前記ユーザにより前記身分証明手段が提示されなかったことおよび前記認証手段で該身分証明手段が認証されなかったことに応答して該ユーザによる自動車の使用を禁止する請求項に記載の認証装置。
The authentication device includes authentication means for authenticating identification means for authenticating a user's identity,
When it is determined that the user is an unregistered user, the user is requested to present the identification means,
Granting the user permission to use the vehicle in response to the authentication means being authenticated by the authentication means;
The authentication device according to claim 5 , wherein the user is prohibited from using the vehicle in response to the fact that the identification means is not presented by the user and that the identification means is not authenticated by the authentication means.
JP2001083728A 2001-03-22 2001-03-22 Personal authentication device using facial images Expired - Fee Related JP4675492B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001083728A JP4675492B2 (en) 2001-03-22 2001-03-22 Personal authentication device using facial images

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001083728A JP4675492B2 (en) 2001-03-22 2001-03-22 Personal authentication device using facial images

Publications (2)

Publication Number Publication Date
JP2002288670A JP2002288670A (en) 2002-10-04
JP4675492B2 true JP4675492B2 (en) 2011-04-20

Family

ID=18939509

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001083728A Expired - Fee Related JP4675492B2 (en) 2001-03-22 2001-03-22 Personal authentication device using facial images

Country Status (1)

Country Link
JP (1) JP4675492B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10915772B2 (en) 2017-12-27 2021-02-09 Electronics And Telecommunications Research Institute Apparatus and method for registering face pose for face recognition

Families Citing this family (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4238542B2 (en) * 2002-08-30 2009-03-18 日本電気株式会社 Face orientation estimation apparatus, face orientation estimation method, and face orientation estimation program
JP4322537B2 (en) * 2003-04-07 2009-09-02 株式会社豊田中央研究所 Mask wearing judgment device
JP4059224B2 (en) 2004-04-13 2008-03-12 株式会社デンソー Driver appearance recognition system
JP4380412B2 (en) * 2004-05-10 2009-12-09 株式会社デンソー Imaging control apparatus and program
EP1748387B1 (en) 2004-05-21 2018-12-05 Asahi Kasei Kabushiki Kaisha Devices for classifying the arousal state of the eyes of a driver, corresponding method and computer readable storage medium
JP4217664B2 (en) * 2004-06-28 2009-02-04 キヤノン株式会社 Image processing method and image processing apparatus
DE102004044771B4 (en) * 2004-09-16 2006-08-24 Bayerische Motoren Werke Ag Method for image-based driver identification in a motor vehicle
JP4459788B2 (en) 2004-11-16 2010-04-28 パナソニック株式会社 Facial feature matching device, facial feature matching method, and program
JP4501708B2 (en) * 2005-02-02 2010-07-14 トヨタ自動車株式会社 Driver's face orientation determination device
JP4561400B2 (en) * 2005-02-24 2010-10-13 オムロン株式会社 Monitoring device
JP4267584B2 (en) * 2005-02-28 2009-05-27 株式会社東芝 Device control apparatus and method
JP2006344100A (en) * 2005-06-10 2006-12-21 Konica Minolta Holdings Inc Authentication device and image output device
JP4692174B2 (en) * 2005-09-14 2011-06-01 株式会社日立製作所 Personal authentication device and door opening / closing system
JP4465619B2 (en) 2005-10-31 2010-05-19 ソニー株式会社 Registration device, verification device, image correction method, and program
JP4758218B2 (en) * 2005-12-16 2011-08-24 株式会社山武 3D pattern position / posture detection device
CN101489467B (en) * 2006-07-14 2011-05-04 松下电器产业株式会社 Visual axis direction detection device and visual line direction detection method
JP2008089402A (en) * 2006-10-02 2008-04-17 Konica Minolta Holdings Inc Information processing system, program, and information processing method
JP2008087140A (en) * 2006-10-05 2008-04-17 Toyota Motor Corp Speech recognition robot and control method of speech recognition robot
JP5001028B2 (en) 2007-03-02 2012-08-15 株式会社デンソー Driving environment setting system, in-vehicle device, and program for in-vehicle device
JP4910827B2 (en) * 2007-03-28 2012-04-04 カシオ計算機株式会社 Image processing apparatus and program
US8174555B2 (en) * 2007-05-30 2012-05-08 Eastman Kodak Company Portable video communication system
JP4434236B2 (en) 2007-06-11 2010-03-17 ソニー株式会社 Image processing apparatus, image display apparatus, imaging apparatus, processing method and program thereof
EP2015568B1 (en) 2007-06-14 2019-02-13 FUJIFILM Corporation Digital image pickup apparatus
JP4569670B2 (en) * 2008-06-11 2010-10-27 ソニー株式会社 Image processing apparatus, image processing method, and program
JP2010033305A (en) * 2008-07-29 2010-02-12 Hitachi Ltd Image information processing method and device
JP5098981B2 (en) * 2008-12-08 2012-12-12 トヨタ自動車株式会社 Face detection device
JP5448952B2 (en) * 2010-03-16 2014-03-19 グローリー株式会社 Same person determination device, same person determination method, and same person determination program
JP5538031B2 (en) * 2010-03-31 2014-07-02 アズビル株式会社 Verification device
KR101172227B1 (en) 2010-11-18 2012-08-07 현대자동차주식회사 System of management for entrance and exit using driver's face certification within vehicle and thereof method
KR101805716B1 (en) * 2011-09-21 2017-12-07 현대모비스 주식회사 Apparatus and Method for certifying Driver by recognition face
JP6212930B2 (en) * 2013-05-01 2017-10-18 株式会社ニコン Information processing apparatus, system, method, and program
TWI532620B (en) * 2013-06-24 2016-05-11 Utechzone Co Ltd Vehicle occupancy number monitor and vehicle occupancy monitoring method and computer readable record media
WO2015117904A1 (en) 2014-02-04 2015-08-13 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Hough processor
JP6354359B2 (en) * 2014-06-11 2018-07-11 株式会社デンソー Vehicle setting device
DE102014211823A1 (en) * 2014-06-20 2015-12-24 Robert Bosch Gmbh Procedure for personal identification
JP2019531560A (en) * 2016-07-05 2019-10-31 ナウト, インコーポレイテッドNauto, Inc. Automatic driver identification system and method
JP2018045309A (en) * 2016-09-12 2018-03-22 株式会社東芝 Feature quantity extraction device and authentication system
US11210498B2 (en) 2017-06-26 2021-12-28 Nec Corporation Facial authentication device, facial authentication method, and program recording medium
JP7211673B2 (en) * 2018-05-25 2023-01-24 株式会社Subaru vehicle occupant monitoring device
CN109389069B (en) 2018-09-28 2021-01-05 北京市商汤科技开发有限公司 Gaze point determination method and apparatus, electronic device, and computer storage medium
CN111071187A (en) * 2018-10-19 2020-04-28 上海商汤智能科技有限公司 Driving environment intelligent adjustment and driver registration method and device, vehicle and equipment
US10963678B2 (en) * 2018-11-14 2021-03-30 Hyundai Motor Company Face recognition apparatus and face recognition method
US20210229673A1 (en) * 2019-06-17 2021-07-29 Google Llc Seamless driver authentication using an in-vehicle camera in conjunction with a trusted mobile computing device
EP4102011A4 (en) * 2020-02-06 2023-03-22 Nec Corporation Gate system, gate device, method for controlling same, and program
JP7404950B2 (en) * 2020-03-16 2023-12-26 いすゞ自動車株式会社 Image transmission device and authentication system
CN114248672A (en) * 2020-09-22 2022-03-29 宝能汽车集团有限公司 Female physiological period care method and device for vehicle and vehicle
JP7269607B2 (en) * 2021-03-31 2023-05-09 学校法人明治大学 Information processing device, information processing method, and program
CN114998979B (en) * 2022-08-01 2022-11-18 中国通信建设第三工程局有限公司 Intelligent Internet of vehicles system

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000222576A (en) * 1999-01-29 2000-08-11 Nec Corp Person identification method, device therefor, recording medium recording person identification program, and robot system
JP2000259834A (en) * 1999-03-11 2000-09-22 Toshiba Corp Registering device and method for person recognizer
JP2000311220A (en) * 1999-04-28 2000-11-07 Hitachi Ltd Unit operation right managing system, unit operation right managing terminal, ic chip and ic chip case
JP2001051338A (en) * 1999-08-12 2001-02-23 Canon Inc Camera

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2872776B2 (en) * 1990-08-20 1999-03-24 日本電信電話株式会社 Face image matching device
JPH05300601A (en) * 1992-04-20 1993-11-12 Canon Inc Vehicle safety confirmaton instruction apparatus
JPH07302327A (en) * 1993-08-11 1995-11-14 Nippon Telegr & Teleph Corp <Ntt> Method and device for detecting image of object
JP3738456B2 (en) * 1994-11-14 2006-01-25 マツダ株式会社 Article position detection method and apparatus
JPH0944676A (en) * 1995-08-01 1997-02-14 Toyota Motor Corp Face detector
US6100811A (en) * 1997-12-22 2000-08-08 Trw Inc. Fingerprint actuation of customized vehicle features

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000222576A (en) * 1999-01-29 2000-08-11 Nec Corp Person identification method, device therefor, recording medium recording person identification program, and robot system
JP2000259834A (en) * 1999-03-11 2000-09-22 Toshiba Corp Registering device and method for person recognizer
JP2000311220A (en) * 1999-04-28 2000-11-07 Hitachi Ltd Unit operation right managing system, unit operation right managing terminal, ic chip and ic chip case
JP2001051338A (en) * 1999-08-12 2001-02-23 Canon Inc Camera

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10915772B2 (en) 2017-12-27 2021-02-09 Electronics And Telecommunications Research Institute Apparatus and method for registering face pose for face recognition

Also Published As

Publication number Publication date
JP2002288670A (en) 2002-10-04

Similar Documents

Publication Publication Date Title
JP4675492B2 (en) Personal authentication device using facial images
JP4898026B2 (en) Face / Gaze Recognition Device Using Stereo Camera
EP1629415B1 (en) Face identification verification using frontal and side views
US9922238B2 (en) Apparatuses, systems, and methods for confirming identity
US7508979B2 (en) System and method for detecting an occupant and head pose using stereo detectors
US8280120B2 (en) Fraud resistant biometric financial transaction system and method
US20040223631A1 (en) Face recognition based on obtaining two dimensional information from three-dimensional face shapes
JP2003178306A (en) Personal identification device and personal identification method
WO2014025448A1 (en) Spoof detection for biometric authentication
WO2003073359A2 (en) Method and apparatus for recognizing objects
US10922399B2 (en) Authentication verification using soft biometric traits
JP5730095B2 (en) Face image authentication device
CN111344703A (en) User authentication device and method based on iris recognition
KR102534582B1 (en) Method and apparatus of active identity verification based on gaze path analysis
US20200218885A1 (en) Detecting artificial facial images using facial landmarks
US20220318369A1 (en) Face recognition system and method capable of updating registered face templates
JP2017010322A (en) Authentication processing device and authentication processing method
JP2002274265A (en) Mirror adjusting device
JPWO2020079741A1 (en) Iris recognition device, iris recognition method, iris recognition program and recording medium
JP4426029B2 (en) Image collation method and apparatus
US12001533B2 (en) Method and system for authenticating an occupant within an interior of a vehicle
JP2008015871A (en) Authentication device and authenticating method
CN114821694A (en) Material spectrometry
KR102316587B1 (en) Method for biometric recognition from irises
JP2001222716A (en) Personal identification method and personal identification system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071128

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101029

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101109

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110125

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110126

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140204

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4675492

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees