JP4675492B2 - Personal authentication device using facial images - Google Patents
Personal authentication device using facial images Download PDFInfo
- Publication number
- JP4675492B2 JP4675492B2 JP2001083728A JP2001083728A JP4675492B2 JP 4675492 B2 JP4675492 B2 JP 4675492B2 JP 2001083728 A JP2001083728 A JP 2001083728A JP 2001083728 A JP2001083728 A JP 2001083728A JP 4675492 B2 JP4675492 B2 JP 4675492B2
- Authority
- JP
- Japan
- Prior art keywords
- face
- image
- user
- database
- driver
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Collating Specific Patterns (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、ヒューマン・インターフェース一般に関連し、より具体的には、画像認識を利用した個人認証システムに関する。
【0002】
【従来の技術】
個々の人間を識別する個人認証システムは、セキュリティを必要とする様々な場面に利用することができる。そのような個人認証システムで用いられる認識手法の1つに、人間の顔画像から個人を識別する顔認識を利用する手法がある。
【0003】
人間の顔画像を利用する顔認識では、顔にマーキングを付けたり、手動による特徴抽出を行ってから顔認識を実行する手法などが提案されてきたが、近年、完全に非接触な全自動の顔認識手法が提案されている。そのような完全に非接触な全自動の顔認識手法の多くは、テンプレート・マッチングなどによる特徴抽出の後で顔画像を正規化し、その正規化画像を顔データベースと照合する。顔データベースとの照合に使用することができるアルゴリズムには、正規化相互相関、固有空間法、ニューラル・ネットワーク(NN)などがあり、そのようなアルゴリズムの結果に基づいて個人認証がなされる。
【0004】
従来技術の顔認識手法は、あらかじめ記憶された顔データ(顔画像、顔テンプレートなど)に基づいて照合を実行するので、その記憶された顔データとは異なる顔の位置、向き、傾きなどの変化に非常に弱い欠点がある。例えば、顔認識で使用される顔データベースに記憶された顔データが正面を向いた顔のテンプレートである場合、その顔テンプレートとは異なる状態の顔画像(例えば斜めを向いた顔画像)を正確に認識することは困難である。そのため、従来技術の顔認識システムは、異なる状態の顔画像に対処するために認識処理前に顔画像の正規化処理を実行するのが一般的である。
【0005】
この正規化処理を実行した場合、入力画像の顔が所定の顔データ形式(所定の顔のサイズ、顔の位置、顔の傾き、および画像の明度)にされるので、顔の認識率は向上するが、従来技術の顔認識は、基本的に入力画像中の人間の顔向き自体を検出する機能を備えていないので、横向きの顔画像の場合、認識率の低下は避けられない。したがって、従来技術の顔認識を実行する場合、対象となるユーザは、カメラに対して常に所定の方向を向くよう意識しなければならず、ユーザの負担を増加させていた。
【0006】
入力画像から人間の顔の向きを検出する従来技術としては、特開平11−63927号公報、特開2000−113186号公報などがある。さらに松本ほかによる「顔・視線計測システムの開発と動作認識への応用」(第5回ロボティクス・シンポジア、2000/3/26、27)の論文では、入力画像から人間の顔向きだけでなく視線方向も検出し、入力画像からリアルタイムに顔向きと視線方向を追従するシステムが開示されている。
【0007】
【発明が解決しようとする課題】
しかしながら、これらの従来の手法は、いずれも人間の顔向きまたは視線方向を検出するもので、個々の人間を識別する顔認識は実現されていない。
【0008】
したがって、本発明は、対象となるユーザの顔の向きを自動的に検出し、その顔の向きに応じた顔認識を実行して個人認証を行う個人認証装置を提供することを目的とする。
【0009】
【課題を解決するための手段】
上記課題を解決するため、この発明の認証装置は、ユーザを撮影する1つまたは複数のカメラと、前記ユーザの顔を照射するよう設置された照明手段と、前記カメラの画像出力から前記ユーザの顔の向きを検出する検出手段と、前記検出された顔向きに応じて、前記画像出力の顔画像を正面と正面以外の顔画像に選別する手段と、前記ユーザを正面から撮影した照合用顔画像のデータベースと、前記選別手段により選別された前記正面を向いた顔画像を前記照合用顔画像のデータベースの顔画像と照合し、前記ユーザを識別する識別手段と、を備えるという構成をとる。
【0010】
この発明によると、カメラにより撮影されたユーザの顔画像から正面を向いた顔画像だけを選択して照合することが可能になる。これにより従来技術の個人認証装置と比較して高精度に個々の人間を識別することができる。
【0011】
この発明の1つの形態によると、前記認証装置は、前記検出されたユーザの顔画像を、前記照合用顔画像のデータベースに記憶されている顔画像と同じサイズおよび位置の顔画像に調整する正規化手段を備え、前記識別手段は、該正規化された画像を該照合用顔画像のデータベースの顔画像と照合し、該ユーザを識別するよう構成される。
【0012】
この形態によると、顔画像を顔の位置およびサイズに応じて正規化することが可能であり、カメラにより撮影された顔画像が、照合用顔画像のデータベースに記憶されている顔画像と同じサイズおよび位置にされるので、個人認証装置の認識精度を高めることができる。
【0013】
この発明の1つの形態によると、前記認証装置は、前記正規化手段により正規化された画像から予め定めた画像領域を抽出する抽出手段と、該予め定めた画像領域の基準データを格納する成否判断データベースと、該抽出された画像領域を該基準データと照合し、該正規化手段による正規化の成否を判定する成否判定手段と、を備えるよう構成される。
【0014】
この形態によると、正規化手段によって正規化画像が正しく正規化されているかどうかを確認することができる。したがって、個人認証装置に含まれる識別手段のエラーを低減することが可能になり、安定に動作する個人認証装置を提供することができる。
【0015】
この発明の1つの形態によると、前記認証装置は、前記ユーザを複数の顔向きのそれぞれから撮影した顔向き別の照合用顔画像のデータベースを備え、前記識別手段は、該ユーザの検出された顔向きに応じた前記顔向き別の照合用顔画像と該ユーザの横向きの顔画像とを照合し、該ユーザを識別するよう構成される。
【0016】
この形態によると、カメラにより撮影された顔画像の顔向きに応じて、個人認証することが可能になる。したがって、ユーザが顔向きを意識することなしに個人認証を実行する個人認証装置を提供することが可能になる。
【0017】
この発明の1つの形態によると、前記個人認証装置の前記顔向き検出手段は、予め定めた1つまたは複数の顔の特徴部分の基準画像および該基準画像に対応する3次元座標を格納している特徴点データベースを含み、該3次元座標が顔の特徴部分にそれぞれ関連付けられ、該特徴部分の基準画像をテンプレートにして前記カメラの画像出力から該特徴部分の基準画像に対応する画像領域を抽出する抽出手段と、該抽出された画像領域に基づいて、該抽出された画像領域の3次元座標を求める手段と、該求められた画像領域の3次元座標と該基準画像に対応する3次元座標から前記ユーザの顔の向きを検出する手段と、を含むよう構成される。
【0018】
この形態によると、顔向き検出手段は、3次元的にユーザの顔向きを検出することが可能になり、これにより、個人認証装置は、3次元的な顔向きに基づいてユーザの顔画像の正規化と識別を処理することができる。
【0019】
この発明の1つの形態によると、前記個人認証装置の前記照明手段は、前記ユーザの顔を赤外光で照射するよう構成される。
【0020】
この形態によると、赤外光を照明として使用することにより、可視光を使用して得られる画像と比較して、ユーザの周囲の照明変動に対して影響の少ない画像が得られ、さらにユーザの瞳孔を明瞭に抽出することが可能になる。
【0021】
この発明の1つの形態によると、前記認証装置の前記識別手段は、前記画像出力からの顔画像に対応する顔画像が前記照合用顔画像のデータベースに存在するか否かを判断する手段を含み、前記画像出力からの顔画像に対応する顔画像が前記照合用データベースに存在することに応答して、前記ユーザを登録済みユーザと判断し、前記画像出力からの顔画像に対応する顔画像が前記照合用データベースに存在しないことに応答して、前記ユーザを未登録ユーザと判断するよう構成される。
【0022】
この形態によると、ユーザがデータベースに登録済みか未登録かが判断され、そのユーザの属性に応じてそれぞれ異なる処理を実行することが可能になる。
【0023】
この発明の1つの形態によると、前記認証装置は、前記登録済みユーザそれぞれに関連付けられた複数の環境設定データを記憶する環境設定データベースと、前記環境設定データに応じて自動車の環境を設定する環境設定手段と、を含み、前記ユーザが登録済みユーザと判断されたときに、自動車の運転を許可し、前記環境設定データベースから前記登録済みユーザに関する環境設定データを読み取り、該登録済みユーザに関する環境設定データに応じて自動車の環境を設定するよう構成される。
【0024】
この形態によると、ユーザが登録済みユーザである場合に、各ミラーの角度、シート・ポジションなどの環境設定を個々のユーザに応じて自動的に調整することが可能になる。
【0025】
この発明の1つの形態によると、前記認証装置は、ユーザの身分を証明する身分証明手段を認証する認証手段を含み、前記ユーザが未登録ユーザと判断されたときに、前記身分証明手段の提示を前記ユーザに要求し、前記認証手段で該身分証明手段が認証されることに応答して該ユーザに自動車の使用許可を与え、前記ユーザにより前記身分証明手段が提示されなかったことおよび前記認証手段で該身分証明手段が認証されなかったことに応答して該ユーザによる自動車の使用を禁止するよう構成される。
【0026】
この形態によると、鍵、カード鍵、パスワードなどの身分証明手段によって未登録ユーザを管理することが可能になる。本発明の個人認証装置は、これらの身分証明手段がユーザによって正しく提示されなければ、自動車の使用を禁止することができる。
【0027】
【発明の実施の形態】
次に本発明の実施例を図面を参照して説明する。図1は、本発明による個人認証装置を備えた自動車の1つの実施形態を示す。図1の自動車は、画像入力部1、サイドミラー2、ルームミラー3、制御装置5、赤外線照射部6を備える。この実施形態では、運転席にいるドライバーの顔画像が画像入力部1により撮影され、その撮影された画像から運転席にいるドライバーが認識される。認識されたドライバーがその自動車のデータベースに予め登録された人物であれば、制御装置5は、その人物に応じた環境設定(ミラーの角度、ドライビング・シートのポジションなど)を参照して、アクチュエータにそれぞれ連結されたサイドミラー2、ルームミラー3などを調整する。
【0028】
図2は、本実施例における個人認証システムを備えた自動車の機能ブロック図を示す。この機能ブロック図には、画像入力部1、赤外線照射部6、顔向き・視線検出部11、顔特徴抽出部13、個人識別部15、環境設定部17、データベース19、サイドミラー・アクチュエータ21、バックミラー・アクチュエータ23、シート・アクチュエータ25が含まれる。
【0029】
個々のドライバーの情報は、データベース19に予め登録されている。登録されているドライバー情報は、個々のドライバーの顔のデータ、個々のドライバーに対応する環境設定情報などである。顔のデータは、画像入力部1で撮影された入力画像との照合のために個人識別部15によって使用される。環境設定情報には、個々のドライバー応じた各ミラーの角度、シート・ポジションなどの設定値が含まれる。本発明による個人認証システムによって運転席にいるドライバーが特定された場合、環境設定部17は、その登録された設定値を参照して、個々のドライバーのためにサイドミラー・アクチュエータ21、バックミラー・アクチュエータ23、シート・アクチュエータ25を制御する。
【0030】
この実施形態における自動車は、図2に示す各機能ブロックを使用して2種類の動作モードを処理する。第1の動作モードは、顔向き・視線検出部11が実行する顔向き・視線検出モードであり、このモードは、ドライバーの存在を検出して顔向きと視線方向の状態を連続的に検出する。第2の動作モードは、個人認証モードであり、このモードは、顔向き・視線検出モードで検出されたドライバーを特定して、そのドライバーに合わせた環境設定を実行する。
【0031】
図1に示す自動車は、通常、顔向き・視線検出モードで動作しており、ドライバーが運転席にいるかどうかを監視し、ドライバーが運転席にいる場合、ドライバーの顔向きと視線方向を常に監視している。自動車は、監視された顔向きと視線方向に基づいてドライバーの状態を判断し、それに応じた処理を実行することができる。
【0032】
個人認証モードは、ドライバーが車内に乗り込むのと同時に開始される。個人認証モードが起動された場合、自動車は、顔向き・視線検出モードで得られた顔向きに基づいて顔認識を実行し、運転席にいるドライバーを特定する。ドライバーが特定された場合には、そのドライバーに合わせた環境設定(ミラーの角度、シート位置の調整)が実行される。顔認識でドライバーが特定されなかった場合には、運転席にいる人間がデータベース19に未登録のドライバーである可能性が大きいので、未登録者に応じたシーケンスが処理される。
【0033】
どちらの動作モードも画像入力部1で撮影された画像を使用する。以下に図を参照して、本実施例で使用される画像入力部1と赤外照射部6を説明する。
【0034】
本実施例では、車内の照明変動による画像の劣化を低減するために、赤外線照射部6を使用する。したがって、赤外線照射部6は、近赤外光をドライバーの顔に照射するようドライバーの前面に設置される。
【0035】
近赤外光を照明として使用する第1の理由は、照明変動に対するロバスト性を向上させることにある。一般に自動車などの車内の明るさは、屋内外、または日中や夜間などの環境変化によって大きく変動する。また、一方向から強い可視光がドライバーの顔に当たる場合には、ドライバーの顔面上に陰影のグラデーションが発生する。このような照明の変動や陰影のグラデーションは、画像認識の精度を著しく悪化させる。したがって、本実施例では、ドライバーの正面から赤外線照射部6により近赤外光を照射して、その近赤外光で画像を撮影することによって、周囲からの可視光による顔面上の陰影のグラデーションを低減する。これにより、本実施例は、可視光を使用して得られる画像と比較して照明変化による影響を受けにくい利点があり、顔認識の精度を向上させることができる。
【0036】
近赤外光を使用する第2の理由は、ドライバーの瞳孔を明瞭に抽出することが可能な点にある。ドライバーの瞳の位置は、視線方向を検出するために使用されので、瞳を明瞭に撮像することは重要である。また、ドライバー識別の際の正規化処理において、瞳は基準座標として用いることができるので、瞳を明瞭に撮像することは、正規化精度の向上、すなわち認識精度の向上につながる。
【0037】
図3は、画像入力部1の実施例を示す。この実施例では、撮影対象を立体視するために、従来技術のステレオ法を利用する。したがって、画像入力部1は、ドライバーの前方に設置された2台のビデオカメラ(41、42)を備える。2台のビデオカメラは、ステレオ視でドライバーの顔を撮影することができるよう所定の位置に固定される。前述したように照明として近赤外光を使用するので、これらのビデオカメラは、近赤外光以外の波長の可視光を遮断する可視光遮断フィルタ43などで波長帯域をそれぞれ制限される。各ビデオカメラは、カメラ・コントロール・ユニット(45、46)を介してそれぞれ制御される。各カメラ・コントロール・ユニットは、外部同期信号線を通じて接続され、この同期信号によって左右のビデオカメラの同期がとられる。本発明の個人認証システムは、この様にして撮影された画像を入力画像として使用することによって、2次元的な物体認識だけでなく、3次元的な物体認識を処理することができる。
【0038】
図3に示すように、画像入力部1で撮影された画像は、従来の画像処理ボード47を介して様々に処理されてもよい。例えば、図3の画像処理ボード47は、NTSC方式のビデオ信号の入力ポートとして機能するだけでなく、画像を蓄積するメモリおよび複雑な画像処理を実行するハードウェア回路を備え、一般的な画像処理アルゴリズムを高速に実行することができる。例えばハードウェア回路による画像処理アルゴリズムには、斜方投影機構、ハフ変換、2値画像マッチングフィルタ、アフィン変換(画像の回転、拡大、縮小)などの処理が含まれる。この様な画像処理ボード47の使用は、画像処理ボード47が画像処理の一部を担うことによってECUの演算を緩和し、高速な画像処理を可能にする。本発明の個人認証システムは、ECUにより画像処理ボード47を制御して画像入力部1により撮影された画像の処理を行い、図2に示す各機能ブロックの機能を実現する。
【0039】
以下に各動作モードの処理を詳細に説明する。
【0040】
図2に示すように顔向き・視線検出部11は、初期探索部27、顔向き検出部29、視線検出部31を含み、顔向き・視線検出モードを実行する。この顔向き・視線検出部11は、図4と図5は、顔向き・視線検出部11が処理する顔向き・視線検出モードの全体的なフロー図を示す。顔向き・視線検出モードでは、初期探索部27、顔向き検出部29、視線検出部31がそれぞれ関連して動作し、連続的に撮影される左右の入力画像から顔向きと視線方向をリアルタイムで検出することができる。
【0041】
図4は、初期探索部27の処理のフロー図を示す。顔向き検出部29の処理は、図5のステップ111からステップ117で示され、視線検出部31の処理は、図5のステップ121からステップ125で示される。顔向き・視線検出モードにおける顔向きと視線方向のリアルタイム検出は、図5に示すステップ111からステップ125のループ処理により実現される。図4に示す初期探索部27は、顔向き・視線検出モードの開始直後の最初の初期化とリアルタイムでの顔向き・視線方向検出のエラー回復のために使用される。
【0042】
図4を参照して初期探索部27の処理を説明する。初期探索部27は、入力された画像から人間の顔が撮影されている画像領域をおおまかに探索する。ここでの処理は、顔向き検出部29のための前処理ともいえる。初期探索部27が、顔向き検出部29の処理の前に、入力画像から顔が撮影されている領域をおおまかに探索することにより、顔向き検出部29は、入力画像中の顔の詳細な解析を高速に実行することができる。
【0043】
最初に、ステップ101で画像入力部1から左右のビデオカメラの画像が入力される。次にステップ103で、入力画像全体から人間の顔が撮影されている領域がおおまかに探索される。これは、予め記憶された初期探索用テンプレート51を使用して2次元テンプレート・マッチングで実行される。
【0044】
初期探索用テンプレート51の例を図6に示す。初期探索用テンプレート59に使用される画像は、正面を向いた人間の顔を部分的に切り取った画像であり、この部分的画像には目、鼻、口などの人間の顔の特徴的な領域が1つのテンプレートとして含まれている。この初期探索用テンプレート51は、テンプレート・マッチングでの処理速度を高めるために、予め低解像度化されており、さらに照明変動の影響を低減するために微分画像にされている。このテンプレートは、複数のサンプルから作成され予め記憶されている。
【0045】
ステップ103での探索は、2次元的なテンプレート・マッチングであるので、右ビデオカメラの画像かまたは左ビデオカメラの画像のどちらかが使用される。以下では、右ビデオカメラの画像を使用したテンプレート・マッチングの例を述べる。
【0046】
右ビデオカメラの画像を使用したテンプレート・マッチングの場合、右画像に対して初期探索用テンプレート51を使用したテンプレート・マッチングが実行され、ここでマッチした右画像内の領域が入力画像中の顔の候補となる。この顔候補をテンプレートとして、同様のテンプレート・マッチングが左画像に対して実行され、そのステレオ・マッチングの結果から顔候補の3次元的な位置が求められる(ステップ105)。
【0047】
ステップ107において、これらの処理結果が評価され、入力画像から顔領域が検出されたかどうか判断がなされる。入力画像から顔領域が見つかったと判断された場合、顔向き検出部29の処理に移る(ステップ109)。初期探索部27で顔領域が見つからなかった場合、新しい入力画像を使用して一連の処理が繰り返される。初期探索部27は、人間の顔が画像入力部1によって撮影されるまで、この一連の処理を繰り返す。
【0048】
次に図5を参照して顔向き検出部29と視線検出部31の処理を説明する。先に述べたように、顔向き・視線検出モードは、ドライバーの顔向き、視線方向をリアルタイムで検出するために、図5に示すステップ111からステップ125のループを繰り返す。顔向き検出部29は、予め定めた特徴点を入力画像から抽出し、それらの特徴点から顔の3次元位置と顔の向きを求めることができる。視線検出部31は、顔向き検出部29で得られた特徴点と顔向きに基づき、入力画像から顔の視線方向を検出する。
【0049】
顔向き検出部29は、ステップ111で、入力画像からテンプレート・マッチングにより顔の特徴点を探索する。この探索に使用されるテンプレートは、データベースに予め記憶された3次元顔特徴点モデル53からの画像を使用する。図7に3次元顔特徴点モデル53の例を示す。
【0050】
本実施例における3次元顔特徴点モデル53は、正面を向いた人間の顔の特徴的な部分を画像から局所的に切り取った部分的画像(81〜91)から生成される。例えば顔特徴点の画像は、図7に示すように、左の目尻81、左の目頭83、右の目尻87、右の目頭85、口の左端89、口の右端91などのように、予め用意された顔画像から局所的に切り取られて生成される。これらの部分的画像のそれぞれは、その画像内で撮影されている対象物(この例では、左右の目尻と目頭、口の両端)の3次元位置を表す3次元座標に関連付けられ、データベースに記憶されている。本明細書では、これらの3次元座標を有した顔特徴領域の部分的画像を顔特徴点と呼び、これらの複数の顔特徴点から生成される顔モデルを3次元顔特徴点モデル53と呼ぶ。これらの3次元顔特徴点モデル53は、複数のサンプルから生成されデータベースに予め記憶されている。
【0051】
ステップ111で、顔向き検出部29は、3次元顔特徴点モデル53に対応する画像領域を入力画像から探索する。これは、3次元顔特徴点モデル53の各特徴点の画像をテンプレートとし、入力画像に対して2次元マッチングを行うことにより実行される。このマッチングは、右ビデオカメラの画像と左ビデオカメラの画像のどちらを使用しても構わないが、本実施例では、右ビデオカメラの画像を使用する。ステップ111の探索の結果、入力画像で撮影されている顔の左右の目頭と目尻、口の両端の6個の画像が得られる。
【0052】
ステップ113では、ステップ111の探索から得られた各特徴点の画像をテンプレートとして、入力画像の左画像に対してステレオ・マッチングが実行される。これにより、3次元顔特徴点モデル53の各特徴点に対応する入力画像の各特徴点の3次元座標が求められる。
【0053】
この実施例の場合、探索された入力画像中の顔の左右の目尻と目頭、口の両端の画像をテンプレートにして、ステレオ・マッチングが実行される。このステレオ・マッチングの結果、ドライバーの顔の左右の目尻と目頭、口の両端の3次元座標がそれぞれ得られる。したがって、これらの入力画像の特徴点の3次元座標から運転席にいるドライバーの顔の3次元位置を求めることができる。
【0054】
入力画像の各特徴点に関する3次元座標が求められた後で、ステップ115で予め定めた判断基準に基づいて特徴点の抽出が成功したかどうかがチェックされる。このステップ115で、もし入力画像から各特徴点が見つからなかったと判断された場合には、初期探索部27に戻り、新たな入力画像から顔が撮影されている領域を探索する。
【0055】
ステップ115で入力画像から各特徴点が見つかったと判断された場合、ステップ117で3次元顔特徴点モデル53を使用して3次元モデル・フィッティングが実行され、顔の向きが検出される。以下ではこの3次元モデル・フィッティングを説明する。
【0056】
先に述べたように、予め記憶されている3次元顔特徴点モデル53は、正面を向いた顔の特徴点から生成されている。それに対して入力画像で撮影されている顔は、必ずしも正面を向いているとは限らない。したがって、ステップ113で得られた入力画像の各特徴点(観測点)の3次元座標は、正面を向いた3次元顔特徴点モデル53の各特徴点の3次元座標から任意の角度と変位だけずれを有している。したがって、正面を向いた3次元顔特徴点モデル53を任意に回転、変位させたときに、入力画像の各特徴点と一致する角度と変位が入力画像中の顔の向きと位置に相当する。
【0057】
入力画像の各特徴点に3次元顔特徴点モデル53をフィッティングする場合、フィッティング誤差Eは、下記の式で表される。
【数1】
ここで、Nが特徴点の数であり、xiがモデル内の各特徴点の3次元座標であり、yiが入力画像からの各特徴点の3次元座標を表す。ωiは、各特徴点に関する重み付け係数であり、入力画像から特徴点の3次元位置を求めたときのステレオ・マッチングにおける相関値を利用する。この相関値を利用することによって、それぞれの特徴点の信頼度を考慮することができる。回転行列は、R(φ,θ,ψ)であり、位置ベクトルは、t(x,y,z)で表され、これらが、この式における変数となる。
【0058】
したがって、上記の式におけるフィッティング誤差Eを最小にする回転行列Rと位置ベクトルtを求めれば、入力画像の顔向きと顔位置が求められる。この演算は、最小二乗法または仮想バネモデルを使用したフィッティング手法などを利用することによって実行される。
【0059】
図7に示すステップ121から125で、視線検出部31は、顔向き検出部29で得られた特徴点と顔向きに基づき、入力画像から顔の視線方向を検出する。この際、眼球は、3次元的な球でモデル化され、その球の中心位置が回転中心とされる。この3次元眼モデルは、顔モデルに対する眼球の3次元的な相対位置、眼球の半径、虹彩の半径をパラメータとする。図8に視線方向を求める方法の概略を示す。
【0060】
ステップ121で、眼球の3次元的な中心位置61が、顔向き検出部29の検出結果に基づいて求められる。眼の中心位置61を求めるためのオフセット・ベクトルは、左右の目の両端の特徴点(55、57)を結ぶ直線の中点から眼の中心位置61に向かう3次元ベクトルとして予め定められている(図8の(1))。したがって、そのオフセット・ベクトル、眼球の半径、顔の位置、顔の向きを使用して眼球の中心位置61を求めることができる(図8の(2))。
【0061】
眼球上の瞳の中心位置59は、既に目の両端の位置(55、57)が入力画像の特徴点として求められているので、その両端の領域でハフ変換を実行することにより容易に得られる(ステップ123)。視線方向は、眼球の中心位置61と瞳の中心位置59とを結ぶ3次元ベクトル(視線ベクトル)として求められる(ステップ125)。
【0062】
本実施例では、入力画像として左右の画像を使用したので、右画像、左画像それぞれに対して視線ベクトルを求めることができる。さらに、両眼に関して視線ベクトルを求めることができるので、合計4つの視線ベクトルが求められる。本実施例では、この4つの視線ベクトルの平均ベクトルを入力画像の視線方向として使用する。
【0063】
ステップ125で、入力画像中の顔の視線方向が検出された後で、ステップ111に戻り、新たな入力画像を使用して一連の処理が繰り返される。この繰り返しの結果、ドライバーの顔向き、顔位置、視線方向の連続的な追従をリアルタイムで実行することが可能になる。
【0064】
次に個人認証モードに関して説明する。個人認証モードは、顔向き・視線検出モードで検出されたドライバーの顔を、データベースに登録された顔データと照合してドライバーを特定する。ドライバーが特定された場合、個人認証モードは、そのドライバーに応じた環境設定(ミラーの角度、シート位置など)を実行する。図2の機能ブロック図に示すように、個人認証モードは、入力画像の特徴を抽出する顔特徴抽出部13と、顔特徴抽出部13の処理結果に基づいてドライバーを比較照合する個人識別部15と、個人識別部15の結果に応じて環境設定を処理する環境設定部17を使用して実行される。顔向き・視線検出モードの場合、左右両方の画像を使用して処理を実行したが、個人認証モードの場合、左右の画像のどちらか1つを使用して処理が実行される。
【0065】
顔特徴抽出部13は、正面顔特徴抽出部33、横顔特徴抽出部35を含み、入力画像におけるドライバー10の顔の向きに応じた処理を実行する。画像入力部1からの入力画像に撮影されているドライバー10の顔向きが顔向き・視線検出部11により既に検出されているので、顔特徴抽出部13は、入力画像中の顔の向きに応じた処理を実行することができる。以下に顔特徴抽出部13の処理の概要を説明する。
【0066】
顔特徴抽出部13の処理の1つは、顔向き・視線検出部11から入力された画像の正規化処理である。この正規化処理は、顔認識の精度を向上させるために入力画像中の顔を所定の顔データ形式(所定の顔のサイズ、顔の位置、顔の傾き、および画像の明度)に変換する。ここで、「顔の傾き」とは、顔画像の回転のことである。より具体的に説明すると、顔特徴抽出部13で入力される画像中の顔は、任意の顔向きをして傾いている。例えば、図9aに示すように、入力画像中の顔は、正面を向いているが画像中で傾いていたり、図9cに示すように横向きで傾いていたりする。正規化処理は、画像平面上で入力画像を回転することによって画像中の「顔の傾き」を補正する。例えば、図9aの場合では、画像中の顔の傾きは、x軸とy軸との交点を回転中心とし、その画像を角度αだけ回転することによって補正することができる(図9b)。図9cの場合でも同様にして、画像中の顔の傾きは、x軸とy軸との交点を回転中心とし、画像を角度αだけ回転することにより補正することができる。本明細書では、画像平面上の回転により補正される顔の角度を「顔の傾き」として参照する。したがって、本明細書では、図9cのように顔が上を向いている場合でも「横向き」として参照され、また顔が下を向いているような場合も同様に「横向き」として参照される。
【0067】
顔特徴抽出部13のもう1つの処理は、顔画像中の顔向きの選別処理である。この選別処理では、入力画像は、顔の向きに応じて「正面向き」と「横向き」に選別される。この処理は、顔向き・視線検出部11によって検出された顔向きに基づいて選別される。本明細書では、正面とは、顔向き・視線検出モードで得られた顔向きがあらかじめ定めた範囲内にある場合を言う。そのような範囲は、正面顔認識で使用される顔認識手法の認識可能範囲に応じて定められる。したがって、あらかじめ定めた範囲以外の顔向きは、横向きであると判断される。
【0068】
さらに、顔特徴抽出部13は、個人識別部15のために入力画像の特徴抽出処理を実行する。ここで実行される特徴抽出処理は、正面顔認識または横顔認識で使用される顔認識手法に応じて様々である。例えば、顔認識手法に固有空間法を使用する場合では、この特徴抽出処理によって正規化済みの入力画像がベクトル化され、そのベクトルから入力画像の特徴を表す重みベクトルが算出される。ここで得られた重みベクトル(特徴成分)が個人識別部15に送られ、データベース19に記憶された顔データと比較照合され、個々のドライバーが特定される。
【0069】
図10は、個人認証モードの全体的なフローを示す。例えばドライバーが車内に乗り込むことにより個人認証モードが開始されると、ステップ301で、顔向き・視線検出モードでの検出結果が特徴抽出部13に入力される。ここで特徴抽出部13に入力されるデータは、画像入力部1によって撮影された画像と、その画像中のドライバーの顔向き、顔位置、視線方向のデータなどである。先に述べたように、入力画像は左右どちらの画像を使用してもよい。
【0070】
ステップ303で、特徴抽出部13は、顔向きに応じた分岐処理を実行する。本発明における個人認証システムは、それぞれの顔向きで異なる顔認識の手法を使用することができるので、高精度に顔認識を実行することができる。
【0071】
例えば、個人認証システムは、正面を向いた顔の場合には固有空間法を使用し、横を向いた顔の場合には3次元モデルのマッチングで顔認識をそれぞれ実行することができる。したがって、本発明によれば入力画像の顔向きに応じて最適な顔認識手法を選択することができる。
【0072】
個人認証システムで使用することができる顔認識手法は、固有空間法、テンプレート・マッチング、Gabor Waveletによる手法、NNなどである。本発明による個人認証システムは、ステップ301で顔向き、視線方向、顔特徴点などの情報を既に得ている。したがって、これらの基本情報と正規化処理とをうまく組み合わせて顔認識を実行すれば、いずれの顔認識手法を使用しても、精度良く個々のドライバーを識別することが可能である。
【0073】
ステップ303における顔向きの判断では、正面とは、顔向き・視線検出モードで得られた顔向きがあらかじめ定めた範囲内にある場合を言う。そのような範囲は、正面顔認識で使用される顔認識手法の認識可能範囲に応じて定められる。したがって、あらかじめ定めた範囲以外の顔向きは、横向きであると判断される。
【0074】
ステップ303で入力画像の顔向きが正面を向いていると判断された場合、正面顔特徴抽出部33は、正面に対する正規化処理と特徴抽出処理を実行する。入力画像の顔向きが横向きであると判断された場合、横顔特徴抽出部33が、その顔向きに応じた正規化処理と特徴抽出処理を実行する。ステップ303での判断に応じて、正規化処理、特徴抽出処理、比較照合の処理が分岐されるので、最初に正面に対する正規化処理、特徴抽出処理、比較照合に関して説明し、その後で横向きに対する正規化処理、特徴抽出処理、比較照合を説明する。
【0075】
ステップ305で、正面顔特徴抽出部33は、入力画像を所定の顔の形式(顔のサイズ、顔の位置、顔の傾き)に変換する。すなわち、予めデータベースに記憶された顔画像のサイズ、位置、傾きと同じになるよう、入力画像の顔のサイズ、位置、傾きを正規化する。さらに画像全体の明度も予め定めた値に整えられる。
【0076】
本実施例では、個人識別部15の顔認識手法は、固有空間法を使用する。ステップ305の正規化処理も画像平面上での1次変換として実行される。顔向き・視線検出モードにより求めた特徴点を使用すれば、入力画像における顔のサイズ、位置、傾きなどが容易に求められるので、この処理は、従来技術と比較して高精度に正規化を行うことができる。
【0077】
この正面に対する正規化処理の1つの実施形態では、左右の瞳の中心を結ぶ直線の中点を基準に、左右の瞳が水平かつ距離が一定値となるようアフィン変換が実行される。本発明による個人認証システムでは近赤外画像が使用されるので、瞳を明瞭に抽出することが可能であり、正規化を高精度に実行することができる。
【0078】
ステップ307で入力画像の正規化が正確に実行されたかどうかがチェックされる。これは、正規化画像からあらかじめ定めた領域を切り出し、予めデータベースに記憶されている成否判断用のテンプレートと照合することによって実行される。
【0079】
例えば、この成否判断を右眼のテンプレートを使用して実行する場合を説明する。この場合、成否判断用テンプレートは、所定の顔認識の形式(顔のサイズ、顔の位置、顔の傾き)の画像から右眼を中心として、一定の大きさで切り出され生成される。この成否判断用テンプレートは、十分な人数分のサンプルから作成され、典型的な眼のテンプレートとして使用される。作成された成否判断用テンプレートは、成否判断用のデータベースに予め記憶されている。
【0080】
ステップ305で入力画像が正確に正規化された場合、正規化画像中の眼は、常に所定の位置に所定の大きさで存在するはずである。したがって、成否判断用テンプレートに対応する領域を正規化画像から切り出して成否判断用テンプレートと照合すれば、正規化の成否を判断することができる。もし正規化が成功していれば、切り出した画像と成否判断用テンプレートとの相関値は高い値であり、正規化が失敗していれば、相関値は低い値を示す。したがって、予め判断基準となる相関値のしきい値を定めておくことにより、正規化の成否を判断することができる。ここでは、正規化の成否判断を簡単に説明するために右目だけで説明したが、複数の特徴的な領域を成否判断用テンプレートにし、これら複数の成否判断用テンプレートを使用することによって、より正確な正規化の成否判断を実行することができる。
【0081】
ステップ307で正面に対する顔向きの正規化が成功したと判断された場合、ステップ308で正面顔特徴抽出部33は、個人識別部15の比較照合のための特徴抽出処理を実行する。ステップ307で正面に対する顔向きの正規化が失敗したと判断された場合には、ステップ301に戻り、新たな入力画像を使用して一連の処理が再び繰り返される。
【0082】
先に述べたように、この実施例における正面に対する顔認識が固有空間法を使用するので、ステップ308の特徴抽出処理とステップ309の比較照合の処理も固有空間法に応じた態様で実施される。以下に固有空間法を使用するステップ308と309の処理の概要を説明する。
【0083】
認識対象とされる個々のドライバーの正面向きの顔画像は、データベースに予め記憶されている。固有空間法では、そのデータベースに登録された顔画像から固有ベクトルが生成される。個々のドライバーの顔を固有空間上で表す顔クラスは、データベース19に記憶された個々のドライバーの顔を固有空間に射影することにより生成される。固有空間法を使用した正面顔認識では、この顔クラスと正規化された画像の特徴が比較照合され、この結果から個々のドライバーが特定される。
【0084】
したがって、ステップ308で、正面顔特徴抽出部33は、正規化画像を固有顔空間に射影し、正規化画像の特徴を重みベクトルとして抽出する。より具体的に説明すると、最初に、正規化された入力画像が画像ベクトル化される。例えば、正規化された入力画像がn×nピクセルからなる画像であれば、その画像から個々のピクセル値を成分とするn2次元ベクトル(1行、N2列)が生成される。次に、この画像ベクトルが固有顔空間に射影され、重みベクトルが生成される。例えばM個の固有ベクトルがデータベース19に記憶されている場合、画像ベクトルがM次元の固有空間に射影され、M個のベクトル成分を有する重みベクトルが生成される。Mが画像ベクトルの次元数N2に対して十分小さければ、重みベクトルは、元の画像に撮影されている顔の特徴を有しながら元の画像ベクトルより小さな次元のベクトルになる。この様にして生成された重みベクトルは、個人識別部15に送られる。
【0085】
ステップ309で、個人識別部15は、正規化画像から得られた重みベクトルを個々のドライバーの顔クラスと比較照合する。この比較照合の1実施形態では、各ドライバーの顔クラスと重みベクトルとの固有顔空間上での距離がそれぞれ求められ、この求められた距離の大小に基づいて画像中のドライバーが判断される。
【0086】
次に、ステップ317で、個人識別部15は、正規化画像に対応する顔クラスが比較照合(ステップ309)により見つかったかどうかを判断する。正規化画像中の顔がデータベース19に登録されている人物の顔であれば、ステップ309の比較照合によってその人物に対応する顔クラスが見つかる。しかしながら、正規化画像中の顔がデータベース19に登録されていない人物の顔の場合、その人物に対応する顔クラスが見つからない。したがって、もし、比較照合で対応する顔クラスが見つからなければ、ステップ321に進み、未登録者用シーケンスを実行する。比較照合で対応する顔クラスが見つかった場合には、運転席にいるドライバーが決定され、ステップ319の登録者用シーケンスが処理される。登録者用シーケンスと未登録者用シーケンスは、後で詳細に説明する。
【0087】
この様な固有空間法による顔認識は、射影時の変換パラメータ(重み成分)の数に応じて演算量を低減することができるので、入力画像の画素数分の演算を必要とする正規化相関の手法と比較して、高速な処理を実現することができる。
【0088】
次に横向きに対する正規化処理と顔認識を説明する。図10に示すように、横向きに対する正規化処理と顔認識の処理のフローは、基本的には正面に対する処理(ステップ305から309)と同様のフローである。しかしながら、ステップ303で顔向きに応じて分岐処理が実行されるので、横向きの顔に対して実行される正規化処理と顔認識自体は、正面顔に対する処理とは異なる手法を用いることもできる。
【0089】
横向きに対する顔認識の実施形態には、大きく分けて2種類の実施形態を使用することができ、それに応じて正規化処理も異なる。第1の実施形態は、個々のドライバーの顔向き別画像からデータベースを予め作成しておき、検出された顔向きに応じてそれらの顔向き別データベースを使用し、顔認識を実行する実施形態である。この場合、正規化処理は、入力画像から検出された顔向きに応じて実行される。
【0090】
例えば、図9dに示すように、正規化処理における顔の位置決めの基準点(すなわち図中のx軸とy軸の交点)は、顔向きに応じて様々である。したがって、横向きの入力画像を正規化する場合、画像中の顔向きに応じて、顔の位置決めの基準点を変えなければならない。このため、横顔特徴抽出部35は、顔向き・視線検出部11で検出された顔向きに応じて正規化処理を実行する。この場合、正規化の成否判断も、顔向きに応じて異なるテンプレートを使用して実行される。これらの正規化処理および正規化の成否判断は、顔向き別に処理されることを除いて、正面に対する顔画像と同様の処理で実行される。横向きに対する比較照合では、顔向き別に撮影された顔画像の顔向き別データベースに基づいて、比較照合が実行される。
【0091】
横向きに対する顔認識のもう1つの実施形態では、入力画像から3次元顔モデルが生成され、その3次元顔モデルを使用して正規化処理が実行される。この場合、入力画像から予め定めた特徴点が抽出され、その特徴点から入力画像の3次元顔モデルが生成される。ここで生成された3次元顔モデルは、入力画像が撮影されたときの顔向きで生成された顔モデルである。したがって、顔向き・視線検出部11により得られた顔向きに応じてこの顔モデルを回転すれば、正面を向いた入力画像の顔モデルが得られる。この実施形態では、入力画像からの3次元顔モデルの生成とそのモデルの回転処理が、ステップ311の正規化処理に相当する。回転後の正規化画像は、正面を向いた顔画像と同様に処理することができるので、正規化処理の成否判断は、正面を向いた顔の正規化処理の成否判断と同様に処理される。この実施形態における顔認識は、従来技術の正面を向いた顔認識手法(例えば固有空間法)を利用して実現することができる。
【0092】
横向きに対する比較照合が実行された後のステップ317で、個人識別部15は、対応する顔クラスが比較照合により見つかったかどうかを判断する。ステップ319またはステップ321は、ステップ317の判断に応じて処理される。
【0093】
次に、ステップ319の登録者用シーケンスの実施例を説明する。図11は、登録者用シーケンスの処理のフロー図を示す。先に述べたようにステップ317において運転席にいるドライバーが決定された場合、個人識別部15は、ステップ323で、運転席にいるドライバーに自動車の運転許可を与える。この許可により自動車がドライバーにより操作可能になる。ステップ325で、個人識別部15は、決定されたドライバーに対応する環境設定データをデータベース19から読み取り、そのデータを環境設定部17に送る。ステップ327で、環境設定部17は、その環境設定データに応じて、各アクチュエータを制御してミラーの角度、シート位置を設定する。
【0094】
図12は、未登録者用シーケンスの実施例の処理のフロー図を示す。先に述べたようにステップ317において運転席のドライバーの顔がデータベースに記憶されていない未登録者の顔であれば、個人識別部15は、ドライバーに対して管理者による自動車の使用許可を要求する。ここで管理者とは、例えば、その自動車の所有者、その自動車の管理責任者など、その自動車の使用に対して責任を有する人間である。管理者は、自動車に対して身分を証明する任意の手段を有する。例えば、そのような身分証明手段は、鍵、カード鍵、パスワードなどのセキュリティを確保することが可能な手段である。未登録のドライバーが本発明による自動車を運転しようとする場合、自動車により管理者の使用許可証明が要求される。その場合、未登録のドライバーまたは管理者は、身分証明手段により使用許可を自動車に証明しなければならない。身分証明手段が自動車に提示されなければ、個人識別部15は、ステップ335で未登録ドライバーが管理者によって自動車の使用を許可されていないと判断し、ドライバーによる自動車の操作を禁止する。身分証明手段が自動車に提示された場合、個人識別部15は、未登録のドライバーが新規に登録を希望するドライバーであるかどうかを判断する。したがって、運転席にいる人間が新規に登録を希望するドライバーである場合、ステップ341で任意の手段を介してドライバーの新規登録を実行する。運転席にいる人間が新規登録を希望していなければ、単に一時的に管理者から自動車の使用許可を受けたドライバーであるので、ステップ339で一時的なドライバーとしての制約つきで自動車の操作を許可する。
【0095】
上記の実施例では、本発明による個人認証装置を備えた自動車の例を説明してきたが、本発明は、自動車での個人認証に限定されるものではなく、他の分野にも応用することが可能である。
【0096】
図13は、本発明の個人認証装置のコンピュータへの応用例である。図13では、画像入力部1が画像処理ボード47を介しコンピュータ401に接続されて個人認証装置を構成している。コンピュータ401は、モニタ402、キーボード403、マウス404などのユーザインターフェースを接続した汎用コンピュータである。例えばコンピュータは、「Linux」として知られるOSを使用して動作する。この例では、あるユーザがこのコンピュータ401を使用する場合、コンピュータ401に接続された画像入力部1が自動的にそのユーザの顔画像を撮影し、それらの画像から個人認証を実行する。個人認証が成功した場合にだけ、このコンピュータ401の使用が許可され、そのユーザがコンピュータ401を使用することが可能になる。このような個人認証は、先に述べた顔向き・視線検出部11、特徴抽出部13、個人識別部15などの機能ブロックをコンピュータ401で実行することによって実現することが可能である。
【0097】
この様に本発明は、上記の実施例だけに限定されるものではなく、多くの分野に応用することが可能である。
【0098】
【発明の効果】
この発明によると、個人認証装置がユーザの顔向きを検出する機能を含むので、その顔向きに応じた顔認識を実行することができ、従来技術の顔認識と比較して個人認証の精度を改善することが可能である。
【図面の簡単な説明】
【図1】 本発明による個人認証装置を備えた自動車の1つの実施形態。
【図2】 本実施例における個人認証システムを備えた自動車の機能ブロック図。
【図3】 画像入力部の実施例を示す図。
【図4】 初期探索部の処理のフロー図。
【図5】 顔向き検出部と視線検出部の処理のフロー図。
【図6】 初期探索用テンプレートの例を示す図。
【図7】 3次元顔特徴点モデルの例を示す図。
【図8】 視線方向を求める方法の概略図。
【図9】 正規化により顔の傾きを補正する例を示す図。
【図10】 個人認証モードの全体的なフロー図。
【図11】 登録者用シーケンスの処理のフロー図。
【図12】 未登録者用シーケンスの処理のフロー図。
【図13】 本実施例における個人認証システムを備えるコンピュータを示す図。
【符号の説明】
1 画像入力部
6 赤外線照射部
10 ユーザ
11 顔向き・視線検出部
13 特徴抽出部
15 個人識別部
17 環境設定部
19 データベース[0001]
BACKGROUND OF THE INVENTION
The present invention relates generally to human interfaces, and more specifically to a personal authentication system using image recognition.
[0002]
[Prior art]
A personal authentication system for identifying an individual person can be used in various situations that require security. One of the recognition methods used in such a personal authentication system is a method using face recognition for identifying an individual from a human face image.
[0003]
In face recognition using human face images, methods such as marking a face or performing face recognition after manually extracting features have been proposed. Face recognition techniques have been proposed. Many of such completely non-contact fully automatic face recognition methods normalize a face image after feature extraction by template matching or the like, and collate the normalized image with a face database. Algorithms that can be used for matching with the face database include normalized cross correlation, eigenspace method, neural network (NN), and the like, and personal authentication is performed based on the results of such an algorithm.
[0004]
Since the face recognition method of the prior art performs collation based on pre-stored face data (face image, face template, etc.), changes in face position, orientation, inclination, etc. that are different from the stored face data Has a very weak drawback. For example, when the face data stored in the face database used for face recognition is a face template facing forward, a face image in a state different from the face template (for example, a face image facing diagonally) is accurately obtained. It is difficult to recognize. For this reason, the face recognition system of the prior art generally executes a normalization process of the face image before the recognition process in order to deal with face images in different states.
[0005]
When this normalization processing is executed, the face recognition rate is improved because the face of the input image is in a predetermined face data format (predetermined face size, face position, face tilt, and image brightness). However, the face recognition of the prior art basically does not have a function of detecting the human face orientation itself in the input image. Therefore, in the case of a lateral face image, a reduction in the recognition rate is inevitable. Therefore, when performing the conventional face recognition, the target user has to be aware that the camera always faces a predetermined direction with respect to the camera, increasing the burden on the user.
[0006]
As conventional techniques for detecting the orientation of a human face from an input image, there are JP-A Nos. 11-63927 and 2000-113186. Furthermore, in the paper “Development of Face / Gaze Measurement System and Application to Motion Recognition” by Matsumoto et al. (5th Robotics Symposia, 2000/3/26, 27), not only the human face direction but also the gaze from the input image. A system that detects the direction and tracks the face direction and the line-of-sight direction in real time from an input image is disclosed.
[0007]
[Problems to be solved by the invention]
However, any of these conventional methods detects a human face direction or line-of-sight direction, and face recognition for identifying individual persons has not been realized.
[0008]
Therefore, an object of the present invention is to provide a personal authentication device that automatically detects the orientation of a target user's face and executes face recognition according to the face orientation to perform personal authentication.
[0009]
[Means for Solving the Problems]
In order to solve the above-described problem, an authentication apparatus according to the present invention includes one or more cameras that photograph a user, illumination means installed to illuminate the user's face, and image output from the camera based on the user's image output. Detecting means for detecting the orientation of the face; means for selecting the face image of the image output as a face image other than the front and the front according to the detected face orientation; and a collation face obtained by photographing the user from the front The image database and the identification unit for identifying the user by comparing the front face image selected by the selection unit with the face image in the database of the comparison face image are provided.
[0010]
According to the present invention, it is possible to select and collate only the face image facing the front from the face image of the user photographed by the camera. As a result, it is possible to identify individual persons with higher accuracy than in the conventional personal authentication device.
[0011]
According to one form of this invention, the said authentication apparatus adjusts the detected user's face image to the face image of the same size and position as the face image memorize | stored in the database of the said face image for collation. And the identification unit is configured to collate the normalized image with a face image in the database of the collation face image and identify the user.
[0012]
According to this form, it is possible to normalize the face image according to the position and size of the face, and the face image taken by the camera is the same size as the face image stored in the database of the face image for verification And the position of the personal authentication device can be improved.
[0013]
According to one aspect of the present invention, the authentication device stores an extraction unit that extracts a predetermined image area from the image normalized by the normalization unit, and stores reference data for the predetermined image area. A determination database; and a success / failure determination unit that compares the extracted image region with the reference data and determines whether the normalization unit performs normalization.
[0014]
According to this embodiment, it can be confirmed whether or not the normalized image is correctly normalized by the normalizing means. Therefore, it is possible to reduce the error of the identification means included in the personal authentication device, and it is possible to provide a personal authentication device that operates stably.
[0015]
According to one form of this invention, the said authentication apparatus is equipped with the database of the face image for collation according to the face direction which image | photographed the said user from each of several face direction, The said identification means detected the said user The face image for collation according to the face direction corresponding to the face direction is collated with the face image of the user in the horizontal direction to identify the user.
[0016]
According to this aspect, personal authentication can be performed according to the face orientation of the face image taken by the camera. Therefore, it is possible to provide a personal authentication device that performs personal authentication without the user being aware of the face orientation.
[0017]
According to one aspect of the present invention, the face orientation detection means of the personal authentication device stores a predetermined reference image of one or a plurality of facial feature portions and three-dimensional coordinates corresponding to the reference image. A feature point database, wherein the three-dimensional coordinates are associated with feature portions of the face, and an image region corresponding to the reference image of the feature portion is extracted from the image output of the camera using the reference image of the feature portion as a template Extracting means for obtaining a three-dimensional coordinate of the extracted image area based on the extracted image area; a three-dimensional coordinate of the obtained image area and a three-dimensional coordinate corresponding to the reference image; And means for detecting the orientation of the user's face.
[0018]
According to this aspect, the face orientation detection unit can detect the face orientation of the user three-dimensionally, whereby the personal authentication device can detect the face image of the user based on the three-dimensional face orientation. Normalization and identification can be handled.
[0019]
According to one form of this invention, the said illumination means of the said personal authentication apparatus is comprised so that the said user's face may be irradiated with infrared light.
[0020]
According to this embodiment, by using infrared light as illumination, an image having less influence on illumination fluctuations around the user can be obtained as compared with an image obtained using visible light. The pupil can be extracted clearly.
[0021]
According to one form of this invention, the said identification means of the said authentication apparatus contains a means to determine whether the face image corresponding to the face image from the said image output exists in the database of the said face image for collation. In response to the presence of a face image corresponding to the face image from the image output in the database for collation, the user is determined to be a registered user, and the face image corresponding to the face image from the image output is In response to the absence of the verification database, the user is configured to be determined as an unregistered user.
[0022]
According to this form, it is determined whether the user has been registered in the database or not registered, and different processes can be executed according to the user's attributes.
[0023]
According to one aspect of the present invention, the authentication device includes an environment setting database that stores a plurality of environment setting data associated with each of the registered users, and an environment that sets an environment of a vehicle according to the environment setting data. Setting means, permitting driving of the vehicle when the user is determined to be a registered user, reading environment setting data relating to the registered user from the environment setting database, and setting an environment relating to the registered user It is configured to set the car environment according to the data.
[0024]
According to this embodiment, when the user is a registered user, it is possible to automatically adjust the environment settings such as the angle of each mirror and the sheet position according to each user.
[0025]
According to one form of this invention, the said authentication apparatus contains the authentication means which authenticates the identity verification means which proves a user's identity, and when the said user is judged as an unregistered user, the presentation of the said identity verification means The user is permitted to use the vehicle in response to the authentication means being authenticated by the authentication means, and the authentication means is not presented by the user and the authentication Means for prohibiting the user from using the vehicle in response to the identification means not being authenticated.
[0026]
According to this form, it becomes possible to manage unregistered users by means of identification means such as a key, a card key, and a password. The personal authentication device of the present invention can prohibit the use of the automobile unless these identification means are correctly presented by the user.
[0027]
DETAILED DESCRIPTION OF THE INVENTION
Next, embodiments of the present invention will be described with reference to the drawings. FIG. 1 shows one embodiment of an automobile equipped with a personal authentication device according to the present invention. The automobile shown in FIG. 1 includes an image input unit 1, a side mirror 2, a room mirror 3, a control device 5, and an
[0028]
FIG. 2 shows a functional block diagram of an automobile provided with a personal authentication system in the present embodiment. This functional block diagram includes an image input unit 1, an
[0029]
Information about individual drivers is registered in the
[0030]
The automobile in this embodiment processes two types of operation modes using each functional block shown in FIG. The first operation mode is a face direction / gaze detection mode executed by the face direction /
[0031]
The vehicle shown in FIG. 1 normally operates in the face orientation / gaze detection mode, and monitors whether the driver is in the driver's seat. When the driver is in the driver's seat, the driver's face orientation and gaze direction are constantly monitored. is doing. The automobile can determine the state of the driver based on the monitored face direction and line-of-sight direction, and can execute processing corresponding to the driver's state.
[0032]
The personal authentication mode starts at the same time as the driver gets into the car. When the personal authentication mode is activated, the car performs face recognition based on the face orientation obtained in the face orientation / gaze detection mode, and identifies the driver in the driver's seat. When a driver is specified, environment settings (adjustment of mirror angle and sheet position) are executed according to the driver. If the driver is not identified by face recognition, there is a high possibility that the person in the driver's seat is an unregistered driver in the
[0033]
In both operation modes, an image taken by the image input unit 1 is used. The image input unit 1 and the
[0034]
In the present embodiment, the
[0035]
The first reason for using near-infrared light as illumination is to improve robustness against illumination variation. In general, the brightness of a vehicle such as an automobile greatly fluctuates indoors or outdoors or due to environmental changes such as daytime or nighttime. Further, when strong visible light hits the driver's face from one direction, a shaded gradation is generated on the driver's face. Such illumination fluctuations and shade gradations significantly deteriorate the accuracy of image recognition. Therefore, in this embodiment, the
[0036]
The second reason for using near-infrared light is that the driver's pupil can be clearly extracted. Since the position of the driver's pupil is used to detect the line-of-sight direction, it is important to image the pupil clearly. Further, since the pupil can be used as the reference coordinate in the normalization process for driver identification, clear imaging of the pupil leads to improvement of normalization accuracy, that is, improvement of recognition accuracy.
[0037]
FIG. 3 shows an embodiment of the image input unit 1. In this embodiment, the stereo method of the prior art is used to stereoscopically view the object to be photographed. Therefore, the image input unit 1 includes two video cameras (41, 42) installed in front of the driver. The two video cameras are fixed at predetermined positions so that the driver's face can be photographed in stereo. Since near-infrared light is used as illumination as described above, these video cameras are each limited in wavelength band by a visible
[0038]
As shown in FIG. 3, the image captured by the image input unit 1 may be variously processed via a conventional
[0039]
Hereinafter, processing in each operation mode will be described in detail.
[0040]
As shown in FIG. 2, the face direction / line-of-
[0041]
FIG. 4 shows a flowchart of the process of the
[0042]
The process of the
[0043]
First, in
[0044]
An example of the
[0045]
Since the search in
[0046]
In the case of template matching using the image of the right video camera, template matching using the
[0047]
In
[0048]
Next, processing of the face
[0049]
In
[0050]
The three-dimensional face
[0051]
In
[0052]
In
[0053]
In the case of this embodiment, stereo matching is executed using the images of the left and right corners of the face and the corners of the face in the searched input image as the templates. As a result of this stereo matching, three-dimensional coordinates of the left and right corners of the driver's face, the corners of the eyes, and both ends of the mouth are obtained. Therefore, the three-dimensional position of the face of the driver in the driver's seat can be obtained from the three-dimensional coordinates of the feature points of these input images.
[0054]
After the three-dimensional coordinates relating to each feature point of the input image are obtained, it is checked in
[0055]
If it is determined in
[0056]
As described above, the three-dimensional facial
[0057]
When fitting the 3D face
[Expression 1]
Where N is the number of feature points and x i Are the three-dimensional coordinates of each feature point in the model, y i Represents the three-dimensional coordinates of each feature point from the input image. ω i Is a weighting coefficient for each feature point, and uses a correlation value in stereo matching when the three-dimensional position of the feature point is obtained from the input image. By using this correlation value, the reliability of each feature point can be considered. The rotation matrix is R (φ, θ, ψ), the position vector is represented by t (x, y, z), and these are variables in this equation.
[0058]
Therefore, if the rotation matrix R and the position vector t that minimize the fitting error E in the above equation are obtained, the face orientation and face position of the input image can be obtained. This calculation is performed by using a least square method or a fitting method using a virtual spring model.
[0059]
In
[0060]
In
[0061]
Since the positions (55, 57) at both ends of the eye have already been obtained as the feature points of the input image, the
[0062]
In this embodiment, since the left and right images are used as the input image, the line-of-sight vector can be obtained for each of the right image and the left image. Furthermore, since a line-of-sight vector can be obtained for both eyes, a total of four line-of-sight vectors are obtained. In this embodiment, the average vector of these four line-of-sight vectors is used as the line-of-sight direction of the input image.
[0063]
In
[0064]
Next, the personal authentication mode will be described. In the personal authentication mode, the driver's face detected in the face orientation / gaze detection mode is compared with the face data registered in the database to identify the driver. When a driver is specified, the personal authentication mode executes environment settings (mirror angle, sheet position, etc.) corresponding to the driver. As shown in the functional block diagram of FIG. 2, the personal authentication mode includes a face
[0065]
The face
[0066]
One of the processes of the face
[0067]
Another process of the face
[0068]
Further, the face
[0069]
FIG. 10 shows the overall flow of the personal authentication mode. For example, when the driver enters the vehicle and the personal authentication mode is started, the detection result in the face direction / gaze detection mode is input to the
[0070]
In
[0071]
For example, the personal authentication system can perform face recognition by using the eigenspace method for a face facing front and matching a three-dimensional model for a face facing sideways. Therefore, according to the present invention, an optimal face recognition method can be selected according to the face orientation of the input image.
[0072]
Face recognition methods that can be used in the personal authentication system include eigenspace method, template matching, Gabor Wavelet method, and NN. In
[0073]
In the determination of the face orientation in
[0074]
When it is determined in
[0075]
In
[0076]
In the present embodiment, the eigenspace method is used as the face recognition method of the
[0077]
In one embodiment of the normalization processing for the front, affine transformation is executed so that the left and right pupils are horizontal and the distance is constant with reference to the midpoint of a straight line connecting the centers of the left and right pupils. Since the near-infrared image is used in the personal authentication system according to the present invention, the pupil can be extracted clearly, and normalization can be performed with high accuracy.
[0078]
In
[0079]
For example, a case where this success / failure determination is executed using a right eye template will be described. In this case, the success / failure determination template is generated by cutting out a predetermined size from the image of a predetermined face recognition format (face size, face position, face tilt) around the right eye. This success / failure determination template is created from a sufficient number of samples and used as a typical eye template. The created success / failure determination template is stored in advance in a success / failure determination database.
[0080]
If the input image is correctly normalized in
[0081]
If it is determined in
[0082]
As described above, since the face recognition for the front in this embodiment uses the eigenspace method, the feature extraction process in
[0083]
The face images of the front faces of individual drivers to be recognized are stored in advance in a database. In the eigenspace method, eigenvectors are generated from face images registered in the database. A face class representing each driver's face in the eigenspace is generated by projecting each driver's face stored in the
[0084]
Accordingly, in
[0085]
In
[0086]
Next, in
[0087]
Such face recognition by the eigenspace method can reduce the amount of calculation according to the number of transformation parameters (weight components) at the time of projection, so that the normalized correlation that requires the calculation for the number of pixels of the input image Compared with this method, high-speed processing can be realized.
[0088]
Next, normalization processing and face recognition for landscape orientation will be described. As shown in FIG. 10, the flow of normalization processing and face recognition processing for landscape orientation is basically the same flow as the processing for front (
[0089]
The face recognition embodiment for landscape orientation can be broadly divided into two types of embodiments, and the normalization process differs accordingly. The first embodiment is an embodiment in which a database is created in advance from images by face orientations of individual drivers, and face recognition is executed using those face orientation databases in accordance with the detected face orientations. is there. In this case, the normalization process is executed according to the face orientation detected from the input image.
[0090]
For example, as shown in FIG. 9d, the reference point for positioning the face in the normalization process (that is, the intersection of the x axis and the y axis in the figure) varies depending on the face orientation. Therefore, when normalizing a horizontally oriented input image, the reference point for positioning the face must be changed according to the face orientation in the image. For this reason, the side face
[0091]
In another embodiment of face recognition for landscape orientation, a three-dimensional face model is generated from an input image, and normalization processing is performed using the three-dimensional face model. In this case, a predetermined feature point is extracted from the input image, and a three-dimensional face model of the input image is generated from the feature point. The three-dimensional face model generated here is a face model generated in the face orientation when the input image is taken. Therefore, if the face model is rotated according to the face orientation obtained by the face orientation /
[0092]
In
[0093]
Next, an example of the registrant sequence in
[0094]
FIG. 12 shows a flowchart of the process of the embodiment for the unregistered person sequence. As described above, if the face of the driver in the driver's seat is the face of an unregistered person who is not stored in the database in
[0095]
In the above embodiment, an example of a car provided with a personal authentication device according to the present invention has been described. However, the present invention is not limited to personal authentication in a car and can be applied to other fields. Is possible.
[0096]
FIG. 13 shows an application example of the personal authentication apparatus of the present invention to a computer. In FIG. 13, the image input unit 1 is connected to a
[0097]
Thus, the present invention is not limited to the above-described embodiments, and can be applied to many fields.
[0098]
【The invention's effect】
According to the present invention, since the personal authentication device includes a function for detecting the face orientation of the user, face recognition according to the face orientation can be executed, and the accuracy of personal authentication is improved compared to the face recognition of the prior art. It is possible to improve.
[Brief description of the drawings]
FIG. 1 shows an embodiment of an automobile equipped with a personal authentication device according to the present invention.
FIG. 2 is a functional block diagram of an automobile provided with a personal authentication system in the present embodiment.
FIG. 3 is a diagram illustrating an example of an image input unit.
FIG. 4 is a flowchart of processing of an initial search unit.
FIG. 5 is a flowchart of processing of a face direction detection unit and a line-of-sight detection unit.
FIG. 6 is a diagram showing an example of an initial search template.
FIG. 7 is a diagram showing an example of a three-dimensional face feature point model.
FIG. 8 is a schematic view of a method for obtaining a gaze direction.
FIG. 9 is a diagram illustrating an example in which the inclination of the face is corrected by normalization.
FIG. 10 is an overall flowchart of personal authentication mode.
FIG. 11 is a flowchart of processing of a registrant sequence.
FIG. 12 is a flowchart of processing of an unregistered person sequence.
FIG. 13 is a diagram showing a computer including a personal authentication system in the present embodiment.
[Explanation of symbols]
1 Image input section
6 Infrared irradiation part
10 users
11 Face orientation / line-of-sight detection unit
13 Feature extraction unit
15 Personal Identification Department
17 Environment Setting Department
19 Database
Claims (7)
前記ユーザを撮影する複数のカメラと、
前記ユーザの顔を照射するよう設置された照明手段と、
前記カメラの画像出力から前記ユーザの顔の向きを検出する検出手段と、
前記検出された顔向きに応じて、前記画像出力の顔画像を正面と正面以外の顔画像に選別する手段と、
前記ユーザを正面および正面以外から撮影した照合用顔画像のデータベースと、
前記正面および正面以外の顔画像の各々を前記照合用顔画像のデータベースに記憶されている対応する正面または正面以外の照合用顔画像と同じサイズおよび位置の顔画像に調整する正規化手段と、
前記正規化された正面および正面以外の顔画像の各々の重みベクトルを抽出し、各重みベクトルを前記照合用顔画像のデータベースに記憶されている対応する正面または正面以外の照合用顔画像の顔クラスと比較照合し、前記ユーザを識別する識別手段と、を備える認証装置。A device for authenticating a user,
A plurality of cameras for photographing the user;
Illumination means installed to illuminate the user's face;
Detecting means for detecting the orientation of the user's face from the image output of the camera;
Means for sorting the face image of the image output into a front image and a face image other than the front according to the detected face orientation;
A database of collation face images taken from the front and other than the front;
Normalization means for adjusting each of the face images other than the front face and the front face to a face image having the same size and position as the corresponding face image for comparison other than the front face or the front face stored in the database of face images for matching ;
The weight vectors of each of the normalized front and non-front face images are extracted, and each weight vector is stored in the database of the face image for matching and the face of the matching face image other than the front or front face. An authentication device comprising: identification means for comparing with a class and identifying the user.
前記予め定めた画像領域の基準データを格納する成否判断データベースと、
前記抽出された画像領域の各々を対応する前記基準データと照合し、前記正規化手段による正規化の成否を判定する成否判定手段と、を備える請求項1に記載の認証装置。Extracting means for extracting a predetermined image region from each of the images normalized by the normalizing means;
A success / failure determination database for storing reference data of the predetermined image area;
Against the reference data corresponding to each of the extracted image area, the authentication device according to claim 1, and a determining success determining means success or failure of normalization by the normalization means.
予め定めた1つまたは複数の顔の特徴部分の基準画像および該基準画像に対応する3次元座標を格納している特徴点データベースを含み、該3次元座標が該顔の特徴部分にそれぞれ関連付けられ、
前記特徴部分の基準画像をテンプレートにして前記カメラの画像出力から該特徴部分の基準画像に対応する画像領域を抽出する抽出手段と、
前記抽出された画像領域に基づいて、前記抽出された画像領域の3次元座標を求める手段と、
前記求められた画像領域の3次元座標と前記基準画像に対応する3次元座標から前記ユーザの顔の向きを検出する手段と、を含む請求項1に記載の認証装置。The face direction detecting means includes
Including a predetermined reference image of one or more facial feature parts and a feature point database storing three-dimensional coordinates corresponding to the reference image, wherein the three-dimensional coordinates are respectively associated with the facial feature parts ,
Extracting means for extracting an image region corresponding to the reference image of the feature portion from the image output of the camera using the reference image of the feature portion as a template;
Means for determining three-dimensional coordinates of the extracted image region based on the extracted image region;
The authentication apparatus according to claim 1, further comprising: means for detecting the orientation of the user's face from the three-dimensional coordinates of the obtained image region and the three-dimensional coordinates corresponding to the reference image.
前記画像出力からの顔画像に対応する顔画像が前記照合用データベースに存在することに応答して、前記ユーザを登録済みユーザと判断し、
前記画像出力からの顔画像に対応する顔画像が前記照合用データベースに存在しないことに応答して、前記ユーザを未登録ユーザと判断する請求項1に記載の認証装置。The identifying means includes means for determining whether a face image corresponding to the face image from the image output exists in the database of face images for verification;
In response to the presence of a face image corresponding to the face image from the image output in the verification database, the user is determined to be a registered user;
The authentication apparatus according to claim 1, wherein the user is determined to be an unregistered user in response to a face image corresponding to the face image from the image output not existing in the verification database.
前記環境設定データに応じて自動車の環境を設定する環境設定手段と、を含み、
前記ユーザが登録済みユーザと判断されたときに、自動車の運転を許可し、前記環境設定データベースから前記登録済みユーザに関する環境設定データを読み取り、該登録済みユーザに関する環境設定データに応じて自動車の環境を設定することを含む請求項5に記載の認証装置。The authentication device includes an environment setting database that stores a plurality of environment setting data associated with each of the registered users;
Environment setting means for setting the environment of the vehicle according to the environment setting data,
When it is determined that the user is a registered user, driving of the automobile is permitted, the environment setting data relating to the registered user is read from the environment setting database, and the environment of the automobile is determined according to the environment setting data relating to the registered user. The authentication apparatus according to claim 5 , further comprising: setting.
前記ユーザが未登録ユーザと判断されたときに、前記身分証明手段の提示を前記ユーザに要求し、
前記認証手段で該身分証明手段が認証されることに応答して該ユーザに自動車の使用許可を与え、
前記ユーザにより前記身分証明手段が提示されなかったことおよび前記認証手段で該身分証明手段が認証されなかったことに応答して該ユーザによる自動車の使用を禁止する請求項5に記載の認証装置。The authentication device includes authentication means for authenticating identification means for authenticating a user's identity,
When it is determined that the user is an unregistered user, the user is requested to present the identification means,
Granting the user permission to use the vehicle in response to the authentication means being authenticated by the authentication means;
The authentication device according to claim 5 , wherein the user is prohibited from using the vehicle in response to the fact that the identification means is not presented by the user and that the identification means is not authenticated by the authentication means.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001083728A JP4675492B2 (en) | 2001-03-22 | 2001-03-22 | Personal authentication device using facial images |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001083728A JP4675492B2 (en) | 2001-03-22 | 2001-03-22 | Personal authentication device using facial images |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2002288670A JP2002288670A (en) | 2002-10-04 |
JP4675492B2 true JP4675492B2 (en) | 2011-04-20 |
Family
ID=18939509
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001083728A Expired - Fee Related JP4675492B2 (en) | 2001-03-22 | 2001-03-22 | Personal authentication device using facial images |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4675492B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10915772B2 (en) | 2017-12-27 | 2021-02-09 | Electronics And Telecommunications Research Institute | Apparatus and method for registering face pose for face recognition |
Families Citing this family (48)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4238542B2 (en) * | 2002-08-30 | 2009-03-18 | 日本電気株式会社 | Face orientation estimation apparatus, face orientation estimation method, and face orientation estimation program |
JP4322537B2 (en) * | 2003-04-07 | 2009-09-02 | 株式会社豊田中央研究所 | Mask wearing judgment device |
JP4059224B2 (en) | 2004-04-13 | 2008-03-12 | 株式会社デンソー | Driver appearance recognition system |
JP4380412B2 (en) * | 2004-05-10 | 2009-12-09 | 株式会社デンソー | Imaging control apparatus and program |
EP1748387B1 (en) | 2004-05-21 | 2018-12-05 | Asahi Kasei Kabushiki Kaisha | Devices for classifying the arousal state of the eyes of a driver, corresponding method and computer readable storage medium |
JP4217664B2 (en) * | 2004-06-28 | 2009-02-04 | キヤノン株式会社 | Image processing method and image processing apparatus |
DE102004044771B4 (en) * | 2004-09-16 | 2006-08-24 | Bayerische Motoren Werke Ag | Method for image-based driver identification in a motor vehicle |
JP4459788B2 (en) | 2004-11-16 | 2010-04-28 | パナソニック株式会社 | Facial feature matching device, facial feature matching method, and program |
JP4501708B2 (en) * | 2005-02-02 | 2010-07-14 | トヨタ自動車株式会社 | Driver's face orientation determination device |
JP4561400B2 (en) * | 2005-02-24 | 2010-10-13 | オムロン株式会社 | Monitoring device |
JP4267584B2 (en) * | 2005-02-28 | 2009-05-27 | 株式会社東芝 | Device control apparatus and method |
JP2006344100A (en) * | 2005-06-10 | 2006-12-21 | Konica Minolta Holdings Inc | Authentication device and image output device |
JP4692174B2 (en) * | 2005-09-14 | 2011-06-01 | 株式会社日立製作所 | Personal authentication device and door opening / closing system |
JP4465619B2 (en) | 2005-10-31 | 2010-05-19 | ソニー株式会社 | Registration device, verification device, image correction method, and program |
JP4758218B2 (en) * | 2005-12-16 | 2011-08-24 | 株式会社山武 | 3D pattern position / posture detection device |
CN101489467B (en) * | 2006-07-14 | 2011-05-04 | 松下电器产业株式会社 | Visual axis direction detection device and visual line direction detection method |
JP2008089402A (en) * | 2006-10-02 | 2008-04-17 | Konica Minolta Holdings Inc | Information processing system, program, and information processing method |
JP2008087140A (en) * | 2006-10-05 | 2008-04-17 | Toyota Motor Corp | Speech recognition robot and control method of speech recognition robot |
JP5001028B2 (en) | 2007-03-02 | 2012-08-15 | 株式会社デンソー | Driving environment setting system, in-vehicle device, and program for in-vehicle device |
JP4910827B2 (en) * | 2007-03-28 | 2012-04-04 | カシオ計算機株式会社 | Image processing apparatus and program |
US8174555B2 (en) * | 2007-05-30 | 2012-05-08 | Eastman Kodak Company | Portable video communication system |
JP4434236B2 (en) | 2007-06-11 | 2010-03-17 | ソニー株式会社 | Image processing apparatus, image display apparatus, imaging apparatus, processing method and program thereof |
EP2015568B1 (en) | 2007-06-14 | 2019-02-13 | FUJIFILM Corporation | Digital image pickup apparatus |
JP4569670B2 (en) * | 2008-06-11 | 2010-10-27 | ソニー株式会社 | Image processing apparatus, image processing method, and program |
JP2010033305A (en) * | 2008-07-29 | 2010-02-12 | Hitachi Ltd | Image information processing method and device |
JP5098981B2 (en) * | 2008-12-08 | 2012-12-12 | トヨタ自動車株式会社 | Face detection device |
JP5448952B2 (en) * | 2010-03-16 | 2014-03-19 | グローリー株式会社 | Same person determination device, same person determination method, and same person determination program |
JP5538031B2 (en) * | 2010-03-31 | 2014-07-02 | アズビル株式会社 | Verification device |
KR101172227B1 (en) | 2010-11-18 | 2012-08-07 | 현대자동차주식회사 | System of management for entrance and exit using driver's face certification within vehicle and thereof method |
KR101805716B1 (en) * | 2011-09-21 | 2017-12-07 | 현대모비스 주식회사 | Apparatus and Method for certifying Driver by recognition face |
JP6212930B2 (en) * | 2013-05-01 | 2017-10-18 | 株式会社ニコン | Information processing apparatus, system, method, and program |
TWI532620B (en) * | 2013-06-24 | 2016-05-11 | Utechzone Co Ltd | Vehicle occupancy number monitor and vehicle occupancy monitoring method and computer readable record media |
WO2015117904A1 (en) | 2014-02-04 | 2015-08-13 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Hough processor |
JP6354359B2 (en) * | 2014-06-11 | 2018-07-11 | 株式会社デンソー | Vehicle setting device |
DE102014211823A1 (en) * | 2014-06-20 | 2015-12-24 | Robert Bosch Gmbh | Procedure for personal identification |
JP2019531560A (en) * | 2016-07-05 | 2019-10-31 | ナウト, インコーポレイテッドNauto, Inc. | Automatic driver identification system and method |
JP2018045309A (en) * | 2016-09-12 | 2018-03-22 | 株式会社東芝 | Feature quantity extraction device and authentication system |
US11210498B2 (en) | 2017-06-26 | 2021-12-28 | Nec Corporation | Facial authentication device, facial authentication method, and program recording medium |
JP7211673B2 (en) * | 2018-05-25 | 2023-01-24 | 株式会社Subaru | vehicle occupant monitoring device |
CN109389069B (en) | 2018-09-28 | 2021-01-05 | 北京市商汤科技开发有限公司 | Gaze point determination method and apparatus, electronic device, and computer storage medium |
CN111071187A (en) * | 2018-10-19 | 2020-04-28 | 上海商汤智能科技有限公司 | Driving environment intelligent adjustment and driver registration method and device, vehicle and equipment |
US10963678B2 (en) * | 2018-11-14 | 2021-03-30 | Hyundai Motor Company | Face recognition apparatus and face recognition method |
US20210229673A1 (en) * | 2019-06-17 | 2021-07-29 | Google Llc | Seamless driver authentication using an in-vehicle camera in conjunction with a trusted mobile computing device |
EP4102011A4 (en) * | 2020-02-06 | 2023-03-22 | Nec Corporation | Gate system, gate device, method for controlling same, and program |
JP7404950B2 (en) * | 2020-03-16 | 2023-12-26 | いすゞ自動車株式会社 | Image transmission device and authentication system |
CN114248672A (en) * | 2020-09-22 | 2022-03-29 | 宝能汽车集团有限公司 | Female physiological period care method and device for vehicle and vehicle |
JP7269607B2 (en) * | 2021-03-31 | 2023-05-09 | 学校法人明治大学 | Information processing device, information processing method, and program |
CN114998979B (en) * | 2022-08-01 | 2022-11-18 | 中国通信建设第三工程局有限公司 | Intelligent Internet of vehicles system |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000222576A (en) * | 1999-01-29 | 2000-08-11 | Nec Corp | Person identification method, device therefor, recording medium recording person identification program, and robot system |
JP2000259834A (en) * | 1999-03-11 | 2000-09-22 | Toshiba Corp | Registering device and method for person recognizer |
JP2000311220A (en) * | 1999-04-28 | 2000-11-07 | Hitachi Ltd | Unit operation right managing system, unit operation right managing terminal, ic chip and ic chip case |
JP2001051338A (en) * | 1999-08-12 | 2001-02-23 | Canon Inc | Camera |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2872776B2 (en) * | 1990-08-20 | 1999-03-24 | 日本電信電話株式会社 | Face image matching device |
JPH05300601A (en) * | 1992-04-20 | 1993-11-12 | Canon Inc | Vehicle safety confirmaton instruction apparatus |
JPH07302327A (en) * | 1993-08-11 | 1995-11-14 | Nippon Telegr & Teleph Corp <Ntt> | Method and device for detecting image of object |
JP3738456B2 (en) * | 1994-11-14 | 2006-01-25 | マツダ株式会社 | Article position detection method and apparatus |
JPH0944676A (en) * | 1995-08-01 | 1997-02-14 | Toyota Motor Corp | Face detector |
US6100811A (en) * | 1997-12-22 | 2000-08-08 | Trw Inc. | Fingerprint actuation of customized vehicle features |
-
2001
- 2001-03-22 JP JP2001083728A patent/JP4675492B2/en not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000222576A (en) * | 1999-01-29 | 2000-08-11 | Nec Corp | Person identification method, device therefor, recording medium recording person identification program, and robot system |
JP2000259834A (en) * | 1999-03-11 | 2000-09-22 | Toshiba Corp | Registering device and method for person recognizer |
JP2000311220A (en) * | 1999-04-28 | 2000-11-07 | Hitachi Ltd | Unit operation right managing system, unit operation right managing terminal, ic chip and ic chip case |
JP2001051338A (en) * | 1999-08-12 | 2001-02-23 | Canon Inc | Camera |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10915772B2 (en) | 2017-12-27 | 2021-02-09 | Electronics And Telecommunications Research Institute | Apparatus and method for registering face pose for face recognition |
Also Published As
Publication number | Publication date |
---|---|
JP2002288670A (en) | 2002-10-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4675492B2 (en) | Personal authentication device using facial images | |
JP4898026B2 (en) | Face / Gaze Recognition Device Using Stereo Camera | |
EP1629415B1 (en) | Face identification verification using frontal and side views | |
US9922238B2 (en) | Apparatuses, systems, and methods for confirming identity | |
US7508979B2 (en) | System and method for detecting an occupant and head pose using stereo detectors | |
US8280120B2 (en) | Fraud resistant biometric financial transaction system and method | |
US20040223631A1 (en) | Face recognition based on obtaining two dimensional information from three-dimensional face shapes | |
JP2003178306A (en) | Personal identification device and personal identification method | |
WO2014025448A1 (en) | Spoof detection for biometric authentication | |
WO2003073359A2 (en) | Method and apparatus for recognizing objects | |
US10922399B2 (en) | Authentication verification using soft biometric traits | |
JP5730095B2 (en) | Face image authentication device | |
CN111344703A (en) | User authentication device and method based on iris recognition | |
KR102534582B1 (en) | Method and apparatus of active identity verification based on gaze path analysis | |
US20200218885A1 (en) | Detecting artificial facial images using facial landmarks | |
US20220318369A1 (en) | Face recognition system and method capable of updating registered face templates | |
JP2017010322A (en) | Authentication processing device and authentication processing method | |
JP2002274265A (en) | Mirror adjusting device | |
JPWO2020079741A1 (en) | Iris recognition device, iris recognition method, iris recognition program and recording medium | |
JP4426029B2 (en) | Image collation method and apparatus | |
US12001533B2 (en) | Method and system for authenticating an occupant within an interior of a vehicle | |
JP2008015871A (en) | Authentication device and authenticating method | |
CN114821694A (en) | Material spectrometry | |
KR102316587B1 (en) | Method for biometric recognition from irises | |
JP2001222716A (en) | Personal identification method and personal identification system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20071128 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20101029 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20101109 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20101227 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110125 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110126 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140204 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4675492 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |