JP2007102601A - 立体モデル生成装置および立体モデル生成方法 - Google Patents

立体モデル生成装置および立体モデル生成方法 Download PDF

Info

Publication number
JP2007102601A
JP2007102601A JP2005293380A JP2005293380A JP2007102601A JP 2007102601 A JP2007102601 A JP 2007102601A JP 2005293380 A JP2005293380 A JP 2005293380A JP 2005293380 A JP2005293380 A JP 2005293380A JP 2007102601 A JP2007102601 A JP 2007102601A
Authority
JP
Japan
Prior art keywords
model
feature point
dimensional
point
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005293380A
Other languages
English (en)
Other versions
JP4539519B2 (ja
Inventor
Yuichi Kawakami
雄一 川上
Toshio Norita
寿夫 糊田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2005293380A priority Critical patent/JP4539519B2/ja
Publication of JP2007102601A publication Critical patent/JP2007102601A/ja
Application granted granted Critical
Publication of JP4539519B2 publication Critical patent/JP4539519B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】被写体に関する撮影画像に基づき被写体の立体モデルを精度良く生成できる立体モデル生成技術を提供する。
【解決手段】顔認証システムでは、人物の顔(被写体)を異なる視点から撮影し入力された複数の画像から、顔の標準モデルで定義される第1特徴点(例えば目の輪郭上の点)に対応する点の3次元座標を算出する。そして、算出された3次元座標に標準モデルの第1特徴点を一致させるように標準モデルを変形する。次に、この変形モデルと上記複数の画像とから、顔の標準モデルで定義される第2特徴点候補領域(例えば眉間の領域)に対応する領域の3次元座標を探索する。そして、探索された領域内にある皺の中間点などを第2特徴点として検出し、この第2特徴点の3次元位置に標準モデルの表面を一致させるように変形モデルを更に変形する。これにより、人物の顔の立体モデルを精度良く生成できる。
【選択図】図11

Description

本発明は、被写体を異なる視点から撮影して得られた複数の画像に基づき被写体の立体モデルを生成する立体モデル生成技術に関する。
近年、ネットワーク技術等の発展によって電子化された様々なサービスが普及し、人に頼らない非対面での本人認証技術の必要性が高まっている。これに伴い、人物の生体特徴によって自動的に個人の識別を行うバイオメトリクス認証技術(生体認証技術)の研究が盛んに行われている。バイオメトリクス認証技術の一つである顔認証技術は、非接触型の認証方法であり、監視カメラによるセキュリティあるいは顔をキーとした画像データベース検索等、様々な分野での応用が期待されている。
このような認証技術としては、予め登録された登録画像と認証対象物を撮影した撮影画像とをそれぞれ平面情報(「テクスチャ情報」あるいは「2次元情報」)として取得しておき、単純に両画像の平面情報を比較することによって、登録画像内の人物と撮影画像内の人物とが同一人物であるか否かを判定することが行われる。
ただし、このような単なる2次元画像同士の比較では、両画像における人物の姿勢や光源の位置が同一でない場合等においては、高精度の認証を行うことが困難である。
そこで、精度の高い認証を行うための技術として、例えば特許文献1に記載の技術が提案されている。この認証技術によれば、人物の顔の標準的な3次元形状を表す標準モデルを用いて撮影画像内の顔の向き(姿勢)を登録画像の顔の向きに合わせるように画像の修正を行った上で、これらの画像が比較される。
特開2004−288222号公報
しかしながら、上記特許文献1の認証技術では、標準モデルのみを用いて撮影画像を修正するため、実際の顔の3次元形状と標準モデルとが相違する場合には高精度の認証が困難となる。このような認証技術においては、実際の被写体に関する3次元形状を精度良く再現した立体モデルを生成して利用できれば、認証精度の向上に貢献できることとなる。
本発明は、上記課題に鑑みてなされたものであり、被写体に関する撮影画像に基づき被写体の立体モデルを精度良く生成できる立体モデル生成技術を提供することを目的とする。
上記の課題を解決するため、請求項1の発明は、被写体を異なる視点から撮影して得られた複数の画像に基づき、前記被写体の3次元形状を表現した立体モデルを生成する立体モデル生成装置であって、(a)前記被写体に表れる第1特徴点および第2特徴点それぞれに対応する第1特徴箇所と第2特徴箇所とに関する3次元位置情報が記述された被写体の標準モデルを記憶する記憶手段と、(b)前記複数の画像に基づき、前記被写体における第1特徴点の3次元位置情報を取得する第1情報取得手段と、(c)前記第1情報取得手段により取得された第1特徴点の3次元位置情報に基づき前記標準モデルを変形し、変形モデルを生成する第1変形手段と、(d)前記変形モデルと前記複数の画像とに基づき、前記被写体における第2特徴点の3次元位置情報を取得する第2情報取得手段と、(e)前記第2情報取得手段により取得された第2特徴点の3次元位置情報に基づき前記変形モデルを更に変形し、前記立体モデルを生成する第2変形手段とを備える。
また、請求項2の発明は、請求項1の発明に係る立体モデル生成装置において、前記第1特徴点は、人物の顔部品において定められる点であり、前記第2特徴点は、前記顔部品を除く顔の部分に定められる点である。
また、請求項3の発明は、請求項2の発明に係る立体モデル生成装置において、前記顔部品は、目、口、鼻および眉からなる群から選択される少なくとも1の部品を含む。
また、請求項4の発明は、請求項1ないし請求項3のいずれかの発明に係る立体モデル生成装置において、前記第1特徴点は、目の輪郭上の点、目尻の点、目頭の点および瞳の中心点からなる群から選択される少なくとも1の点を含む。
また、請求項5の発明は、請求項1ないし請求項4のいずれかの発明に係る立体モデル生成装置において、前記第1特徴点は、口の輪郭上の点、口の左端の点および口の右端の点からなる群から選択される少なくとも1の点を含む。
また、請求項6の発明は、請求項1ないし請求項5のいずれかの発明に係る立体モデル生成装置において、前記第1特徴点は、小鼻の輪郭上の点、鼻孔の輪郭上の点および鼻の下面上の点からなる群から選択される少なくとも1の点を含む。
また、請求項7の発明は、請求項1ないし請求項6のいずれかの発明に係る立体モデル生成装置において、前記第1特徴点は、眉の輪郭上の点、眉の左端の点および眉の右端の点からなる群から選択される少なくとも1の点を含む。
また、請求項8の発明は、請求項1ないし請求項7のいずれかの発明に係る立体モデル生成装置において、前記第2特徴箇所は、皺の検出が可能な顔の特定部分に関する箇所である。
また、請求項9の発明は、請求項8の発明に係る立体モデル生成装置において、前記顔の特定部分は、眉間の部分、鼻と口の両脇の部分、目の下の部分および鼻筋の両脇の部分からなる群から選択される少なくとも1の部分を含む。
また、請求項10の発明は、被写体を異なる視点から撮影して得られた複数の画像に基づき、前記被写体の3次元形状を表現した立体モデルを生成する立体モデル生成方法であって、(a)前記被写体に表れる第1特徴点および第2特徴点それぞれに対応する第1特徴箇所と第2特徴箇所とに関する3次元位置情報が記述された被写体の標準モデルを記憶する記憶工程と、(b)前記複数の画像に基づき、前記被写体における第1特徴点の3次元位置情報を取得する第1情報取得工程と、(c)前記第1情報取得工程において取得された第1特徴点の3次元位置情報に基づき前記標準モデルを変形し、変形モデルを生成する第1変形工程と、(d)前記変形モデルと前記複数の画像とに基づき、前記被写体における第2特徴点の3次元位置情報を取得する第2情報取得工程と、(e)前記第2情報取得工程において取得された第2特徴点の3次元位置情報に基づき前記変形モデルを更に変形し、前記立体モデルを生成する第2変形工程とを備える。
請求項1ないし請求項10の発明によれば、被写体を異なる視点から撮影して得られた複数の画像に基づき取得した被写体における第1特徴点の3次元位置情報により標準モデルを変形して変形モデルを生成した後に、上記複数の画像と変形モデルとに基づき取得した被写体における第2特徴点の3次元位置情報により変形モデルを更に変形して被写体の3次元形状を表現した立体モデルを生成する。その結果、被写体の立体モデルを精度良く生成できる。
特に、請求項2の発明においては、第1特徴点は人物の顔部品において定められる点であり、第2特徴点は顔部品を除く顔の部分に定められる点であるため、第1特徴点および第2特徴点を適切に定められる。
また、請求項3ないし請求項7の発明によれば、第1特徴点の選定を適切に行え、被写体の立体モデルを一層精度良く生成できる。
また、請求項8の発明においては、第2特徴箇所は皺の検出が可能な顔の特定部分に関する箇所であるため、第2特徴箇所を適切に定めることができ、被写体の立体モデルを一層精度良く生成できる。
また、請求項9の発明においては、顔の特定部分は、眉間の部分、鼻と口の両脇の部分、目の下の部分および鼻筋の両脇の部分からなる群から選択される少なくとも1の部分を含むため、第2特徴箇所の選定を適切に行える。
以下、本発明の実施形態を図面に基づいて説明する。以下では、顔画像を用いた認証動作を行う認証システムについて説明する。
<A.概要>
図1は、本発明の実施形態に係る顔認証システム1の概要を示す概念図である。
顔認証システム1は、後述するように、認証時に2台のカメラCA1,CA2(図2参照)によって、認証対象者である人物HMa(人物HMbであると名乗る人物)の顔について多眼視(ここではステレオ視)による複数(ここでは2枚)の画像G1、G2を撮影する。詳細には、カメラCA1により画像G1が撮影され、カメラCA2により画像G2が撮影される。そして、顔認証システム1は、2枚の画像G1、G2に基づき得られる情報を、人物HMbについて予め登録された顔画像に基づく情報と比較(ないし照合)することによって認証動作を行い、認証対象者である人物HMaが比較対象者(登録者)である人物HMbと同一人物であるか否かを判定する。
ここにおいて、当該人物HMbについて予め登録された顔画像に基づく情報としては、当該人物HMbの顔を多眼視により撮影した2枚の画像G3、G4に含まれる情報を利用するものとする。
画像G1、G2から得られる情報および画像G3、G4から得られる情報は、それぞれ、形状情報とテクスチャ情報とに大別される。
画像G1、G2からは、テクスチャ情報TAが得られるとともに、形状情報として3次元情報SAが得られる。より詳細には、まず、画像G1および画像G2の少なくとも一方から、人物HMaの顔のテクスチャ情報TAが得られる。また、ステレオ視による2枚の画像G1、G2からは、人物HMaの顔の各点の3次元位置の集合等を含む3次元情報SBが得られる。
同様に、画像G3、G4からも、人物HMbの顔に関するテクスチャ情報TBが得られるとともに、形状情報として3次元情報SBが得られる。
基本的には、このようにして得られたテクスチャ情報TAとテクスチャ情報TBとが比較されるとともに、3次元情報SAと3次元情報SBとが比較される。
ただし、このようにして得られたテクスチャ情報TA,TBおよび形状情報SA,SBは、膨大な情報量を有しているため、特徴選択動作(換言すれば、情報圧縮動作(後述))を行った後に比較動作を行うことが好ましい。この実施形態においても、情報圧縮動作を行う。これによれば、情報量を削減して、より効率的な照合動作を行うことができる。
このような顔認証システム1の詳細な構成について、以下で説明する。
<B.詳細構成>
図2は、顔認証システム1を示す構成図である。図2に示すように顔認証システム1は、コントローラ10と2台の画像撮影カメラ(以下、単に「カメラ」とも称する)CA1、CA2とを備えている。カメラCA1とカメラCA2とは、それぞれ異なる視点から被写体である認証対象者HMaの顔を撮影できるように配置されている。カメラCA1とカメラCA2とによって認証対象者HMaの顔画像が撮影されると、当該撮影により得られる認証対象者HMaの外観情報すなわち2枚の顔画像G1、G2がコントローラ10に通信線を介して送信される。なお、各カメラとコントローラ10との間での画像データの通信方式は有線方式に限定されず、無線方式であってもよい。
図3は、コントローラ10の構成概要を示す図である。図3に示されるように、コントローラ10は、CPU2と、記憶部3と、メディアドライブ4と、液晶ディスプレイなどの表示部5と、キーボード6a及びポインティングデバイスであるマウス6bなどの入力部6と、ネットワークカードなどの通信部7とを備えたパーソナルコンピュータなどの一般的なコンピュータで構成される。記憶部3は、複数の記憶媒体、具体的には、ハードディスクドライブ(HDD)3aと、HDD3aよりも高速処理可能なRAM(半導体メモリ)3bとを有している。また、メディアドライブ4は、CD−ROM、DVD(Digital Versatile Disk)、フレキシブルディスク、メモリカードなどの可搬性の記録媒体8からその中に記録されている情報を読み出すことができる。なお、このコントローラ10に対して供給される情報は、記録媒体8を介して供給される場合に限定されず、LAN及びインターネットなどのネットワークを介して供給されてもよい。
次に、コントローラ10の機能について、図4および図5を参照して説明する。
図4は、コントローラ10の各種機能構成を示すブロック図であり、図5は、個人認証部14の詳細な機能構成を示すブロック図である。
コントローラ10の各種機能構成は、コントローラ10内のCPU等の各種ハードウェアを用いて所定のソフトウェアプログラム(以下、単に「プログラム」とも称する)を実行することによって、実現される機能を概念的に示すものである。
図4に示されるように、コントローラ10は、画像入力部11と顔領域検索部12と顔部位検出部13と個人認証部14と出力部15とを備えている。
画像入力部11は、カメラCA1及びカメラCA2によって撮影された認証用の2枚の画像G1、G2をコントローラ10に入力する機能を有している。また、画像入力部11は、カメラCA1及びカメラCA2によって撮影された登録用の2枚の画像G3、G4をコントローラ10に入力する機能を有している。
顔領域検索部12は、入力された顔画像から顔領域を特定する機能を有している。
顔部位検出部13は、特定した顔領域から顔の特徴的な部位(例えば、目、眉、鼻、口等)の位置を検出する機能を有している。
個人認証部14は、顔の認証を主たる目的として構成され、各個人を顔画像で認証する機能を有している。この個人認証部14の詳細については、次述する。
出力部15は、個人認証部で得られた認証結果を出力する機能を有している。
次に、個人認証部14の詳細構成について図5を用いて説明する。
図5に示すように、個人認証部14は、3次元再構成部21と最適化部22と補正部23と特徴抽出部24と情報圧縮部25と比較部26とを有している。
3次元再構成部21は、入力画像から得られる顔の特徴的な部位の座標から各部位の3次元における座標を算出する機能を有している。この3次元座標算出機能は、カメラパラメータ記憶部27に格納されているカメラ情報を用いて実現される。
最適化部22は、算出された3次元座標を用いて3次元モデルデータベース28に格納されている顔の標準的な立体モデル(以下では「標準モデル」とも称する)から、固有の人物に関する「個別モデル」を生成する機能を有している。
補正部23は、生成された個別モデルを補正(修正あるいは変換とも表現できる)する機能を有している。
これらの各処理部21,22,23によって、認証対象者HMaおよび登録者HMbに関する情報は、標準化(正規化)され、相互比較しやすい状態に変換される。また、各処理部の機能によって作成された個別モデルは、人物の顔に関する3次元情報と2次元情報との双方を含むものとして形成される。「3次元情報」は、代表点の3次元座標値等の立体的構成に関連する情報であり、「2次元情報」は、表面情報(テクスチャ情報)や代表点の平面的な位置情報(2次元形状情報)等の平面的構成に関連する情報である。
特徴抽出部24は、上記各処理部21,22,23において作成された個別モデルから3次元情報と2次元情報とを抽出する特徴抽出機能を有している。
情報圧縮部25は、特徴抽出部24で抽出された3次元情報と2次元情報とをそれぞれ、顔認証用の適切な顔特徴量に変換することによって、顔認証に用いる3次元情報と2次元情報とをそれぞれ圧縮する機能を有している。この情報圧縮機能は、基底ベクトルデータベース29に格納された情報等を用いて実現される。
比較部26は、人物データベース30に予め登録されている登録者(比較対象者)HMbの顔特徴量と、上記各機能部によって得られる認証対象者HMaの顔特徴量との類似度を計算し、顔の認証を行う機能を有している。
<C.動作>
<動作概要>
以下では、上述したコントローラ10の顔認証動作についてより詳細に説明する。具体的には、上述したように、カメラCA1及びCA2で撮影した認証対象者HMaの顔画像と、予め登録された人物HMbの顔画像とに関する情報を用いて、認証対象者HMaが登録済み人物HMbと同一人物であるかを認証する場合(顔認証を行う場合)について説明する。ここでは、3次元情報として、カメラCA1、CA2による画像を利用して三角測量の原理によって計測された3次元形状情報を用い、2次元情報としてテクスチャ(輝度)情報を用いる場合を例示する。
図6は、コントローラ10の全体動作(認証動作)を示すフローチャートである。さらに、図7は、顔画像における特徴的な部位の特徴点を示す図であり、図8は、2次元画像中の特徴点から三角測量の原理を用いて3次元座標を算出する様子を示す模式図である。図8における画像G1、G2中の点Q20は、図7における口の右端に相当する。
図6に示されるように、コントローラ10は、ステップSP1からステップSP8までの工程において、認証対象者の顔を撮影した画像に基づいて、認証対象者に関する顔特徴量を取得する。コントローラ10は、その後、さらにステップSP9,SP10の工程を実行することによって、顔認証を実現する。
<認証対象者HMaに関する情報収集>
まず、ステップSP1において、カメラCA1及びCA2によって撮影された所定の人物(認証対象者)HMaの顔画像が、通信線を介しコントローラ10に入力される。顔画像を撮影するカメラCA1及びカメラCA2は、それぞれ、2次元画像を撮影可能な一般的な撮影装置で構成される。また、当該各カメラCAiの位置姿勢等を示すカメラパラメータBi(i=1・・N)は既知であり、予めカメラパラメータ記憶部27(図5)に記憶されている。ここで、Nはカメラの台数を示している。本実施形態ではN=2の場合を例示しているが、N≧3としてもよい(3台以上のカメラを用いてもよい)。カメラパラメータBiについては後述する。
次に、ステップSP2において、カメラCA1及びカメラCA2より入力された2枚の画像G1、G2のそれぞれにおいて、顔の存在する領域が検出される。顔領域検出手法としては、例えば、予め用意された標準の顔画像を用いたテンプレートマッチングにより、2枚の画像G1、G2のそれぞれから顔領域を検出する手法を採用することができる。
次に、ステップSP3において、ステップSP2で検出された顔領域画像の中から、顔の特徴的な部位の位置が検出される。例えば、顔の特徴的な部位としては、目、眉、鼻又は口等が考えられ、ステップSP3においては、図7に示されるような上記各部位の特徴点(後述の第1特徴点)Q1〜Q23の座標が算出される。特徴部位は、例えば、特徴部位の標準的なテンプレートを用いて行うテンプレートマッチングにより検出することができる。また、算出される特徴点の座標は、カメラより入力された画像G1、G2上の座標として表される。例えば、図7における口の右端に相当する特徴点Q20に関して、図8中に示すように、2枚の画像G1、G2のそれぞれにおける座標値が求められる。具体的には、画像G1の左上の端点を原点Oとして、特徴点Q20の画像G1上の座標(x1,y1)が算出される。画像G2においても同様に特徴点Q20の画像G2上の座標(x2,y2)が算出される。
また、入力された画像における各特徴点を頂点とする領域内の各画素の輝度値が、当該領域の有する情報(以下、「テクスチャ情報」とも称する)として取得される。各領域におけるテクスチャ情報は、後述のステップSP5等において、個別モデルに貼り付けられる。なお、本実施形態の場合、入力される画像は2枚であるので、各画像の対応する領域内の対応する画素における平均の輝度値を当該領域のテクスチャ情報として用いるものとする。
次のステップSP4では、3次元再構成処理が行われる。具体的には、ステップSP3において検出された各特徴点Qjの各画像Gi(i=1,...,N)における2次元座標Ui(j)と、各画像Giを撮影したカメラのカメラパラメータBiとに基づいて、各特徴点Qjの3次元座標M(j)(j=1・・・m)が算出される。端的に言えば、三角測量の原理に基づいて各特徴点の3次元位置が算出される。なお、mは特徴点の数を示している。
以下、3次元座標M(j)の算出について具体的に説明する。
各特徴点Qjの3次元座標M(j)と各特徴点Qjの2次元座標Ui(j)とカメラパラメータBiとの関係は式(1)のように表される。
Figure 2007102601
なお、μiは、スケールの変動分を示す媒介変数である。また、カメラパラメータ行列Biは、予め3次元座標が既知の物体を撮影することにより求められる各カメラ固有の値であり、3×4の射影行列で表される。
例えば、上記式(1)を用いて3次元座標を算出する具体的な例として、特徴点Q20の3次元座標M(20)を算出する場合を図8を用いて考える。式(2)は画像G1上の特徴点Q20の座標(x1,y1)と特徴点Q20を3次元空間で表したときの3次元座標(x,y,z)との関係を示している。同様に、式(3)は、画像G2上の特徴点Q20の座標(x2,y2)と特徴点Q20を3次元空間で表したときの3次元座標(x,y,z)との関係を示している。
Figure 2007102601
Figure 2007102601
上記式(2)及び式(3)中の未知数は、2つの媒介変数μ1、μ2と3次元座標M(20)の3つの成分値x,y,zとの合計5つである。一方、式(2)及び式(3)に含まれる等式の数は6であるため、各未知数つまり特徴点Q20の3次元座標(x,y,z)を算出することができる。また、同様にして、全ての特徴点Qjについての3次元座標M(j)を取得することができる。
次のステップSP5では、モデルフィッテングが行われる。このモデルフィッティングは、予め準備された一般的(標準的)な顔のモデルである「標準モデル」を、認証対象者に関する情報を用いて変形することによって、認証対象者の顔に関する入力情報が反映された「個別モデル」を生成する処理である。具体的には、算出された3次元座標M(j)などを用いて標準モデルの3次元情報を変更する処理と、上記のテクスチャ情報を用いて標準モデルの2次元情報を変更する処理とが行われる。このモデルフィッティングについては、後で詳述する。
次のステップSP6においては、標準モデルを基準にして個別モデルの補正が行われる。具体的には、位置補正と光源補正とが実施される。この位置補正においては、3次元情報に関する位置(アライメント)補正と、テクスチャ補正とが行われることとなるが、これらについて順に説明する。
アライメント(顔向き)補正は、3次元情報に関する位置および姿勢等の補正処理である。アライメント補正は、標準モデルを基準にした際の個別モデルのスケール、傾き及び位置に基づいて行われる。より詳細には、標準モデルを基準にした際の標準モデルと個別モデルとの関係を示す変換パラメータ(ベクトル)vt(次の式(4)参照)を用いて個別モデルを座標変換することによって、例えば正面を向く標準モデルの姿勢と同じ姿勢を有する3次元顔モデルを作成することができる。すなわち、このアライメント補正によって、認証対象者に関する3次元情報を適切に正規化することができる。
Figure 2007102601
ここで、上式(4)に示す変換パラメータ(ベクトル)vtは、標準モデルと個別モデルとに関するスケール変換指数szと、直交3軸方向における並進変位を示す変換パラメータ(tx,ty,tz)と、回転変位(傾き)を示す変換パラメータ(φ,θ,ψ)とをその要素とするベクトルである。
テクスチャ補正は、上記のアライメント補正に付随した処理であり、アライメント補正により正面向きの姿勢となった個別モデルにおける各ポリゴン(以下では「パッチ」ともいう)のテクスチャ情報を用いて、テクスチャ情報を正規化(標準化)する処理である。これにより、撮影時における認証対象者HMaの顔姿勢の影響を受けないテクスチャ情報が得られることとなる。
一方、カメラCA1(CA2)により得られた画像では、光源の位置や向きによるシェーディングの影響があるため、この画像から得られる各パッチのテクスチャにも、その影響が表れることがある。
そこで、ステップSP6では光源補正によるテクスチャ情報の修正も行うこととする。具体的には、例えばUSP181806に開示される手法を用いて、個別モデル表面の法線方向に基づくシェーディング補正を行う。この場合、個別モデルの3次元形状が、認証対象者HMaの実際の3次元形状に近いほど、正確なシェーディング補正を行えることとなる。
以上のシェーディング補正により、例えば図9(a)に示す鼻周辺Nsの影(暗部)を図9(b)に示す鼻周辺Nsのように改善できる。すなわち、ステップSP6で光源補正を行うことにより、光源位置等の関係で顔の起伏部に生じていたシェーディングのテクスチャ情報に与える悪影響を排除できることとなる。
次のステップSP7(図6)においては、認証対象者HMbの特徴を表す情報として、3次元形状情報(3次元情報)とテクスチャ情報(2次元情報)とが抽出される。
3次元情報としては、上記のステップSP6で補正された個別モデルにおけるm個の特徴点Qjの3次元座標ベクトルが抽出される。具体的には、式(5)に示されるように、m個の特徴点Qj(j=1,...,m)の3次元座標(Xj,Yj,Zj)を要素とするベクトルhSが3次元情報(3次元形状情報)として抽出される。
Figure 2007102601
また、2次元情報としては、上記のステップSP6で正規化されたテクスチャ情報から、個人認証にとって重要な情報となる顔の特徴的な部分つまり特徴点付近のパッチ又はパッチのグループ(局所領域)が有するテクスチャ(輝度)情報(以下、「局所2次元情報」とも称する)が抽出される。具体的には、局所2次元情報h(k)(k=1,...,L;Lは局所領域数)は、それぞれ当該局所領域内の画素数をn、各画素の輝度値をBR1,...,BRnとすると、式(6)のようなベクトル形式で表される。また、局所2次元情報h(k)をL個の局所領域について集めた情報は、総合的な2次元情報であるとも表現される。
Figure 2007102601
以上のように、ステップSP7においては、個別モデルの特徴を表す情報として、図1に示す3次元形状情報(3次元情報)SAとテクスチャ情報(2次元情報)TAとが抽出される。
抽出された情報は後述の認証動作(ステップSP9、SP10)に用いられる。当該認証動作においては、式(6)で得られる情報をそのまま用いて認証動作を行うようにしてもよいが、その場合、局所領域内の画素数が多いときには、認証動作での計算量が非常に大きくなってしまう。そこで、この実施形態では、計算量を低減して効率的に認証動作を行うことを企図して、式(6)で得られる情報を更に圧縮し圧縮後の情報を用いて認証動作を行うものとする。
そのため、次のステップSP8においては、ステップSP7で抽出された情報を、認証に適した状態に変換する次述の情報圧縮処理を行う。
情報圧縮処理は、3次元形状情報hS及び各局所2次元情報h(k)のそれぞれに対して同様の手法を用いて行われるが、ここでは、局所2次元情報h(k)に対して情報圧縮処理を施す場合について詳細に説明する。
局所2次元情報h(k)は、複数のサンプル顔画像から予め取得される当該局所領域の平均情報(ベクトル)have(k)と、複数のサンプル顔画像をKL(Karhunen-Loeve)展開することによって予め算出される当該局所領域の固有ベクトルのセットで表現される行列P(k)(次述)とを用いて式(7)のように基底分解された形式で表すことができる。この結果、局所2次元顔情報量(ベクトル)c(k)が、局所2次元情報h(k)についての圧縮情報として取得される。
Figure 2007102601
上述のように式(7)中の行列P(k)は、複数のサンプル顔画像から算出される。具体的には、行列P(k)は、複数のサンプル顔画像をKL展開することによって求められる複数の固有ベクトルのうち、固有値の大きい数個の固有ベクトル(基底ベクトル)のセットとして求められる。これらの基底ベクトルは、基底ベクトルデータベース29に記憶されている。顔画像についてのより大きな特徴を示す固有ベクトルを基底ベクトルとしてその顔画像を表現することによれば、顔画像の特徴を効率的に表現することが可能となる。
例えば、口を含む局所領域(図10に示すグループR1)の局所2次元情報h(R1)を基底分解された形式で表現する場合を考える。当該局所領域の固有ベクトルのセットPが、3つの固有ベクトルP1、P2及びP3によってP=(P1,P2,P3)と表現されているとすると、局所2次元情報h(R1)は、当該局所領域の平均情報have(R1)と固有ベクトルのセットP1,P2,P3を用いて式(8)のように表される。平均情報have(R1)は、様々なサンプル顔画像についての複数の局所2次元情報(ベクトル)を対応要素ごとに平均して得られるベクトルである。なお、複数のサンプル顔画像は、適度なばらつきを有する標準的な複数の顔画像を用いればよい。
Figure 2007102601
また、上式(8)は、顔情報量c(R1)=(c1,c2,c3)Tによって元の局所2次元情報を再現することが可能であることを示している。すなわち、顔情報量c(R1)は、グループR1からなる局所領域の局所2次元情報h(R1)を圧縮した情報といえる。
上記のようにして取得された局所2次元顔情報量c(R1)をそのまま認証動作に用いてもよいが、この実施形態ではさらなる情報圧縮を行う。具体的には、局所2次元顔情報量c(R1)が表す特徴空間を個人間の分離を大きくするような部分空間へと変換する処理を更に行う。より詳細には、式(9)に表されるようベクトルサイズfの局所2次元顔情報量c(R1)をベクトルサイズgの局所2次元特徴量d(R1)に低減させる変換行列Aを考える。これにより、局所2次元顔情報量c(R1)で表される特徴空間を局所2次元特徴量d(R1)で表される部分空間に変換することができ、個人間の情報の相違が顕著になる。
Figure 2007102601
ここで、変換行列Aはf×gのサイズを有する行列である。この変換行列Aについては、例えば主成分(PCA:Principal Component Anaysis)分析により得られた特徴空間の主成分の中から、級間分散と級内分散との比率(F比)が大きくなる主成分をg個選び出すことによって、変換行列Aを決定することができる。
また、上述した局所2次元情報h(R1)について行った情報圧縮処理と同様の処理を他の全ての局所領域、具体的には後述の第1特徴点を含む局所領域R2〜R4(図10)と、後述の第2特徴点を含む局所領域U1〜U7(図10)にも実行することによって、各局所領域についての局所2次元顔特徴量d(k)を取得することができる。ここで、第2特徴点を含む局所領域U1〜U7については、後述の第2特徴点候補領域T1〜T7(図13)と一致させるようにしても良い。一方、3次元形状情報hSに対しても同様の手法を適用することにより3次元顔特徴量dSを取得することができる。
上記ステップSP8を経て取得される3次元顔特徴量dSと局所2次元顔特徴量d(k)とを組み合わせた顔特徴量dは、ベクトル形式で式(10)のように表すことができる。
Figure 2007102601
以上に述べたステップSP1〜SP8の工程において、入力される認証対象者HMaの顔画像G1、G2から当該対象者の顔特徴量d(Ad)が取得される。認証対象者HMaの顔特徴量d(Ad)は、登録者HMbの顔画像に関する特徴量d(Bd)とともに、以下で説明するステップSP9,SP10の処理において用いられる。
<登録者HMaと認証対象者HMbとの照合処理等>
図6を参照して、ステップSP9以降の処理について説明する。
ステップSP9、SP10においては、上述の2つの顔特徴量Ad,Bdを用いて顔認証が行われる。
具体的には、認証対象者と比較対象者との類似度である総合類似度Reが算出され(ステップSP9)、その後、この総合類似度Reに基づく認証対象者と比較対象者との比較動作等(ステップSP10)が行われる。総合類似度Reは、3次元顔特徴量dSから算出される3次元類似度ReSと、局所2次元顔特徴量d(k)から算出される局所2次元類似度Re(k)とに加えて、3次元類似度ReSと局所2次元類似度Re(k)との重みを規定する適宜の重み付け係数(以下、単に「重み係数」とも称する)WT,WS(式(11)参照)を用いて算出される。
Figure 2007102601
ステップSP9では、人物データベース30に予め登録されている比較対象者の顔特徴量d(Bd)と、上記ステップSP1〜ステップSP8を経て算出された認証対象者の顔特徴量d(Ad)との類似性の評価が行われる。具体的には、登録されている顔特徴量(ReSM及びRe(k)M)と認証対象者の顔特徴量(ReSI及びRe(k)I)との間で類似度計算が実行され、3次元類似度ReSと局所2次元類似度Re(k)とが算出される。
さて、認証対象者と比較対象者との3次元類似度ReSは、式(12)に示されるように対応するベクトル同士のユークリッド距離ReSを求めることによって取得される。
Figure 2007102601
また、局所2次元の類似度Re(k)は、式(13)に示されるように対応する局所領域同士における特徴量の各ベクトル成分ごとのユークリッド距離Re(k)を求めることによって取得される。
Figure 2007102601
そして、式(14)に示されるように、3次元の類似度ReSと局所2次元の類似度Re(k)とを、所定の重み係数WT,WSを用いて合成し、認証対象者(認証対象物)と比較対象者(比較対象物)との類似度である総合類似度Reを取得することができる。
Figure 2007102601
次に、ステップSP10においては、総合類似度Reに基づいて認証判定が行われる。具体的には、認証対象者HMaの顔特徴量と特定の登録者(比較対象者)HMbの顔特徴量との類似度Reを一定の閾値TH1と比較することによって、認証対象者HMaと比較対象者HMbとの同一性が判定される。詳細には、類似度Reが一定の閾値TH1よりも小さいときに認証対象者が比較対象者と同一人物であると判定される。
<モデルフィッティング>
以下では、図6のステップSP5に示すモデルフィッティングについて詳しく説明する。
図11は、モデルフィッティングの動作を説明するための図である。また、図12は、3次元の顔の標準モデルを示している。
図12に示されるように、標準的な顔の特徴(サイズ・形状)を備えている標準モデルは、頂点データとポリゴンデータとで構成され、3次元モデルデータベース28(図5)として記憶部3等に記憶されている。このポリゴンデータは、標準モデルの表面を微小な多角形(例えば、三角形)のポリゴンに分割し、ポリゴンを数値データとして表現したものである。そして、顔の標準モデルには、顔の特徴的な部位を示す特徴点Q1〜Q23(図7)に対応する23個の特徴点(以下では「第1特徴点」という)が頂点データに定義されている。
ここで、第1特徴点とは、図7に示す特徴点Q1〜Q23のように人物の顔部品(目や口、鼻、眉など)において定められる点であり、具体的には目の位置を規定する点(例えば目の輪郭上にある点、目尻、目頭、瞳の中心点)、口の位置を規定する点(例えば口の輪郭上にある点、口の左右の端点)、鼻の位置を規定する点(例えば小鼻・鼻孔の輪郭上にある点、鼻の下面上の点)、眉の位置を規定する点(例えば眉の輪郭上にある点、眉の左右の端点)などが該当する。すなわち、第1特徴点は、個人差なく万人共通で顔に表れる特徴箇所となっている。
一方、顔の標準モデルには、顔部品を除く顔の部分に定められる点である第2特徴点の候補領域(以下では「第2特徴点候補領域」という)が定義されている。この第2特徴点候補領域としては、皺になりやすい顔の領域、つまり皺の検出が可能な顔の特定部分に関する箇所が選定される。例えば図13に示すように眉間の部分T1、鼻と口の(鼻から口にかけての)両脇の部分T2、T3、目の下の部分T4、T5や鼻筋の両脇の部分T6、T7などが第2特徴点候補領域として設定される。第2特徴点候補領域については、人によって全ての第2特徴点候補領域で皺が表れたり、一部の第2特徴点候補領域でしか皺が表れなかったりするため、個人差のある個人固有の特徴箇所となっている。
以上のように人物の顔に表れる第1特徴点および第2特徴点それぞれに対応する第1特徴箇所(第1特徴点)と第2特徴箇所(第2特徴点候補領域)とに関する3次元位置情報が記述された被写体の標準モデルを用いて行われるモデルフィッティングの動作を、図11を参照して説明する。
まず、ステップST1a、ST1bでは、認証対象者HMaの画像G1、G2をコントローラ10に入力する。この動作は、図6のステップSP1で行われる動作に対応している。
次に、ステップST2a、ST2bでは、ステップST1a、ST1bで入力された画像G1、G2から、第1特徴点を検出する。この動作は、図6のステップSP3で行われる動作に対応している。
ステップST3では、ステップST2a、ST2bにおいて画像G1、G2から検出された第1特徴点に基づき、図8に示すように三角測量の原理で第1特徴点の3次元座標が算出される。すなわち、2枚の画像G1、G2に基づき、認証対象者HMaの顔における第1特徴点の3次元位置情報が取得される。この動作は、図6のステップSP4で行われる動作が対応している。
ステップST4では、図12に示す標準モデルを、ステップST3で算出された第1特徴点に基づき変形する。
このモデル変形においては、まずステップST3で3次元再構成された第1特徴点の座標を用いて、標準モデルの位置、傾きおよびスケールを求め、標準モデルを移動させる。これにより、認証対象者HMaから計測された計測点(第1特徴点)に対する標準モデルの概略位置合わせが行えることとなる。なお、この標準モデルの位置合わせについては後で詳述する。
次に、標準モデルに設定される第1特徴点を、認証対象者HMaから計測された第1特徴点に3次元的に一致させるように標準モデルを変形する。なお、このモデル変形の方法については後で詳述する。
以上のステップST4の動作により、ステップST3で取得された第1特徴点の3次元位置情報に基づき、この3次元情報と標準モデルにおける第1特徴点の3次元位置情報とを対比させることによる標準モデルの変形が行われ、変形モデルが生成されることとなる。
ステップST5a、ST5bでは、ステップST4で変形された標準モデルと、ステップST1a、ST1bで入力された画像G1、G2に基づき、第2特徴点を検出する。この第2特徴点の検出手順について以下で説明する。
まず、ステップST4で変形された標準モデル(変形モデル)に設定される第2特徴点候補領域の3次元情報から、カメラパラメータBiを用いて画像G1上の第2特徴点候補領域T1〜T7(図13)の座標が特定される。そして、特定された画像G1上の第2特徴点候補領域T1〜T7のうち、皺(濃淡変化)が存在する第2特徴点含有領域を抽出する。例えば、図13に示す顔の場合には、第2特徴点候補領域T2〜T5が第2特徴点含有領域として選ばれる。
このように抽出された画像G1の第2特徴点含有領域に対して他方の画像G2上で対応する第2特徴点含有領域の座標を探索する。この探索では、画像G1上で設定された第2特徴点含有領域の皺を囲む矩形領域と、画像G2上における同一サイズの矩形領域との正規化相関値を算出し、相関係数の最も小さくなる座標を第2特徴点含有領域として設定する処理が行われる。
以上のように設定された画像G1および画像G2の第2特徴点含有領域においては、皺の両端の点や途中の点など皺上の点が第2特徴点として検出される。例えば、第2特徴点として図13に示す皺の中間点(中点)Qmが設定される。
ステップST6では、ステップST5a、ST5bで検出された第2特徴点に基づき、ステップST3と同様に第2特徴点の3次元座標が算出される。すなわち、ステップST4で生成された変形モデルと2枚の画像G1、G2とに基づき、認証対象者HMaの顔における第2特徴点の3次元位置情報が取得される。
ステップST7では、ステップST4で変形された標準モデルを、ステップST6で算出された第2特徴点に基づき変形する。
このモデル変形においては、モデル表面を認証対象者HMaから計測された第2特徴点に3次元的に一致させるようにモデル変形を行う。ここでは、第2特徴点が標準モデルに予め定義されていないため、第1特徴点のように計測点とモデル上の設定点との点同士を一致させる動作を行うのではなく、計測された第2特徴点に対してモデル表面を合致させる動作を行うこととする。なお、このモデル変形の方法については後で詳述する。
以上のステップST7の動作により、ステップST6で取得された第2特徴点の3次元位置情報に基づき、この3次元情報とモデル表面の3次元位置情報とを対比させることによる上記の変形モデルの更なる変形が行われ、認証対象者HMaの顔の3次元形状を再現した立体モデルが生成されることとなる。
ステップST7の後には、テクスチャ情報を用いて標準モデルの2次元情報を変更する処理が行われる。具体的には、入力画像G1、G2における各領域のテクスチャ情報が、変形された標準モデル上の対応する領域(ポリゴン)に貼り付けられる(マッピングされる)。
以上のモデルフィッティングの動作により、認証対象者の顔に関する入力情報が反映された個別モデルが生成されることとなる。
<モデル変形について>
図11に示すステップST4、ST7におけるモデル変形の方法について説明する。ただし、図12に示す標準モデルにおいては、第1特徴点Gkが定義されており、標準モデルに設定される少数(標準モデルの頂点数より少数)の制御点TAの群に関する座標を変更することによりモデル形状を一意的に変形できるものとする。
図14は、モデル変形の動作を説明するフローチャートである。
ステップSP11では、標準モデルの位置合わせを行う。
すなわち、図11のステップST3で算出された第1特徴点と標準モデル上の第1特徴点との対応付けを行い、これらの距離が最小となるように標準モデルの位置・方向・サイズを変更する。
具体的には、次の式(15)に示すエネルギー関数E(sii,ti)が最小となるように、各方向に関するモデルの偏倍量si、各方向に関するモデルの回転量αi、各方向に関するモデルの移動量tiを求める。
Figure 2007102601
ここで、kは第1特徴点の数、Mkは位置合わせ後のモデル上の第1特徴点、xは位置合わせ前のモデル上の第1特徴点、Ckは認証対象者HMaから計測された第1特徴点である。
ステップSP12では、第1特徴点とモデルとの距離を示すエネルギーeを計算する。ここで、本実施形態で利用するエネルギーeについては、(1)計測された第1特徴点にモデル上の第1特徴点を近づけようとする外部エネルギーe1、(2)計測された第2特徴点にモデル表面を近づけようとする外部エネルギーe2、(3)過剰な変形を回避してモデル形状を保とうとする内部エネルギーe3があるが、まず(1)〜(3)の各エネルギーについて順に説明する。
(1)外部エネルギーe1について
認証対象者HMaから3次元計測された第1特徴点と標準モデル上の第1特徴点とに関する外部エネルギーe1については、対応する第1特徴点に関する二乗距離を用いて次の式(16)により計算される。
Figure 2007102601
ここで、TAは制御点の群、Fkは計測された第1特徴点の座標、Gkはモデル上の第1特徴点、Nは第1特徴点の数である。
(2)外部エネルギーe2について
認証対象者HMaから3次元計測された第2特徴点と標準モデルの表面とに関する外部エネルギーe2については、図15に示すように第2特徴点Pkと、それを標準モデルの表面に投影した投影点Qkとに関する二乗距離を用いて次の式(17)により計算される。
Figure 2007102601
ここで、Pkは計測された第2特徴点、Qkは計測点からモデル表面に投影された投影点、Kは第2特徴点の数である。
(3)内部エネルギーe3について
モデル形状を保とうとする内部エネルギーe3については、図16に示すようにモデル変形に用いられる制御点TA間を繋ぐ仮想的なバネ(以下では単に「仮想バネ」ともいう)Vcを考え、この仮想バネVcの変形具合を考慮した次の式(18)により計算される。なお、図16に示すモデル上の点Qcは、制御点TAの移動によって移動される点である。
Figure 2007102601
ここで、Uom、Vomは仮想バネの両端(制御点)の初期値、Um、Vmはモデル変形後の仮想バネの両端、Lomは初期状態における仮想バネの長さでLom=|Uom−Vom|、Mは仮想バネの数、cはバネ定数である。
上記の式(16)および式(18)で表される各エネルギーe1、e3を加算することにより次の式(19)のように第1特徴点に関する総合エネルギーeが算出される。
Figure 2007102601
ここで、w1、w3は、各エネルギーに関するウェイトパラメータである。
上記の総合エネルギーeを最小になるまで制御点TAを移動しモデル変形を行うのが好ましいが、本実施形態ではステップSP13において制御点TAの移動を行う度に総合エネルギーeを計算し予め設定されている閾値εより小さくなった場合(ステップSP14)に、第1特徴点に関するモデル変形を完了することとする。
すなわち、ステップSP11の位置合わせ後から制御点TAに関するn回目の移動の際に計算される総合エネルギーをenとすると、次の不等式(20)を満たす場合に総合エネルギーが最小であると判断して第1特徴点に関するモデル変形を完了させる。
Figure 2007102601
以上のステップSP12〜SP14によって第1特徴点に関するモデル変形が行われるが、以下のステップSP15〜SP17では、第2特徴点に関するモデル変形が行われる。
ステップSP15では、第2特徴点とモデルとの距離を示すエネルギーeを計算する。すなわち、式(17)および式(18)で表される各エネルギーe2、e3を加算することにより次の式(21)のように第2特徴点に関する総合エネルギーeが算出される。
Figure 2007102601
ここで、w2、w3は、各エネルギーに関するウェイトパラメータである。
ステップSP17では、ステップSP15で算出されたエネルギーeが、予め設定されている閾値εより小さくなったかを判定する。すなわち、ステップSP16での制御点TAの移動に関するn回目の移動の際に計算される総合エネルギーをenとすると、上記の不等式(20)を満たす場合に総合エネルギーが最小であると判断して第2特徴点に関するモデル変形を完了させる。
以上の顔認証システム1の動作により、人物の顔に関する複数の撮影画像に基づき算出された第1特徴点の3次元位置に一致させるように標準モデルを変形した後、この変形モデルの形状と複数の撮影画像とに基づき算出された第2特徴点に一致させるようにモデル変形を行うため、人物の顔(被写体)の立体モデルを精度良く生成できる。そして、このように生成された高精度の立体モデルを用いて顔認証を行えば、撮影時の姿勢や光源位置などの影響を排除(補正)できるため、認証精度の向上を図れることとなる。
なお、顔認証システム1においては、図7に示す第1特徴点Q1〜Q23の群を標準モデルに設定するのは必須でなく、これらから選択される一部の第1特徴点を設定するようにしても良い。同様に、図13に示す第2特徴点の候補領域T1〜T7の群を標準モデルに設定するのは必須でなく、これらから選択される一部の第2特徴点候補領域を設定するようにしても良い。
<D.別の実施形態>
◎上記の実施形態においては、入力された顔(認証対象者の顔)が特定の登録者であるか否かを判定する場合について説明したが、これに限定されず、認証対象者が複数の登録者のうちの誰であるかを判定する顔識別に上記の思想を適用するようにしてもよい。例えば、登録されている複数の人物の各顔特徴量と認証対象者の顔特徴量との類似度を全て算出して、各比較対象者(登録者)と認証対象者との同一性をそれぞれ判定すればよい。また、特定数の人物に絞り込むことで足りる場合には、複数の比較対象者のうち、その同一性が高い順に特定数の比較対象者を選択するようにしてもよい。
◎上記の実施形態においては、式(14)に示すように、テクスチャ情報だけでなく形状情報をも用いて認証対象者と登録者との同一性を判定しているが、これに限定されず、テクスチャ情報だけを用いて認証対象者と登録者との同一性を判定してもよい。
◎上記の実施形態については、別の実施形態として次のような態様も想定される。具体的には、自席のパーソナルコンピュータ(パソコンとも称する)から印刷出力指示を行い、若干離れた場所に載置された共用プリンタにおいて印刷出力する際に、印刷出力の受取人が印刷出力指示を行った本人であるか否かを認証する本人認証技術に適用することができる。
詳細には、まず、印刷出力指示時に、自席に配置された複眼視のカメラによって自分(印刷指示者)の顔画像を撮影した画像データをプリントデータとともにプリンタドライバに渡す。プリンタドライバはネットワーク上に配置された共用プリンタに画像データとプリントデータとを伝送する。そして、受取時において受取人がプリンタに近づくと、プリンタ側に設けられた複眼視のカメラが印刷出力の受取人の顔画像を撮影し、受取人と印刷指示者とが同一であるか否かを上記実施形態と同様の動作によってプリンタが判定する。これによれば、上記実施形態と同様の効果を得ることができる。
◎上記の実施形態においては、PCA法を用いて式(9)に示す変換行列Aを求めるのは必須でなく、EM(Eigenspace Method)法を用いて級間分散と級内分散との比率が大きくなるように特徴空間を射影する変換行列Aを求めるようにしても良い。また、2クラスの問題を扱うFisherの判別分析法を多クラスの問題に一般化した重判別分析(MDA:Multiple Discriminant Analysis)法を用いて、級間分散と級内分散との比率が大きくなるように特徴空間を射影する変換行列Aを求めるようにしても良い。
本発明の実施形態に係る顔認証システム1の概要を示す概念図である。 顔認証システム1を示す構成図である。 コントローラ10の構成概要を示す図である。 コントローラの各種機能構成を示すブロック図である。 個人認証部の詳細な機能構成を示すブロック図である。 コントローラ10の全体動作(認証動作)を示すフローチャートである。 顔画像における特徴的な部位の特徴点(第1特徴点)を示す図である。 2次元画像中の特徴点から3次元座標を算出する模式図である。 光源補正を説明するための図である。 局所2次元情報として用いられる顔の局所領域R1〜R4、U1〜U7を説明するための図である。 モデルフィッティングの動作を説明するための図である。 3次元の顔の標準モデルを示す図である。 標準モデルに定義される第2特徴点候補領域T1〜T7を説明するための図である。 モデル変形の動作を説明するフローチャートである。 特徴点Pkと、そのモデル表面への投影点Qkとを説明するため図である。 仮想バネVcを説明するための図である。
符号の説明
1 顔認証システム
10 コントローラ
G1〜G4 画像(撮影画像)
HMa 認証対象者
HMb 登録者
Q1〜Q23 第1特徴点
Qm 第2特徴点
T1〜T7 第2特徴点候補領域

Claims (10)

  1. 被写体を異なる視点から撮影して得られた複数の画像に基づき、前記被写体の3次元形状を表現した立体モデルを生成する立体モデル生成装置であって、
    (a)前記被写体に表れる第1特徴点および第2特徴点それぞれに対応する第1特徴箇所と第2特徴箇所とに関する3次元位置情報が記述された被写体の標準モデルを記憶する記憶手段と、
    (b)前記複数の画像に基づき、前記被写体における第1特徴点の3次元位置情報を取得する第1情報取得手段と、
    (c)前記第1情報取得手段により取得された第1特徴点の3次元位置情報に基づき前記標準モデルを変形し、変形モデルを生成する第1変形手段と、
    (d)前記変形モデルと前記複数の画像とに基づき、前記被写体における第2特徴点の3次元位置情報を取得する第2情報取得手段と、
    (e)前記第2情報取得手段により取得された第2特徴点の3次元位置情報に基づき前記変形モデルを更に変形し、前記立体モデルを生成する第2変形手段と、
    を備えることを特徴とする立体モデル生成装置。
  2. 請求項1に記載の立体モデル生成装置において、
    前記第1特徴点は、人物の顔部品において定められる点であり、
    前記第2特徴点は、前記顔部品を除く顔の部分に定められる点であることを特徴とする立体モデル生成装置。
  3. 請求項2に記載の立体モデル生成装置において、
    前記顔部品は、目、口、鼻および眉からなる群から選択される少なくとも1の部品を含むことを特徴とする立体モデル生成装置。
  4. 請求項1ないし請求項3のいずれかに記載の立体モデル生成装置において、
    前記第1特徴点は、目の輪郭上の点、目尻の点、目頭の点および瞳の中心点からなる群から選択される少なくとも1の点を含むことを特徴とする立体モデル生成装置。
  5. 請求項1ないし請求項4のいずれかに記載の立体モデル生成装置において、
    前記第1特徴点は、口の輪郭上の点、口の左端の点および口の右端の点からなる群から選択される少なくとも1の点を含むことを特徴とする立体モデル生成装置。
  6. 請求項1ないし請求項5のいずれかに記載の立体モデル生成装置において、
    前記第1特徴点は、小鼻の輪郭上の点、鼻孔の輪郭上の点および鼻の下面上の点からなる群から選択される少なくとも1の点を含むことを特徴とする立体モデル生成装置。
  7. 請求項1ないし請求項6のいずれかに記載の立体モデル生成装置において、
    前記第1特徴点は、眉の輪郭上の点、眉の左端の点および眉の右端の点からなる群から選択される少なくとも1の点を含むことを特徴とする立体モデル生成装置。
  8. 請求項1ないし請求項7のいずれかに記載の立体モデル生成装置において、
    前記第2特徴箇所は、皺の検出が可能な顔の特定部分に関する箇所であることを特徴とする立体モデル生成装置。
  9. 請求項8に記載の立体モデル生成装置において、
    前記顔の特定部分は、眉間の部分、鼻と口の両脇の部分、目の下の部分および鼻筋の両脇の部分からなる群から選択される少なくとも1の部分を含むことを特徴とする立体モデル生成装置。
  10. 被写体を異なる視点から撮影して得られた複数の画像に基づき、前記被写体の3次元形状を表現した立体モデルを生成する立体モデル生成方法であって、
    (a)前記被写体に表れる第1特徴点および第2特徴点それぞれに対応する第1特徴箇所と第2特徴箇所とに関する3次元位置情報が記述された被写体の標準モデルを記憶する記憶工程と、
    (b)前記複数の画像に基づき、前記被写体における第1特徴点の3次元位置情報を取得する第1情報取得工程と、
    (c)前記第1情報取得工程において取得された第1特徴点の3次元位置情報に基づき前記標準モデルを変形し、変形モデルを生成する第1変形工程と、
    (d)前記変形モデルと前記複数の画像とに基づき、前記被写体における第2特徴点の3次元位置情報を取得する第2情報取得工程と、
    (e)前記第2情報取得工程において取得された第2特徴点の3次元位置情報に基づき前記変形モデルを更に変形し、前記立体モデルを生成する第2変形工程と、
    を備えることを特徴とする立体モデル生成方法。
JP2005293380A 2005-10-06 2005-10-06 立体モデル生成装置および立体モデル生成方法 Active JP4539519B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005293380A JP4539519B2 (ja) 2005-10-06 2005-10-06 立体モデル生成装置および立体モデル生成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005293380A JP4539519B2 (ja) 2005-10-06 2005-10-06 立体モデル生成装置および立体モデル生成方法

Publications (2)

Publication Number Publication Date
JP2007102601A true JP2007102601A (ja) 2007-04-19
JP4539519B2 JP4539519B2 (ja) 2010-09-08

Family

ID=38029466

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005293380A Active JP4539519B2 (ja) 2005-10-06 2005-10-06 立体モデル生成装置および立体モデル生成方法

Country Status (1)

Country Link
JP (1) JP4539519B2 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8537155B2 (en) 2009-06-25 2013-09-17 Samsung Electronics Co., Ltd. Image processing apparatus and method
JP2016053835A (ja) * 2014-09-03 2016-04-14 東芝テック株式会社 情報処理装置及びプログラム
US9858471B2 (en) 2015-09-09 2018-01-02 Kabushiki Kaisha Toshiba Identification apparatus and authentication system
US9881204B2 (en) 2015-06-26 2018-01-30 Kabushiki Kaisha Toshiba Method for determining authenticity of a three-dimensional object
WO2020029572A1 (zh) * 2018-08-10 2020-02-13 浙江宇视科技有限公司 人脸特征点检测方法及装置、设备及存储介质
CN111429394A (zh) * 2019-01-08 2020-07-17 阿里巴巴集团控股有限公司 基于图像的检测方法、装置、电子设备和存储介质
JP2023038885A (ja) * 2021-09-07 2023-03-17 台達電子工業股▲ふん▼有限公司 画像処理方法及び画像処理システム
EP4231239A2 (en) 2022-01-28 2023-08-23 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002015310A (ja) * 2000-06-30 2002-01-18 Minolta Co Ltd 点群に面をフィッティングする方法およびモデリング装置
JP2005078646A (ja) * 2003-08-29 2005-03-24 Samsung Electronics Co Ltd 映像に基づいたフォトリアリスティックな3次元の顔モデリング方法及び装置
JP2005242432A (ja) * 2004-02-24 2005-09-08 Nec Soft Ltd 顔認証システム及びその処理方法及びそのプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002015310A (ja) * 2000-06-30 2002-01-18 Minolta Co Ltd 点群に面をフィッティングする方法およびモデリング装置
JP2005078646A (ja) * 2003-08-29 2005-03-24 Samsung Electronics Co Ltd 映像に基づいたフォトリアリスティックな3次元の顔モデリング方法及び装置
JP2005242432A (ja) * 2004-02-24 2005-09-08 Nec Soft Ltd 顔認証システム及びその処理方法及びそのプログラム

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8537155B2 (en) 2009-06-25 2013-09-17 Samsung Electronics Co., Ltd. Image processing apparatus and method
JP2016053835A (ja) * 2014-09-03 2016-04-14 東芝テック株式会社 情報処理装置及びプログラム
US9881204B2 (en) 2015-06-26 2018-01-30 Kabushiki Kaisha Toshiba Method for determining authenticity of a three-dimensional object
US9858471B2 (en) 2015-09-09 2018-01-02 Kabushiki Kaisha Toshiba Identification apparatus and authentication system
WO2020029572A1 (zh) * 2018-08-10 2020-02-13 浙江宇视科技有限公司 人脸特征点检测方法及装置、设备及存储介质
US11475708B2 (en) 2018-08-10 2022-10-18 Zhejiang Uniview Technologies Co., Ltd. Face feature point detection method and device, equipment and storage medium
CN111429394A (zh) * 2019-01-08 2020-07-17 阿里巴巴集团控股有限公司 基于图像的检测方法、装置、电子设备和存储介质
CN111429394B (zh) * 2019-01-08 2024-03-01 阿里巴巴集团控股有限公司 基于图像的检测方法、装置、电子设备和存储介质
JP2023038885A (ja) * 2021-09-07 2023-03-17 台達電子工業股▲ふん▼有限公司 画像処理方法及び画像処理システム
JP7405448B2 (ja) 2021-09-07 2023-12-26 台達電子工業股▲ふん▼有限公司 画像処理方法及び画像処理システム
EP4231239A2 (en) 2022-01-28 2023-08-23 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and program

Also Published As

Publication number Publication date
JP4539519B2 (ja) 2010-09-08

Similar Documents

Publication Publication Date Title
JP4645411B2 (ja) 認証システム、登録システム及びプログラム
JP4696778B2 (ja) 認証装置、認証方法及びプログラム
JP4752433B2 (ja) モデリングシステム、モデリング方法およびプログラム
JP4653606B2 (ja) 画像認識装置、方法およびプログラム
JP4539519B2 (ja) 立体モデル生成装置および立体モデル生成方法
US7876931B2 (en) Face recognition system and method
JP4950787B2 (ja) 画像処理装置及びその方法
JP4780198B2 (ja) 認証システム及び認証方法
JP4284664B2 (ja) 三次元形状推定システム及び画像生成システム
KR101007276B1 (ko) 3차원 안면 인식
US20150347833A1 (en) Noncontact Biometrics with Small Footprint
JP2007058397A (ja) 認証システム、登録システム及び証明用媒体
JP4539494B2 (ja) 認証装置、認証方法及びプログラム
JP4992289B2 (ja) 認証システム、認証方法、及びプログラム
WO2005020030A2 (en) Multi-modal face recognition
JP2002157595A (ja) 物体照合方法,物体照合装置,およびそのプログラムを記録した記録媒体
JP5018029B2 (ja) 認証システム及び認証方法
Wang et al. Facial feature extraction in an infrared image by proxy with a visible face image
Tu et al. Automatic face recognition from skeletal remains
CN111815768A (zh) 三维人脸重建方法和装置
JP4956983B2 (ja) 認証システム、認証方法およびプログラム
JP4525523B2 (ja) 認証システム、認証方法およびプログラム
JP4956967B2 (ja) 認証システム、認証方法およびプログラム
JP2023006150A (ja) 顔認証システム
Calvo et al. 2d-3d mixed face recognition schemes

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080424

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20080611

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091222

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100219

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100601

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100614

R150 Certificate of patent or registration of utility model

Ref document number: 4539519

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130702

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350