JP3738320B2 - 特定立体画像と2次元画像に映し出された被写体の照合方法 - Google Patents

特定立体画像と2次元画像に映し出された被写体の照合方法 Download PDF

Info

Publication number
JP3738320B2
JP3738320B2 JP2003352430A JP2003352430A JP3738320B2 JP 3738320 B2 JP3738320 B2 JP 3738320B2 JP 2003352430 A JP2003352430 A JP 2003352430A JP 2003352430 A JP2003352430 A JP 2003352430A JP 3738320 B2 JP3738320 B2 JP 3738320B2
Authority
JP
Japan
Prior art keywords
dimensional
subject
dimensional image
specific
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003352430A
Other languages
English (en)
Other versions
JP2005115847A (ja
Inventor
登 寳山
正次 橋本
光大 山本
一教 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Power Ltd
Original Assignee
Babcock Hitachi KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Babcock Hitachi KK filed Critical Babcock Hitachi KK
Priority to JP2003352430A priority Critical patent/JP3738320B2/ja
Publication of JP2005115847A publication Critical patent/JP2005115847A/ja
Application granted granted Critical
Publication of JP3738320B2 publication Critical patent/JP3738320B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Collating Specific Patterns (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明は、被写体の照合方法に関し、特に防犯カメラや監視カメラなどのビデオ画像または顔写真などと別に取得した3次元の人物データから、生体学、相貌学、形態学上の識別可能な任意の点を用いて該当者と思しき人物を絞込む方法と装置に関して、人物照合・認証、バイオメトリックス技術分野に属する技術である。
2次元のビデオ画像や写真に映し出された被写体の画像と立体の異同識別、より具体的には、監視カメラや防犯カメラなどで撮影される特定人物の2次元のビデオ画像や顔写真とこれらとは別に3次元形状データを取得された複数の人物との異同識別を行う方法が提案されている。
例えば、2次元のビデオ画像や顔写真と別に取得された人物の3次元形状データに基づく平面投影画像とをディスプレイ画面に並列に表示して、仮想空間内で回転させるように人物の3次元形状データを変換することにより、その平面投影画像を変化させつつ、両者をスーパーインポーズ(重ね合わせ)して比較照合することにより、異同識別を行うものでありる。
下記に列挙する従来技術は、ディスプレイ画面に表示された被写体と人物とを目視による画像の重なりや数値化された一致度を確認しながら、回転を微調整して最適な方向を向くように3次元形状データに基づく平面投影画像の表示を変化させることを想定している。従って、2次元画像の被写体と3次元形状データを取得された人物との「一対一」の最終的な異同識別を行うのに適した方法である。
特開2000−306106号公報 吉野 他著 「3次元顔貌計測装置を応用した顔写真ビデオスーパーインポーズシステムの製作」 科学警察研究所報告 法科学編、Vol.48、No.4、p149〜158、1995 Mineo Yoshino 「Recent Advances in Facial Image Identification」」鑑識科学、7(1)、1−17(2002) Mineo Yoshino etc.、 「Individual identification of disguised faces by morphometrical matching」」 Forensic Science International 127(2002)97-103 Mineo Yoshino etc. 「Assessment of Computer-assisted Comparison between 3D and 2D Facial Images」鑑識科学、5(1)、9-15(2000) Mineo Yoshino etc. 「Computer-assisted facial image identification system using a 3-D physiognomic range finder」 Forensic Science International 109(2000)225-237
照合に用いられる3次元形状データは大量になる(例えば年間数十万人分)ため、特定の2次元画像の被写体と全ての3次元形状データを取得された人物とを「一対一で照合」するのは多大な時間と労力を要し困難である。
最終鑑定までの処理を早期に行うには、、該当者と思しき人物の抽出・絞り込みを効率よく行なうことが必要である。
また、例えば、監視カメラの設置場所は多様であり、被写体の向きも時々刻々変化するように、一般に2次元画像の撮影点に対する被写体の向きは一様ではない。即ち正面向きを基準とした被写体の3次元座標まわりの「回転角は様々である」から、照合すべき被写体の向きが変わっても、迅速かつ再現性よく抽出できることが望まれる。
そこで、本発明の課題は、人物の照合をはじめとする、特定立体の大量の3次元データ(例えば数十万件)のデータベースから写真などの被写体の2次元データを基に絞り込むのに適した特定立体と2次元画像に映し出された被写体と照合方法を提供することである。
本発明の課題は、次の解決手段で解決される。
請求項1記載の発明は、2次元画像上に写し出された被写体の撮影点に対する向きを決定する第1の工程と、データベースに保存された複数の立体の3次元形状データを該立体が前記2次元画像の被写体の撮影点に対する向きと同一方向を向くように各立体の3次元形状データを一斉に座標変換する第2の工程と、前記座標変換された立体を平面上に投影して画像データを生成する第3の工程と、前記投影した複数の立体の画像データと、前記2次元画像上に写し出された被写体との、相互に対応する識別可能な任意の点を3点以上指定する第4の工程と、前記識別可能な任意の点の間の距離を複数の立体の画像データ及び被写体について、それぞれ相互に対応するものを2組以上求める第5の工程と、前記複数の立体及び被写体ごとに、前記第5の工程で求めた2組以上の距離の比(示数)を求める第6の工程と、前記複数の立体ごとに、前記第6の工程で求めた距離の比と対応する被写体の距離の比との差を求める第7の工程と、前記二つの距離の比(示数)の差の絶対値又はその総和の大小により複数の立体に順位をつける第8の工程とを有する特定立体画像と2次元画像に映し出された被写体の照合方法である。
請求項2記載の発明は、前記第2の工程が、(1) 前記2次元画像上に写し出された被写体を基にして被写体の撮影点に対する向きに3次元空間上に仮想3次元モデルを形成し、該仮想3次元モデルのx、y、z軸まわりの回転角度(α、β、γ)を調整して、前記被写体の撮影点に対する被写体の向きと同じ向きにする方法、又は(2) データベースに保存された複数の立体の3次元形状データの中から特定の立体を選択し、この立体と2次元画像上に写し出された被写体との相互に対応する識別可能な任意の点をそれぞれ3点選択し、該立体を平面上に投影した画像の識別可能な任意の点を結んで形成される三角形と、被写体の識別可能な任意の点を結んで形成される三角形をそれぞれ表示し、表示された前記2つの三角形がほぼ相似形となるように前記立体を仮想空間上で回転させたときの当該立体のx、y、z軸まわりの回転の角度(α、β、γ) を前記被写体の撮影点に対する被写体の向きとする方法のいずれかであり、前記第2の工程は、前記データベースに保存された複数の立体の3次元形状データをx、y、z軸まわりに角度(α、β、γ)で回転させることを特徴とする請求項1記載の特定立体画像と2次元画像に映し出された被写体の照合方法である。
請求項3記載の発明は、前記立体が、人間の頭部または顔であり、前記2次元画像上に写し出された被写体は、人間の頭部または顔を含むものである請求項1記載の特定立体画像と2次元画像に映し出された被写体の照合方法である。
請求項4記載の発明は、前記識別可能な任意の点の間の距離が、内眼角幅、外眼角幅、眼裂幅、鼻幅、口裂幅、セリオン・ストミオン高、鼻根顔高、セリオン放射径、プロナサーレ放射径、ストミオン放射径のいずれかより選択される請求項3記載の特定立体画像と2次元画像に映し出された被写体の照合方法である。
請求項5記載の発明は、出身地や性別、年齢、身長、人種などのデータを用いて1次絞込みを行い、その結果をもとに前記3次元データ及び前記2次元データを用いる請求項4記載の特定立体画像と2次元画像に映し出された被写体の照合方法である。
請求項6記載の発明は、特定立体の3次元形状データから得られる画像と2次元画像に映し出された被写体画像を含む2以上の画像を互いに照合する方法であって、平面に投影された特定立体の3次元形状データに含まれる少なくとも3点の識別可能な任意の点(3DP)を結ぶ2以上の前記平面上における距離(3DL)の比(3R)として表される示数を求める第1の工程と、2次元画像に映し出された被写体の前記特定立体の識別可能な任意の点に対応する識別可能な任意の点(2DP)を結ぶ2以上の距離(2DL)の比(2R)として表される示数を求める第2の工程と、複数の特定立体の前記距離の比(3R1,3R2,・・・)である示数と、2次元画像に映し出された被写体の対応する前記距離の比(2R1,2R2,・・・)である示数との差(3R1−2R1, 3R2−2R2,・・・)を求める第3の工程とを有する特定立体画像と2次元画像に映し出された被写体の照合方法である。
請求項7記載の発明は、前記第1の工程が、前記複数の特定立体の3次元形状データを座標変換し、それぞれを平面に投影して得られる第1の画像の各々に含まれる少なくとも3点の識別可能な任意の点(3DP')を結ぶ2以上の距離(3DL1, 3DL2,・・・)の比(3R)として表される示数を求める工程であり、前記第2の工程は、前記2次元画像に映し出された被写体の前記平面に投影された特定立体の識別可能な任意の点(3DP')に対応する識別可能な任意の点(2DP)を結ぶ2以上の距離(2DL1,2DL2,・・・)の比(2R)である示数を求める工程である請求項6記載の特定立体と2次元画像に映し出された被写体の照合方法である。
請求項8記載の発明は、前記第3の工程で求められた差(3R1−2R1, 3R2−2R2,・・・)の絶対値の和を求め、前記複数の特定立体に対して、その和の大小に応じて順位をつける請求項7記載の特定立体と2次元画像に映し出された被写体の照合方法である。
請求項9記載の発明は、前記第1の工程の複数の特定立体の3次元形状データの座標変換は、a) 原点を定めた仮想3次元モデルを生成する工程、b) 前記仮想3次元モデルと前記2次元画像に映し出された被写体とを表示装置上に重ね合わせる工程、c) 前記仮想3次元モデルに含まれる複数の識別可能な任意の点(VP)を通る少なくとも一つの第1の線(VC)と、前記2次元画像に映し出された被写体の前記識別可能な任意の点(VP)に対応する複数の識別可能な任意の点(2DP')を通る少なくとも一つの第2の線(2DC)とを特定する工程、d) 前記第1の線(VC)と第2の線(2DC)とが近似するように、前記仮想3次元モデルを前記原点を基準にxyz軸に対して回転させ、該仮想3次元モデルと前記2次元画像との向きに近似させる工程、e) 工程d)における前記仮想3次元モデルのxyz軸に対する回転角(α、β、γ)を求める工程を含み、求められた回転角(α、β、γ)により、特定立体の3次元形状データそれぞれに含まれる少なくとも3点の識別可能な任意の点(3DP)の座標変換すること請求項7記載の特定立体と2次元画像に映し出された被写体の照合方法である。
請求項10記載の発明は、前記特定立体は、人間の頭部または顔であり、前記2次元画像に映し出された被写体は、人間の頭部または顔を含むものである請求項6記載の特定立体と2次元画像に映し出された被写体の照合方法である。
請求項11記載の発明は、前記識別可能な任意の点(3DP及び2DP)を結ぶ2以上の距離(3DL及び2DL)は、人間の頭部または顔の内眼角幅、外眼角幅、眼裂幅、鼻幅、口裂幅、セリオン・ストミオン高、鼻根顔高、セリオン放射径、プロナサーレ放射径、ストミオン放射径のいずれかより選択される請求項6記載の特定立体と2次元画像に映し出された被写体の照合方法である。
請求項12記載の発明は、出身地や性別、年齢、身長、人種などのデータを用いて1次絞込みを行い、その結果をもとに前記3次元データ及び前記2次元データを用いる請求項11記載の特定立体画像と2次元画像に映し出された被写体の照合方法である。
請求項13記載の発明は、データベースに保存された複数の特定立体の3次元形状データのうち、一部または全部に対して、2次元画像における被写体と同じ向きになるように特定立体の3次元形状データの空間内における向き(x、y、z軸まわりの回転角度)を(α、β、γ)に応じて座標変換し、座標変換された特定立体上の3点以上の識別可能な任意の点(3DP)を選び、該識別可能な任意の点を結ぶ2以上の距離(3DL)の比(3R)として表される示数と、前記識別可能な任意の点(3DP)に対応する前記2次元画像の被写体上の3点以上の識別可能な任意の点(2DP)を結ぶ2以上の距離(2DL)の比(2R)として表される示数とを求め、前記特定立体と被写体の識別可能な任意の点の対応する比(3Rと2R)である示数の差の絶対値を合計した値を前記座標変換した複数の特定立体の3次元形状データについて算出し、該算出された値の大小に応じて3次元形状データに順位をつける特定立体と2次元画像に映し出された被写体の照合方法である。
本発明によると、特定立体、例えば人物の3次元データから抽出した生体学、相貌学及び形態学上の人物(個人)の特徴を表す点を結ぶ距離から比率(以下、示数という)を求め、監視カメラなどで撮影された被写体、例えば人物の2次元画像からそれと同じ示数を算出して、比較照合することで特定立体と2次元画像に映し出された被写体の照合が行われる。
前記3次元データから算出した前記示数と監視カメラなどの2次元データから求めた同じ示数の差は、本人であれば0(ゼロ)に近くなると考えられ、複数積算しても同様である。したがって、この示数の差が小さい人が該当者とみなされ、短時間で該当者と思しき人物を数人までに絞り込むことができる。
本発明によれば、特に大量の3次元データ(例えば数十万件)の特定立体のデータベースの中からカメラなどで撮影された被写体の照合対象となる候補を迅速に絞込ことができる。
特に、様々な場所に設置され、撮影角度が一定でない、監視カメラ画像などによる被写体の2次元画像データに対しても、表示及び照合、さらにはデータを加工することなく迅速に該当者と思しき人物の絞込みが可能であり、例えば2次元画像の被写体と3次元形状データを取得された人物とを一対一で詳細に異同識別するための前段階において、対象となる候補を迅速に絞り込む方法として有用である。
また、遠隔地からでもデータを参照でき、事件現場、さらには海外からでも、照合、絞込が可能となり事件の早期解決が図れる。
その他、空港、企業内または個人宅及びコンピューターなどにおける個体識別・認証などに広く利用することができる。
本発明の特定立体の2次元平面投影画像と2次元画像に映し出された被写体の照合方法として、被疑者の絞込を行う実施例について図面と共に説明する。
図1に3次元データを用いた絞込システムの実施例を示す。本システムは、CCDカメラ31、プロジェクター32、照明33及びこれらの制御やデータ処理用コンピュータ34を備えた、人物の3次元データを取得する3次元モデリングシステム41と画像合成装置38、モニター36、37及びコンピュータ34を備えたスーパーインポーズシステム42、及びデータ保存装置(FD、HHD、MO、CDなど)35、ビデオや写真の画像を入力する画像入力装置40、照合結果などを印刷して出力するプリンター39からなっている。
スーパーインポーズシステム42の構成としては、ソフトウエアで透明度を変えられるもので代用する場合には画像合成装置38を省略してもよい。
図2に人物絞込みのフローを示す。
まず、ステップS1で3次元モデリングシステム41で得た大量の人物の3次元データを取得しておく。前記3次元データを取得するための3次元モデリングシステム用設備を図3に示す。
3次元モデリングシステム41は3次元データを取得する前に、立ち位置63に足を合わせ円筒体62に取り付けた複数のカメラ31(31−a、31−b)と照明具64で顔、頭を主に撮影を行った後、筐体60内で撮影する際、人物66の映像をモニター36で見ながらコンピュータ34内に取得すれば、効率よくデータの取得が可能になる。
このとき、図3には顔前面にカメラ31を多く配置した例を示す。顔前面を網羅するようにカメラ台数を多くすることにより、3次元データを作成する元データ量が増えること及び撮影されたデータの重複される部分が多くなるため、被写体の情報が多く誤差が少なくなり、顔を精度よく3次元データ化することができる。
また、このとき複数の3次元データを相互に比較するために使用する3次元データの原点を一致させておく。例えば、図5に示すように、X軸は耳珠点(12R,12L)を結ぶ直線、Y軸は正中線(4,5,7,13,14,9)を結ぶ直線を通る平面上の線、Z軸はセリオン(鼻根)(4)を通りX軸に垂直で正中線を通る平面上の線を原点とする。
次いでステップS2で図4に示す個人の特徴を表す生体学上の識別可能な任意の点(14点)のいずれかを含むxyz軸座標を個人のデータベースとして、データ保存装置35に保存する。このとき場合によっては、ステップS3に示す出身地(国籍、民族、言語等)、性別、生年月日、身長、血液型、身体的特徴、データ取得時期などを加味して個人のデータベース21とする場合もある。
次に、ステップS4で画像入力装置40により、犯人が撮影された防犯カメラなどのビデオ画像や写真データを取り込み、ビデオ画像や写真に映されている犯人の顔の向き(xyz軸に対する回転角度)と3次元データの2次元平面投影画像が同じ向きになるように3次元データの仮想モデルの向きを調整する。この仮想3次元データモデルの顔の向きは、図6に示す方法で求められる。
図6(a)には、予め3次元データからなる人物の仮想モデルを作成しておき、画像合成装置38やソフトウエアによる前記2次元データとのスーパーインポーズ(重ね合せ)により目の位置や正中線(セリオン、鼻尖、ストミオンを通る線(軸))を合せ、この3次元人物仮想モデルの向き、すなわちxyz軸に対する回転角度を求める。この回転角度をもって、ビデオ画像や写真に写された人物の2次元データの顔の向きとする。
顔の向きを求める別の方法を図6(b)に示す。予め撮影し、採取している複数の人物データの中から防犯カメラや監視カメラなどのビデオ画像や写真に撮影されている犯人像の2次元データと似た3次元データを用いて、該3次元データ及び犯人像である2次元データ上に同じ識別可能な任意の点(図4に示す識別可能な任意の点)を結ぶ三角形を表示させる。そして、それぞれの三角形を合致させることで前記3次元データの顔の向きを前記2次元データ該の顔の向きと同じにする。この三角形は一つでもよいが複数あれば、より正確に顔の向きが求まる。
前記3次元人物仮想モデルの基本形は適宜遠近補正した卵型のモデルであり、例えば年齢、性別、出身地、人種などに応じて典型的なモデルを選択すると後の絞込に好影響を与える。
次いで、必要に応じてステップS5でビデオカメラなどで撮影した際のカメラと犯人の撮影距離を推測し、該撮影距離に基づき3次元データを次に説明する遠近法(パースペクティブ)により表示を修正する。
図7によりパースペクティブ機能の概略を説明する。
人間の頭など3次元の被写体には奥行きがあるので、その撮影距離又は視点距離(被写体とカメラとの距離)により得られる画像が異なる。図7(a)の視点から被写体までの距離は図7(b)の視点から被写体までの距離より大きく、図7に示す平面P位置でのそれぞれの被写体の見え方を右側に太線で書いているが、図7(a)、(b)に示す場合のピラミッド形の被写体の前側の平面P1上での縦方向長さaとa’とは同じであるが、後側の平面P2上の縦方向長さcとc’とは互いに異なって見え、長さb=(a−c)とb’=(a’−c’)は異なって見える。
従って、撮影距離又は視点距離に応じた見え方をパースペクティブ(遠近法)に沿って正しく表示する必要があり、前記図7(a)、(b)に示す場合のピラミッド形の被写体の例では、後側の平面の縦方向長さcとc’を同じにする必要がある。そのために視点角度θとθ’を調整して長さc=c’に合わせて照合する。
前記遠近補正後、必要に応じて向きを求める方法を繰り返し、人物の3次元データの向き、すなわちxyz軸に対する回転角度を求める。この角度をもってビデオカメラなどで撮影された人物の顔の向きとする。
次いで、ステップ6で上記人物の3次元データの向き、すなわち求めたxyz軸に対する回転角度をもとに、図4に示した識別可能な任意の点のxyz座標をビデオ画像などの2次元データと同じ視点(2次元画像の撮影点に相当する)ら見た座標に変換し、視点方向に垂直な平面へ投影した比較照合に必要な識別可能な任意の点間距離を算出する。
上記識別可能な任意の点のxyz座標の座標変換の例を以下に説明する。
該当者と思しき人物のビデオ画像の顔の向きに合わせて、人物の識別可能な任意の点座標データを下記の式により変換する。
Figure 0003738320
ここで、座標系:右手系、回転系:右ネジの規約、
座標変換前の座標を(x、y、z)、変換後の座標を(x’、y’、z’)、
回転角度は、各軸を中心とする角度とし、X軸回りの回転角度α、Y軸回りの回転角度β、Z軸回りの回転角度γとする。(各軸となす角度ではない。)
次いでステップ7のビデオ画像や顔写真と同じ視点方向に対して垂直な2次元平面に投影した2点の識別可能な任意の点を結ぶ距離を次のようにして求める。
例えば上記点P(x,y,z)をy軸回りにτ'度回転した後の座標点P’(x',y',z')について、座標点P’を図4の2つの識別可能な任意の点P1’、P2’であるとして、二つの前記識別可能な任意の点P’1(x1’,y1’,z1’)と識別可能な任意の点P’2(x2',y2',z2'))の距離D1を次のように計算する。
D=((x1’−x22+(y1’−y2')21/2
ステップ8では図8に示すように、前記3次元データの距離D1を算出した識別可能な任意の点に対応するビデオ画像又は顔写真からの2次元データを2つの識別可能な任意の点を結ぶ距離D2を算出する。
図8には外耳上端(10R)と下端(11R)間、耳珠点(12R)とセリオン(4)間、耳珠点(12R)と鼻尖(5)間、耳珠点(12R)とストミオン(13)間、耳珠点(12R)とオトガイ点(9)間、セリオン(4)とストミオン(13)間、又はセリオン(4)とオトガイ点(9)間のそれぞれの距離を求める。
ステップS9で上記3次元データから求めた複数の識別可能な任意の点を結ぶ距離D1の内の2つを選択して、その示数を求める。同様に2次元データから求めた複数の識別可能な任意の点を結ぶ距離D2の内の2つを選択して、その示数(比較パラメータ)を求める。図9、図10にはそれぞれ正面顔データの比較パラメータと斜め顔データの比較パラメータを示す。
前記距離D1、D2でなくこれらの示数を用いる理由は、距離D1、D2は精度を高くしないと相互比較できないが、上記示数を用いることで比較的その精度が高くなくても相互の比較が行えるからである。
例えば、図11に、以下のようにして調べた110人の結果を表す。
(1)同一条件で110人について2次元画像を撮影した。前記110人の母集団について、同一の方向を向いた個体を同一方向・同一距離(斜め45度、3m)から写真撮影した。
(2)110人の母集団について、各個体の3次元形状データを取得した(図2のS1〜S3)。
(3)一つの代表的個体について、図2のステップS4からS6(ステップS5は任意)により、当該顔写真の向きを推定し、全ての個体の3次元形状データをこれと同じ向きとなるように座標変換した。
(4)「示数」の一つ(ストミオン放射径/セリオン放射径)に関し、各個体ごとに写真から求められた示数を縦軸、座標変換後の3次元形状データから求められた示数を横軸として、全ての個体についてプロットしたものが図11であり、その相関係数は0.95であった。
(5)このようにして「正面顔」、「斜め顔」に関し、表1〜表4に示されるような、約100種類の「示数」についてそれぞれ相関係数を求めた。
(6)結果の一例は、表5、表7の右欄に記した。
(7)「示数」は、その基となる識別可能な任意の点をどのように定めるかによって変動する。特に手動による特徴点(識別可能な任意の点)の特定は、操作者の練度やクセ、画像の見易さ等に依存し、誤差を生じる。相関係数が1に近い示数の基となっている識別可能な任意の点は、特定する際に、誤差が生じにくく、再現性が高い点であり、万人に適用しやすいといえる。
図11には前記方法で得られた前記示数(ストミオン放射径/セリオン放射径)データの相関例を示し、110人について横軸には3次元人物データから、縦軸には2次元顔写真データから求めた値を示す。それぞれ求めた示数は相関係数(1に近いほど相関がよいことを表す)が0.95と非常に高い相関を示していると共に、人物特有の値であり、絞込に有効なファクターでもあることが分かる。
しかし、目や鼻などの配置が似た人物や微妙な顔の向きの違いや表情により誤差が生じることもあるので一つの示数だけでは本人を絞り込むことが難しい。
そこで、3次元データと顔写真などの2次元データの複数の識別可能な任意の点を結ぶ距離に関する示数を求め、その差の絶対値を積算(足し合せ)すれば、該当者と思しき人物のその値は最小となるはずである。
そこで、本実施例ではステップ10で、2次元データから求めた前記示数と3次元データから求めた前記示数の差の絶対値の和を次の式で求める。
Σ|(ビデオ画像などから求めた示数−3次元人物データから求めた示数)|
ステップ11では、上記方法で求めた示数の差の絶対値の和が少ない順に順序付けをして数人(10人程度)リストアップして、該当者の候補とする。次いでステップ12でリストアップした人物の3次元データとビデオ画像の2次元データとのスーパーインポーズによる最終判定により該当者を絞り込む。
図示はしないが、本実施例の人物の絞込み方法において、なるべく不変的な点及び誰でも同じ位置を指定できる識別可能な任意の点を選択した方がよいことは明らかである。例えば、眉毛であれば剃ることや、化粧によりその端点の位置は自由に変化する。また、眼鏡をかけている人は斜めの角度から撮影された場合、フレームにより目が隠れ、外眼角を指定することが困難となる。また、オトガイ点は横や斜めから見ると凹凸や境界がはっきり分かるが、正面からでは境界があいまいで判断しずらく、誰もが正確にオトガイ点を指定できるとは限らない点である。そういう点は再現性も悪く間違った人を抽出することになる。
本出願人の会社内110人のデータを用いて絞込を行なった結果、内眼角、外眼角、瞳孔、セリオン(鼻根)、鼻尖、鼻翼、上唇点、口角、オトガイ点、外耳上端、外耳下端、耳珠点、ストミオン及び下唇点の14点を用いて比較照合すれば、上位10人以内に該当者と思しき人物をほぼ抽出できることが分かった。特に顔正面からのデータでは、内眼角、外眼角、瞳孔、セリオン(鼻根)、鼻翼、口角及びストミオンの6点が、顔斜めからのデータでは、セリオン(鼻根)、鼻尖、オトガイ点、耳珠点及びストミオンの5点が確実に選択でき、再現性もよく絞込に非常に有効であることが分かった。
図9に示す「顔正面データの比較パラメータ」と図10に示す「顔斜めデータの比較パラメータ」を用いて、14点の識別可能な任意の点から2点間を結ぶ距離として28個、この28個の距離を用いて示数として100個ほど提案し、絞込に有効な比較パラメータを探した。
各比較パラメータの差を足し合わせた場合、絞込率が低下または向上する比較パラメータがあり、絞込率が向上するものは、個人の特徴(例えば、目の間隔が広い、鼻が高いなど)を表し、かつ絞込に有効なファクターであった。このようにして絞込に有効な比較パラメータを探し、最終的に絞込率が最大となる比較パラメータを示したものが図9(正面顔に対して)、図10(斜め顔に対して)に示すものである。
すなわち顔正面データでは、内眼角1Rと1Lの幅A、外眼角2Rと2Lの幅B、外眼角幅(2R、2L間の距離)から内眼角幅(1R、1L間の距離)を差し引いた幅(B−A)(眼裂幅)C、鼻翼6Rと6Lの幅(鼻幅)D、口角8Rと8Lの幅(口裂幅)E及びセリオン4とストミオン13の間の幅(セリオン・ストミオン高)Fについて、次のような距離の示数(A/B、D/B、E/B、B/F、D/F、E/F及びC/B)である。
また、斜め顔データではセリオン・ストミオン高Fとセリオン4とオトガイ点9の幅(鼻根顔高)G、耳珠点12Rもしくは12Lとセリオン4の幅(セリオン放射径)H、耳珠点12Rもしくは12Lと鼻尖5の幅(プロナサーレ放射径)及び耳珠点12Rもしくは12Lとストミオン13の幅(ストミオン放射径)についての距離の示数(H/G、H/F、J/F、J/H、I/H及びI/J)である。
図12と図13に内眼角幅A、外眼角幅B、眼裂幅C、鼻幅D、口裂幅E、セリオン・ストミオン高Fの6つの個人の特徴を表す距離を使い、内眼角幅/外眼角幅(A/B)、鼻幅/外眼角幅(D/B)、口裂幅/外眼角幅(E/B)、外眼角幅/セリオン・ストミオン幅(B/F)、鼻幅/セリオン・ストミオン幅(D/F)、口裂幅/セリオン・ストミオン幅(E/F)、眼裂幅/外眼角幅(C/B)の7つの比較パラメータを使い正面顔について絞込を行なった結果を示す。
また、図14と図15にセリオン・ストミオン高F、鼻根顔高G、セリオン放射径H、プロナサーレ放射径I、ストミオン放射径Jの5つの個人の特徴を表す距離を使い、セリオン放射径/鼻根顔高(H/G)、セリオン放射径/セリオン・ストミオン高(H/F)、ストミオン放射径/セリオン・ストミオン高(J/F)、ストミオン放射径/セリオン放射径(J/H)、プロナサーレ放射径/セリオン放射径(I/H)、プロナサーレ放射径/ストミオン放射径(I/J)の6つの比較パラメータを使って斜め顔について絞込を実施した結果を示す。
図12〜図15に示す折れ線グラフは、絞込率(前記式に従い最小値を該当者とし、小さい方から順に順位を付けていき、各順位までに入る人の割合を示す)、棒グラフは10位までに絞り込みをした際の各順位の内訳(%)を示す。
また、識別可能な任意の点を抽出する際に、誰でも正確に特定できる点及び誰でも特定しにくい点があり、図12と図13の「絞込結果(正面)」及び図14と図15の「絞込結果(斜め)」は、それぞれ「正面」、「斜め」での「絞込」に適した識別可能な任意の点を選択するために参考にするグラフである。
ここで、「正面」とは、表示画面上の「(2次元)人物画像」を観察したとき、左右それぞれの外眼角、鼻翼、口角が確認できるとき、数値的にはx、y、z軸回りの回転角度が全て±10度の範囲内にある場合をいうものとする。
このときは、少なくとも図9に示した「正面」の示数(比較パラメータ)のいずれかを含めて絞込することが望ましい。
また、「斜め」とは、表示画面上の「(2次元)人物画像」を観察したとき、鼻尖、オトガイ点が確認できるとき、数値的にはx、y、z軸回りの回転角度がどれか一つが±10度以上である場合をいうものとする。
このときは、少なくとも図10に示した「斜め」の示数(比較パラメータ)のいずれかを含めて絞込することが望ましい。
ただし、左右それぞれの外眼角、鼻翼、口角及び鼻尖、オトガイ点が全て確認できるときは、「正面」、「斜め」どちらとしてもよく、絞込に用いるパラメータもいずれかに適するものを用いればよい。
(1)図12、図13の「絞込結果(正面)」等に示す「絞込率」
「絞込率」とは、以下のような割合を指す。
(a)3次元データを取得された母集団に含まれる個体Xi|i=1〜nのそれぞれについて「絞込」の対象となる任意の2次元画像を撮影する。
(b)特定の個体Xi|i=jの2次元画像に注目し、個体Xi|i=1〜nについて本実施例の絞込の操作を行い、個体Xi|i=1〜nの順位付けを行う。
(c)対象となる2次元画像として個体Xi|i=1〜nまで前記(b)の操作を繰り返し(n回)、n通りの順位付け全数に対して、指定された順位(図12、図13の場合、上位10位)までに対象となる2次元画像と同じ個体Xiが入っている割合である。
(2)一方、図12、図13の「絞込結果(正面)」等に示す縦軸の「相対比率」
「相対比率」とは、以下のような比率をいう。
(a)上述の「指定された順位」(図12、図13の場合、上位10位)までに対象となる2次元画像と同じ個体Xiが入っている場合を「全数」とする。
(b)2次元画像と同じ個体Xiが「指定された順位」の各順位にあたる場合の数を各順位ごとに合計した「積算値」を求める。
(c)このとき、「積算値」の「全数」に占める割合を「相対比率」といい、横軸の各「順位」における棒グラフが、これを表している。(したがって1位から10位までの数値の総和は100%)
(d)また、図12、図13で「6位まで」とは、上記「相対比率」を6位まで積算した値をいう。
このような「絞込率」が高く、かつ「上位」(=小さい「順位」)の「相対比率」が高くなるような「示数」(比較パラメータ)、又はその「重ね合わせ」を選択して、「絞込」を行えば、3次元データを取得された母集団中の「2次元画像の被写体」に対応する個体が、「絞込」後の「候補」に含まれる確率が高くなる。
ここで、「重ね合わせ」とは複数の特徴点(識別可能な任意の点)間の距離の示数の間で求めた3次元データと2次元データの示数の差の絶対値の和をいうこととする。
また、上記図12〜図15に示すグラフを得るに当たっての「絞込」に用いる識別可能な任意の点を見出す方法について以下説明する。
(1)表1〜表5について
表1〜表5は、本発明者らが約100種類の「比較パラメータ」について、それぞれを「絞込」に用いたときの「有効性」を調べたもの(一例)である。
Figure 0003738320
Figure 0003738320
Figure 0003738320
Figure 0003738320
Figure 0003738320
一般に、「比較パラメータ」は、単一の場合よりも複数の「比較パラメータ」を「重ね合わせ」する方が、前述の「絞込率」を高めることができる。しかし、無作為に複数の「比較パラメータ」を「重ね合わせ」ても「絞込率」は必ずしも向上するとはいえないことがわかった。
「重ね合わせ」する「比較パラメータ」が少ないとき、例えば3個までは、多くの「比較パラメータ」に関して、「絞込率」は相互に「重ね合わせ」することにより向上する傾向にある。しかし、さらに多くの「比較パラメータ」を「重ね合わせ」して、「絞込率」をより向上させようとしても、適するものと適さないものが存在することが明らかになった。
表1〜表5にいう「有効性」は、言い換えれば、単独の「比較パラメータ」として必ずしも高い「絞込率」が得られるか否かを示すものではなく、複数の「比較パラメータ」を重ね合わせることで「絞込率」を向上させるのに寄与するか否か、いわば「重ね合わせ」における「絞込率」の向上に対する寄与度、あるいは、「比較パラメータ」相互の「相性」の良否のようなものを表現したものである。
◎は、「絞込」に非常に有効であると判断されるものであり、「重ね合わせ」により、前述の「絞込率」が向上する。「重ね合わせ」する「比較パラメータ」の数が少なくても高い「絞込率」が得られる、あるいは互いに「重ね合わせ」により「絞込率」を高め得るものである。
○は、◎のように必ずしも「重ね合わせ」により、前述の「絞込率」が向上するとは限らないが、「絞込」に適用できるものである。
△は、◎、○に係る識別可能な任意の点が隠れて特定できないときなどに「絞込」に適用できるものである。
×は、識別可能な任意の点が特定できないため、「絞込」に適用できないものである。
(2)表6〜表7について
表6は、「正面顔」の場合に、110人の母集団(⊇個体Xn|n=1〜110)に対して表1〜表3に掲げた単一の「比較パラメータ」について、それらの「絞込率」、「相関係数」(図11参照)を調べた結果の一例である。
Figure 0003738320
Figure 0003738320
表中の( )内の数字は、表1〜表3の「No.」に対応している。
なお、表6中の「順位」は、「絞込率」、「相関係数」の上位のものから順につけたもので、「絞込」の操作における個体の順位付けによる「順位」とは異なる別個のものである(「絞込率順位」、「相関係数順位」というべきもの)。
すなわち、表1〜表5に示す約100種類の個体の中における順位が個体の「順位」であり、絞込率を高める示数(比率)を選択するために、単独の示数(比率)の「絞込率」と「相関係数」の上位のものから順につけたものが表6、表8であり、複数の示数(比率)の組み合わせで実際に「絞込率」が顕著に向上するものを抽出して表7、表9に示す。 結果的には単独の示数の「絞込率」が上位のもの同士を重ね合わせるよりも、「相関係数」の高さに注目した方が「重ね合わせ」した結果が良くなる傾向を示した。
Figure 0003738320
Figure 0003738320
表7は、同様に表6に掲げた複数の「比較パラメータ」を「重ね合わせ」したときの結果の一例を示す。
なお、表7中の「No.」は、図12と図13中に表示した「No.」に対応し、「重ね合わせ」する比較パラメータの組み合わせを表す。
表7によれば、「(34)」のパラメータは、表6に示す単一の比較パラメータでは「絞込率」26%で、「絞込率順位」は8位と比較的上位に位置付けられる。しかし、表7の「重ね合わせ」においては、「No.5」、「No.18」、「No.19」及び「No.20」を相互に比較すると明らかなように却って「絞込率」を低下させる方向に作用している。
即ち、6つの比較パラメータを「重ね合わせ」した「No.5」:絞込率=90.0%に「(34)」をさらに「重ね合わせ」した「No.19」は絞込率=78.2%と低下した。
一方、「No.5」:絞込率=90.0%に「(13)」を「重ね合わせ」した「No.18」は絞込率=92.7%と向上した。
また、「No.19」:絞込率=78.2%に「(13)」を「重ね合わせ」した「No.20」は絞込率=80.0%と向上した。
「No.18」に係る比較パラメータの単一の「絞込率」は、最も高かったものを1位として順に順位付けした表6の「絞込率順位」をみると明らかなように、必ずしも1位から7位までを占めているわけではない。
即ち、単純に単一の「絞込率」が高いもの同士を「重ね合わせ」しても「絞込率」を高めることにはならず、「重ね合わせ」の適否があることがわかる。
(3)表8、表9について
表8は、「斜め顔」の場合に、表6と同様に110人の母集団(⊇個体Xn|n=1〜110)に対して表4、表5に掲げた単一の「比較パラメータ」について、それらの「絞込率」、「相関係数」及び各「順位」を調べた結果である。
表9は、同様に表8に掲げた複数の「比較パラメータ」を「重ね合わせ」したときの結果を示す。
(4)図12、図13について
図12、図13は110人の母集団(⊇個体Xn|n=1〜110)に対して、「絞込率」、「相対比率」を求めたものであるが、このうち、図12(a)は、表3に例示される外眼角幅/セリオン・ストミオン高に関する単一の「比較パラメータ」を用いた「絞込」による「絞込率」と「相対比率」を表し、図12(b)は、表3に例示される鼻幅/セリオン・ストミオン高に関する単一の「比較パラメータ」を用いた「絞込」による「絞込率」と「相対比率」を表す。
また、図12(c)は表1〜表3に例示される比較パラメータを3個「重ね合わせ」した表7の「No.2」の「絞込」による「絞込率」、と「相対比率」を表す。
同様に図13(a)は、表1〜表3の比較パラメータを6個「重ね合わせ」した表7の「No.5」の「絞込」による「絞込率」、と「相対比率」を表し、図13(b)は、表1〜表3の比較パラメータを7個「重ね合わせ」した表7の「No.18」の「絞込」による「絞込率」、と「相対比率」を表し、図13(c)は、表1〜表3の比較パラメータを7個「重ね合わせ」した表7の「No.19」、の「絞込」による「絞込率」と「相対比率」を表す。
図12と図13に示す正面顔データの場合、比較パラメータ1つの場合絞込率37.3%、比較パラメータ3つの場合の絞込率は54.5%、7つ全て重ね合せた場合の絞込率は最終的に92.7%と絞込率が順次向上し、選択した比較パラメータが絞り込みに有効であることが分かった。
図14と図15に示す斜め顔データの場合も同様なことがいえる。特に正面顔よりも斜め顔の方が個人の特徴が表れ、比較パラメータ一つでも最大98.9%と絞込率は高い。しかし、絞込精度に係わる上位(6位以内)の割合としては57.0%と低いが、複数の比較パラメータを足し合わせることにより絞込精度の向上が図れ、6つの比較パラメータを全て足し合わせると絞込率96.8%で6位までに全員が入り、特に1位に86%の人が入る結果となった。したがって、選択した比較パラメータの有効性が確認された。
このように同じ「絞込率」であれば、上位の「相対比率」が高い傾向にある「比較パラメータ」又はその「重ね合わせ」を適用することが望ましい。
上記した傾向は、斜め顔の場合を表す図14と図15及び表8、表9の場合に顕著であり、本発明はこのように、「斜め顔」の「絞込」に特に有効である。
上記手順で絞込んだ3次元データとビデオ画像、監視カメラなどの顔写真の2次元データをスーパインポーズ法により重ね合わせて比較照合する。図16には2次元の写真画像50と3次元データ51を重ね合わせて照合した画面52の例を示し、図17に照合・判定方法の一例を示す。
鑑定・判定する際の視覚的方法としては、重ね合わせた人物の3次元データ51と写真画像50のそれぞれの透明度を変え、個人の特徴点(識別可能な任意の点)や形状を確認することにより、全体的なイメージにより本人との一致度、正確性を判断することができる。
図17(a)に示す例では上の3次元データ51の画面の輝度(透過度)を変化させ、下の写真画像50が徐々に浮き出て見えるようにして整合性を確認している。
また、図17(b)の左端の図はステップ4(54)における顔の向きを求める方法と同様に写真画像、3次元データそれぞれの任意の特徴点を含む3点を結んだ三角形を表示し、2つの三角形を重ね合わせるようにして位置合わせする照合支援機能により照合確認する方法を示し、中央には写真画像50と3次元データ51を重ね合わせて比較照合する際、各部位の重なりや整合性を垂直方向からのワイプを行う例を示し、右端には水平方向からのワイプを行う例を示す。
本発明は、ビデオ画像、顔写真などの被写体データとして犯罪者データ、運転免許、パスポート、各種カード、出入国管理(空港)用、入退出管理用データとしても使用できるなどセキュリティー上必要な用途があり、人物照合・認証、バイオメトリックス技術分野に適用できる。
本発明の実施例の3次元データを用いた絞込システムのブロック図である。 図1の絞込システムの絞込み手順を示すフロー図である。 本発明の実施例の3次元データ取得装置の構成図でである。 個人の特徴を表す生体学上の識別可能な任意の点(14点)を示す図である。 本発明の実施例の3次元データの原点を統一する方法を説明する図である。 本発明の実施例の顔の向きを求める方法を説明する図である。 遠近法(パースペクティブ)を説明する図である。 本発明の実施例の2次元データを2つの識別可能な任意の点を結ぶ距離を算出する際の識別可能な任意の点を結ぶ図である。 正面顔データの比較パラメータを示す図である。 斜め顔データの比較パラメータを示す図である。 本発明の実施例の示数(ストミオン放射径/セリオン放射径)データの相関例を示す図である。 本発明の実施例の絞込結果(正面顔データ)を示す図である。 本発明の実施例の絞込結果(正面顔データ)を示す図である。 本発明の実施例の絞込結果(斜め顔データ)を示す図である。 本発明の実施例の絞込結果(斜め顔データ)を示す図である。 本発明の実施例の絞込んだ3次元データを2次元画像をスーパインポーズ法により重ね合わせて比較照合することを説明刷る図である。 本発明の実施例の絞込んだ3次元データを2次元画像を重ね合わせて照合する例を説明する図である。
符号の説明
21 個人のデータベース 31 カメラ
32 プロジェクター 33 照明
34 コンピュータ 35 データ保存装置
36、37 モニター 38 画像合成装置
39 プリンター 40 画像入力装置
41 3次元モデリングシステム
42 スーパーインポーズシステム
50 2次元写真画像 51 3次元データ
52 照合画像 60 筐体
61 身長測定用物差し 62 円筒体
63 立ち位置 64 照明具
66 人物

Claims (13)

  1. 2次元画像上に写し出された被写体の撮影点に対する向きを決定する第1の工程と、
    データベースに保存された複数の立体の3次元形状データを該立体が前記2次元画像の被写体の撮影点に対する向きと同一方向を向くように各立体の3次元形状データを一斉に座標変換する第2の工程と、
    前記座標変換された立体を平面上に投影して画像データを生成する第3の工程と、
    前記投影した複数の立体の画像データと、前記2次元画像上に写し出された被写体との、相互に対応する識別可能な任意の点を3点以上指定する第4の工程と、
    前記識別可能な任意の点の間の距離を複数の立体の画像データ及び被写体について、それぞれ相互に対応するものを2組以上求める第5の工程と、
    前記複数の立体及び被写体ごとに、前記第5の工程で求めた2組以上の距離の比(示数)を求める第6の工程と、
    前記複数の立体ごとに、前記第6の工程で求めた距離の比と対応する被写体の距離の比との差を求める第7の工程と、
    前記二つの距離の比(示数)の差の絶対値又はその総和の大小により複数の立体に順位をつける第8の工程と、
    を有することを特徴とする特定立体画像と2次元画像に映し出された被写体の照合方法。
  2. 前記第1の工程は、
    (1)前記2次元画像上に写し出された被写体を基にして被写体の撮影点に対する向きに3次元空間上に仮想3次元モデルを形成し、該仮想3次元モデルのx、y、z軸まわりの回転角度(α、β、γ)を調整して、前記被写体の撮影点に対する被写体の向きと同じ向きにする方法、又は
    (2)データベースに保存された複数の立体の3次元形状データの中から特定の立体を選択し、
    この立体と2次元画像上に写し出された被写体との相互に対応する識別可能な任意の点をそれぞれ3点選択し、 該立体を平面上に投影した画像の識別可能な任意の点を結んで形成される三角形と、被写体の識別可能な任意の点を結んで形成される三角形をそれぞれ表示し、
    表示された前記2つの三角形がほぼ相似形となるように前記立体を仮想空間上で回転させたときの当該立体のx、y、z軸まわりの回転の角度(α、β、γ) を前記被写体の撮影点に対する被写体の向きとする方法
    のいずれかであり、
    前記第2の工程は、前記データベースに保存された複数の立体の3次元形状データをx、y、z軸まわりに角度(α、β、γ)で回転させることを特徴とする請求項1記載の特定立体画像と2次元画像に映し出された被写体の照合方法。
  3. 前記立体は、人間の頭部または顔であり、前記2次元画像上に写し出された被写体は、人間の頭部または顔を含むものであることを特徴とする請求項1記載の特定立体画像と2次元画像に映し出された被写体の照合方法。
  4. 前記識別可能な任意の点の間の距離は、内眼角幅、外眼角幅、眼裂幅、鼻幅、口裂幅、セリオン・ストミオン高、鼻根顔高、セリオン放射径、プロナサーレ放射径、ストミオン放射径のいずれかより選択されることを特徴とする請求項3記載の特定立体画像と2次元画像に映し出された被写体の照合方法。
  5. 出身地や性別、年齢、身長、人種などのデータを用いて1次絞込みを行い、その結果をもとに前記3次元データ及び前記2次元データを用いることを特徴とする請求項4記載の特定立体画像と2次元画像に映し出された被写体の照合方法。
  6. 特定立体の3次元形状データから得られる画像と2次元画像に映し出された被写体画像を含む2以上の画像を互いに照合する方法であって、
    平面に投影された特定立体の3次元形状データに含まれる少なくとも3点の識別可能な任意の点(3DP)を結ぶ2以上の前記平面上における距離(3DL)の比(3R)として表される示数を求める第1の工程と、
    2次元画像に映し出された被写体の前記特定立体の識別可能な任意の点に対応する識別可能な任意の点(2DP)を結ぶ2以上の距離(2DL)の比(2R)として表される示数を求める第2の工程と、
    複数の特定立体の前記距離の比(3R1,3R2,・・・)である示数と、2次元画像に映し出された被写体の対応する前記距離の比(2R1,2R2,・・・)である示数との差(3R1−2R1, 3R2−2R2,・・・)を求める第3の工程とを有することを特徴とする特定立体画像と2次元画像に映し出された被写体の照合方法。
  7. 前記第1の工程は、前記複数の特定立体の3次元形状データを座標変換し、それぞれを平面に投影して得られる第1の画像の各々に含まれる少なくとも3点の識別可能な任意の点(3DP')を結ぶ2以上の距離(3DL1, 3DL2,・・・)の比(3R)として表される示数を求める工程であり、
    前記第2の工程は、前記2次元画像に映し出された被写体の前記平面に投影された特定立体の識別可能な任意の点(3DP')に対応する識別可能な任意の点(2DP)を結ぶ2以上の距離(2DL1,2DL2,・・・)の比(2R)である示数を求める工程であることを特徴とする請求項6記載の特定立体と2次元画像に映し出された被写体の照合方法。
  8. 前記第3の工程で求められた差(3R1−2R1, 3R2−2R2,・・・)の絶対値の和を求め、前記複数の特定立体に対して、その和の大小に応じて順位をつけることを特徴とする請求項7記載の特定立体と2次元画像に映し出された被写体の照合方法。
  9. 前記第1の工程の複数の特定立体の3次元形状データの座標変換は、
    a) 原点を定めた仮想3次元モデルを生成する工程、
    b) 前記仮想3次元モデルと前記2次元画像に映し出された被写体とを表示装置上に重ね合わせる工程、
    c) 前記仮想3次元モデルに含まれる複数の識別可能な任意の点(VP)を通る少なくとも一つの第1の線(VC)と、前記2次元画像に映し出された被写体の前記識別可能な任意の点(VP)に対応する複数の識別可能な任意の点(2DP')を通る少なくとも一つの第2の線(2DC)とを特定する工程、
    d) 前記第1の線(VC)と第2の線(2DC)とが近似するように、前記仮想3次元モデルを前記原点を基準にxyz軸に対して回転させ、該仮想3次元モデルと前記2次元画像との向きに近似させる工程、
    e) 工程d)における前記仮想3次元モデルのxyz軸に対する回転角(α、β、γ)を求める工程、
    を含み、求められた回転角(α、β、γ)により、特定立体の3次元形状データそれぞれに含まれる少なくとも3点の識別可能な任意の点(3DP)の座標変換すること
    を特徴とする請求項7記載の特定立体と2次元画像に映し出された被写体の照合方法。
  10. 前記特定立体は、人間の頭部または顔であり、前記2次元画像に映し出された被写体は、人間の頭部または顔を含むものであることを特徴とする請求項6記載の特定立体と2次元画像に映し出された被写体の照合方法。
  11. 前記識別可能な任意の点(3DP及び2DP)を結ぶ2以上の距離(3DL及び2DL)は、人間の頭部または顔の内眼角幅、外眼角幅、眼裂幅、鼻幅、口裂幅、セリオン・ストミオン高、鼻根顔高、セリオン放射径、プロナサーレ放射径、ストミオン放射径のいずれかより選択されることを特徴とする請求項6記載の特定立体と2次元画像に映し出された被写体の照合方法。
  12. 出身地や性別、年齢、身長、人種などのデータを用いて1次絞込みを行い、その結果をもとに前記3次元データ及び前記2次元データを用いることを特徴とする請求項11記載の特定立体画像と2次元画像に映し出された被写体の照合方法。
  13. データベースに保存された複数の特定立体の3次元形状データのうち、一部または全部に対して、
    2次元画像における被写体と同じ向きになるように特定立体の3次元形状データの空間内における向き(x、y、z軸まわりの回転角度)を座標変換し、
    座標変換された特定立体上の3点以上の識別可能な任意の点(3DP)を選び、該識別可能な任意の点を結ぶ2以上の距離(3DL)の比(3R)として表される示数と、前記識別可能な任意の点(3DP)に対応する前記2次元画像の被写体上の3点以上の識別可能な任意の点(2DP)を結ぶ2以上の距離(2DL)の比(2R)として表される示数とを求め、
    前記特定立体と被写体の識別可能な任意の点の対応する比(3Rと2R)である示数の差の絶対値を合計した値を前記座標変換した複数の特定立体の3次元形状データについて算出し、
    該算出された値の大小に応じて3次元形状データに順位をつける
    ことを特徴とする特定立体と2次元画像に映し出された被写体の照合方法。
JP2003352430A 2003-10-10 2003-10-10 特定立体画像と2次元画像に映し出された被写体の照合方法 Expired - Fee Related JP3738320B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003352430A JP3738320B2 (ja) 2003-10-10 2003-10-10 特定立体画像と2次元画像に映し出された被写体の照合方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003352430A JP3738320B2 (ja) 2003-10-10 2003-10-10 特定立体画像と2次元画像に映し出された被写体の照合方法

Publications (2)

Publication Number Publication Date
JP2005115847A JP2005115847A (ja) 2005-04-28
JP3738320B2 true JP3738320B2 (ja) 2006-01-25

Family

ID=34543375

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003352430A Expired - Fee Related JP3738320B2 (ja) 2003-10-10 2003-10-10 特定立体画像と2次元画像に映し出された被写体の照合方法

Country Status (1)

Country Link
JP (1) JP3738320B2 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4735361B2 (ja) * 2006-03-23 2011-07-27 日産自動車株式会社 車両乗員顔向き検出装置および車両乗員顔向き検出方法
JP4929828B2 (ja) * 2006-05-10 2012-05-09 日本電気株式会社 立体性認証方法、立体性認証装置および立体性認証プログラム
KR100973015B1 (ko) * 2008-08-07 2010-07-30 삼성전기주식회사 복합 보안 시스템
US9123101B2 (en) * 2011-01-05 2015-09-01 Koninklijke Philips N.V. Automatic quantification of asymmetry
JP5035467B2 (ja) * 2011-10-24 2012-09-26 日本電気株式会社 立体性認証方法、立体性認証装置および立体性認証プログラム
KR102357340B1 (ko) * 2014-09-05 2022-02-03 삼성전자주식회사 얼굴 인식 방법 및 장치
US10776609B2 (en) * 2018-02-26 2020-09-15 Samsung Electronics Co., Ltd. Method and system for facial recognition

Also Published As

Publication number Publication date
JP2005115847A (ja) 2005-04-28

Similar Documents

Publication Publication Date Title
Krishna et al. A wearable face recognition system for individuals with visual impairments
US9530078B2 (en) Person recognition apparatus and person recognition method
JP4241763B2 (ja) 人物認識装置及びその方法
US7876931B2 (en) Face recognition system and method
Davis et al. Computer assisted photo-anthropometric analyses of full-face and profile facial images
Gibelli et al. The identification of living persons on images: A literature review
JP2007004767A (ja) 画像認識装置、方法およびプログラム
JP2023015989A (ja) 物品識別および追跡システム
WO2010002070A1 (en) Method for grouping 3d models to classify constitution
Galea et al. A large-scale software-generated face composite sketch database
JP2010104754A (ja) 情動分析装置
CN114894337B (zh) 一种用于室外人脸识别测温方法及装置
Urbanová Performance of distance-based matching algorithms in 3D facial identification
JP3738320B2 (ja) 特定立体画像と2次元画像に映し出された被写体の照合方法
CN114333046A (zh) 舞蹈动作评分方法、装置、设备和存储介质
JP5248236B2 (ja) 画像処理装置および画像処理方法
Ricci et al. A new experimental approach to computer-aided face/skull identification in forensic anthropology
CN112801038A (zh) 一种多视点的人脸活体检测方法及系统
JPH1185988A (ja) 顔画像認識システム
CN113111743A (zh) 人员距离探测方法及装置
JP7152651B2 (ja) プログラム、情報処理装置、及び情報処理方法
Zappa et al. Uncertainty of 3D facial features measurements and its effects on personal identification
KR20160042646A (ko) 얼굴 인식 방법
WO2021100214A1 (ja) 情報処理方法、情報処理装置、及び制御プログラム
Furmanová et al. AnthroVis: visual analysis of 3D mesh ensembles for forensic anthropology

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050128

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20050302

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20050308

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050628

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050829

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20051011

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20051012

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081111

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091111

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees