JP5159950B2 - 画像処理装置、方法、プログラム - Google Patents

画像処理装置、方法、プログラム Download PDF

Info

Publication number
JP5159950B2
JP5159950B2 JP2011515813A JP2011515813A JP5159950B2 JP 5159950 B2 JP5159950 B2 JP 5159950B2 JP 2011515813 A JP2011515813 A JP 2011515813A JP 2011515813 A JP2011515813 A JP 2011515813A JP 5159950 B2 JP5159950 B2 JP 5159950B2
Authority
JP
Japan
Prior art keywords
image
face
angle
change
calculation unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011515813A
Other languages
English (en)
Other versions
JPWO2010137157A1 (ja
Inventor
貢己 山田
修 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Publication of JPWO2010137157A1 publication Critical patent/JPWO2010137157A1/ja
Application granted granted Critical
Publication of JP5159950B2 publication Critical patent/JP5159950B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Geometry (AREA)
  • General Health & Medical Sciences (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像処理装置、方法、プログラムに関する。
従来より、撮像装置で人物の顔を撮像して、本人確認を行うシステム(本人確認システム)の普及が進んでおり、入退室管理や端末へのログイン等に使われ始めている。このような本人確認システムでは、パスワードや携帯用カードによって本人確認を行う本人確認システムに比べて、盗難の危険性が無い代わりに、正規のユーザの顔写真を不正に入手してこれを撮像装置の前にかざすことにより写真の人物になりすます「なりすまし」の危険性が存在する。このなりすましを自動的に検出して適切に排除することにより、本人確認システム全体のセキュリティ強度を高めることができる。このようななりすましを検出する方法は数多く提案されている(特許文献1〜2、非特許文献1〜5参照)。それらの方法の中には、受動的(投光したりしない)な単眼の撮像装置に入力された動画像を用いて人物の顔の立体形状を調査して、顔写真によるなりすましを検出する方法がある。この方法は、なりすましを検出するための装置が大掛かりにならずに済み、適用範囲が広いという特長がある。例えば、特許文献1の技術では、撮像した顔の画像であって顔向きの異なる2つの画像に対して顔特徴点を検出し、顔特徴点が形作る形状が平面的であるか3次元的であるかを判定する。
特開2007−304801号公報 特登第3822483号公報
T. Mita, T. Kaneko, and O. Hori. Joint haar-like features for face detection. In Proc. Tenth IEEE International Conference on Computer Vision (ICCV 2005), pp.1619-1626, Beijing, China, October 2005. 三田雄志, 金子敏充, 堀修. 顔検出に適した共起に基づくjoint haar-like 特徴. 電子情報通信学会論文誌, Vol. J89-D-II, No. 8, pp. 1791.1801, August 2006. M. Yuasa, T. Kozakaya, and O. Yamaguchi. An efficient 3d geometrical consistencycriterion for detection of a set of facial feature points. In Proc. IAPR Conf. onMachine Vision Applications (MVA2007), pp. 25.28, Tokyo, Japan, May 2007. 湯浅 真由美、武口 智行、小坂谷 達夫、 山口 修、 「静止画顔認証のための自動顔特徴点検出」 電子情報通信学会技術研究報告, PRMU2006-222, pp.5-10, Feb. 2007. 山田 貢己,中島 朗子,福井 和広、 「因子分解法と部分空間法による顔向き推定」 電子情報通信学会技術研究報告, PRMU2001-194, pp.1-8, Jan. 2002.
しかしながら、特許文献1の技術では、顔特徴点の検出位置に大きな誤差が含まれてしまった場合にも顔特徴点が立体的である、即ち、撮像された顔の画像が顔写真ではなく人物の顔であると判定してしまう恐れがあった。
本発明は、上記に鑑みてなされたものであって、特徴点の検出位置の誤差に対して頑健で且つ高速に、なりすましに関する判定を行うことを目的とする。
上述した課題を解決し、目的を達成するために、本発明の一態様は、画像処理装置に係る、時系列で撮像された複数の画像を取得する取得部と、前記複数の画像間における変化であって前記複数の画像の各々に含まれる対象物の姿勢を表す角度の変化を示す第1変化ベクトルを計算する第1計算部と、前記対象物の特徴点の座標の変化を示す第2変化ベクトルを計算する第2計算部と、前記第1変化ベクトルと前記第2変化ベクトルとがなすベクトル間角度を計算する第3計算部と、前記ベクトル間角度が予め定められた第1閾値より小さい場合に、前記画像に含まれる対象物が立体的であると判定する判定部とを備える。
本発明によれば、特徴点の検出位置の誤差に対して頑健で且つ高速に、なりすましに関する判定を行うことができる。
第1の実施の形態に係る画像処理装置の構成を示す図。 顔向き角度と鼻孔中点の座標とを時系列で表す図。 顔向き角度の軌跡の一例を表す図。 なりすまし検出処理の手順を表すフローチャートを示す図。 顔向き角度を計算する手順の手順を表すフローチャートを示す図。 第2の実施の形態に係る画像処理装置の構成を示す図。 なりすまし検出処理の手順を表すフローチャートを示す図。 顔向き角度の変位と鼻孔中点の座標の変位とを概念的に示す図。 4つの顔特徴点を示す図。 異なる顔向き角度における顔の画像と顔中心線上の顔特徴点の座標との関係を説明するための図。 第3の実施の形態に係る画像処理装置の構成を示す図。 なりすまし検出処理の手順を表すフローチャートを示す図。 第4の実施の形態に係る画像処理装置の構成を示す図。 なりすまし検出処理の手順を表すフローチャートを示す図。
[第1の実施の形態]
以下に添付図面を参照して、この発明に係る画像処理装置及び方法の第1の実施の形態を詳細に説明する。まず、画像処理装置のハードウェア構成について説明する。本実施の形態の画像処理装置は、装置全体を制御するCPU(Central Processing Unit)等の制御部と、各種データや各種プログラムを記憶するROM(Read Only Memory)やRAM(Random Access Memory)等の主記憶部と、各種データや各種プログラムを記憶するHDD(Hard Disk Drive)やCD(Compact Disk)ドライブ装置等の補助記憶部と、これらを接続するバスとを備えており、コンピュータを利用したハードウェア構成となっている。また、画像処理装置には、対象物を撮像してその画像を入力するCCDイメージセンサ(Charge Coupled Device Image Sensor)などにより構成される画像入力部と、ユーザの指示入力を受け付けるキーボードやマウス等の操作入力部と、外部装置の通信を制御する通信I/F(interface)とが有線又は無線により各々接続される。
対象物は、顔,人物,動物,物体などである。また、画像入力部を介して入力される画像は、コンピュータで処理することが可能なデジタル画像である。平面座標を(x,y)、画素値をfとすれば、画像をf(x,y)と表すことができる。デジタル画像では、x,y,fは離散的な値で表される。(x,y)は画像上に配置された標本点であり画素と呼ばれる。例えば,VGAと呼ばれる「640×480」画素の画面解像度に対応した画像の場合は、「x=0,…,639,y=0,…,479」という値をとり得る。画像処理を行わせて、画像の特徴点の位置を求めたり、対応点を求めたり、エッジ抽出を行わせたりする場合に求めたい情報は、どの画素かということである場合がある。このときは「点」や「エッジ」の位置とは特定の「画素」を意味する。しかしながら、更に精密に特徴点、対応点、エッジを求めたいときには、サブピクセル推定と呼ばれる方法により画素間の位置を実数値のx,yで求める場合がある。このときは「点」とは実数値のx,yで表された位置(x,y)のことであり、特定の1つの画素を表すとは限らない。また、画素値(または濃淡レベル)fは、8ビットのモノクロ画像の場合は、「0」から「255」までの整数値をとる。fが24ビットのカラー画像の場合は、RGBそれぞれが「0」から「255」までの整数値をとるような3次元のベクトルとして表される。
また、画像の特徴点とは、画像中の対象物の位置決めを行うために用いる点のことであり、通常は1つの画像中に複数の特徴点が設定されて利用される。画素値が空間的に急激に変化する点を画像中から機械的に抽出して特徴点としたり、予め特定の画素値の変化(テクスチャ)が想定される小領域中の特定の点を特徴点としたりすることで設定される。例えば、前者では画素値の変化が極大になる点を用いる場合があり、後者では対象物が人物の顔である場合瞳の中心点を用いる場合がある。機械的に抽出された特徴点は、複数の画像間において特徴点の1対1の対応付けがなされることにより、障害物の検出、物体の運動の推定、物体の個数の推定、物体の形状獲得などを行わせたりすることができる。即ち、機械的に抽出された想定されていない特徴点であっても、その特徴点が別の画像においてどの特徴点に対応しているかということをテンプレートマッチングによって計算したり、設定したりすることにより、有効活用することができるようになる。特定の対象物の中の特定の点であり、特定の画素値の変化(テクスチャ)が予め想定される小領域中の特定の点であるような点を特徴点とする場合は、単一の画像中において特徴点を検出することだけでも有用である。例えば,未知で新規に与えられた画像中から、対象物として人物の顔の特徴点(目の中心,鼻の頂点,口の端点など)を検出することができれば、それだけで人物の存在,位置,姿勢,表情などの情報を得ることができて、有用である。
尚、対象物が人物の顔である場合、画像中の顔を表す領域に含まれる目,鼻,口などを顔部品と呼ぶことがある。例えば、画像に表される顔のうち目を含む小領域を考えたとき、まぶたや瞳などを含む目の領域は顔を構成する部品と捉えて顔部品と呼ぶことができる。これに対して、瞳の中心点,目じり,目頭、左右いずれかの鼻孔、左右の鼻孔中点及び鼻頂点などの位置決めのために利用する点であり顔領域内部又はその近傍の特徴点を顔特徴点と呼ぶことにする。尚、顔以外の対象物の場合も、対象物全体の構成要素である部分を部品と呼び、部品の中の位置決めに用いる特定の点を特徴点と呼ぶことにする。
次に、上述したハードウェア構成において、画像処理装置のCPUが記憶装置や補助記憶部に記憶された画像処理プログラムを実行することにより実現される各種機能について説明する。図1は、画像処理装置50の構成を示す図である。画像処理装置50は、取得部51と、特徴点検出部52と、角度計算部53と、第1変化ベクトル計算部60と、第2変化ベクトル計算部61と、べクトル間角度計算部62と、判定部54とを有する。これら各部は、CPUが画像処理プログラムを実行したときにRAMなどの主記憶部上で構成されうる。
取得部51は、画像入力部で時系列で撮像されたフレーム単位の画像を取得する。取得した画像は、不図示の記憶部に格納される。ここでは例えば、取得部51は、フレーム単位の画像に対して一意に識別可能なフレーム番号と撮像された時刻と共に各画像を取得する。特徴点検出部52は、取得部51が取得した画像中から顔特徴点を検出する。具体的には、特徴点検出部52は、取得部51が取得した画像で顔を表す領域(顔領域という)を検出し、検出した顔領域において顔特徴点を検出して、画像中の顔の有無や、顔領域の位置を表す座標及びその大きさや、顔特徴点の位置を表す座標や、これらの検出結果の確信度などの情報である特徴点情報を検出結果として出力する。尚、画像上の位置を特定することを「検出する」と表す。顔特徴点の検出には公知の技術を用いれば良い。例えば、非特許文献1,2に示される方法を用いて、顔領域の検出を行い、検出した顔領域の情報を利用して、非特許文献3,4に示される方法を用いて、顔特徴点の検出を行うようにする。尚、画像入力部で撮像された画像上の座標を画像座標という。この画像座標により顔領域の位置や顔特徴点の位置が表される。
角度計算部53は、特徴点検出部52が出力した特徴点情報に含まれる顔特徴点の座標を用いて、人物の顔の向き(姿勢)を表す角度(顔向き角度という)を計算する。顔向き角度の計算には公知の技術を用いれば良い。例えば、非特許文献1,5に示される方法を用いて、顔特徴点の座標から顔向き角度を計算する。
第1変化ベクトル計算部60は、角度計算部53が計算した顔向き角度を用いて、顔向き角度の時間的な変化を示す変化ベクトルを計算する。第2変化ベクトル計算部61は特徴点検出部52が出力した特徴点情報に含まれる顔特徴点の座標を用いて、顔特徴点の座標の時間的な変化を示す変化ベクトルを計算する。ベクトル間角度計算部62は、第1変化ベクトル計算部60が計算した変化ベクトルと第2変化ベクトル計算部61が計算した変化ベクトルとがなすベクトル間角度を計算する。判定部54は、ベクトル間角度計算部62が計算したベクトル間角度が予め定められた第1閾値より小さい場合に、取得部51が取得した画像に撮像されたものが写真ではなく立体的な人物の顔であると判定して、その判定結果を出力する。この判定結果は、例えば、画像に表される顔がいずれの人物の顔であるかを認識する顔認識アプリケーションや、その他、顔の画像を処理する顔画像処理アプリケーションで利用される。
以上のようにして、画像処理装置50は、画像入力部で撮像された画像に含まれる人物の顔の立体形状を解析して、当該画像に撮像されたものが写真ではなく立体的な人物の顔であるかを判定することにより、なりすましに関する判定を行なう。
ここで、角度計算部53が顔向き角度を計算する方法の概要について説明する。n行m列の行列Aの擬似逆行列A+は式(1)で定義される。「n≦m」のときは上段の式で計算され,「n≧m」のときは下段の式で計算される。Aが正方行列のときは、擬似逆行列は逆行列に等しい。
Figure 0005159950
3次元ユークリッド空間中のn個の点の座標を式(2)のように行列Xで表し、回転行列Rを式(3)で表す。式(3)中の上付きのTは転置行列を示す。Rを構成する各行を式(4)のようにベクトルRiで表す。第fフレームの画像における顔向き角度を回転行列Rfで表し、第fフレームの画像におけるn個の顔特徴点の座標をXfとし、基準となる第0フレームの特徴点の座標をX0とすると、式(5)の関係がある。更に、第fフレームの画像における特徴点の座標Xfが得られたときに、回転行列Rfを求めるには、Xfの擬似逆行列を用いて式(6)によって、即ち、行列の掛け算で求めることができる。式(6)による計算は、nが「4」以上ならば最小2乗法による連立線型方程式の解に相当する。
画像から直接得られる特徴点の座標は2次元の画像における座標であるので、その場合に適用できる式を式(2)〜式(6)と同様に記述することができる。2次元上のn個の点の座標を式(7)のように行列X’で表し、回転行列の上2段の部分を式(8)で定義されるR’で表すと、第fフレームの画像における回転行列R’fは、第fフレームのn個の特徴点の2次元の座標X’fと、基準となる第0フレームの特徴点の2次元の座標X0とを用いて、式(9)で表すことができる。
Figure 0005159950
誤差の含んだ特徴点の座標から計算された2×3行列の回転行列Rf’から顔向き角度を求めるには、「3×3」の完全な形の回転行列を導出し、それから3次元の角度ベクトルを導出し、画像平面内の成分を除外して、2次元の顔向き角度を求める必要がある。
2×3行列の回転行列Rf’は行ベクトルR1と行ベクトルR2とで構成される。まずこれらのノルムが「1」になるように式(10)によって正規化して、行ベクトルR’1と行ベクトルR’2とを各々求める。次に、これら2つが互いに垂直になるように式(11),(12)によってベクトルの方向を修正して行ベクトルR’’1と行ベクトルR’’2とを各々求める。求まった2つのベクトルは、式(13)を満たす。ここまでで、完全な形の回転行列の上2行が得られた。
Figure 0005159950
残りの最下行を求めるために、4元数λ0,λ1,λ2,λ3を媒介にした計算を行う。4元数を用いると回転行列Rは式(14)で表される。回転行列Rの成分のうちの左上の4つ(R11,R12,R21,R22)を用いると、式(15)〜式(22)を用いて4元数を計算することができるが、λ1,λ2については符号の不定性が残る。最後にR13の符号と式(14)の第1行第3列の2(λ1λ3+λ0λ2)の符号が一致する場合を採用することにより符号の不定性は解消し、一意的に4元数が求まる。求まった4元数と式(14)を用いて完全な形の3×3の回転行列が求まる。完全な形の3×3の回転行列は、3次元回転運動を表す。
Figure 0005159950
回転行列は3次元の角度ベクトルであるロールφ,ピッチθ,ヨーψで表すことができる。これらの関係は式(23)で表され、各角度の取りえる範囲は一般性を失わずに式(24)で表される。θは式(25)で計算され、φは式(26)〜式(28)で計算される。これは、プログラミング言語のCの場合は、atan2関数を用いて式(29)で計算される。即ち、式(24)で表されるφの範囲においては、式(28)のφをarctan関数で求めようとすると2つの値をとり得るため、cosφとsinφの符号の情報を得るための仕組みである。ψに関しても同様であり、式(30)に対して、式(31)のようにatan2関数を用いてψを求める。
Figure 0005159950
カメラ座標における回転行列RCfを、顔向き角度を表す座標における回転行列RHfに変換するために、式(32)〜式(34)を利用する。カメラ座標について、徐剛、辻三郎著「3次元ビジョン」(共立出版、1998)の第2章に基づいて簡単に説明する。「カメラ座標」とは、カメラの光軸をZ軸にとり、Z軸と垂直に残り2つのX軸とY軸を設定した3次元座標である。最も単純なカメラモデルである平行射影を用いた場合は、カメラ座標[X,Y,Z]T とその画像平面上の2次元像の画像座標[x,y]T の間には、[X,Y]T =[x,y]T の関係が成り立つ。ここで,T は転置行列を表す。
Figure 0005159950
次に、本実施の形態においてなりすましに関する判定の原理の概要を説明する。図2は、顔向き角度と顔特徴点としての鼻孔中点の座標とを時系列で表す図である。図2(a)は、人物を撮像した場合の顔向き角度と鼻孔中点の座標とを表している。横軸はフレーム番号であり、撮像された時刻の順に並んでいる。縦軸は座標の値である。横方向の顔向き角度を実線と+印(右向きが正)で表し、縦方向の顔向き角度を破線と×印(上向きが正)で表し、2つの鼻孔中点の位置のx座標を点線と*印で表し、その位置のy座標を細かい点線と□印とで表している。横方向の顔向き角度(実線)と鼻孔中点の位置のx座標(点線)との動きには相関があり、縦方向の顔向き角度(破線)と鼻孔位置の中点のy座標(細かい点線)の動きには相関があることが分かる。また、4つの曲線はほぼ滑らかに連続的に変化している。一方、図2(b)は、写真に含まれる顔の顔向き角度と鼻孔中点の座標とを表している。線種は上側の図と同様である。この図から、4つの曲線の間には特に相関は無く、動きは不連続的で顔向き角度はほぼランダムに変化していることが分かる。
図3は、人物の顔を撮像した画像と顔が含まれる写真を撮像した画像とにおける顔向き角度の軌跡の一例を表す図である。図3(a)は人物の顔を撮像した場合のものであり、図3(b)は顔が含まれる写真を撮像した場合のものである。図3(a)に示されるように、人物の顔の顔向き角度は滑らかに変化し、その顔向き角度の軌跡はある領域内に収まる。一方、図3(b)に示されるように、写真に映った顔の顔向き角度の軌跡は、原点付近を中心とする白色ノイズに似たものとなる。
次に、本実施の形態に係る画像処理装置50が行うなりすまし検出処理の手順について図4を用いて説明する。ステップS1では、画像処理装置50の取得部51が、画像入力部が撮像した画像を取得する。ステップS2では、特徴点検出部52が、ステップS1で取得された画像から顔特徴点を検出する。ステップS2で特徴点が検出されなかった場合(ステップS3:NO)、ステップS1に戻る。ステップS2で顔特徴点が検出された場合(ステップS3:YES)、特徴点検出部52は、顔領域の位置を表す座標及び大きさと顔特徴点の位置を表す座標の情報である特徴点情報を出力する。ステップS4では、角度計算部53が、特徴点情報に含まれる顔特徴点の座標を用いて、式(7)〜式(34)を用いて、2次元の顔向き角度を計算する。
ここで、ステップS4について図5を用いて更に詳しく説明する。尚、画像処理装置50は、顔向き角度が「0」となる基準姿勢における顔特徴点の座標である標準的3次元座標X0を予め設定してその擬似逆行列X0+を計算し、これを例えば主記憶部に記憶しておく。ステップS40では、角度計算部53は、ステップS2で検出された顔特徴点の座標を式(7)の2×n行列X’に代入して、式(9)により回転行列R’fを計算する。ステップS41では、角度計算部53は、式(10)〜式(13)を用いて、回転行列R’fを構成する2つの行ベクトルをR’’1とR’’2とにする。ステップS42では、角度計算部53は、式(14)〜式(22)を用いて4元数を計算する。符号の不定性はR13の符号で判定して解消する。ステップS43では、角度計算部53は、ステップS42で計算した4元数と式(14)とを用いて、カメラ座標における完全な形の回転行列を計算し、これを回転行列RCfとする。ステップS44では、角度計算部53は、式(32)〜式(34)を用いてカメラ座標の回転行列RCfを、顔向き角度を表現する座標における回転行列RHfに変換する。ステップS45では、角度計算部53は、式(23)〜式(31)を用いて、3次元の角度ベクトル(φ,θ,ψ)を計算し、画像平面内の角度に相当するφを除外した(θ,ψ)を2次元の顔向き角度のベクトルとする。以上のようにして、ステップS4では角度計算部53は顔向き角度を計算する。
図4の説明に戻る。ステップS5では、第1変化ベクトル計算部60が、ステップS4で計算された顔向き角度を用いて、顔向き角度の時間的変化を示す変化ベクトルを計算する。第2変化ベクトル計算部61が、ステップS3で検出された顔特徴点の座標を用いて、顔特徴点の座標の時間的変化を示す変化ベクトルを計算する。ベクトル間角度計算部62が、第1変化ベクトル計算部60が計算した変化ベクトルと第2変化ベクトル計算部61が計算した変化ベクトルとがなすベクトル間角度を計算する。ステップS6では、判定部54が、ステップS5で計算されたベクトル間角度が予め定められた第1閾値より小さいか否かを判定し、ベクトル間角度が第1閾値より小さい場合、ステップS1で取得された画像に撮像されたものが写真ではなく立体的な人物の顔であると判定して、その判定結果を出力する。ステップS7では、判定部54が、なりすまし検出処理を終了するか否かを判定し、終了すると判定した場合には処理を終了し、終了しないと判定した場合には、ステップS1に戻る。
以上のようにして、画像入力部で撮像された画像に映った人物の顔の立体形状を解析して、当該画像に撮像されたものが写真ではなく立体的な人物の顔であるかを判定することにより、なりすましに関する判定を行う。顔向き角度は複数の特徴点座標によって計算するため特定の一つの特徴点の誤差の影響を受けにくい。また、いくつかある特徴点のうち、鼻孔位置のような安定して検出されやすい特徴点が存在する。従って、誤差の影響を受けにくい顔向き角度から第1変化ベクトルを計算し、鼻孔位置などの安定して検出される特徴点を用いて第2変化ベクトルを計算することができるため、本実施形態の手法は、ある1個の特徴点のノイズの影響を受けにくく、動作が安定していると言える。また、顔認識処理のために取得した特徴点座標を活用して判定を行うことができるので、なりすまし判定のために新たに画像データを処理する方法に比べれば高速に判定することができる。即ち、このような構成によれば、人物の顔の立体形状を解析する際に検出する特徴点のノイズに対して頑健で且つ高速に、なりすましに関する判定を行なうことができる。
[第2の実施の形態]
次に、画像処理装置及び方法の第2の実施の形態について説明する。なお、上述の第1の実施の形態と共通する部分については、同一の符号を使用して説明したり、説明を省略したりする。
図6は、本実施の形態に係る画像処理装置50Aの構成を示す図である。本実施の形態では、画像処理装置50Aは、取得部51と、特徴点検出部52と、角度計算部53と、第1変化ベクトル計算部60と、第2変化ベクトル計算部61と、べクトル間角度計算部62と、判定部54とに加え、角度情報記憶部55を有する。
角度情報記憶部55は、各フレームに対して角度計算部53が計算した顔向き角度を時系列でフレーム番号と対応付けて記憶する。また、角度情報記憶部55は、処理対象のフレーム(処理対象フレーム)に対して以下に説明する判定部54が参照する過去の処理対象フレームであり後述の検索条件に該当するフレーム(該当過去フレームという)のフレーム番号と、時系列上処理対象フレームと該当過去フレームとの間のフレームであり後述の特定条件に該当するフレーム(中間フレームという)のフレーム番号とを記憶する。判定部54は、角度情報記憶部55にフレーム毎に記憶された顔向き角度を参照して、該当過去フレームを検索し、中間フレームを特定する。
次に、本実施の形態に係る画像処理装置50Aの行うなりすまし検出処理の手順について図7を用いて説明する。ステップS1〜S4は上述の第1の実施の形態と同様である。尚、ステップS4では、角度計算部53は、処理対象フレームに対して顔向き角度を計算した後、これを時系列でフレーム番号と対応付けて角度情報記憶部55に記憶させる。ステップS10では、判定部54が、フレーム番号と対応付けられて角度情報記憶部55に記憶された顔向き角度を参照して、以下の検索条件により該当過去フレームを検索する。検索条件とは、フレームにおいて計算された顔向き角度が、処理対象フレームの顔向き角度との角度差がΔθ以上となることである。このような該当過去フレームがなかった場合にはステップS1に戻り、該当過去フレームがあった場合には、ステップS11で、判定部54が、フレーム番号と対応付けられて角度情報記憶部55に記憶された顔向き角度を参照して、以下の特定条件により中間フレームを特定する。特定条件とは、時系列上処理対象フレームと該当過去フレームとの間のフレームのうち、フレームにおいて計算された顔向き角度が、処理対象フレームの顔向き角度と該当の過去のフレーム(該当過去フレーム)の顔向き角度との中間の角度に最も近いフレームである。このようにして、判定部54は、当該処理対象フレームに対する該当過去フレームを検索すると共に中間フレームを特定してこれらのフレーム番号を各々角度情報記憶部55に記憶させる。
図8は、顔向き角度の変位と鼻孔中点の座標の変位とを概念的に示す図である。顔特徴点を鼻孔中点とし、処理対象フレームにおける顔向き角度をa0、鼻孔中点の座標をx0とすると、当該処理対象フレームから遡って顔向き角度の角度差がΔθ以上になる該当過去フレームの顔向き角度はa2、鼻孔中点の座標はx2となる。処理対象フレームにおける顔向き角度と該当過去フレームにおける顔向き角度との中間の角度に最も近い顔向き角度が計算されたフレームの顔向き角度はa1、鼻孔中点の座標はx1となる。
図7の説明に戻る。ステップS5では第1変化ベクトル計算部60が、ステップS11で計算された顔特徴点における顔向き角度を用いて、顔向き角度の時間的変化を示す変化ベクトルを計算する。第2変化ベクトル計算部61が、ステップS11で計算された顔特徴点を用いて、顔特徴点の座標の時間的変化を示す変化ベクトルを計算する。ベクトル間角度計算部62が、第1変化ベクトル計算部60が計算した変化ベクトルと第2変化ベクトル計算部61が計算した変化ベクトルとがなすベクトル間角度を計算する。ステップS5以降は上述の第1の実施の形態と同様である。
以上のような構成によれば、人物の顔の立体形状を解析する際に検出する特徴点のノイズに対してより頑健で且つ高速に、なりすましに関する判定を行なうことができる。
尚、上述した第1の実施の形態及び第2の実施の形態においては、顔特徴点の座標として、画像座標における座標を用いたが、画像座標から他の座標に変換した相対座標を用いるようにしても良い。例えば、図9に示すように、顔の中心線上にある眉間,目頭中点,鼻頂点,口中点の4つの顔特徴点を用いる場合、眉間の座標が(0,0),口中点の座標が(0,1)となるように、平行移動と回転と拡大(計4自由度)による座標変換を行い、目頭中点と鼻頂点との変換後の相対座標を各々求めることにより、これら4つの特徴点の相対的な位置の動きを効率的に取得することができる。図10は、異なる顔向き角度における顔の画像と顔中心線上の顔特徴点の座標との関係を説明するための図である。図中の参照番号11は上向きの顔画像における顔特徴点、12は左向きの顔画像における顔特徴点、13は右向きの顔画像における顔特徴点を示す。同図では、写真ではなく実際の人物の顔を撮像装置で撮像した画像の場合には、顔向き角度の変化と同期して、眉間、目頭中点,鼻頂点,口中点の4つの特徴点の相対座標も変化することが示されている。即ち、このような性質を利用して、異なる顔向き角度の複数の画像に対して顔特徴点の相対座標の変化が大きい場合、画像入力部で画像に撮像されたものが写真ではなく立体的な人物の顔であるかを判定することができる。
[第3の実施の形態]
次に、画像処理装置及び方法の第3の実施の形態について説明する。なお、上述の第1の実施の形態又は第2の実施の形態と共通する部分については、同一の符号を使用して説明したり、説明を省略したりする。
本実施の形態においては、顔の中心線上にある少なくとも3つの顔特徴点を用い、更に、この顔特徴点の座標として、画像座標から他の座標に変換した相対座標を用いる。図11は、本実施の形態に係る画像処理装置50Bの構成を示す図である。本実施の形態に係る画像処理装置50Bの構成は、上述の第1の実施の形態に係る画像処理装置50の構成とは以下の点で異なる。画像処理装置50Bは、取得部51と、特徴点検出部52と、角度計算部53と、第1変化ベクトル計算部60と、第2変化ベクトル計算部61と、べクトル間角度計算部62と、判定部54とに加え、座標変換部56と、評価値計算部63とを更に有する。取得部51、角度計算部53、第1変化ベクトル計算部60及びべクトル間角度計算部62の構成は第1の実施の形態と同様である。特徴点検出部52は、上述の第1の実施の形態と同様にして、取得部51が取得した画像中から顔特徴点を検出する。但し、求めたい特徴点によっては、他の複数の顔特徴点の座標を用いて計算によって求めることもある。例えば、目頭の中点は、左右の目頭の座標の平均位置として求めたり、眉間は左右の眉内端の座標の中点として求めたりすることができる。
座標変換部56は、特徴点検出部52が出力した特徴点情報に含まれる顔特徴点の座標を用いて、特定の2個の顔特徴点の座標が(0,0)と(0,1)になるように、平行移動と回転と拡大(計4自由度)による座標変換を行って、変換後の顔特徴点の座標を求め、求めた座標を相対座標として出力する。例えば、図9に示すように、眉間,目頭中点,鼻頂点,口中点の4つの顔特徴点を用いる場合、眉間の座標が(0,0),口中点の座標が(0,1)となるように,平行移動と回転と拡大(計4自由度)による座標変換を行い、目頭中点と鼻頂点との変換後の相対座標を各々求める。相対的な位置の動きについては図10で説明した通りである。
第2変化ベクトル計算部61は、座標変換部56が出力した顔特徴点の相対座標を用いて、顔特徴点の座標の時間的変化を示す変化ベクトルを計算する。評価値計算部63は、べクトル間角度計算部62が計算したベクトル間角度が小さいほど大きい値をとるような評価値を計算する。判定部54は、評価値計算部63が計算した評価値が予め定められた第3閾値より大きい場合に、取得部51が取得した画像に撮像されたものが写真ではなく立体的な人物の顔であると判定して、その判定結果を出力する。即ち、判定部54は、異なる顔向き角度に対して顔特徴点の相対座標の変化が予め定められた第3閾値より大きい場合に、画像入力部で画像に撮像されたものが写真ではなく立体的な人物の顔であると判定する。
次に、本実施の形態に係る画像処理装置50Bの行うなりすまし検出処理の手順について図12を用いて説明する。ステップS1,S2,S4は上述の第1の実施の形態と同様である。尚、ステップS2では、特徴点検出部52は、顔領域の位置を表す座標及び大きさと顔特徴点の位置を表す座標の情報を出力する。ステップS20では、座標変換部56が、ステップS2で出力された顔特徴点の座標を用いて、特定の2個の顔特徴点の座標が(0,0)と(0,1)になるように、平行移動と回転と拡大(計4自由度)による座標変換を行い、変換後の顔特徴点の相対座標を出力する。ステップS5では、第1変化ベクトル計算部60が、ステップS4で計算された顔向き角度を用いて、顔向き角度の時間的変化を示す変化ベクトルを計算する。第2変化ベクトル計算部61が、ステップS20で出力された顔特徴点の相対座標を用いて、顔特徴点の座標の時間的変化を示す変化ベクトルを計算する。ベクトル間角度計算部62が、第1変化ベクトル計算部60が計算した変化ベクトルと第2変化ベクトル計算部61が計算した変化ベクトルとがなすベクトル間角度を計算する。ステップS21では、評価値計算部63が、ステップS5で計算されたベクトル間角度が小さいほど大きい値をとるような評価値を計算する。ステップS6では、判定部54が、ステップS21で計算した評価値が予め定められた第3閾値より大きいか否かを判定し、評価値が予め定められた第3閾値より大きい場合に、ステップS1で取得された画像に撮像されたものが写真ではなく立体的な人物の顔であると判定して、その判定結果を出力する。ステップS7は上述の第1の実施の形態と同様である。
以上のようにして、画像入力部で撮像された画像に映った人物の顔の立体形状を解析する際に、顔特徴点を相対座標に変換し、異なる顔向き角度に対して相対座標の変化が大きい場合に、当該画像に撮像されたものが写真ではなく立体的な人物の顔であると判定する。このような構成によれば、少なくとも3つの顔特徴点を用いてその判別を行うことができる。
[第4の実施の形態]
次に、画像処理装置及び方法の第4の実施の形態について説明する。なお、上述の第1の実施の形態乃至第3の実施の形態と共通する部分については、同一の符号を使用して説明したり、説明を省略したりする。
本実施の形態においては、時刻又は顔特徴点の異なる複数のベクトル間角度を入力とする関数により計算される評価値を用いて、画像入力部で撮像された画像が写真を表すものか立体的な人物の顔を表すものであるかを判定する。図13は、本実施の形態に係る画像処理装置50Cの構成を示す図である。本実施の形態に係る画像処理装置50Cの構成は、上述の第3の実施の形態に係る画像処理装置50Bの構成とは以下の点で異なる。画像処理装置50Cは、取得部51と、特徴点検出部52と、角度計算部53と、判定部54と、座標変換部56とに加え、フレーム評価値計算部57と、フレーム情報記憶部58と、時系列評価値計算部63とを更に有する。取得部51、特徴点検出部52、角度計算部53及び座標変換部56の構成は第3の実施の形態と同様である。
フレーム情報記憶部58は、各フレームに対して計算されたフレーム情報の履歴を時系列でフレーム番号と対応付けて記憶する。フレーム情報とは、特徴点検出部52が出力した特徴点情報と、角度計算部53が計算した顔向き角度と、座標変換部56が変換した顔特徴点の相対座標と、後述のフレーム評価値計算部57が計算した評価値とである。特徴点情報は特徴点検出部52によって記憶され、顔向き角度は角度計算部53によって記憶され、顔特徴点の相対座標は座標変換部56によって記憶され、評価値はフレーム評価値計算部57によって記憶される。また、フレーム情報記憶部58は、処理対象のフレーム(処理対象フレーム)に対して以下に説明するフレーム評価値計算部57が評価値を計算する際に参照する過去の処理対象フレームであり第2の実施の形態と同様の検索条件に該当するフレーム(該当過去フレーム)のフレーム番号と、時系列上処理対象フレームと該当過去フレームとの間のフレームであり第2の実施の形態と同様の特定条件に該当するフレーム(中間フレーム)のフレーム番号とを記憶する。
フレーム評価値計算部57は、処理対象フレームに対して評価値を計算するものであり、処理対象フレームに対して、角度計算部53が計算した顔向き角度と、座標変換部56が変換した顔特徴点の相対座標と、フレーム情報記憶部58に記憶された該当過去フレームに対するフレーム情報及び中間フレームに対するフレーム情報とを用いて、評価値を計算する。評価値を計算する方法の詳細については後述する。また、フレーム評価値計算部57は、処理対象フレームに対して計算した評価値をフレーム番号と対応付けてフレーム情報記憶部58に記憶させる。
時系列評価値計算部64は、フレーム評価値計算部57が処理対象フレームに対して計算した評価値と、フレーム情報記憶部58に記憶された、複数の過去のフレームに対する評価値とを用いて、複数フレームからなる時系列に対する評価値である時系列評価値を計算する。これは同一人物の顔画像がせいぜい緩やかな変化をしながらある一定時間連続して撮影されることで複数の顔画像が取得されていると想定し、これら複数の顔画像からなる一つの時系列に対して人物か写真かを判定するものである。判定部54は、時系列評価値計算部64が計算した時系列評価値が予め定められた第4閾値より大きい場合、取得部51が取得した画像に撮像されたものが立体的な人物の顔であると判定し、時系列評価値が第4閾値以下である場合、取得部51が取得した画像に撮像されたものが写真であると判定して、その判定結果と時系列評価値とを出力する。
次に、本実施の形態に係る画像処理装置50Cの行うなりすまし検出処理の手順について図14を用いて説明する。ステップS1,S2,S4は上述の第1の実施の形態と同様である。尚、ステップS2では、特徴点検出部52は、顔領域の位置を表す座標及び大きさと顔特徴点の位置を表す座標の情報である特徴点情報を出力してこれをフレーム番号と対応付けてフレーム情報記憶部58に記憶させる。また、ステップS4では、角度計算部53は、処理対象フレームに対して顔向き角度を計算した後、これを時系列でフレーム番号と対応付けて角度情報記憶部55に記憶させる。ステップS30では、フレーム評価値計算部57が、フレーム番号と対応付けられてフレーム情報記憶部58に記憶されたフレーム情報を参照して、上述の検索条件により該当過去フレームを検索する。このような該当過去フレームがなかった場合にはステップS1に戻り、該当過去フレームがあった場合には、ステップS31で、フレーム評価値計算部57が、フレーム番号と対応付けられてフレーム情報記憶部58にフレーム情報を参照して、上述の特定条件により中間フレームを特定する。このようにして、フレーム評価値計算部57は、当該処理対象フレームに対する該当過去フレームを検索すると共に中間フレームを特定してこれらのフレーム番号を各々フレーム情報記憶部58に記憶させる。
ステップS32では、座標変換部56は、上述の第3の実施の形態と同様にして、処理対象フレームに対する顔特徴点の相対座標を出力し、更にこれをフレーム番号と対応付けてフレーム情報記憶部58に記憶させる。ステップS33では、フレーム評価値計算部57が、角度計算部53が処理対象フレームに対して計算した顔向き角度と、座標変換部56が処理対象フレームに対して出力した顔特徴点の相対座標と、当該処理対象フレームに対する該当過去フレーム及び中間フレームのそれぞれについて各フレーム番号に対応付けられてフレーム情報記憶部58に記憶された顔向き角度及び特徴点の相対座標とを用いて、処理対象フレームに対して評価値を計算する。
ここでフレーム評価値計算部57が評価値を計算する方法について詳細に説明する。本実施の形態では、図8に関し、式(35),式(36)に示されるように、処理対象フレームの顔向き角度ベクトルをa0,処理対象フレームの顔特徴点(目頭中点など)の相対座標のベクトルをx0,中間フレームの顔向き角度のベクトルをa1,中間フレームの顔特徴点の相対座標のベクトルをx1,該当過去フレームの顔向き角度のベクトルをa2,該当過去フレームの顔特徴点の相対座標のベクトルをx2とする。顔向き角度の変化ベクトルuiを式(37)で定義し、顔特徴点の相対座標の変化ベクトルviを式(38)で定義する。更に、顔向き角度の変化ベクトルuiと顔特徴点の相対座標の変化ベクトルviのノルムを各々「1」に正規化したベクトルをそれぞれu’i,v’iとし、それぞれ式(39),式(40)で定義する。以上のような定義において、フレーム評価値計算部57は、顔向き角度の変化ベクトルuiが滑らかに変化しているかどうかを示す指標としてu’0とu’1との内積s1を式(41)により計算する。また、フレーム評価値計算部57は、顔特徴点の変化ベクトルviが滑らかに変化しているかどうかを示す指標としてv’0とv’1との内積s2を式42により計算する。更に、フレーム評価値計算部57は、対象物の立体性を示す指標として顔向き角度の変化ベクトルuiと顔特徴点の相対座標の変化ベクトルviとの内積を式(43),式(44)により2つ計算しs3,s4とする。そして、フレーム評価値計算部57は、予め適切に設定しておいた重みベクトルwと、内積s1,s2,s3,s4を成分とする特徴量ベクトルsとの内積を式(45)により計算して、これを処理対象フレームの評価値とする。この式(45)に表される、時刻又は顔特徴点の異なる複数のベクトル間角度を入力とする関数により計算される評価値が小さければ、ステップS1で取得された画像は写真を表すものである可能性が高い。
Figure 0005159950
図14の説明に戻る。以上のようにしてステップS33ではフレーム評価値計算部57は評価値を計算しこれをフレーム情報記憶部58に記憶させる。ステップS34では、時系列評価値計算部64が、フレーム評価値計算部57が処理対象フレームに対して計算した評価値と、処理対象フレーム以外の複数のフレームのそれぞれに対してフレーム情報記憶部58に記憶されている評価値とを用いて、処理対象フレームの時系列に対する評価値である時系列評価値を計算する。そして、判定部54が、計算された時系列評価値が予め定められた第4閾値より大きいか否かを判定し、時系列評価値が第4閾値より大きい場合、ステップS1で取得された画像に撮像されたものが立体的な人物の顔であると判定し、時系列評価値が第4閾値以下である場合、ステップS1で取得された画像に撮像されたものが写真であると判定して、その判定結果と時系列評価値とを出力する。ステップS7は上述の第1の実施の形態と同様である。
以上のように、画像入力部で撮像された画像に映った人物の顔の立体形状を解析する際に、時刻又は顔特徴点の異なる複数のベクトル間角度を入力とする関数により計算される評価値を用いることにより、画像に撮像されたものが写真であるか立体的な人物の顔であるかをより正確に判定することができる。
なお、本発明は前記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、前記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。また、以下に示すような種々の変形が可能である。
上述した各実施の形態において、画像処理装置50,50A,50B,50Cで実行される各種プログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成しても良い。また当該プログラムを、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録し、コンピュータで実行可能な複数の命令を含むプログラムを有するコンピュータ読取り可能な記録媒体として提供するように構成しても良い。
上述した第3実施の形態又は第4の実施の形態においても、第1の実施の形態と同様に、判定部54は、ベクトル間角度を用いて、取得部51が取得した画像に撮像されたものが写真ではなく立体的な人物の顔であることを判定するようにしても良い。具体的には、判定部54は、座標変換部56が出力した顔特徴点の相対座標と、角度計算部53が計算した顔向き角度とを用いて計算された、顔向き角度の時間的な変化を示す変化ベクトルと、顔特徴点の相対座標の時間的な変化を示す変化ベクトルとがなすベクトル間角度が予め定められた第5閾値より小さい場合、取得部51が取得した画像に撮像されたものが写真ではなく立体的な人物の顔であると判定して、その判定結果を出力する。
このような構成によっても、最低3個の顔特徴点を用いてなりすましに関する判定を行うことができる。
50,50A,50B,50C 画像処理装置
51 取得部
52 特徴点検出部
53 角度計算部
54 なりすまし判定部
55 角度情報記憶部
56 座標変換部
57 フレーム評価値計算部
58 フレーム情報記憶部

Claims (9)

  1. 時系列で撮像された複数の画像を取得する取得部と、
    前記複数の画像間における変化であって前記複数の画像の各々に含まれる対象物の姿勢を表す角度の変化を示す第1変化ベクトルを計算する第1計算部と、
    前記対象物の特徴点の座標の変化を示す第2変化ベクトルを計算する第2計算部と、
    前記第1変化ベクトルと前記第2変化ベクトルとがなすベクトル間角度を計算する第3計算部と、
    前記ベクトル間角度が予め定められた第1閾値より小さい場合に、前記対象物が立体的であると判定する判定部とを備える
    ことを特徴とする画像処理装置。
  2. 前記対象物は、人物の顔であり、
    前記姿勢を表す角度は、予め設定された、前記特徴点の3次元座標で構成された行列の擬似逆行列と、前記画像上の前記特徴点の座標で構成された行列との乗算により求められる回転行列に基づいて求められる顔向き角度であり、
    前記第1計算部は、前記回転行列の時間的変化である3次元回転運動から、画像平面内の1つの成分を除いた残りの2次元ベクトルである前記第1変化ベクトルを計算し、
    前記第2計算部は、左右いずれかの鼻孔、左右の鼻孔中点及び鼻頂点のうち少なくとも1つである前記特徴点の変化を示す前記第2変化ベクトルを計算する
    ことを特徴とする請求項1に記載の画像処理装置。
  3. 前記顔向き角度と前記特徴点とを記憶するフレーム情報記憶部と、
    前記画像の評価値を計算するフレーム評価値計算部と、
    を更に備え、
    前記フレーム評価値計算部は、処理対象の前記画像に対して計算された前記顔向き角度の変化を示す前記第1変化ベクトルの大きさが予め定められた大きさよりも大きくなる前記顔向き角度を、前記フレーム情報記憶部に記憶された複数の前記顔向き角度から特定するとともに、特定された前記顔向き角度に対応する画像を前記複数の画像から特定し、
    前記第1計算部は、前記処理対象の画像の前記顔向き角度と、前記特定された画像の前記顔向き角度との時間的変化である3次元回転運動から、画像平面内の1つの成分を除いた残りの2次元ベクトルである前記第1変化ベクトルを計算する
    ことを特徴とする請求項2に記載の画像処理装置。
  4. 前記対象物の特徴点の座標を少なくとも3つ検出する検出部と、
    3つの前記特徴点の座標のうち2つの前記特徴点の座標を基準とした残りの1つの前記特徴点の座標の相対座標を計算する第4計算部とを更に備え、
    前記対象物は、人物の顔であり、
    前記姿勢を表す角度は、予め設定された、前記特徴点の3次元座標で構成された行列の擬似逆行列と、前記画像上の前記特徴点の座標で構成された行列との乗算により求められる回転行列に基づいて求められる顔向き角度であり、
    前記判定部は、前記顔向き角度の異なる複数の前記画像における前記特徴点の相対座標の変化が予め定められた第2閾値より大きい場合に、前記画像に含まれる対象物が立体的であると判定する
    ことを特徴とする請求項1に記載の画像処理装置。
  5. 前記検出部は、前記対象物である人物の顔の中心線上にある前記特徴点の座標を少なくとも3つ検出する
    ことを特徴とする請求項4に記載の画像処理装置。
  6. 前記第2計算部は、複数の前記画像間における変化であって前記対象物の特徴点の相対座標の変化を示す第2変化ベクトルを計算する
    ことを特徴とする請求項4又は5に記載の画像処理装置。
  7. 時刻又は前記特徴点の異なる複数の前記ベクトル間角度を入力とする関数を用いて評価値を計算する評価値計算部を更に備え、
    前記判定部は、前記評価値を用いて、前記画像に含まれる対象物が立体的であるか否かを判定する
    ことを特徴とする請求項4乃至6のいずれか一項に記載の画像処理装置。
  8. 取得部と、第1計算部と、第2計算部と、第3計算部と、判定部とを備える画像処理装置で実行される画像処理方法であって、
    前記取得部が、時系列で撮像された複数の画像を取得する取得ステップと、
    前記第1計算部が、前記複数の画像間における変化であって前記複数の画像の各々に含まれる対象物の姿勢を表す角度の変化を示す第1変化ベクトルを計算する第1計算ステップと、
    前記第2計算部が、前記対象物の特徴点の座標の変化を示す第2変化ベクトルを計算する第2計算ステップと、
    前記第3計算部が、前記第1変化ベクトルと前記第2変化ベクトルとがなすベクトル間角度を計算する第3計算ステップと、
    前記判定部が、前記ベクトル間角度が予め定められた第1閾値より小さい場合に、前記画像に含まれる対象物が立体的であると判定する判定ステップとを含む
    ことを特徴とする画像処理方法。
  9. コンピュータを、
    時系列で撮像された複数の画像を取得する取得部と、
    前記複数の画像間における変化であって前記複数の画像の各々に含まれる対象物の姿勢を表す角度の変化を示す第1変化ベクトルを計算する第1計算部と、
    前記対象物の特徴点の座標の変化を示す第2変化ベクトルを計算する第2計算部と、
    前記第1変化ベクトルと前記第2変化ベクトルとがなすベクトル間角度を計算する第3計算部と、
    前記ベクトル間角度が予め定められた第1閾値より小さい場合に、前記画像に含まれる対象物が立体的であると判定する判定部として機能させるための画像処理プログラム。
JP2011515813A 2009-05-28 2009-05-28 画像処理装置、方法、プログラム Active JP5159950B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2009/059805 WO2010137157A1 (ja) 2009-05-28 2009-05-28 画像処理装置、方法、プログラム

Publications (2)

Publication Number Publication Date
JPWO2010137157A1 JPWO2010137157A1 (ja) 2012-11-12
JP5159950B2 true JP5159950B2 (ja) 2013-03-13

Family

ID=43222298

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011515813A Active JP5159950B2 (ja) 2009-05-28 2009-05-28 画像処理装置、方法、プログラム

Country Status (3)

Country Link
US (1) US8401253B2 (ja)
JP (1) JP5159950B2 (ja)
WO (1) WO2010137157A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10242253B2 (en) 2016-09-14 2019-03-26 Kabushiki Kaisha Toshiba Detection apparatus, detection method, and computer program product

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102197412B (zh) * 2008-10-28 2014-01-08 日本电气株式会社 伪装检测系统和伪装检测方法
US8675926B2 (en) * 2010-06-08 2014-03-18 Microsoft Corporation Distinguishing live faces from flat surfaces
CN103365063B (zh) * 2012-03-31 2018-05-22 北京三星通信技术研究有限公司 三维图像拍摄方法和设备
US9396382B2 (en) * 2012-08-17 2016-07-19 Flashscan3D, Llc System and method for a biometric image sensor with spoofing detection
FR2997211B1 (fr) * 2012-10-18 2021-01-01 Morpho Procede d'authentification d'une capture d'image d'une entite tridimensionnelle
US9202119B2 (en) * 2013-10-18 2015-12-01 Daon Holdings Limited Methods and systems for determining user liveness
IL231789A0 (en) * 2014-03-27 2014-08-31 Fst21 Ltd System and method for detecting fraud attempts of an access control system
DE102014209437B3 (de) * 2014-05-19 2015-10-22 Sirona Dental Systems Gmbh Verfahren zur Erzeugung magnetresonanztomographischer Aufnahmen von zyklischer Bewegung
WO2016013090A1 (ja) * 2014-07-24 2016-01-28 富士通株式会社 顔認証装置、顔認証方法および顔認証プログラム
US9934443B2 (en) * 2015-03-31 2018-04-03 Daon Holdings Limited Methods and systems for detecting head motion during an authentication transaction
JP6507046B2 (ja) 2015-06-26 2019-04-24 株式会社東芝 立体物検知装置及び立体物認証装置
US9996732B2 (en) * 2015-07-20 2018-06-12 International Business Machines Corporation Liveness detector for face verification
EP3341916A4 (en) * 2015-08-24 2019-04-03 Fst21 Ltd. SYSTEM AND METHOD FOR MOVEMENT IDENTIFICATION
US9898674B2 (en) 2015-12-10 2018-02-20 International Business Machines Corporation Spoof detection for facial recognition
CN107463875A (zh) * 2017-07-03 2017-12-12 金讯系统管理有限公司 一种判断人员身份的方法和装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003099763A (ja) * 2001-05-25 2003-04-04 Toshiba Corp 顔画像記録装置、情報管理システム、顔画像記録方法、及び情報管理方法
JP2007304801A (ja) * 2006-05-10 2007-11-22 Nec Corp 立体性認証方法、立体性認証装置および立体性認証プログラム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3279913B2 (ja) 1996-03-18 2002-04-30 株式会社東芝 人物認証装置、特徴点抽出装置及び特徴点抽出方法
DE19810792A1 (de) * 1998-03-12 1999-09-16 Zentrum Fuer Neuroinformatik G Verfahren zum Verifizieren der Authentizität eines im Rahmen einer Personenerkennung aufgenommenen Bildes
DE19847261A1 (de) * 1998-10-05 2000-04-06 Dcs Dialog Communication Syste Verfahren und System zur Personenerkennung mit modellbasierter Gesichtsfindung
DE19901881A1 (de) * 1999-01-19 2000-07-27 Dcs Dialog Communication Syste Verfahren und System zur Fälschungssicherung bei biometrischer Personenerkennung
JP3822483B2 (ja) 2001-10-31 2006-09-20 株式会社東芝 物体向き計算装置及びその方法
JP3888676B2 (ja) 2002-02-25 2007-03-07 株式会社東芝 3次元物体認識装置及びその方法
JP4172793B2 (ja) * 2004-06-08 2008-10-29 株式会社東芝 ジェスチャ検出方法、ジェスチャ検出プログラムおよびジェスチャ検出装置
JP2007094906A (ja) 2005-09-29 2007-04-12 Toshiba Corp 特徴点検出装置および方法
CN101379528B (zh) * 2006-03-01 2012-07-04 日本电气株式会社 面部认证装置、面部认证方法
JP4585471B2 (ja) 2006-03-07 2010-11-24 株式会社東芝 特徴点検出装置及びその方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003099763A (ja) * 2001-05-25 2003-04-04 Toshiba Corp 顔画像記録装置、情報管理システム、顔画像記録方法、及び情報管理方法
JP2007304801A (ja) * 2006-05-10 2007-11-22 Nec Corp 立体性認証方法、立体性認証装置および立体性認証プログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10242253B2 (en) 2016-09-14 2019-03-26 Kabushiki Kaisha Toshiba Detection apparatus, detection method, and computer program product

Also Published As

Publication number Publication date
US8401253B2 (en) 2013-03-19
WO2010137157A1 (ja) 2010-12-02
JPWO2010137157A1 (ja) 2012-11-12
US20120063671A1 (en) 2012-03-15

Similar Documents

Publication Publication Date Title
JP5159950B2 (ja) 画像処理装置、方法、プログラム
JP4093273B2 (ja) 特徴点検出装置、特徴点検出方法および特徴点検出プログラム
TWI383325B (zh) 臉部表情辨識
JP5812599B2 (ja) 情報処理方法及びその装置
US9530078B2 (en) Person recognition apparatus and person recognition method
Liu et al. Joint subspace learning for view-invariant gait recognition
JP4829141B2 (ja) 視線検出装置及びその方法
JP5629803B2 (ja) 画像処理装置、撮像装置、画像処理方法
JP4653606B2 (ja) 画像認識装置、方法およびプログラム
JP4950787B2 (ja) 画像処理装置及びその方法
JP6528764B2 (ja) 顔照合装置、方法、及び、記録媒体
JP4743823B2 (ja) 画像処理装置、撮像装置、画像処理方法
KR101612605B1 (ko) 얼굴 특징점 추출 방법 및 이를 수행하는 장치
JP7230939B2 (ja) 情報処理装置、情報処理方法および情報処理プログラム
JP6590609B2 (ja) 画像解析装置及び画像解析方法
JP6071002B2 (ja) 信頼度取得装置、信頼度取得方法および信頼度取得プログラム
JP5170094B2 (ja) なりすまし検知システム、なりすまし検知方法およびなりすまし検知用プログラム
JP6822482B2 (ja) 視線推定装置、視線推定方法及びプログラム記録媒体
Bresan et al. Facespoof buster: a presentation attack detector based on intrinsic image properties and deep learning
CN112990047B (zh) 一种结合面部角度信息的多姿态人脸验证方法
JP2010231350A (ja) 人物識別装置、そのプログラム、及び、その方法
WO2015181729A1 (en) Method of determining liveness for eye biometric authentication
JP7107380B2 (ja) 推定装置、推定方法、およびプログラム
JP5688514B2 (ja) 視線計測システム、方法およびプログラム
WO2019155570A1 (ja) 視線推定装置、視線推定方法、および記録媒体

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121113

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121211

R151 Written notification of patent or utility model registration

Ref document number: 5159950

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151221

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

Free format text: JAPANESE INTERMEDIATE CODE: R313114

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350