JP2005327076A - パラメタ推定方法、パラメタ推定装置および照合方法 - Google Patents

パラメタ推定方法、パラメタ推定装置および照合方法 Download PDF

Info

Publication number
JP2005327076A
JP2005327076A JP2004144504A JP2004144504A JP2005327076A JP 2005327076 A JP2005327076 A JP 2005327076A JP 2004144504 A JP2004144504 A JP 2004144504A JP 2004144504 A JP2004144504 A JP 2004144504A JP 2005327076 A JP2005327076 A JP 2005327076A
Authority
JP
Japan
Prior art keywords
parameter
learning
face image
input data
estimation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004144504A
Other languages
English (en)
Other versions
JP4321350B2 (ja
Inventor
Kenji Nagao
健司 長尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2004144504A priority Critical patent/JP4321350B2/ja
Priority to PCT/JP2005/008006 priority patent/WO2005111936A1/ja
Priority to EP05737145.2A priority patent/EP1758059A4/en
Priority to CN2005800155586A priority patent/CN1954342B/zh
Priority to US11/596,431 priority patent/US7760933B2/en
Publication of JP2005327076A publication Critical patent/JP2005327076A/ja
Application granted granted Critical
Publication of JP4321350B2 publication Critical patent/JP4321350B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/32Normalisation of the pattern dimensions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)
  • Collating Specific Patterns (AREA)
  • Image Processing (AREA)

Abstract

【課題】入力データに対するパラメタを正確に推定することができるパラメタ推定方法、パラメタ推定装置および照合方法を提供する。
【解決手段】入力データに対して最大事後確率推定を行いパラメタを推定するパラメタ推定方法において、入力データに関する演算を入力データに関する内積で表し、内積をカーネル関数に置き換え、カーネル関数の計算結果を用いてパラメタを推定する。推定すべきパラメタが既知である複数の学習用入力データと学習用入力データのそれぞれに対応するパラメタとの相関を学習するステップ(オフライン動作)と、推定すべきパラメタが未知である推定用入力データに対するパラメタを学習した相関を用いて推定するステップ(オンライン動作)とを有する。
【選択図】図2

Description

本発明は、入力データから特定のパラメタを推定するパラメタ推定方法、パラメタ推定装置およびこれを用いた照合方法に関する。
入力された画像から特定のパラメタを推定する処理は、パターン情報処理において一般的な処理である。例えば人物顔画像から目や鼻の位置を取り出す処理や、車両画像からナンバープレートの位置を抽出する処理がそれにあたる。
従来、このような処理に対してもっともポピュラーな方法はテンプレートを用いて比較照合する照合フィルター法と言われるもので、多くの使用例が提案されている。このような方法にもとづく顔の特徴抽出方法の一例が非特許文献1に詳しく報告されている。
R.Brunelli, T.Poggio,"Face Recognition:Features versus Template",IEEE Trans.Patt.Anal.Machine Intell., vol.PAMI−8,pp.34−43,1993
これら従来の方法における課題はコンピュータの処理時間が長い、あるいはそれにともなって処理コストが高くなることである。正規化相関を類似度基準とする場合、入力画像の画素数をS、テンプレートの画素数をTとすると、乗算を単位演算として2×T×S回の演算が必要となる。これを顔画像の特徴点抽出にあてはめると、S=150×150=22500(pel)、T=50×20=1000(pel)の場合、乗算だけで2×1000×22500=4500万回となり、いくらコンピュータの演算速度が向上したといえ莫大な演算コストを要することになる。
また、照合に用いるテンプレートとしては全学習データの平均等のデータを用いることが多く、環境によってうまく照合できない場合が多い。このため入力画像に応じてテンプレートを複数用意して類似度計算を行う手法がある。しかしながら、テンプレートの数に応じて処理量が増大するため、コンピュータの処理時間がさらに大きくなってしまう。
本発明のパラメタ推定方法、パラメタ推定装置および照合方法はこれらの課題に鑑みなされたものであり、短い処理時間あるいは少ない処理コストで入力データに対するパラメタを正確に推定することを目的とする。
本発明のパラメタ推定方法は、入力データに対して最大事後確率推定を行う演算方法を入力データに関する内積で表し、内積をカーネル関数に置き換え、カーネル関数の計算結果を用いてパラメタを推定することを特徴とする。この方法により、短い処理時間あるいは少ない処理コストで入力データに対するパラメタを正確に推定することが可能となる。
また、本発明のパラメタ推定方法は、推定すべきパラメタが既知である複数の学習用入力データと学習用入力データのそれぞれに対応するパラメタとの相関を学習するステップと、推定すべきパラメタが未知である推定用入力データに対するパラメタを学習した相関を用いて推定するステップとを有し、学習するステップは、推定すべきパラメタが既知である複数の学習用入力データを用いて学習カーネル行列を計算するステップと、学習カーネル行列の逆行列の固有値および固有ベクトルを求めるステップとを有し、推定するステップは、推定すべきパラメタが未知である推定用入力データと学習用入力データとを用いて推定カーネルを計算するステップと、学習カーネル行列、学習カーネル行列の逆行列の固有値とその固有ベクトルとを用いて推定用入力データのパラメタを推定するステップとを有する。この方法により、コンピュータシステムを用いて、短い処理時間あるいは少ない処理コストで入力データに対するパラメタを正確に推定することが可能となる。
また、本発明のパラメタ推定装置は、推定すべきパラメタが既知である複数の学習用入力データと学習用入力データのそれぞれに対応するパラメタとの相関を学習する学習手段と、推定すべきパラメタが未知である推定用入力データのパラメタを学習した相関を用いて推定する推定手段とを備え、学習手段は、推定すべきパラメタが既知である複数の学習用入力データを用いて学習カーネル行列を計算する学習カーネル行列計算手段と、学習カーネル行列の逆行列の固有値および固有ベクトルを求める固有値計算手段とを備え、推定手段は、推定すべきパラメタが未知である推定用入力データと学習用入力データとを用いて推定カーネルを計算する推定カーネル計算手段と、学習カーネル行列、学習カーネル行列の逆行列の固有値、その固有ベクトルとを用いて推定用入力データのパラメタを算出するパラメタ算出手段とを備えたことを特徴とする。この構成により、短い処理時間あるいは少ない処理コストで入力データに対するパラメタを正確に推定するパラメタ推定装置を実現することが可能となる。
また、本発明のパラメタ推定装置は、推定用入力データおよび学習用入力データが顔を含む画像であり、推定すべきパラメタが顔の特徴点の座標であってもよい。この構成により、顔照合装置に適したパラメタ推定装置を提供できる。
また、本発明の照合方法は、請求項4に記載のパラメタ推定装置と顔画像データベースとを用いた照合方法であって、パラメタ推定装置を用いて照合すべき顔画像に対する顔の特徴点の座標を推定した後、顔の特徴点の座標にもとづき顔領域を切り出し、顔画像データベースに登録されている顔画像と切り出された顔領域とを照合する。この方法により、短い処理時間あるいは少ない処理コストで顔画像から顔照合に用いる顔領域を切り出すことが可能となる。
また、本発明の照合方法は、請求項4に記載のパラメタ推定装置と顔画像データベースとを用いた照合方法であって、パラメタ推定装置を用いて顔の特徴点の座標を推定し顔の特徴点の座標にもとづき画像領域を正規化する顔画像正規化動作を複数回繰り返した後、顔の特徴点の座標にもとづき顔領域を切り出し、顔画像データベースに登録されている顔画像と切り出された顔領域とを照合する。この方法により、画面内で顔位置が大きく移動している顔画像に対しても精度よく特徴点の座標を推定することが可能となる。
また、本発明のパラメタ推定装置は、推定用入力データおよび学習用入力データが顔を含む画像であり、推定すべきパラメタが顔画像の高さ情報であってもよい。この構成により、2次元顔画像から3次元の立体的な顔情報を推定できる。
また、本発明の照合方法は、請求項7に記載のパラメタ推定装置と顔画像データベースとを用いた照合方法であって、パラメタ推定装置を用いて照合すべき顔画像に対する高さ情報を推定した後、顔画像の高さ情報にもとづき顔画像データベースに登録されている顔画像と同一の角度から見た2次元画像を合成し照合する。この方法により、任意の方向を向いた顔画像であっても正面あるいは横向きの顔画像として登録された顔画像データベースとの照合が可能となる。
また、本発明の照合方法は、請求項7に記載のパラメタ推定装置と顔画像データベースとを用いた照合方法であって、パラメタ推定装置を用いて顔画像データベースに登録されている顔画像に対する高さ情報を推定した後、登録されている顔画像以外の角度から見た2次元画像を合成して、顔画像データベースに追加登録する。この方法によれば、入力した顔画像と顔画像データベースに登録されている顔画像とを直接照合することができるので高速に照合することができる。
本発明によれば、短い処理時間あるいは少ない処理コストで入力データに対するパラメタを正確に推定することができるパラメタ推定方法、パラメタ推定装置および照合方法を提供することができる。
(実施の形態1)
図1は、本発明の実施の形態1におけるパラメタ推定装置のブロック図であり、コンピュータシステムで実現したものである。パラメタ推定装置100は、外部機器とのデータのやりとりを行うデータ入力部10、データ処理を行うCPU20、プログラム格納用およびワーク用のメモリ30、パラメタ推定用入力データや相関データ等、大規模なデータを保存するための二次記憶装置(ハードディスクや光磁気ディスク等)40、システムコンソールとしてのディスプレイ50、マン−マシンインターフェースとしてのマウス60を備え、上記各ブロックはシステムバス90に接続されている。
CPU20は、対応するプログラムを実行することにより、学習手段の学習カーネル行列計算手段22、固有値計算手段23として働き、また、推定手段の推定カーネル計算手段26、パラメタ算出手段27として働く。二次記憶装置40には、後述する各種のデータを記憶する領域が確保されている。
パラメタ推定装置100は、推定対象である入力データと推定すべきパラメタとの間に相関関係があることにもとづいている。すなわち、推定すべきパラメタのわかっている多くの学習用入力データに対して、入力データとパラメタとの相関をあらかじめ学習しておき、この相関関係を用いて任意の入力データに対するパラメタを推定するようにしたものである。
まず、学習サンプルを用いて入力データとパラメタとの相関を学習するステップ(以下、「オフライン処理」と記す)の動作について説明する。あらかじめ推定すべきパラメタのわかっている入力データをn次元の入力ベクトルI、入力ベクトルIに対するパラメタをm次元のパラメタベクトルQとし、学習サンプルの総数をNとする。
図2は本発明の実施の形態1におけるパラメタ推定装置100のフローチャートである。なお、CPU20がメモリ30に格納されたプログラムを実行することで以下のフローを実行する。
まず、データ入力部10には、N個の入力ベクトルI(i=1〜N)とパラメタベクトルQを入力し、二次記憶装置40に格納する(S10)。
次に、CPU20は、(数式1)にしたがって、N個のパラメタベクトルQから平均パラメタベクトルQを求め、二次記憶装置40に転送し格納する(S11)。
続いてCPU20は、(数式2)にしたがい、N個のパラメタベクトルQのそれぞれに対して、平均パラメタベクトルQからの偏差パラメタベクトルQ を求め、二次記憶装置40に転送し格納する(S12)。
次にCPU20は学習カーネル行列計算手段22として、入力ベクトルI、Iから学習カーネル行列Kij(i、j=1〜N)を求める。カーネルとしては多項式カーネル、シグモイドカーネル等が使用できるが、本実施の形態においては(数式3)に示すガウスカーネルを使用した。求めた学習カーネル行列Kijは二次記憶装置40に転送し格納する(S13)。
続いて、平均値のまわりの偏差学習カーネル行列K ijを(数式4)にもとづいて求め、求めた偏差学習カーネル行列K ijを二次記憶装置40に転送し格納する(S14)。
次にCPU20は固有値計算手段23として、偏差学習カーネル行列K ijの固有方程式(数式5)を解き、固有値λ(k=1〜M)および固有ベクトルαを求める。求めた固有値λおよび固有ベクトルαを二次記憶装置40に転送し格納する(S15)。ここでMは独立な固有ベクトルの数を示しており、最大は学習サンプルの数Nに等しい。
ここで、Kは偏差学習カーネル行列を表す。以上で、入力ベクトルIとパラメタベクトルQとの相関を表すために必要なデータはそろったが、後の推定するステップにおける計算を簡略化するために、さらに次の計算を行う。上記で求めた偏差パラメタベクトルQ 、偏差学習カーネル行列K ij、固有値λおよび固有ベクトルαを用いて、(数式6)にもとづきM個のm次元定数ベクトルΓを求め、さらに、定数ベクトルΓ、学習カーネル行列Kij、固有ベクトルαを用いて、(数式7)にしたがってm次元定数ベクトルΩを求める。これら定数ベクトルΓ、定数ベクトルΩは二次記憶装置40に格納される(S16)。
以上が、パラメタ推定装置100のオフラインで実行する処理であり、二次記憶装置40には、上述の処理で求めた平均パラメタベクトルQ、定数ベクトルΩ、定数ベクトルΓ、固有ベクトルαが格納されている。このようにオフライン処理においてはCPU20は学習手段として働く。
つぎに、パラメタを推定すべき入力データに対して、実際にパラメタを推定するステップ(以下、「オンライン処理」と記す)について説明する。なお、オンライン処理においてもCPU20がメモリ30に格納されたプログラムを実行することで以下のフローを実行する。
まず、データ入力部10には、パラメタを推定すべき入力データを入力ベクトルIとして入力し、二次記憶装置40に格納する(S20)。
次にCPU20は推定カーネル計算手段26として、(数式8)にもとづいて、推定カーネルK(i=1〜N)を求める。求めた推定カーネルKは二次記憶装置40に転送し格納する(S21)。
そして、CPU20はパラメタ算出手段27として、オフライン処理で求めた平均パラメタベクトルQ、定数ベクトルΩ、定数ベクトルΓ、固有ベクトルα、およびステップS21で求めた推定カーネルKを二次記憶装置40から読出し、(数式9)を用いて推定すべきパラメタを示すパラメタベクトルQを計算する。そして、推定されたパラメタベクトルQを二次記憶装置40に格納する(S22)。
このようにオンライン処理においてはCPU20は推定手段として働く。以上の説明の中ではガウスカーネルのスケールσについて言及しなかったが、推定対象である入力ベクトルおよび推定すべきパラメタによりスケールσの最適値が異なる。したがって、パラメタ推定実験を行いながら値を決めることが望ましい。
ここで、(数式1)〜(数式9)を用いた計算によってパラメタの推定が可能な理由を説明する。
以前より本発明者らは画像信号からパラメタを推定する方法としてMAP(maximum a posteriori)推定法について検討してきた。入力画像Iと推定すべきパラメタQの同時分布がガウス分布にしたがうランダムベクトルである場合、パラメタQの最適推定値は(数式10)を用いて求めることができる。
ここで、Σqiはクロス共分散行列、Σ −1は分散共分散行列の逆行列である。
(数式10)はいわゆる重回帰分析に用いられる数式と類似のものである。しかしながら入力画像Iと推定すべきパラメタQとの関係がより複雑となり、それらの同時分布がガウス分布で表せない場合には、この単純な数式ではうまく推定できないことが実験的に明らかになってきた。
そこで本発明者らは、サポートベクタマシンと呼ばれる画像認識手法に対して導入され、良好な結果が得られている「カーネルトリック」と呼ばれる新しい考え方について注目した。これは、入力ベクトルを非線形変換してその空間で線形の識別を行う方法である。本発明者らは、MAP推定法に「カーネルトリック」を導入する検討を行った結果、KMAPと称する新規なパラメタ推定方法を確立した。以下にその詳細について説明する。
(数式11)に示すように、非線形関数φを用いて入力ベクトルIを非線形変換する。ここで、変換された入力ベクトルφ(I)とパラメタQとの同時分布がガウス分布になると仮定すると、パラメタQは、(数式12)で表される。ここでφ(I)をφと略記した。
(数式12)を計算する上で、非線形に変換された統計量をそのまま計算しようとすると、より高次元空間での莫大な計算が必要となる。しかしながら、変換された入力ベクトルφに関する演算を内積の形φ・φにまとめることができれば、これをカーネルK(φ,φ)に置き換えることができ、計算量を大幅に減らすことができる。
まず、分散共分散行列の逆行列Σφ −1が(数式13)のように展開できることに注目する。ここで、Φ=[Φ]、Λ=diag[λ]はそれぞれΣφ −1の固有ベクトル、固有値行列である。一方、固有値λは(数式14)に示すように偏差学習カーネル行列K ij=K(φ,φ)の固有値でもある。
そして固有ベクトルΦは変換された入力ベクトルφを用いて(数式15)のように展開できる。また、このときの展開係数αは偏差学習カーネル行列K ijのk番目の固有ベクトルとして得られる。したがって、これらを代入することにより、分散共分散行列の逆行列Σφ −1を(数式16)のように書換えることができる。
つぎに、クロス共分散行列ΣQφは(数式17)で得られる。そこで、(数式16)と(数式17)を(数式12)に代入し計算順序を入れ替えて、内積φ・φを学習カーネル行列Kijで置き換えることにより、(数式9)が得られる。
したがって、あらかじめN個の学習サンプルを用いて、平均パラメタベクトルQ、定数ベクトルΩ、定数ベクトルΓ、固有ベクトルαを求めておき、推定対象である入力ベクトルが入力されたとき、(数式6)〜(数式9)を用いてパラメタQを推定することができる。
カーネルとしては、多項式カーネル、シグモイドカーネル、ガウスカーネル等を用いることができるが、どのようなカーネルを用いるかについては、推定対象である入力ベクトルおよび推定すべきパラメタにより依存するので、パラメタ推定実験を行いながらカーネルを決定することが望ましい。
(実施の形態2)
本発明の実施の形態2では、実施の形態1におけるパラメタ推定装置100を用いて顔画像の中から特徴点の座標を推定した顔画像照合装置について説明する。
図3は、本発明の実施の形態2における顔画像照合装置のブロック図である。パラメタ推定装置100は実施の形態1と同様に、コンピュータシステムで構成され、各ブロックには実施の形態1と同じ符号を付して説明を省略する。顔画像照合装置200には、人物の顔画像を撮影するためのビデオカメラ110が接続されている。さらに、あらかじめ登録された人物の顔画像を集めた顔画像データベース140も接続されている。
顔画像照合装置200は、まず実施の形態1におけるパラメタ推定装置100を用いて、入力された顔画像の中から目、鼻、眉、口等の特徴点の座標を見出す。つぎに顔画像照合装置200は、特徴点の座標をもとに顔照合に用いる顔領域を切り出す。具体的には、例えば、鼻の座標を中心として一辺の長さが両目の間隔の2倍であり上下の辺が両目を結ぶ直線と平行であるような正方形領域を顔領域とする。そして、切り出された顔領域と顔画像データベース140に登録されている顔画像とを照合する。照合の方法としては、例えば統計的手法である主成分分析を利用した固有顔法等の手法を用いることができる。
以下に、入力された顔画像の中から目、鼻、眉、口等の特徴点の座標を見出すパラメタ推定装置100の動作について詳しく説明する。
まず、学習用顔画像を用いて、入力画像と特徴点の座標との相関を学習するオフライン処理の動作について説明する。学習用顔画像の総数をNとし、i番目の学習用顔画像の各画素の値をラスタスキャン順に並べたn次元のベクトルを入力ベクトルI、各特徴点の位置座標をm次元のパラメタベクトルQとする。
図4は本発明の実施の形態2における顔画像照合装置200に用いられているパラメタ推定装置100のフローチャートである。まず、カメラ110はN人分の学習用顔画像を撮影する。そしてデータ入力部10は、それぞれの顔画像の各画素の値をラスタスキャン順に並べて学習用入力ベクトルI(i=1〜N)を作成し、二次記憶装置40に転送し格納する(S30)。つぎに、二次記憶装置40に記憶した学習用顔画像(すなわち学習用入力ベクトルI)をディスプレイ50に1枚ずつ表示する。そして、ユーザがこの学習用顔画像を見ながらマウス60を用いて手動で顔の特徴点を入力する。図5はユーザが入力した顔の特徴点の一例を示す図である。顔画像の原点を基準に、右眉、右目、左眉、左目、鼻および口のそれぞれのX座標、Y座標が特徴点座標としてユーザにより入力される。CPU20は、それぞれの学習用顔画像に対して入力された各特徴点の座標値を順に並べて連結して学習用パラメタベクトルQとし、二次記憶装置40に格納する(S31)。
次にCPU20は、(数式1)〜(数式7)を用いて平均パラメタベクトルQ、定数ベクトルΩ、定数ベクトルΓ、固有ベクトルαを求め、二次記憶装置40に格納する(S32)。以上が、パラメタ推定装置100のオフラインで実行する処理である。
次に、オンライン処理について説明する。
まず、データ入力部10は、照合すべき顔画像を入力し、顔画像の各画素の値をラスタスキャン順に並べて入力ベクトルIに変換し二次記憶装置40に転送する(S40)。次にCPU20は、(数式8)にもとづいて、推定カーネルK(i=1〜N)を求め、二次記憶装置40に転送し格納する(S41)。そして、オフライン処理で求めた平均パラメタベクトルQ、定数ベクトルΩ、定数ベクトルΓ、固有ベクトルα、およびステップS41で求めた推定カーネルKを二次記憶装置40から読出し、(数式9)を用いて推定すべきパラメタを示すパラメタベクトルQを計算する。そして、推定されたパラメタベクトルQを二次記憶装置40に格納する(S42)。次にCPU20は、パラメタベクトルQを特徴量の座標データに分解し、入力顔画像とともにディスプレイ上に表示する(S43)。ここまでが入力された顔画像の中から目、鼻、眉、口等の特徴点の座標を見出す動作である。
その後、上述したように、特徴点の座標をもとに顔認証に用いる顔領域を切り出し、切り出された顔領域と顔画像データベース140に登録されている顔画像とを照合する。
つぎに、実施の形態2における顔画像照合装置200において、KMAPを用いた特徴点推定、特に顔画像の中から目の位置を推定した実験とその結果を示す。被験者2000人に対して角度と距離を変えて撮影した顔画像7200枚を用いて、本発明の実施の形態2におけるKMAPの推定精度およびその安定性を評価した。比較のために、(i)ガウス分布を使用した最大推定値(maximum likelihood)を基本とするテンプレートマッチング(以下、「MLG」と記す)、(ii)Eigenface法(以下、「EF」と記す)、(iii)ガウス分布を使用した従来のMAP推定法(以下、「TMAP」と記す)を用いた推定を同時に行った。
図6は本発明の実施の形態2において抽出された目位置のいくつかの例を示す図である。図6には、抽出された目の位置を入力画像上に×印で示してある。
図7は本発明の実施の形態2における顔画像照合装置の目位置推定の感度を示す図であり、図7(a)は撮影する距離を変化させたときの図、図7(b)は撮影する角度を変化させたときの図である。横軸は推定した目位置の誤差を画素単位で示し、縦軸は累積抽出率(横軸に示す誤差を許容した場合における、推定した目位置座標の正しさ)を示している。したがって、誤差が小さい範囲で累積抽出率が大きくなるほど目位置推定の感度が高いことを示す。このように、いずれの場合においてもKMAPによる推定方法が他の方法に比べて優れていることが実証できた。
図8は画面内での顔位置の移動に対する目位置推定の感度を示す図であり、図8(a)は正面から撮影した顔画像に対するもの、図8(b)は斜め方向から撮影した顔画像に対するものである。移動画像は回転対象ガウス分布を使用して人為的に作成した。移動量の分散は、0,10,20,30画素とし、回転角度の分散は45度、縮小率の平均が1倍、分散が0.5倍とした。図8(a)、図8(b)には各移動量の分散に対するそれぞれの方法における目位置推定の感度を示している。MLG法、およびEF法の性能は移動量の変化に影響されないので移動量の分散0に対する結果のみを示している。図8(a)、図8(b)ともに、移動量の分散が20画素程度までならKMAP法が他の方法より優れており、30画素を超えるとMLG法がKMAP法をわずかに上回っていることがわかる。これらの結果より、移動量の分散が大きくなるにつれ、KMAP法の性能は低下し、MLGを利用した従来の方法が一見優れているように見受けられる。しかしながら、つぎに述べるように、KMAP法を反復的に用いることで、よい性能が得られることがわかった。
KMAP法を反復的に用いる方法は以下のとおりである。まずKMAP法を使用して目位置を推定し、つぎに推定した目位置を使用して画像領域を正規化する。そして正規化した顔画像を用いて再びKMAP法により目位置を推定する。このようにKMAP法をn回反復する方法をKMAP(n)と記することにする。図9は、移動量の分散が30画素である顔画像に対するKMAP(1)=KMAP、KMAP(2)、KMAP(3)、MLGのそれぞれによる目位置推定の感度を示すグラフである。このように反復回数nが増すにつれてKMAP(n)の性能が改善されることを実証できた。
KMAPによる目位置推定の速度は、1画像あたり0.8秒であった。MLG法では1画像あたり6秒であった(ペンティアムIV(商標)相当のプロセッサ使用時)。このように、KMAP法によれば推定精度が向上するだけでなく、計算時間も大幅に短縮することができた。このように、短い処理時間、したがって少ない処理コストで入力データの特徴点を正確に求めることが可能となった。
(実施の形態3)
本発明の実施の形態3では、実施の形態1におけるパラメタ推定装置100を用いて顔画像の高さ情報を推定した顔画像照合装置について説明する。
図10は本発明の実施の形態3における顔画像照合装置のブロック図である。顔画像照合装置300は実施の形態2と同様にコンピュータシステムで構成されている。顔画像照合装置200のブロック図と異なるところは、2方向からの顔画像を撮影するために、2台のカメラ110、115を備えている点である。
この顔画像照合装置300は、まずパラメタ推定装置100を用いて入力された顔画像の高さ情報を推定する。つぎに、推定された3次元の顔画像情報をもとに、顔画像データベース140に登録されている顔画像と同一の角度から見た2次元顔画像を合成し、これと登録されている顔画像とを照合するものである。3次元顔画像情報から2次元顔画像を合成する方法としては、例えばCG(コンピュータグラフィックス)におけるレンダリング等の既知の方法を用いることができる。また顔画像の照合には、例えば統計的手法である主成分分析を利用した固有顔法等の手法を適用できる。
以下に、上記顔画像照合装置300を用いて、入力された顔画像の高さ情報を推定する動作について説明する。まず、学習用顔画像を用いて、入力画像と入力画像の高さ情報との相関を学習するオフライン処理の動作について説明する。高さ情報の学習方法としては、入力画像の各画素のそれぞれに対して独立に高さ情報を学習することも可能ではあるが、入力画像を複数の領域に分割し各領域毎の平均の高さ情報を学習してもよい。この場合、推定すべきパラメタベクトルの次元を減らすことができるので、より実用的である。
本実施の形態においても実施の形態2と同様に、学習用顔画像の総数をNとする。そして、i番目の学習用顔画像の各画素の値をラスタスキャン順に並べたn次元のベクトルを入力ベクトルI、学習用顔画像の各画素あるいは各領域の高さ情報をラスタスキャン順に準じて並べたものをm次元のパラメタベクトルQとする。
図11は本発明の実施の形態3における顔画像照合装置300に用いられているパラメタ推定装置100のフローチャートである。まず、異なった方向から顔を撮影する2台のカメラ110およびカメラ115がN人分の学習用顔画像を撮影する。データ入力部10はこれらの顔画像を二次記憶装置40に転送し格納する。このうち一方のカメラ110で撮影した学習用顔画像は、各画素の値をラスタスキャン順に並べ学習用入力ベクトルIとして用いられる(S50)。つぎに、CPU20は、二次記憶装置40に記憶した2枚の学習用顔画像にもとづいて顔画像の3次元情報を作成する。これはCGを用いたレンダリング等の既知の方法を用いて実行する。各画素あるいは各領域の高さ情報は順に並べて連結してひとつのベクトルとし、これを学習用パラメタベクトルQとする。学習用パラメタベクトルQは二次記憶装置40に格納される(S51)。
つぎに、CPU20は、(数式1)〜(数式7)を用いて平均パラメタベクトルQ、定数ベクトルΩ、定数ベクトルΓ、固有ベクトルαを求め、二次記憶装置40に格納する(S52)。以上が、パラメタ推定装置100のオフラインで実行する処理である。
つぎに、オンライン処理について説明する。まず、データ入力部10は、照合すべき顔画像を入力し、顔画像の各画素の値をラスタスキャン順に並べて入力ベクトルIに変換し二次記憶装置40に転送する(S60)。つぎにCPU20は、(数式8)にもとづいて、推定カーネルK(i=1〜N)を求め二次記憶装置40に転送し格納する(S61)。そして、オフライン処理で求めた平均パラメタベクトルQ、定数ベクトルΩ、定数ベクトルΓ、固有ベクトルα、およびステップS61で求めた推定カーネルKを二次記憶装置40から読出し、(数式9)を用いて推定すべきパラメタを示すパラメタベクトルQを計算する。そして、推定されたパラメタベクトルQを二次記憶装置40に格納する(S62)。つぎにCPU20はパラメタベクトルを顔画像の高さ情報に変換する(S63)。ここまでが入力された顔画像の高さ情報を推定する動作である。
このようにして照合すべき顔画像に対して推定した高さ情報を加え、3次元顔情報とする。その後、上述したように、3次元の顔画像情報をもとに、顔画像データベース140に登録されている顔画像と同一の角度から見た2次元顔画像を合成し、これと登録されている顔画像とを照合する特徴点の座標をもとに顔認証に用いる顔領域を切り出し、切り出された顔領域と顔画像データベース140に登録されている顔画像とを照合する。
以上のように本発明の実施の形態3によれば、任意の方向を向いた2次元の顔画像を用いて正面の顔画像、あるいは他の方向を向いた顔画像を合成することができる。したがって、任意の方向を向いた顔画像であっても、正面あるいは横向きの顔画像として登録された顔画像データベースとの照合が可能となる。
なお、実施の形態3においては、照合すべき顔画像に対してその高さ情報を推定することによって、顔画像データベースに登録されている顔画像と同一の角度から見た2次元顔画像を合成し、照合を行うものであった。しかし、本発明のパラメタ推定装置を応用して上記以外の顔画像照合装置を構成することも、もちろん可能である。例えば、顔画像データベースにすでに登録されている正面向きの顔画像に対してその高さ情報を推定し、いくつかの方向を向いた顔画像をデータベースとして新たに登録しておき、それらと照合すべき顔画像とを照合するという形式にて顔画像照合装置を構成してもよい。以下に実施の形態4としてその詳細について説明する。
(実施の形態4)
本発明の実施の形態4における顔画像照合装置のブロック図は実施の形態3と同様にコンピュータシステムで構成されており、ブロック図も実施の形態3と同様であるため説明を省略する。また、以下では、図11に示したフローチャートを用いて本発明の実施の形態4における顔画像照合装置の動作を説明する。
学習用顔画像を用いて入力画像と入力画像の高さ情報との相関を学習するオフライン処理の動作についても実施の形態3と同様である。
すなわち、まず、異なった方向から顔を撮影する2台のカメラ110およびカメラ115がN人分の学習用顔画像を撮影する。データ入力部10はこれらの顔画像を二次記憶装置40に転送し格納する。このうち一方のカメラ110で撮影した学習用顔画像は、各画素の値をラスタスキャン順に並べ学習用入力ベクトルIとして用いられる(S50)。つぎに、CPU20は、二次記憶装置40に記憶した2枚の学習用顔画像にもとづいて顔画像の3次元情報を作成する。各画素あるいは各領域の高さ情報は順に並べて連結してひとつのベクトルとし、これを学習用パラメタベクトルQとする。学習用パラメタベクトルQは二次記憶装置40に格納される(S51)。そしてCPU20は、(数式1)〜(数式7)を用いて平均パラメタベクトルQ、定数ベクトルΩ、定数ベクトルΓ、固有ベクトルαを求め、二次記憶装置40に格納する(S52)。
つぎに、顔画像データベース140にすでに登録されている正面向きの顔画像のおのおのに対して、いくつかの方向を向いた顔画像を合成しデータベースとして新たに登録する。具体的には、まず、データ入力部10は、顔画像データベース140にすでに登録されている正面向きの顔画像の各画素の値をラスタスキャン順に並べて入力ベクトルIに変換し二次記憶装置40に転送する(S60)。つぎにCPU20は、(数式8)にもとづいて、推定カーネルK(i=1〜N)を求め二次記憶装置40に転送し格納する(S61)。そして、オフライン処理で求めた平均パラメタベクトルQ、定数ベクトルΩ、定数ベクトルΓ、固有ベクトルα、およびステップS61で求めた推定カーネルKを二次記憶装置40から読出し、(数式9)を用いて推定すべきパラメタを示すパラメタベクトルQを計算し二次記憶装置40に格納する(S62)。つぎにCPU20はパラメタベクトルを顔画像の高さ情報に変換する。そして、登録されている顔画像に対して推定した高さ情報を加え3次元顔情報とする(S63)。その後、3次元の顔画像情報をもとに、右方向、斜め右方向、斜め左方向、左方向、斜め上方向、斜め下方向等の角度から見た2次元顔画像を合成し、これらの合成画像を顔画像データベース140に新たに登録する。1方向から見た顔画像しか持たない登録顔画像のそれぞれについて以上の処理を行い、各方向から見た2次元顔画像を合成しデータベースとして登録する。
以上の準備を顔画像照合装置300のオフラインで実行しておくと、オンライン処理が以下のように非常に簡素化される。顔画像照合装置300は、カメラ110を用いて照合すべき顔画像を撮影する。そして、照合する特徴点の座標をもとに顔認証に用いる顔領域を切り出し、切り出された顔領域と顔画像データベース140に登録されている顔画像とを照合する。
以上のように本発明の実施の形態4によれば、顔画像データベースに登録すべき顔画像の数は増えるが、オンライン処理において入力した顔画像と顔画像データベースに登録されている顔画像とを直接照合することができるので高速に照合を行うことができる。
なお、実施の形態1〜4においては、CPUがプログラムを読み込むことで、フローチャートに示した動作を行う構成とした。しかし、学習手段、学習カーネル行列計算手段、固有値計算手段、推定手段、推定カーネル計算手段、パラメタ算出手段等を実行する専用のプロセッサを備えた構成であってもよい。
また、本発明を実施するコンピュータをプログラムするために使用できる命令を含む記憶媒体であるコンピュータプログラム製品が本発明の範囲に含まれる。これらの記憶媒体は、フレキシブルディスク、光ディスク、CDROM、磁気ディスク等のディスク、ROM、RAM、EPROM、EEPROM、磁気光カード、メモリカード、DVD等である。
また、実施の形態2〜4においては本発明のパラメタ推定装置を画像照合に用いた例を示したが、入力データとして画像以外のデータを入力することで画像照合以外の照合装置に用いることができる。例えば、入力データとして音声データを入力することで音声照合装置に用いることができる。
本発明は、短い処理時間あるいは少ない処理コストで入力データに対するパラメタを正確に推定することができるパラメタ推定方法、パラメタ推定装置および照合方法を提供することができるので、入力データから特定のパラメタを推定するパラメタ推定方法、パラメタ推定装置およびこれを用いた照合方法等に有効である。
本発明の実施の形態1におけるパラメタ推定装置のブロック図 本発明の実施の形態1におけるパラメタ推定装置のフローチャート 本発明の実施の形態2における顔画像照合装置のブロック図 本発明の実施の形態2における顔画像照合装置のフローチャート ユーザにより入力された顔の特徴点の一例を示す図 本発明の実施の形態2において抽出された目位置のいくつかの例を示す図 本発明の実施の形態2における顔画像照合装置の目位置推定の感度を示す図 画面内での顔位置の移動に対する目位置推定の感度を示す図 反復回数と目位置推定の感度を示す図 本発明の実施の形態3における顔画像照合装置のブロック図 本発明の実施の形態3および4における顔画像照合装置のフローチャート
符号の説明
10 データ入力部
20 CPU
22 学習カーネル行列計算手段
23 固有値計算手段
26 推定カーネル計算手段
27 パラメタ算出手段
30 メモリ
40 二次記憶装置
50 ディスプレイ
60 マウス
90 システムバス
100 パラメタ推定装置
110,115 (ビデオ)カメラ
140 顔画像データベース
200,300 顔画像照合装置

Claims (9)

  1. 入力データに対して最大事後確率推定を行う演算方法を前記入力データに関する内積で表し、前記内積をカーネル関数に置き換え、前記カーネル関数の計算結果を用いてパラメタを推定するパラメタ推定方法。
  2. 推定すべきパラメタが既知である複数の学習用入力データと前記学習用入力データのそれぞれに対応するパラメタとの相関を学習するステップと、
    推定すべきパラメタが未知である推定用入力データに対するパラメタを前記学習した相関を用いて推定するステップとを有し、
    前記学習するステップは、前記推定すべきパラメタが既知である複数の学習用入力データを用いて学習カーネル行列を計算するステップと、前記学習カーネル行列の逆行列の固有値および固有ベクトルを求めるステップとを有し、
    前記推定するステップは、前記推定すべきパラメタが未知である推定用入力データと前記学習用入力データとを用いて推定カーネルを計算するステップと、前記学習カーネル行列、前記学習カーネル行列の逆行列の固有値、その固有ベクトルとを用いて前記推定用入力データのパラメタを推定するステップとを有することを特徴とするパラメタ推定方法。
  3. 推定すべきパラメタが既知である複数の学習用入力データと前記学習用入力データのそれぞれに対応するパラメタとの相関を学習する学習手段と、
    推定すべきパラメタが未知である推定用入力データのパラメタを前記学習した相関を用いて推定する推定手段とを備え、
    前記学習手段は、前記推定すべきパラメタが既知である複数の学習用入力データを用いて学習カーネル行列を計算する学習カーネル行列計算手段と、前記学習カーネル行列の逆行列の固有値および固有ベクトルを求める固有値計算手段とを備え、
    前記推定手段は、前記推定すべきパラメタが未知である推定用入力データと前記学習用入力データとを用いて推定カーネルを計算する推定カーネル計算手段と、前記学習カーネル行列、前記学習カーネル行列の逆行列の固有値、その固有ベクトルとを用いて前記推定用入力データのパラメタを算出するパラメタ算出手段とを備えたことを特徴とするパラメタ推定装置。
  4. 前記推定用入力データおよび前記学習用入力データは顔を含む画像であり、推定すべきパラメタは顔の特徴点の座標であることを特徴とする請求項3に記載のパラメタ推定装置。
  5. 請求項4に記載のパラメタ推定装置と、顔画像データベースとを用いた照合方法であって、
    前記パラメタ推定装置を用いて照合すべき顔画像に対する顔の特徴点の座標を推定した後、前記顔の特徴点の座標にもとづき顔領域を切り出し、前記顔画像データベースに登録されている顔画像と前記切り出された顔領域とを照合することを特徴とする照合方法。
  6. 請求項4に記載のパラメタ推定装置と、顔画像データベースとを用いた照合方法であって、
    前記パラメタ推定装置を用いて顔の特徴点の座標を推定し前記顔の特徴点の座標にもとづき画像領域を正規化する顔画像正規化動作を複数回繰り返した後、前記顔の特徴点の座標にもとづき顔領域を切り出し、前記顔画像データベースに登録されている顔画像と前記切り出された顔領域とを照合することを特徴とする照合方法。
  7. 前記推定用入力データおよび前記学習用入力データは顔を含む画像であり、推定すべきパラメタは顔画像の高さ情報であることを特徴とする請求項3に記載のパラメタ推定装置。
  8. 請求項7に記載のパラメタ推定装置と顔画像データベースとを用いた照合方法であって、
    前記パラメタ推定装置を用いて照合すべき顔画像に対する高さ情報を推定した後、前記顔画像の高さ情報にもとづき前記顔画像データベースに登録されている顔画像と同一の角度から見た2次元画像を合成し照合することを特徴とする照合方法。
  9. 請求項7に記載のパラメタ推定装置と顔画像データベースとを用いた照合方法であって、
    前記パラメタ推定装置を用いて前記顔画像データベースに登録されている顔画像に対する高さ情報を推定した後、前記登録されている顔画像以外の角度から見た2次元画像を合成して、前記顔画像データベースに追加登録したことを特徴とする照合方法。
JP2004144504A 2004-05-14 2004-05-14 パラメタ推定方法、パラメタ推定装置および照合方法 Expired - Fee Related JP4321350B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2004144504A JP4321350B2 (ja) 2004-05-14 2004-05-14 パラメタ推定方法、パラメタ推定装置および照合方法
PCT/JP2005/008006 WO2005111936A1 (ja) 2004-05-14 2005-04-27 パラメタ推定方法、パラメタ推定装置および照合方法
EP05737145.2A EP1758059A4 (en) 2004-05-14 2005-04-27 PARAMETER METHOD, PARAMETER EQUIPMENT AND COLLATION METHOD
CN2005800155586A CN1954342B (zh) 2004-05-14 2005-04-27 参数推定方法、参数推定装置及对照方法
US11/596,431 US7760933B2 (en) 2004-05-14 2005-04-27 Parameter estimation method, parameter estimation device and collation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004144504A JP4321350B2 (ja) 2004-05-14 2004-05-14 パラメタ推定方法、パラメタ推定装置および照合方法

Publications (2)

Publication Number Publication Date
JP2005327076A true JP2005327076A (ja) 2005-11-24
JP4321350B2 JP4321350B2 (ja) 2009-08-26

Family

ID=35394356

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004144504A Expired - Fee Related JP4321350B2 (ja) 2004-05-14 2004-05-14 パラメタ推定方法、パラメタ推定装置および照合方法

Country Status (5)

Country Link
US (1) US7760933B2 (ja)
EP (1) EP1758059A4 (ja)
JP (1) JP4321350B2 (ja)
CN (1) CN1954342B (ja)
WO (1) WO2005111936A1 (ja)

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008199549A (ja) * 2007-02-15 2008-08-28 Hitachi Ltd 監視画像処理方法、監視システム及び監視画像処理プログラム
JP2008225720A (ja) * 2007-03-12 2008-09-25 Fujifilm Corp 画像トリミング装置および方法並びにプログラム
JP2019075152A (ja) * 2007-09-24 2019-05-16 アップル インコーポレイテッドApple Inc. 電子デバイスに組み込まれた認証システム
US10521579B2 (en) 2017-09-09 2019-12-31 Apple Inc. Implementation of biometric authentication
US10748153B2 (en) 2014-05-29 2020-08-18 Apple Inc. User interface for payments
US10749967B2 (en) 2016-05-19 2020-08-18 Apple Inc. User interface for remote authorization
US10803281B2 (en) 2013-09-09 2020-10-13 Apple Inc. Device, method, and graphical user interface for manipulating user interfaces based on fingerprint sensor inputs
US10860096B2 (en) 2018-09-28 2020-12-08 Apple Inc. Device control using gaze information
US10872256B2 (en) 2017-09-09 2020-12-22 Apple Inc. Implementation of biometric authentication
US11100349B2 (en) 2018-09-28 2021-08-24 Apple Inc. Audio assisted enrollment
US11170085B2 (en) 2018-06-03 2021-11-09 Apple Inc. Implementation of biometric authentication
US11200309B2 (en) 2011-09-29 2021-12-14 Apple Inc. Authentication with secondary approver
US11209961B2 (en) 2012-05-18 2021-12-28 Apple Inc. Device, method, and graphical user interface for manipulating user interfaces based on fingerprint sensor inputs
WO2022185644A1 (ja) * 2021-03-03 2022-09-09 富士フイルム株式会社 画像処理装置、画像処理装置の作動方法、画像処理装置の作動プログラム、並びに学習方法
US11676373B2 (en) 2008-01-03 2023-06-13 Apple Inc. Personal computing device control using face detection and recognition
US12079458B2 (en) 2016-09-23 2024-09-03 Apple Inc. Image data for enhanced user interactions
US12099586B2 (en) 2021-01-25 2024-09-24 Apple Inc. Implementation of biometric authentication
US12124770B2 (en) 2023-08-24 2024-10-22 Apple Inc. Audio assisted enrollment

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8638846B1 (en) * 2003-06-23 2014-01-28 At&T Intellectual Property Ii, L.P. Systems and methods for encoding and decoding video streams
US8208731B2 (en) * 2008-04-07 2012-06-26 Microsoft Corporation Image descriptor quantization
GB0819474D0 (en) 2008-10-23 2008-12-03 P2I Ltd Plasma processing apparatus
JP5418061B2 (ja) * 2009-08-20 2014-02-19 沖電気工業株式会社 遠隔コミュニケーション装置、遠隔コミュニケーション方法、および遠隔コミュニケーションシステム
JP5923723B2 (ja) * 2011-06-02 2016-05-25 パナソニックIpマネジメント株式会社 人物属性推定システム、人物属性推定装置、及び人物属性推定方法
CN102314614B (zh) * 2011-10-24 2013-06-05 北京大学 一种基于类共享多核学习的图像语义分类方法
CN103413115B (zh) * 2013-06-06 2016-09-28 温州大学 一种基于数据流形分布的非线性图像特征选择方法
US20150133798A1 (en) * 2013-11-13 2015-05-14 The Regents Of The University Of California Methods for noninvasive intracranial pressure calibration without the need for invasive icp
CN105306097B (zh) * 2014-06-18 2019-07-26 中兴通讯股份有限公司 一种随机接入信号的检测方法、装置和系统
KR102077260B1 (ko) * 2014-08-08 2020-02-13 삼성전자주식회사 확룔 모델에 기반한 신뢰도를 이용하여 얼굴을 인식하는 방법 및 장치
US9762791B2 (en) * 2014-11-07 2017-09-12 Intel Corporation Production of face images having preferred perspective angles
US10949497B2 (en) * 2018-01-26 2021-03-16 Crocus Energy High-speed multi-input tracker based on in-memory operations of time-dependent data
US11295223B2 (en) 2018-06-12 2022-04-05 International Business Machines Corporation Quantum feature kernel estimation using an alternating two layer quantum circuit

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000090274A (ja) 1998-09-16 2000-03-31 Nippon Telegr & Teleph Corp <Ntt> パターン識別方法及びパターン識別プログラムを記録した記録媒体
JP2001266145A (ja) 2000-03-22 2001-09-28 Matsushita Electric Ind Co Ltd パラメタ推定方法及びその装置
JP3725508B2 (ja) 2001-09-25 2005-12-14 松下電器産業株式会社 パラメタ推定装置及びデータ照合装置
JP4068889B2 (ja) 2001-09-25 2008-03-26 松下電器産業株式会社 複合照合装置

Cited By (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008199549A (ja) * 2007-02-15 2008-08-28 Hitachi Ltd 監視画像処理方法、監視システム及び監視画像処理プログラム
JP2008225720A (ja) * 2007-03-12 2008-09-25 Fujifilm Corp 画像トリミング装置および方法並びにプログラム
US10956550B2 (en) 2007-09-24 2021-03-23 Apple Inc. Embedded authentication systems in an electronic device
JP2019075152A (ja) * 2007-09-24 2019-05-16 アップル インコーポレイテッドApple Inc. 電子デバイスに組み込まれた認証システム
US11468155B2 (en) 2007-09-24 2022-10-11 Apple Inc. Embedded authentication systems in an electronic device
US11676373B2 (en) 2008-01-03 2023-06-13 Apple Inc. Personal computing device control using face detection and recognition
US11755712B2 (en) 2011-09-29 2023-09-12 Apple Inc. Authentication with secondary approver
US11200309B2 (en) 2011-09-29 2021-12-14 Apple Inc. Authentication with secondary approver
US11209961B2 (en) 2012-05-18 2021-12-28 Apple Inc. Device, method, and graphical user interface for manipulating user interfaces based on fingerprint sensor inputs
US11989394B2 (en) 2012-05-18 2024-05-21 Apple Inc. Device, method, and graphical user interface for manipulating user interfaces based on fingerprint sensor inputs
US11287942B2 (en) 2013-09-09 2022-03-29 Apple Inc. Device, method, and graphical user interface for manipulating user interfaces
US10803281B2 (en) 2013-09-09 2020-10-13 Apple Inc. Device, method, and graphical user interface for manipulating user interfaces based on fingerprint sensor inputs
US11768575B2 (en) 2013-09-09 2023-09-26 Apple Inc. Device, method, and graphical user interface for manipulating user interfaces based on unlock inputs
US11494046B2 (en) 2013-09-09 2022-11-08 Apple Inc. Device, method, and graphical user interface for manipulating user interfaces based on unlock inputs
US10902424B2 (en) 2014-05-29 2021-01-26 Apple Inc. User interface for payments
US10977651B2 (en) 2014-05-29 2021-04-13 Apple Inc. User interface for payments
US11836725B2 (en) 2014-05-29 2023-12-05 Apple Inc. User interface for payments
US10796309B2 (en) 2014-05-29 2020-10-06 Apple Inc. User interface for payments
US10748153B2 (en) 2014-05-29 2020-08-18 Apple Inc. User interface for payments
US10749967B2 (en) 2016-05-19 2020-08-18 Apple Inc. User interface for remote authorization
US11206309B2 (en) 2016-05-19 2021-12-21 Apple Inc. User interface for remote authorization
US12079458B2 (en) 2016-09-23 2024-09-03 Apple Inc. Image data for enhanced user interactions
US11765163B2 (en) 2017-09-09 2023-09-19 Apple Inc. Implementation of biometric authentication
US11386189B2 (en) 2017-09-09 2022-07-12 Apple Inc. Implementation of biometric authentication
US10783227B2 (en) 2017-09-09 2020-09-22 Apple Inc. Implementation of biometric authentication
US11393258B2 (en) 2017-09-09 2022-07-19 Apple Inc. Implementation of biometric authentication
US10872256B2 (en) 2017-09-09 2020-12-22 Apple Inc. Implementation of biometric authentication
US10521579B2 (en) 2017-09-09 2019-12-31 Apple Inc. Implementation of biometric authentication
US11928200B2 (en) 2018-06-03 2024-03-12 Apple Inc. Implementation of biometric authentication
US11170085B2 (en) 2018-06-03 2021-11-09 Apple Inc. Implementation of biometric authentication
US11809784B2 (en) 2018-09-28 2023-11-07 Apple Inc. Audio assisted enrollment
US11100349B2 (en) 2018-09-28 2021-08-24 Apple Inc. Audio assisted enrollment
US10860096B2 (en) 2018-09-28 2020-12-08 Apple Inc. Device control using gaze information
US11619991B2 (en) 2018-09-28 2023-04-04 Apple Inc. Device control using gaze information
US12105874B2 (en) 2018-09-28 2024-10-01 Apple Inc. Device control using gaze information
US12099586B2 (en) 2021-01-25 2024-09-24 Apple Inc. Implementation of biometric authentication
WO2022185644A1 (ja) * 2021-03-03 2022-09-09 富士フイルム株式会社 画像処理装置、画像処理装置の作動方法、画像処理装置の作動プログラム、並びに学習方法
US12124770B2 (en) 2023-08-24 2024-10-22 Apple Inc. Audio assisted enrollment

Also Published As

Publication number Publication date
EP1758059A1 (en) 2007-02-28
JP4321350B2 (ja) 2009-08-26
EP1758059A4 (en) 2013-08-21
WO2005111936A1 (ja) 2005-11-24
US20070230773A1 (en) 2007-10-04
US7760933B2 (en) 2010-07-20
CN1954342A (zh) 2007-04-25
CN1954342B (zh) 2010-04-21

Similar Documents

Publication Publication Date Title
JP4321350B2 (ja) パラメタ推定方法、パラメタ推定装置および照合方法
JP4093273B2 (ja) 特徴点検出装置、特徴点検出方法および特徴点検出プログラム
JP5406705B2 (ja) データ補正装置及び方法
JP4595750B2 (ja) 画像処理装置および方法、並びにプログラム
US9275273B2 (en) Method and system for localizing parts of an object in an image for computer vision applications
WO2018086607A1 (zh) 一种目标跟踪方法及电子设备、存储介质
JP5552519B2 (ja) 顔特徴ベクトルの構築
JP4501937B2 (ja) 顔特徴点検出装置、特徴点検出装置
CN109684969B (zh) 凝视位置估计方法、计算机设备及存储介质
US20120183238A1 (en) Rapid 3D Face Reconstruction From a 2D Image and Methods Using Such Rapid 3D Face Reconstruction
US20110091113A1 (en) Image processing apparatus and method, and computer-readable storage medium
CN110598638A (zh) 模型训练方法、人脸性别预测方法、设备及存储介质
JP6071002B2 (ja) 信頼度取得装置、信頼度取得方法および信頼度取得プログラム
CN107016319A (zh) 一种关键点定位方法和装置
Zheng et al. Fusing shape and spatio-temporal features for depth-based dynamic hand gesture recognition
WO2015176502A1 (zh) 一种图像特征的估计方法和设备
CN111382791A (zh) 深度学习任务处理方法、图像识别任务处理方法和装置
CN112990047B (zh) 一种结合面部角度信息的多姿态人脸验证方法
JP2003168113A (ja) 画像認識システム、画像認識方法および画像認識プログラム
JP2004178210A (ja) 画像処理方法及び画像認識方法並びにこれらの方法をコンピュータにより実行させるプログラム
JP4068888B2 (ja) アイリス推定装置およびアイリス照合装置
TWI618027B (zh) 基因演算三維手勢影像辨識方法及其系統
Ginhac et al. Robust Face Recognition System based on a multi-views face database
CN114445890A (zh) 人脸脸型匹配方法、装置、设备及存储介质
Wang et al. Facial Aging Simulation via Tensor Completion

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060309

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20060412

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090217

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090415

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090512

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090525

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120612

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120612

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130612

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees