JP2007156803A - 画像処理装置および方法、並びにプログラム - Google Patents

画像処理装置および方法、並びにプログラム Download PDF

Info

Publication number
JP2007156803A
JP2007156803A JP2005350822A JP2005350822A JP2007156803A JP 2007156803 A JP2007156803 A JP 2007156803A JP 2005350822 A JP2005350822 A JP 2005350822A JP 2005350822 A JP2005350822 A JP 2005350822A JP 2007156803 A JP2007156803 A JP 2007156803A
Authority
JP
Japan
Prior art keywords
feature
period
value
feature amount
face image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005350822A
Other languages
English (en)
Other versions
JP4462176B2 (ja
Inventor
Hiroshi Hiraizumi
啓 平泉
Tetsujiro Kondo
哲二郎 近藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2005350822A priority Critical patent/JP4462176B2/ja
Priority to US11/559,691 priority patent/US7715599B2/en
Publication of JP2007156803A publication Critical patent/JP2007156803A/ja
Application granted granted Critical
Publication of JP4462176B2 publication Critical patent/JP4462176B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation

Landscapes

  • Engineering & Computer Science (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Collating Specific Patterns (AREA)

Abstract

【課題】より確実に顔画像認証を行う。
【解決手段】抽出部82は、撮像部81において撮像された被認証者の顔画像の顔画像データから、特徴量を抽出し、認証部86に供給する。抽出部84は、顔画像メモリ83に記録されている、過去に撮像された被認証者の顔画像の顔画像データから特徴量を抽出し、推定部85に供給する。推定部85は、抽出部84から供給された特徴量に基づいて、撮像部81において撮像された顔画像の特徴量が分布すると推定される推定分布範囲を求め、認証部86に供給する。認証部86は、抽出部82から供給された特徴量が、推定分布範囲内の値であるか否かを判定する。本発明は、顔画像認証を行う画像処理装置に適用することができる。
【選択図】図2

Description

本発明は画像処理装置および方法、並びにプログラムに関し、特に、個人の認証を行う場合に用いて好適な画像処理装置および方法、並びにプログラムに関する。
被認証者の顔の画像(以下、顔画像とも称する)を利用して個人の認証を行う、顔画像認証が知られている。
従来、顔画像認証においては、図1に示すように、予め記録されている、過去に撮像された複数枚の被認証者の顔画像11−1乃至顔画像11−3と、顔画像認証時に新たに撮像された被認証者の顔画像12とが比較されて、被認証者が本人であるか否かの認証が行われる。
過去の顔画像11−1乃至顔画像11−3の顔画像データのそれぞれ、および新たに撮像された顔画像12の顔画像データには、所定の変換処理が施されて、それぞれの画像データから被認証者の顔の特徴の特徴量が抽出される。そして、顔画像11−1乃至顔画像11−3の顔画像データのそれぞれから抽出された特徴量のそれぞれからなる、特徴空間上の空間(以下、認証空間と称する)内に、顔画像12の顔画像データから抽出された特徴量が位置するか否かが判定される。
顔画像12の顔画像データから抽出された特徴量が、認証空間内に位置すると判定された場合、新たに撮像された顔画像12の被認証者は本人であるとされて認証され、顔画像12の顔画像データから抽出された特徴量が、認証空間内に位置しないと判定された場合、新たに撮像された顔画像12の人物は、本人ではないと認証されて、その後の処理は拒絶される。
また、顔画像認証を行う場合に、過去に撮像された複数枚の顔画像を予め記録しておくことで、複数の顔画像の特徴量の平均を求め、被認証者の顔画像の平均的(中心的)な状態を推測(推定)したり、顔画像ごとに変化する特徴量のばらつきの幅を推測したりして、顔画像認証による認証の精度をより向上させることができる。
さらに、予め一般的な顔の各部位の経時変化の統計データと、過去に撮像された被認証者の顔画像(の画像データ)とを記憶しておき、統計データを用いて記憶している被認証者の顔画像の各部位を変形させて認証を行う認証装置もある(例えば、特許文献1参照)。この認証装置においては、統計データを用いて変形された過去の被認証者の顔画像と、認証時に新たに撮像された被認証者の顔画像とが比較されて認証が行われる。
特開平09−134428号公報
しかしながら、上述した技術では、時間の経過による被認証者の顔の変化、例えば、被認証者の髪形の変化や、加齢による顔の変化などは考慮されず、被認証者の顔が時間の経過とともにどのように変化するかを推測することはできなかった。
したがって、特徴空間上の認証空間の位置は、時間の経過とともに変化することはないので、過去に撮像された被認証者の顔の写真などを用いた、悪意の第3者によるなりすましを防止することが困難であった。また、被認証者の髪が伸びたり、加齢により被認証者の顔が変わったりすると、被認証者本人であっても本人であると認証されなくなってしまう可能性があった。
また、統計データを用いて過去の被認証者の顔画像を変形させる方法においては、統計データを用いて顔画像を変形させるので、被認証者の顔の経時変化にある程度は対応することができるが、処理量が多く認証に時間がかかってしまうため、実現は困難であった。
本発明は、このような状況に鑑みてなされたものであり、より簡単かつ確実に顔画像認証を行うことができるようにするものである。
本発明の一側面の画像処理装置は、第1の期間に撮像された被写体の画像の画像データから第1の特徴量を抽出する第1の抽出手段と、前記第1の期間よりも過去の第2の期間に撮像された前記被写体の画像の画像データから抽出された第2の特徴量と、前記第1の期間よりも過去の期間であって、前記第2の期間とは異なる第3の期間に撮像された前記被写体の画像の画像データから抽出された第3の特徴量とを基に、前記第1の特徴量の第1の平均値を推定する第1の推定手段と、前記第2の特徴量および前記第3の特徴量を基に、前記第1の平均値に対する前記第1の特徴量のばらつきの幅を示す第1の分布幅を推定する第2の推定手段と、前記第1の特徴量の値が、前記第1の平均値および前記第1の分布幅に基づく所定の範囲内の値であるか否かを判定する判定手段とを備える。
前記第1の推定手段には、前記第2の特徴量の第2の平均値、および前記第3の特徴量の第3の平均値に基づいて、前記第1の平均値を推定させ、前記第2の推定手段には、前記第2の平均値に対する前記第2の特徴量のばらつきの幅を示す第2の分布幅、および前記第3の平均値に対する前記第3の特徴量のばらつきの幅を示す第3の分布幅に基づいて、前記第1の分布幅を推定させることができる。
前記第2の推定手段には、前記第2の分布幅および前記第3の分布幅のうちの大きい値を前記第1の分布幅とさせることができる。
前記第2の推定手段には、前記第1の分布幅をd3、前記第2の特徴量および前記第3の特徴量をx・y、前記第2の平均値をm1、前記第3の平均値をm2、前記第2の特徴量の数をn1、前記第3の特徴量の数をn2とした場合に、次式
Figure 2007156803
を計算することにより求められる値を前記第1の分布幅とさせることができる。
画像処理装置には、前記第2の期間に撮像された前記被写体の画像の画像データから前記第2の特徴量を抽出し、前記第3の期間に撮像された前記被写体の画像の画像データから前記第3の特徴量を抽出する第2の抽出手段をさらに設けることができる。
画像処理装置には、特徴空間上における複数の前記第2の特徴量の分布と、複数の前記第3の特徴量の分布とを分離するための判別軸を算出する算出手段をさらに設け、前記第1の抽出手段には、前記第1の期間に撮像された画像の画像データから抽出された特徴量と、前記判別軸との内積の値を前記第1の特徴量とさせ、前記第2の抽出手段には、前記第2の期間に撮像された画像の画像データから抽出された特徴量と、前記判別軸との内積の値を前記第2の特徴量とさせ、前記第3の期間に撮像された画像の画像データから抽出された特徴量と、前記判別軸との内積の値を前記第3の特徴量とさせることができる。
本発明の一側面の画像処理方法またはプログラムは、第1の期間に撮像された被写体の画像の画像データから第1の特徴量を抽出し、前記第1の期間よりも過去の第2の期間に撮像された前記被写体の画像の画像データから抽出された第2の特徴量と、前記第1の期間よりも過去の期間であって、前記第2の期間とは異なる第3の期間に撮像された前記被写体の画像の画像データから抽出された第3の特徴量とを基に、前記第1の特徴量の平均値を推定し、前記第2の特徴量および前記第3の特徴量を基に、前記平均値に対する前記第1の特徴量のばらつきの幅を示す分布幅を推定し、前記第1の特徴量の値が、前記平均値および前記分布幅に基づく所定の範囲内の値であるか否かを判定するステップを含む。
本発明の一側面においては、第1の期間に撮像された被写体の画像の画像データから第1の特徴量が抽出され、前記第1の期間よりも過去の第2の期間に撮像された前記被写体の画像の画像データから抽出された第2の特徴量と、前記第1の期間よりも過去の期間であって、前記第2の期間とは異なる第3の期間に撮像された前記被写体の画像の画像データから抽出された第3の特徴量とを基に、前記第1の特徴量の第1の平均値が推定され、前記第2の特徴量および前記第3の特徴量を基に、前記第1の平均値に対する前記第1の特徴量のばらつきの幅を示す第1の分布幅が推定され、前記第1の特徴量の値が、前記第1の平均値および前記第1の分布幅に基づく所定の範囲内の値であるか否かが判定される。
本発明の一側面によれば、顔画像認証を行うことができる。特に、本発明の一側面によれば、より簡単かつ確実に顔画像認証を行うことができる。
以下に本発明の実施の形態を説明するが、本発明の構成要件と、明細書又は図面に記載の実施の形態との対応関係を例示すると、次のようになる。この記載は、本発明をサポートする実施の形態が、明細書又は図面に記載されていることを確認するためのものである。従って、明細書又は図面中には記載されているが、本発明の構成要件に対応する実施の形態として、ここには記載されていない実施の形態があったとしても、そのことは、その実施の形態が、その構成要件に対応するものではないことを意味するものではない。逆に、実施の形態が構成要件に対応するものとしてここに記載されていたとしても、そのことは、その実施の形態が、その構成要件以外の構成要件には対応しないものであることを意味するものでもない。
本発明の一側面の画像処理装置は、第1の期間(例えば、図3の期間T3)に撮像された被写体の画像の画像データから第1の特徴量を抽出する第1の抽出手段(例えば、図2の抽出部82および図9の変換部217)と、前記第1の期間よりも過去の第2の期間(例えば、図3の期間T1)に撮像された前記被写体の画像の画像データから抽出された第2の特徴量と、前記第1の期間よりも過去の期間であって、前記第2の期間とは異なる第3の期間(例えば、図3の期間T2)に撮像された前記被写体の画像の画像データから抽出された第3の特徴量とを基に、前記第1の特徴量の第1の平均値を推定する第1の推定手段(例えば、図9の分布中心推定部214)と、前記第2の特徴量および前記第3の特徴量を基に、前記第1の平均値に対する前記第1の特徴量のばらつきの幅を示す第1の分布幅を推定する第2の推定手段(例えば、図9の分布範囲推定部216)と、前記第1の特徴量の値が、前記第1の平均値および前記第1の分布幅に基づく所定の範囲内の値であるか否かを判定する判定手段(例えば、図9の判定部218)とを備える。
前記第1の推定手段(例えば、図14のステップS54の処理を実行する分布中心推定部214)には、前記第2の特徴量の第2の平均値、および前記第3の特徴量の第3の平均値に基づいて、前記第1の平均値を推定させ、前記第2の推定手段(例えば、図14のステップS56の処理を実行する分布範囲推定部216)には、前記第2の平均値に対する前記第2の特徴量のばらつきの幅を示す第2の分布幅、および前記第3の平均値に対する前記第3の特徴量のばらつきの幅を示す第3の分布幅に基づいて、前記第1の分布幅を推定させることができる。
画像処理装置には、前記第2の期間に撮像された前記被写体の画像の画像データから前記第2の特徴量を抽出し、前記第3の期間に撮像された前記被写体の画像の画像データから前記第3の特徴量を抽出する第2の抽出手段(例えば、図2の抽出部84および図9の変換部213)をさらに設けることができる。
画像処理装置には、特徴空間上における複数の前記第2の特徴量の分布と、複数の前記第3の特徴量の分布とを分離するための判別軸を算出する算出手段(例えば、図9の判別分析部212)をさらに設け、前記第1の抽出手段(例えば、図10のステップS15の処理を実行する変換部217)には、前記第1の期間に撮像された画像の画像データから抽出された特徴量と、前記判別軸との内積の値を前記第1の特徴量とさせ、前記第2の抽出手段(例えば、図14のステップS53の処理を実行する変換部213)には、前記第2の期間に撮像された画像の画像データから抽出された特徴量と、前記判別軸との内積の値を前記第2の特徴量とさせ、前記第3の期間に撮像された画像の画像データから抽出された特徴量と、前記判別軸との内積の値を前記第3の特徴量とさせることができる。
本発明の一側面の画像処理方法またはプログラムは、第1の期間に撮像された被写体の画像の画像データから第1の特徴量を抽出し(例えば、図10のステップS12およびステップS15)、前記第1の期間よりも過去の第2の期間に撮像された前記被写体の画像の画像データから抽出された第2の特徴量と、前記第1の期間よりも過去の期間であって、前記第2の期間とは異なる第3の期間に撮像された前記被写体の画像の画像データから抽出された第3の特徴量とを基に、前記第1の特徴量の平均値を推定し(例えば、図14のステップS54)、前記第2の特徴量および前記第3の特徴量を基に、前記平均値に対する前記第1の特徴量のばらつきの幅を示す分布幅を推定し(例えば、図14のステップS56)、前記第1の特徴量の値が、前記平均値および前記分布幅に基づく所定の範囲内の値であるか否かを判定する(例えば、図10のステップS16)ステップを含む。
以下、図面を参照して本発明を適用した実施の形態について説明する。
図2は、本発明を適用した認証装置の構成例を示すブロック図である。
認証装置71は、人の顔を被写体として撮像し、撮像された被写体としての人が、所定の人物であるか否かの顔画像認証を行う。
認証装置71は、撮像部81、抽出部82、顔画像メモリ83、抽出部84、推定部85、認証部86、および出力部87から構成される。
撮像部81は、例えば、カメラなどからなり、認証の対象となるユーザ(被認証者)の顔の画像(以下、顔画像とも称する)を撮像する。撮像部81は、撮像により得られた顔画像データを抽出部82に供給する。
抽出部82は、撮像部81から供給された顔画像データから、顔画像データに基づく顔画像の特徴の特徴量を抽出し、認証部86に供給する。
顔画像メモリ83は、例えば、半導体メモリなどの不揮発性メモリなどからなり、過去に撮像された、被認証者としてのユーザの顔画像の顔画像データを記録する。顔画像メモリ83は、記録している顔画像データを抽出部84に供給する。
抽出部84は、顔画像メモリ83から供給された顔画像データから、顔画像データに基づく顔画像の特徴の特徴量を抽出し、推定部85に供給する。
推定部85は、抽出部84から供給された特徴量に基づいて、撮像部81において新たに撮像された被認証者の顔画像の特徴量が存在すると推定される、特徴空間上の所定の空間の中心の位置(以下、推定中心位置と称する)、およびその空間の端から推定中心位置までの長さ(以下、推定幅と称する)を求める。推定部85は、求めた推定中心位置および推定幅を認証部86に供給する。
認証部86は、推定部85から供給された推定中心位置および推定幅により定まる特徴空間上の所定の空間内に、抽出部82から供給された特徴量が位置するか否かを判定し、その判定結果を示す信号を出力部87に供給する。
出力部87は、認証部86から供給された、判定結果を示す信号に基づいて、認証装置71に接続されている図示せぬコンピュータ等の装置に、本人であると認証された旨の信号、または本人ではないと認証された旨の信号を出力する。
ところで、認証装置71には、過去に撮像された被認証者の顔画像の顔画像データが予め記録されている。例えば、認証装置71には、図3に示すように、連続する期間T1乃至期間T3のうち、過去の期間T1および期間T2に撮像された顔画像の顔画像データが記録されている。
なお、図において、横軸は時間を示し、時刻t1は、現在時刻を示している。したがって、現在時刻t1から見て、期間T1および期間T2は過去の期間であり、期間T3(但し、時刻t1も期間T3に含まれるものとする)は未来の期間である。
図3では、期間T1乃至期間T3のそれぞれの期間の長さは、同じ長さとなっている。また、期間T1乃至期間T3のそれぞれは、例えば、一昨日、昨日、および今日、先々週、先週、および今週、または一昨年、昨年、および今年などの期間とされる。
認証装置71は、記録している期間T1および期間T2に撮像された顔画像の顔画像データを用いて、時刻t1において撮像された顔画像の被認証者の認証を行う。
一般に、過去の顔画像の顔画像データを用いて、被認証者の認証を行う場合、例えば、図4Aに示すように、矢印A11により示される期間T1に撮像された複数の顔画像の特徴量の分布と、矢印A12により示される期間T2に撮像された複数の顔画像の特徴量の分布とを用いて、矢印A13により示される期間T3に撮像される顔画像の特徴量が分布すると推定される範囲を求める。
なお、図中、横軸は時間を示しており、矢印A11および矢印A12により示される特徴空間上の1つの点は、1つの顔画像データから抽出された特徴量を示している。
従来の技術では、期間T1に撮像された顔画像と、期間T2に撮像された顔画像とは特に区別されず、図4Bに示すように、特徴空間における、期間T3の顔画像の特徴量が分布すると推定される範囲(空間)111は、期間T1および期間T2に撮像された顔画像の特徴量の中心の位置に基づいて定められる。
すなわち、従来の技術においては、時刻t1(図3)において撮像された顔画像の特徴量が、特徴空間における、期間T1および期間T2に撮像された顔画像の特徴量からなる空間111内に位置していれば、撮像された顔画像の被認証者は、本人であると認証されていた。
ところで、人間の顔は、人間が年をとるとともに変化するので、顔画像の特徴には、被認証者ごとに固有であり、かつ時間が経過してもその特徴量が一定である特徴と、被認証者ごとに固有ではあるが、時間の経過とともにその特徴量が変化する特徴とがある。
したがって、過去の顔画像の特徴量の中心に基づいて空間111を定める方法においては、顔画像データから抽出する特徴量が、時間の経過とともに変化してしまう場合、被認証者が本人であったとしても、抽出された特徴量が空間111内に位置せず、本人ではないと認証されてしまう恐れがあった。
そこで、認証装置71においては、時間の経過とともに特徴量が変化する特徴に注目し、図4Cに示すように、期間T1に撮像された顔画像の特徴量が分布する範囲(空間)121と、期間T2に撮像された顔画像の特徴量が分布する範囲(空間)122とから、期間T3に撮像される顔画像の特徴量が分布する範囲(空間)123を推定する。
図4Cでは、空間121と空間122とは、交わっておらず、顔画像の特徴量が分布する範囲(空間)は、時間の経過とともに変化していることが分かる。そこで、認証装置71においては、期間T1に撮像された顔画像の特徴量(以下、特徴量x1とも称する)と、期間T2に撮像された顔画像の特徴量(以下、特徴量x2とも称する)とを区別して、それらの特徴量に基づいて空間123の位置および大きさを推定する。
より具体的には、例えば、図5に示すように、期間T1および期間T2に撮像された複数の顔画像の顔画像データから特徴量を抽出した結果、それぞれ矢印A31および矢印A32に示す特徴量の分布が得られたとする。ここで、矢印A31および矢印A32により示される特徴空間上の1つの点は、1つの顔画像データから抽出された特徴量を示している。
認証装置71は、過去の顔画像(期間T1および期間T2に撮像された顔画像)の顔画像データから、特徴量を抽出すると、矢印A33に示すように、例えば、線形判別法(フィッシャーの方法)を用いて、特徴量x1の分布と、特徴量x2の分布とを分離するための判別軸141(図5では、2次元のベクトル)を求める。
また、矢印A33に示される特徴空間においては、範囲(空間)142は、特徴量x1が分布する範囲(空間)を示しており、範囲(空間)143は、特徴量x2が分布する範囲(空間)を示している。
認証装置71は、判別軸141を求めると、期間T3に撮像された顔画像の特徴量(以下、特徴量x3とも称する)は、特徴量x1および特徴量x2と同程度の広がり(ばらつき)を持つものとして、図6に示す期間T3に撮像された顔画像の特徴量が分布すると推定される範囲(空間)161を定める。
すなわち、特徴量x3の重心(中心)の位置から空間161の端までの距離は、特徴量x1の重心(中心)の位置から空間142の端までの距離、および特徴量x2の重心(中心)の位置から空間143の端までの距離と同程度の距離であるとして、認証装置71は、特徴量x3が分布すると推定される空間161を定める。
ここで、特徴量x1乃至特徴量x3のそれぞれは、k次元(但し、1≦k)(図6では2次元)のベクトルであるとすると、認証装置71は、例えば、図7に示すように、特徴量x1および特徴量x2のそれぞれを、判別軸141上に正射影して1次元の特徴量に変換する(特徴量を縮退する)。例えば、認証装置71は、特徴量x1および特徴量x2のそれぞれと、判別軸141との内積を求めることにより、k次元の特徴量を1次元の特徴量に変換する。なお、図中、特徴空間上の1つの点は、1つの特徴量(特徴量x1または特徴量x2)を示している。
これにより、図8に示すように、k次元の特徴空間が、1次元の特徴空間に変換される。空間142(図6)は、m1を中心とする幅がd1である1次元の空間(範囲)に変換され、空間143(図6)は、m2を中心とする幅がd2である1次元の空間(範囲)に変換される。
なお、図中、横軸は特徴量、すなわち、k次元の特徴量と判別軸141との内積により求まる1次元の特徴量を示し、縦方向は、その特徴量を持つ顔画像の数を示している。また、曲線181は、期間T1に撮像された顔画像の1次元の特徴量の分布を示しており、曲線182は、期間T2に撮像された顔画像の1次元の特徴量の分布を示している。
認証装置71は、曲線181の中心の位置m1と、曲線182の中心の位置m2とから期間T3に撮像される顔画像の1次元の特徴量の分布の中心の位置m3(推定中心位置)を推定(予測)し、さらに、d1およびd2に基づいて、期間T3に撮像される顔画像の特徴量の分布の推定中心位置m3からの偏り(ばらつき)の幅d3(推定幅)を推定する。そして、認証装置71は、推定中心位置m3を中心とする幅がd3である範囲(空間)を、期間T3に撮像される顔画像の1次元の特徴量が分布すると推定される範囲とする。
したがって、認証処理装置71は、顔画像認証時に被認証者の顔画像を撮像すると、その顔画像の1次元の特徴量を求め、その特徴量の値が、m3を中心とする幅がd3である範囲内の値であるか否かに基づいて、撮像された顔画像の被認証者が本人であるか否かの認証を行う。
図9は、図2の推定部85および認証部86のより詳細な構成例を示すブロック図である。
推定部85は、分類部211、判別分析部212、変換部213、分布中心推定部214、分布偏り算出部215、および分布範囲推定部216から構成される。また、認証部86は、変換部217および判定部218から構成される。
分類部211は、抽出部84(図2)から供給されたk次元(但し、1≦k)の特徴量を、顔画像が撮像された期間に基づくクラスに分類する。例えば、分類部211は、抽出部84から供給された特徴量のうち、所定の期間内に撮像された顔画像の特徴量のそれぞれを同じクラスに分類する。
また、分類部211は、特徴量をクラスに分類すると、抽出部84から供給された特徴量のそれぞれが属すクラスを示すクラス情報を生成し、生成したクラス情報および特徴量を、判別分析部212および変換部213に供給する。
判別分析部212は、分類部211から供給されたクラス情報および特徴量に基づいて判別軸を求め、求められた判別軸(を示す情報)を変換部213および認証部86の変換部217に供給する。
変換部213は、判別分析部212から供給された判別軸を用いて、分類部211から供給されたk次元の特徴量を、1次元の特徴量に変換する。また、変換部213は、変換により得られた1次元の特徴量および分類部211から供給されたクラス情報を、分布中心推定部214および分布偏り算出部215に供給する。
分布中心推定部214は、変換部213から供給された特徴量およびクラス情報に基づいて、未来(例えば、期間T3)に撮像される顔画像の特徴量の分布の中心の位置である、推定中心位置を算出し、算出された推定中心位置(を示す情報)を、分布範囲推定部216および認証部86の判定部218に供給する。
分布偏り算出部215は、変換部213から供給された特徴量およびクラス情報に基づいて、各クラスに属す特徴量の分布の偏り(ばらつき)の幅である分布幅を算出し、算出された分布幅(を示す情報)を分布範囲推定部216に供給する。
分布範囲推定部216は、分布中心推定部214から供給された推定中心位置、および分布偏り算出部215から供給された分布幅に基づいて、未来(例えば、期間T3)に撮像される顔画像の特徴量の分布の偏り(ばらつき)の幅である推定幅を算出し、算出された推定幅(を示す情報)を認証部86の判定部218に供給する。
認証部86の変換部217は、判別分析部212から供給された判別軸を用いて、抽出部82(図2)から供給されたk次元の特徴量を、1次元の特徴量に変換する。また、変換部217は、変換により得られた1次元の特徴量を判定部218に供給する。
判定部218は、変換部217から供給された特徴量、分布中心推定部214から供給された推定中心位置、および分布範囲推定部216から供給された推定幅に基づいて、推定中心位置および推定幅により定まる特徴空間上の空間(範囲)(以下、推定分布範囲とも称する)内に、撮像部81において撮像された顔画像の特徴量が位置するか否かを判定し、その判定結果を示す信号を出力部87(図2)に供給する。
次に、図10のフローチャートを参照して、認証装置71による認証処理について説明する。
ステップS11において、撮像部81は、被写体としての被認証者の顔画像を撮像し、これにより得られた顔画像データを抽出部82に供給する。
ステップS12において、抽出部82は、撮像部81から供給された、撮像により得られた顔画像データからk次元の特徴量を抽出し、抽出された特徴量を変換部217に供給する。
例えば、抽出部82は、図11に示すように、PCM(Pulse Code Modulation)方式により、撮像部81から供給された顔画像251の顔画像データをサンプリングし、これより得られたk個(n×m個)の画素の画素値のそれぞれを成分とするk次元のベクトルを特徴量とする。
図11において、図中、右側の顔画像251上の1つの丸は、1つの画素を表わしており、矢印P0乃至矢印P2のそれぞれは、図中、一番上の左から1番目乃至3番目の画素のそれぞれを示している。
サンプリングにより得られた顔画像251上の被認証者の顔の部分の画素の数が、横方向にn個(図11では6個)であり、縦方向にm個(図11では6個)であるとすると、それぞれの画素の画素値をベクトルの成分とする、(n×m)次元のベクトルが得られる。例えば、矢印P0乃至矢印P2のそれぞれにより示される画素の画素値のそれぞれを、P0乃至P2とすると、P0乃至P2のそれぞれが、特徴量としてのベクトルの成分とされる。
また、例えば、図12に示すように、PCM方式により、撮像部81から供給された顔画像251の顔画像データをサンプリングして得られたk個(n×n個)の画素の画素値(顔画像データ)を、さらにDCT(Discrete Cosine Transformation)変換し、これにより得られたk個のDCT係数のそれぞれを成分とするk次元のベクトルを特徴量としてもよい。
図12において、図中、中央の顔画像251上の1つの丸は、1つの画素を表わしている。サンプリングにより得られた顔画像251上の被認証者の顔の部分の画素の数が、横方向にn個(図12では6個)であり、縦方向にn個(図12では6個)であるとすると、サンプリングを行うことにより、(n×n)個の画素値が得られる。さらに、これらの画素の画素値をDCT変換すると、それぞれの画素に対応するDCT係数が得られるので、これらのDCT係数をベクトルの成分とする(n×n)次元のベクトルが得られる。
さらに、図13に示すように、顔画像251上の顔の特徴点を検出し、検出された特徴点の座標の値を成分とするベクトルを特徴量としてもよい。
図13において、顔画像251上の点B1乃至点B8のそれぞれは、検出された被認証者の顔の特徴点を示している。例えば、点B1および点B2は、被認証者の右目の右端および左端を示しており、点B3および点B4は、被認証者の左目の右端および左端を示している。また、点B5および点B6は、被認証者の鼻の上端(付け根)および下端(鼻の先)を示しており、点B7および点B8は、認証者の口の右端および左端を示している。
ここで、顔画像251上の所定の点を基準とする点Bn(但し、1≦n≦8)の座標を(Xn,Yn)とすると、それぞれの点Bnの座標の成分XnおよびYnをベクトルの成分とする2n次元(図13では、16次元)のベクトルが得られる。したがって、図13の例においては、点B1乃至点B8のそれぞれの座標の成分からなるベクトル(X1,Y1,X2,Y2,・・・,X8,Y8)が特徴量とされる。
図10のフローチャートの説明に戻り、ステップS12において、撮像により得られた顔画像データからk次元の特徴量が抽出されると、ステップS13に進む。
ステップS13において、抽出部84は、顔画像メモリ83に記録されている、過去の顔画像データからk次元の特徴量を抽出し、抽出された特徴量を推定部85の分類部211に供給する。例えば、抽出部84は、顔画像メモリ83から顔画像データを取得して、抽出部82がステップS12において行う処理と同様の処理を行い、取得した顔画像データから特徴量を抽出する。
ステップS14において、推定部85は、分布範囲の推定処理を行う。なお、分布範囲の推定処理の詳細は後述するが、分布範囲の推定処理において、推定部85は、クラスごとの特徴量の分布を分離するための判別軸を求め、認証部86の変換部217に供給する。
また、分布範囲の推定処理において、推定部85は、クラスごとの分布の中心の位置(分布中心位置)および分布幅を求め、求められた分布中心位置および分布幅に基づいて、未来(例えば、期間T3)に撮像される顔画像の特徴量の分布の中心である推定中心位置、およびその分布の偏りの幅である推定幅を算出し、算出された推定中心位置および推定幅を認証部86の判定部218に供給する。
ステップS15において、変換部217は、推定部85(の判別分析部212)から供給された判別軸を用いて、抽出部82から供給された、撮像により得られた顔画像のk次元の特徴量を1次元の特徴量に変換する。変換部217は、変換により得られた1次元の特徴量を判定部218に供給する。
例えば、撮像により得られた顔画像のk次元の特徴量(ベクトル)をxとし、判別軸(ベクトル)をyとすると、変換部217は、k次元の特徴量xと、k次元の判別軸yとの内積x・yを求めることにより、k次元の特徴量を1次元の特徴量に変換する。
ステップS16において、判定部218は、変換部217から供給された1次元の特徴量x・yの値が、推定部85の分布中心推定部214から供給された推定中心位置、および推定部85の分布範囲推定部216から供給された推定幅により定まる特徴空間上の推定分布範囲内の値であるか否かを判定する。そして、判定部218は、その判定の結果を示す信号を生成して出力部87に供給する。
例えば、変換部217からの1次元の特徴量をx・y、推定中心位置をm3、推定幅をd3とすると、判定部218は、1次元の特徴量x・yが、式(1)に示される関係を満たすか否かを基に、特徴量x・yが推定分布範囲内の値であるか否かを判定する。
m3−d3<x・y≦m3+d3 ・・・(1)
例えば、判定部218は、1次元の特徴量が式(1)に示される関係を満たす場合、推定分布範囲内の値であると判定し、1次元の特徴量が式(1)に示される関係を満たさない場合、推定分布範囲内の値ではないと判定する。
ステップS16において、特徴量が推定分布範囲内の値であると判定された場合、ステップS17に進み、出力部87は、判定部218から供給された判定の結果を示す信号に基づいて、被認証者が本人であると認証された旨の信号を生成する。出力部87は、生成した本人であると認証された旨の信号を図示せぬコンピュータなどに出力し、認証処理は終了する。
一方、ステップS16において、特徴量が推定分布範囲内の値でないと判定された場合、ステップS18に進み、出力部87は、判定部218から供給された判定の結果を示す信号に基づいて、被認証者が本人ではないと認証された旨の信号を生成する。出力部87は、生成した本人ではないと認証された旨の信号を図示せぬコンピュータなどに出力し、認証処理は終了する。
このようにして、認証装置71は、顔画像が撮像された期間に基づくクラスごとの特徴量の分布中心位置および分布幅を求める。そして、認証装置71は、クラスごとの分布中心位置および分布幅を基に推定分布範囲を求め、撮像により得られた顔画像データから抽出された特徴量が、推定分布範囲内の値であるか否かに基づいて、被認証者が本人であるか否かの認証を行う。
このように、クラスごとの分布中心位置および分布幅を基に、時間の経過により変化する推定分布範囲を求めることで、所定の期間に撮像された顔画像の特徴量が分布する特徴空間上の範囲をより簡単かつ正確に推定することができる。したがって、新たに撮像された顔画像の顔画像データから抽出した特徴量が、推定分布範囲内の値であるか否かに基づいて被認証者の個人認証を行うことで、より簡単かつ確実に顔画像認証を行うことができる。これにより、過去に撮像された被認証者の顔の写真を用いたなりすましを防止することができ、また、被認証者の顔が時間の経過とともに変化する場合においても、被認証者が本人ではないと認証されるようなこともない。
次に、図14のフローチャートを参照して、図10のステップS14の処理に対応する、分布範囲の推定処理について説明する。
ステップS51において、分類部211は、抽出部84から供給されたk次元の特徴量を、顔画像が撮像された期間に基づくクラスに分類する。分類部211は、特徴量をクラスに分類するとその分類の結果を示すクラス情報を生成し、生成したクラス情報および特徴量を、判別分析部212および変換部213に供給する。
例えば、顔画像メモリ83に、図3に示した期間T1および期間T2に撮像された顔画像の顔画像データが記録されている場合、分類部211は、抽出部84から供給された特徴量のうち、期間T1に撮像された顔画像の特徴量のそれぞれを、クラスT1に属す特徴量として分類し、期間T2に撮像された顔画像の特徴量のそれぞれを、クラスT2に属す特徴量として分類する。
ステップS52において、判別分析部212は、分類部211から供給されたクラス情報および特徴量に基づいて判別軸を求め、求められた判別軸を変換部213および変換部217に供給する。
例えば、特徴量xが、クラスT1またはクラスT2のいずれかのクラスに分類される場合、判別分析部212は、クラスT1に属す特徴量xを基に、クラスT1の変動を表わす変動行列SC1を求め、同様に、クラスT2に属す特徴量xを基に、クラスT2の変動を表わす変動行列SC2を求める。そして、判別分析部212は、求めた変動行列SC1および変動行列SC2を基に、クラス内変動行列SWと、クラス間変動行列SBとを求める。
さらに、判別分析部212は、クラス内変動行列SWの逆行列SW-1と、クラス間変動行列SBとの積SW-1SBの最大固有値に対応する固有ベクトルを求め、求められた固有ベクトルを判別軸とする。
ステップS53において、変換部213は、判別分析部212から供給されたk次元の判別軸を用いて、分類部211から供給された、過去の顔画像のk次元の特徴量を、1次元の特徴量に変換する。変換部213は、変換により得られた1次元の特徴量、および分類部211から供給されたクラス情報を、分布中心推定部214および分布偏り算出部215に供給する。
例えば、過去の顔画像のk次元の特徴量(ベクトル)をxとし、k次元の判別軸(ベクトル)をyとすると、変換部213はk次元の特徴量xと、判別軸yとの内積x・yを求めることにより、k次元の特徴量を1次元の特徴量に変換する。
ステップS54において、分布中心推定部214は、変換部213から供給された特徴量およびクラス情報に基づいて推定中心位置を算出し、算出された推定中心位置を分布範囲推定部216および判定部218に供給する。
例えば、クラスTi(但し、i=1またはi=2)に属す特徴量xの集合をxiとすると、分布中心推定部214は、式(2)を計算することにより、クラスTiに属す特徴量x(すなわち、集合xiの元x)が縮退された1次元の特徴量x・yの分布の中心の位置miを求める。
Figure 2007156803
・・・(2)
ここで、niは、クラスTiに属す特徴量xの数(集合xiの元xの数)を表わしている。また、Σx・yは、クラスTiに属す特徴量xについてx・yを求め、その総和をとることを表わしている。例えば、分布中心推定部214が式(2)を計算することにより、図8に示したクラスT1の分布の中心の位置(以下、分布中心位置とも称する)m1、およびクラスT2の分布中心位置m2が求まる。
また、期間T1乃至期間T3(図3)のそれぞれの長さは等しいので、期間T1の所定の基準となる時刻(例えば、期間T1の先頭の時刻)をtとすると、期間Ti(但し、1≦i≦3)の基準となる時刻(例えば、期間Tiの先頭の時刻)は、itで表わすことができる。
さらに、期間T1の分布中心位置がm1であり、期間T2の分布中心位置がm2であるので、期間T1から期間T2までの期間で分布中心位置は、m2−m1だけ変化することが分かる。そして、所定の期間T(i−1)の基準となる時刻から、期間Tiの基準となる時刻までの期間の長さは常にtであるので、期間T(i−1)から期間Tiまでの期間で分布中心位置は、m2−m1だけ変化すると推定することができ、期間Tiの分布中心位置miは、式(3)により表わすことができる。
mi=((m2−m1)/t)(Ti)+2(m1)−m2 ・・・(3)
この式(3)の変数Tiに、期間T3=3tを代入することにより、期間T3の推定中心位置(分布中心位置)m3の値2m1−m1(=(m2−m1)/t)(3t)+2(m1)−m2)を求めることができる。分布中心推定部214は、式(3)を計算することにより、推定中心位置m3を算出すると、算出された推定中心位置m3を、分布範囲推定部216および判定部218に供給し、処理はステップS55に進む。
ステップS55において、分布偏り算出部215は、変換部213から供給された特徴量およびクラス情報に基づいて、各クラスに属す特徴量の分布の分布幅を算出し、算出された分布幅を分布範囲推定部216に供給する。
例えば、特徴量xが、クラスT1またはクラスT2のいずれかのクラスに分類された場合、クラスTi(但し、i=1またはi=2)に属す特徴量xの集合をxiとすると、分布偏り算出部215は、上述した式(2)を計算することにより、クラスTiに属す特徴量x(すなわち、集合xiの元x)が縮退された1次元の特徴量x・yの分布中心位置miを求める。
そして、分布偏り算出部215は、各クラスTiに属す(特徴量xが縮退された)特徴量x・yと、そのクラスTiの分布中心位置miとの差の絶対値のうち、最も大きい値をクラスTiの分布幅diとする。すなわち、分布偏り算出部215は、式(4)を計算することによって、クラスTiの分布幅diを求める。
di=max(|x・y−mi|:x∈xi) ・・・(4)
ここで、max(Q)は、括弧内の変数Qのうちの最大の値を示す。したがって、式(4)は、xを集合xiの元として、|x・y−mi|のうち、最も大きい値をdiとすることを示している。
これにより、例えば、図8に示したクラスT1の分布幅d1、およびクラスT2の分布幅d2が求まる。
ステップS56において、分布範囲推定部216は、分布偏り算出部215から供給された分布幅diに基づいて推定幅を算出する。そして、分布範囲推定部216は、算出された推定幅を認証部86の判定部218に供給して、処理は図10のステップS15に進む。
例えば、分布範囲推定部216は、分布偏り算出部215から分布幅diとして、クラスT1の分布幅d1およびクラスT2の分布幅d2が供給された場合、供給された分布幅d1および分布幅d2のうち、大きい分布幅(最大の分布幅)の値を、未来の期間T3の特徴量の分布の偏りの幅である推定幅d3とする。すなわち、分布範囲推定部216は、式(5)を計算することにより、推定幅d3を算出する。
d3=max(d1,d2) ・・・(5)
ここで、max(d1,d2)は、d1およびd2のうち、大きい方の値をd3とすることを示している。分布範囲推定部216が式(5)を計算することにより、例えば、図8に示した推定幅d3が求まる。したがって、図8の例では、未来の期間T3に撮像される顔画像の1次元の特徴量x・yは、推定中心位置m3を中心とする幅がd3である空間(推定分布範囲)内に存在すると推定される。
このようにして、推定部85は、過去の顔画像のk次元の特徴量を1次元の特徴量に変換し、変換により得られた1次元の特徴量を基に、推定中心位置および推定幅を算出する。
このように、k次元の特徴量を1次元の特徴量に変換することで、変換により得られた1次元の特徴量を基に、より簡単に推定中心位置および推定幅を算出することができる。
なお、推定幅の求め方の一例として、分布範囲推定部216が式(5)を計算し、各クラスTiの分布幅のうち、最も大きい分布幅を推定幅とする例について説明したが、各クラスTiの特徴量x・yの標準偏差を用いて推定幅を求めるようにしてもよい。
例えば、特徴量xが、クラスT1またはクラスT2のいずれかのクラスに分類された場合、分布範囲推定部216は、式(6)を計算することにより、推定幅d3を算出する。
d3=(e)1/2 ・・・(6)
なお、式(6)におけるeは、式(7)により表わされる。
Figure 2007156803
・・・(7)
ここで、右側のΣは、クラスTiに属す特徴量xについて、(x・y−mi)2の総和をとることを表わしており、左側のΣは、Σ(x・y−mi)2のiを1から2まで変えて総和をとることを表わしている。また、n1およびn2は、それぞれクラスT1およびクラスT2に属す特徴量xの数を表わしている。
このように、特徴量の標準偏差を用いて推定幅を求めることにより、分布幅の最大値を推定幅とする場合と比べて、より正確な(より厳しい)推定幅を求めることができ、被認証者以外の人物が本人であると認証される可能性を低減することができる。
また、分布中心振推定部214において、推定中心位置を算出し、分布偏り算出部215において、分布幅を算出すると説明したが、認証処理を行うごとに算出せずに、分布中心振推定部214および分布偏り算出部215が、算出された推定中心位置および分布幅を記憶するようにし、認証処理を行う場合に、記憶している推定中心位置および分布幅を必要に応じて用いるようにしてもよい。
さらに、新たに撮像された顔画像により被認証者が認証されるごとに、その新たに撮像された顔画像の顔画像データを顔画像メモリ83に記録しておき、次回以降に行う認証処理時に、過去の顔画像データとして用いるようにしてもよい。
さらに、また、過去の期間として、顔画像メモリ83に記録される過去の顔画像が撮像される期間は、連続する2つの期間に限定されない。すなわち、過去の顔画像として用いられる顔画像が撮像される期間は、複数の不連続の期間であってもよく、連続する期間であってもよい。また、それらの期間は2以上の期間であればよい。
以上のように、クラスごとの分布中心位置および分布幅を基に推定分布範囲を求め、撮像された顔画像の顔画像データから抽出した特徴量が、推定分布範囲内の値であるか否かに基づいて被認証者の認証を行うようにしたので、より簡単かつ確実に顔画像認証を行うことができる。
図15は、上述した一連の処理をプログラムにより実行するパーソナルコンピュータの構成の例を示すブロック図である。パーソナルコンピュータ301のCPU(Central Processing Unit)311は、ROM(Read Only Memory)312、または記録部318に記録されているプログラムに従って各種の処理を実行する。RAM(Random Access Memory)313には、CPU311が実行するプログラムやデータなどが適宜記憶される。これらのCPU311、ROM312、およびRAM313は、バス314により相互に接続されている。
CPU311にはまた、バス314を介して入出力インターフェース315が接続されている。入出力インターフェース315には、キーボード、マウス、マイクロホンなどよりなる入力部316、ディスプレイ、スピーカなどよりなる出力部317が接続されている。CPU311は、入力部316から入力される指令に対応して各種の処理を実行する。そして、CPU311は、処理の結果を出力部317に出力する。
入出力インターフェース315に接続されている記録部318は、例えばハードディスクからなり、CPU311が実行するプログラムや各種のデータを記録する。通信部319は、インターネットやローカルエリアネットワークなどのネットワークを介して外部の装置と通信する。
また、通信部319を介してプログラムを取得し、記録部318に記録してもよい。
入出力インターフェース315に接続されているドライブ320は、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア331が装着されたとき、それらを駆動し、そこに記録されているプログラムやデータなどを取得する。取得されたプログラムやデータは、必要に応じて記録部318に転送され、記録される。
上述した一連の処理は、ハードウエアにより実行させることもできるし、ソフトウエアにより実行させることもできる。一連の処理をソフトウエアにより実行させる場合には、そのソフトウエアを構成するプログラムが、専用のハードウエアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。
コンピュータにインストールされ、コンピュータによって実行可能な状態とされるプログラムを格納するプログラム記録媒体は、図15に示すように、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)を含む)、光磁気ディスクを含む)、もしくは半導体メモリなどよりなるパッケージメディアであるリムーバブルメディア331、または、プログラムが一時的もしくは永続的に格納されるROM312や、記録部318を構成するハードディスクなどにより構成される。プログラム記録媒体へのプログラムの格納は、必要に応じてルータ、モデムなどのインターフェースである通信部319を介して、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の通信媒体を利用して行われる。
なお、本明細書において、プログラム記録媒体に格納されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
なお、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。
従来の顔画像認識を説明するための図である。 認証装置の構成例を示すブロック図である。 顔画像が撮像される期間を説明するための図である。 顔画像の特徴量の分布を示す図である。 顔画像の特徴量の分布を示す図である。 顔画像の特徴量が分布すると推定される範囲を説明するための図である。 k次元の特徴量の1次元の特徴量への変換を説明するための図である。 顔画像の特徴量が分布すると推定される範囲を説明するための図である。 推定部および認証部のより詳細な構成例を示すブロック図である。 認証処理を説明するフローチャートである。 顔画像データから抽出される特徴量の例を説明するための図である。 顔画像データから抽出される特徴量の例を説明するための図である。 顔画像データから抽出される特徴量の例を説明するための図である。 分布範囲の推定処理を説明するフローチャートである。 パーソナルコンピュータの構成例を示すブロック図である。
符号の説明
71 認証装置, 81 撮像部, 82 抽出部, 83 顔画像メモリ, 84 抽出部, 85 推定部, 86 認証部, 212 判別分析部, 213 変換部, 214 分布中心推定部, 215 分布偏り算出部, 216 分布範囲推定部, 217 変換部, 218 判定部, 301 パーソナルコンピュータ, 311 CPU, 312 ROM, 313 RAM, 318 記録部, 331 リムーバブルメディア

Claims (8)

  1. 第1の期間に撮像された被写体の画像の画像データから第1の特徴量を抽出する第1の抽出手段と、
    前記第1の期間よりも過去の第2の期間に撮像された前記被写体の画像の画像データから抽出された第2の特徴量と、前記第1の期間よりも過去の期間であって、前記第2の期間とは異なる第3の期間に撮像された前記被写体の画像の画像データから抽出された第3の特徴量とを基に、前記第1の特徴量の第1の平均値を推定する第1の推定手段と、
    前記第2の特徴量および前記第3の特徴量を基に、前記第1の平均値に対する前記第1の特徴量のばらつきの幅を示す第1の分布幅を推定する第2の推定手段と、
    前記第1の特徴量の値が、前記第1の平均値および前記第1の分布幅に基づく所定の範囲内の値であるか否かを判定する判定手段と
    を備える画像処理装置。
  2. 前記第1の推定手段は、前記第2の特徴量の第2の平均値、および前記第3の特徴量の第3の平均値に基づいて、前記第1の平均値を推定し、
    前記第2の推定手段は、前記第2の平均値に対する前記第2の特徴量のばらつきの幅を示す第2の分布幅、および前記第3の平均値に対する前記第3の特徴量のばらつきの幅を示す第3の分布幅に基づいて、前記第1の分布幅を推定する
    請求項1に記載の画像処理装置。
  3. 前記第2の推定手段は、前記第2の分布幅および前記第3の分布幅のうちの大きい値を前記第1の分布幅とする
    請求項2に記載の画像処理装置。
  4. 前記第2の推定手段は、前記第1の分布幅をd3、前記第2の特徴量および前記第3の特徴量をx・y、前記第2の平均値をm1、前記第3の平均値をm2、前記第2の特徴量の数をn1、前記第3の特徴量の数をn2とした場合に、次式
    Figure 2007156803
    を計算することにより求められる値を前記第1の分布幅とする
    請求項2に記載の画像処理装置。
  5. 前記第2の期間に撮像された前記被写体の画像の画像データから前記第2の特徴量を抽出し、前記第3の期間に撮像された前記被写体の画像の画像データから前記第3の特徴量を抽出する第2の抽出手段をさらに備える
    請求項1に記載の画像処理装置。
  6. 特徴空間上における複数の前記第2の特徴量の分布と、複数の前記第3の特徴量の分布とを分離するための判別軸を算出する算出手段をさらに備え、
    前記第1の抽出手段は、前記第1の期間に撮像された画像の画像データから抽出された特徴量と、前記判別軸との内積の値を前記第1の特徴量とし、
    前記第2の抽出手段は、前記第2の期間に撮像された画像の画像データから抽出された特徴量と、前記判別軸との内積の値を前記第2の特徴量とし、前記第3の期間に撮像された画像の画像データから抽出された特徴量と、前記判別軸との内積の値を前記第3の特徴量とする
    請求項5に記載の画像処理装置。
  7. 第1の期間に撮像された被写体の画像の画像データから第1の特徴量を抽出し、
    前記第1の期間よりも過去の第2の期間に撮像された前記被写体の画像の画像データから抽出された第2の特徴量と、前記第1の期間よりも過去の期間であって、前記第2の期間とは異なる第3の期間に撮像された前記被写体の画像の画像データから抽出された第3の特徴量とを基に、前記第1の特徴量の平均値を推定し、
    前記第2の特徴量および前記第3の特徴量を基に、前記平均値に対する前記第1の特徴量のばらつきの幅を示す分布幅を推定し、
    前記第1の特徴量の値が、前記平均値および前記分布幅に基づく所定の範囲内の値であるか否かを判定する
    ステップを含む画像処理方法。
  8. 第1の期間に撮像された被写体の画像の画像データから第1の特徴量を抽出する抽出ステップと、
    前記第1の期間よりも過去の第2の期間に撮像された前記被写体の画像の画像データから抽出された第2の特徴量と、前記第1の期間よりも過去の期間であって、前記第2の期間とは異なる第3の期間に撮像された前記被写体の画像の画像データから抽出された第3の特徴量とを基に、前記第1の特徴量の平均値を推定する第1の推定ステップと、
    前記第2の特徴量および前記第3の特徴量を基に、前記平均値に対する前記第1の特徴量のばらつきの幅を示す分布幅を推定する第2の推定ステップと、
    前記第1の特徴量の値が、前記平均値および前記分布幅に基づく所定の範囲内の値であるか否かを判定する判定ステップと
    をコンピュータに実行させるプログラム。
JP2005350822A 2005-12-05 2005-12-05 画像処理装置および方法、並びにプログラム Expired - Fee Related JP4462176B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2005350822A JP4462176B2 (ja) 2005-12-05 2005-12-05 画像処理装置および方法、並びにプログラム
US11/559,691 US7715599B2 (en) 2005-12-05 2006-11-14 Image processing apparatus and method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005350822A JP4462176B2 (ja) 2005-12-05 2005-12-05 画像処理装置および方法、並びにプログラム

Publications (2)

Publication Number Publication Date
JP2007156803A true JP2007156803A (ja) 2007-06-21
JP4462176B2 JP4462176B2 (ja) 2010-05-12

Family

ID=38157966

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005350822A Expired - Fee Related JP4462176B2 (ja) 2005-12-05 2005-12-05 画像処理装置および方法、並びにプログラム

Country Status (2)

Country Link
US (1) US7715599B2 (ja)
JP (1) JP4462176B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019165323A (ja) * 2018-03-19 2019-09-26 学校法人 関西大学 画像生成装置、及びユーザ端末

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101364044B1 (ko) * 2007-04-13 2014-02-17 삼성전자주식회사 이동통신 단말기 및 그의 호에 따른 영상 표시 방법
US8059163B2 (en) * 2007-08-28 2011-11-15 Sony Computer Entertainment Inc. Digital photography using electronic image analysis to identify faces of faces of known subjects in predetermined position
RU2427911C1 (ru) * 2010-02-05 2011-08-27 Фирма "С1 Ко., Лтд." Способ обнаружения лиц на изображении с применением каскада классификаторов
JP5214762B2 (ja) * 2011-03-25 2013-06-19 株式会社東芝 認識装置、方法及びプログラム
US9355329B2 (en) * 2011-05-09 2016-05-31 Catherine G. McVey Image analysis for determining characteristics of pairs of individuals
US9552637B2 (en) 2011-05-09 2017-01-24 Catherine G. McVey Image analysis for determining characteristics of groups of individuals
US9104906B2 (en) 2011-05-09 2015-08-11 Catherine Grace McVey Image analysis for determining characteristics of animals
US9098898B2 (en) * 2011-05-09 2015-08-04 Catherine Grace McVey Image analysis for determining characteristics of individuals
JP5923723B2 (ja) * 2011-06-02 2016-05-25 パナソニックIpマネジメント株式会社 人物属性推定システム、人物属性推定装置、及び人物属性推定方法
JP5907593B2 (ja) * 2011-09-13 2016-04-26 キヤノン株式会社 画像認識装置、画像認識方法及びプログラム
JP5836095B2 (ja) * 2011-12-05 2015-12-24 キヤノン株式会社 画像処理装置、画像処理方法
US8457367B1 (en) 2012-06-26 2013-06-04 Google Inc. Facial recognition
US8542879B1 (en) 2012-06-26 2013-09-24 Google Inc. Facial recognition
US8856541B1 (en) 2013-01-10 2014-10-07 Google Inc. Liveness detection
US20220083636A1 (en) * 2020-09-17 2022-03-17 Qualcomm Incorporated Smart timeout with change detection

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5161204A (en) * 1990-06-04 1992-11-03 Neuristics, Inc. Apparatus for generating a feature matrix based on normalized out-class and in-class variation matrices
JPH09134428A (ja) 1995-11-09 1997-05-20 Hitachi Vlsi Eng Corp 個人識別方法および個人識別装置
JP3960045B2 (ja) 2002-01-07 2007-08-15 富士ゼロックス株式会社 個人識別装置
EP1710751A1 (en) * 2004-01-06 2006-10-11 Sony Corporation Image processing device and method, recording medium, and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019165323A (ja) * 2018-03-19 2019-09-26 学校法人 関西大学 画像生成装置、及びユーザ端末

Also Published As

Publication number Publication date
US20070127786A1 (en) 2007-06-07
JP4462176B2 (ja) 2010-05-12
US7715599B2 (en) 2010-05-11

Similar Documents

Publication Publication Date Title
JP4462176B2 (ja) 画像処理装置および方法、並びにプログラム
JP4756589B2 (ja) 画像処理装置および方法、プログラム、並びに記録媒体
US7995805B2 (en) Image matching apparatus, image matching method, computer program and computer-readable storage medium
US7853052B2 (en) Face identification device
US20110158542A1 (en) Data correction apparatus and method
JP2008538998A (ja) 画像に含まれる人物を認識する際の時刻の利用
JP5087037B2 (ja) 画像処理装置、方法及びプログラム
JP5787845B2 (ja) 画像認識装置、方法、及びプログラム
JP5170094B2 (ja) なりすまし検知システム、なりすまし検知方法およびなりすまし検知用プログラム
JP6071002B2 (ja) 信頼度取得装置、信頼度取得方法および信頼度取得プログラム
JP6287827B2 (ja) 情報処理装置、情報処理方法、及びプログラム
US20090067681A1 (en) Face Normalization for Recognition and Enrollment
JP2007102517A (ja) 顔認識装置および方法、係数生成装置および方法、プログラム、並びに記録媒体
JP3729581B2 (ja) パターン認識・照合装置
JP7268725B2 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
JP5791361B2 (ja) パターン識別装置、パターン識別方法およびプログラム
JP4141090B2 (ja) 画像認識装置、陰影除去装置、陰影除去方法及び記録媒体
CN107798282B (zh) 一种活体人脸的检测方法和装置
JP2007299051A (ja) 画像処理装置、方法およびプログラム
TWI632509B (zh) 人臉辨識裝置及方法、提升影像辨識率的方法、及電腦可讀儲存介質
JP4432181B2 (ja) 認証装置および認証方法、データ処理装置およびデータ処理方法、並びに記録媒体
US12033429B2 (en) Image processing device of determining authenticity of object, image processing method of determining authenticity of object, and storage medium storing program of determining authenticity of object
JP5275376B2 (ja) 情報処理装置及び情報処理プログラム
WO2021166174A1 (ja) 被写体別特徴点分離装置、被写体別特徴点分離方法及びコンピュータプログラム
JP2012058954A (ja) 情報処理装置、情報処理方法、およびプログラム

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20091106

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100104

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100126

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100208

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130226

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140226

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees