JP4387552B2 - 画像照合処理システム - Google Patents

画像照合処理システム Download PDF

Info

Publication number
JP4387552B2
JP4387552B2 JP2000128189A JP2000128189A JP4387552B2 JP 4387552 B2 JP4387552 B2 JP 4387552B2 JP 2000128189 A JP2000128189 A JP 2000128189A JP 2000128189 A JP2000128189 A JP 2000128189A JP 4387552 B2 JP4387552 B2 JP 4387552B2
Authority
JP
Japan
Prior art keywords
image
window
window image
images
group
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2000128189A
Other languages
English (en)
Other versions
JP2001307090A (ja
Inventor
博紀 北川
大器 増本
直毅 指田
昌彦 杉村
茂美 長田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2000128189A priority Critical patent/JP4387552B2/ja
Priority to US09/768,361 priority patent/US6999605B2/en
Publication of JP2001307090A publication Critical patent/JP2001307090A/ja
Application granted granted Critical
Publication of JP4387552B2 publication Critical patent/JP4387552B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification

Description

【0001】
【発明の属する技術分野】
本発明は、カメラ等の画像入力装置から入力された認識対象を含む画像と、予め登録済みの対象画像を比較照合することにより、入力画像中に存在する対象を特定する画像照合処理に関する。本発明の画像照合処理システムは、人物や工業製品等の任意の2次元又は3次元形状の物体の認識処理に適用することが可能である。
【0002】
【従来の技術】
画像処理を必要とするアプリケーションが広まりつつある中、カメラ等の画像入力装置から取り込んだ画像を基に写りこんだ人物や商品などの3次元対象物を切り出して認識・照合する技術が必要とされている。撮影画像中の認識対象を認識する技術のうち、優れた技術の一つとして、局所固有空間法(Eigen-Window法)を用いた画像照合処理技術や、局所固有空間法を更に改良した画像処理技術として局所固有空間法の画像特徴量を離散コサイン変換(Discrete Cosine Transform:以下、DCTと略記する)係数に変更した画像照合処理技術(以下、改良局所固有空間法を用いた画像照合処理技術と呼ぶ)が挙げられる。
【0003】
以下に、従来の画像照合処理技術として、改良局所固有空間法を用いた画像照合処理技術を説明する。一例として人物の顔画像を認識・照合する場合を挙げて説明する。
【0004】
この改良局所固有空間法を用いた画像照合処理は、画像照合に用いるモデルを作成する「登録フェーズ」と、入力画像の認識対象に対して認識・照合処理を実行する「認識フェーズ」からなる。
【0005】
まず、「登録フェーズ」の処理手順を図13のフローチャートを参照しつつ示す。この登録フェーズでは、認識・照合したい2次元又は3次元物体、つまりここでは認識したい人物の顔画像の基本姿勢画像(正面向きなど)を照合用モデルとして生成、整理して登録する。
【0006】
(1)モデル画像とする人物顔画像を取得する(ステップS1301)。正面顔画像の撮影画像データを外部からファイル形式で入力しても良く、このようなデータがない場合にはカメラなど画像入力装置を介して登録する人物の正面顔画像を撮影して取り込む。ここでは一例として図15(a)に示したモデル画像を取得したとする。
【0007】
(2)取り込んだモデル画像から、画像の特徴点を検出する(ステップS1302)。特徴点は何らかの指標を用いて検出・選択する。例えば、画像の表面模様であるテクスチャの複雑さに関する指標を表わすテクスチャ度がしきい値以上に大きい点、エッジ強度(エッジ成分に関する指標)がしきい値以上に大きい点、色情報が所定範囲内にある点など画像上の一種の特異点を選択する方式がある。また、取り込み画像中の認識対象に対する知識を利用してそれらの重要部分(目や口など特徴的な部分)を選択する方式等が考えられる。図16においてモデル画像の顔画像上に付された点は特徴点を簡易的に表わしたものである。
【0008】
(3)選択された特徴点を基に当該特徴点を囲む小さい領域、例えば矩形の局所領域を窓画像として選択する(ステップS1303)。それら特徴点の周辺の局所領域を窓画像としてそれぞれ選択する。例えば、15ドット×15ドットの小正方形とする。
【0009】
(4)選択した窓画像を識別に有効となる低次元空間に圧縮し、各モデル画像毎にモデルとして整理して保持する(ステップS1304)。この低次元空間への圧縮方法には局所固有空間法(Eigen-Window法)を用いる方法もあるが、ここでは、窓画像データからDCT係数を計算し、直流成分を除いて低周波の係数を適度に選択することによって低次元空間に圧縮する方式を採る。改良局所固有空間法ではこのDCTによる圧縮方式を用いる。例えば、原画像である窓画像が15ドット×15ドットとすると225次元であるが、DCT係数を計算し、直流成分を除いて画像の特徴を良く表わす低周波の係数を20個選択して20次元空間に圧縮する。図16左側は投影される様子を簡易的に表わしたものである。
【0010】
(5)このステップS1304の低次元空間圧縮をすべての窓画像に対して実行し、それらデータを画像照合用モデルデータとして登録・管理する(ステップS1305)。
【0011】
以上の登録フェーズの処理ステップにより、登録する人物の顔画像から低次元の画像照合用モデルを生成、整理して登録する。
【0012】
次に、「認識フェーズ」の処理手順を図14のフローチャートを参照しつつ示す。
【0013】
(1)認識対象となる人物の顔画像が写りこんだ人物顔画像を取得する(ステップS1401)。正面顔画像の撮影画像データを外部からファイル形式で入力しても良く、このようなデータがない場合にはカメラなど画像入力装置を介して登録する人物の正面顔画像を撮影して取り込む。入退室管理システムなどでは後者の場合が多い。ここでは図15(b)に示した認識対象となる画像を取り込んだものとする。
【0014】
(2)入力画像中から認識対象となる人物顔画像を切り出す(ステップS1402)。この際、認識対象となる人物の顔画像領域の位置を推定しても良く、また、常に一定の矩形領域を切り出してもよい。人物の顔画像領域の位置推定方法としては、肌領域を検出することで顔画像領域と推定する方法が知られている。
【0015】
(3)切り出した認識対象顔画像から特徴点を検出する(ステップS1403)。登録フェーズと同様の指標を用いて特徴点を選択しても良く、また、より適した他の指標を用いて特徴点の選択を実行しても良い。
【0016】
(4)選択した特徴点を基にその局所領域を窓画像として選択する(ステップS1404)。登録フェーズと同様、例えば、15ドット×15ドットの小正方形として選択する。図16右側にこの様子を簡単に示した。
【0017】
(5)選択した窓画像を登録フェーズと同一の低次元空間に圧縮する(ステップS1405)。ここでは、登録フェーズと同様、改良局所固有空間法を用いて低次元空間に圧縮する方法を採り、原画像である窓画像からDCT係数を計算し、直流成分を除いて画像の特徴を良く表わす低周波の係数を20個選択して20次元空間に圧縮する。
【0018】
(6)画像照合用モデルデータと認識対象データを窓画像ごとに低次元空間である特徴空間内に投影してゆく(ステップS1406)。図16右側に投影される様子を簡単に示した。
【0019】
(7)低次元空間である特徴空間内での距離が近い登録窓画像と認識対象窓画像のペアを見つけ、窓画像の照合処理を行なう(ステップS1407)。
【0020】
(8)窓画像のペアの画像上での相対位置を求め、投票マップ上の対応する格子に投票を行う(ステップS1408)。図17にこの様子を簡単に示した。ここで、投票マップとは、モデル画像毎に用意した平面を格子状に区切った投票空間であり、投票とは、投票マップ上の格子に投票に応じた値を加算する処理である。投票される格子位置は、窓画像のペアの画像上での相対位置に応じて定められる。例えば、両者が全く同じ位置にあれば相対位置は0となり投票マップの中心に投票される。もし、登録モデルの顔画像と認識対象の顔画像が同一人物のものであれば、目と目、口と口等、多くの窓画像同士が正しく対応し合うため、それら対応し合う窓画像同士の相対位置はほぼ一定となり、投票マップ上の同じ格子位置に票が集中することとなる。一方、登録モデルの顔画像と認識対象の顔画像が異なるものであれば、窓画像のうち、正しく対応し合わないものが増え、それらの相対位置がいろいろなバラツキを持つため、投票マップ上の広い範囲に票が分散することとなる。
【0021】
(9)最多得票数を持つ格子(以降ピークと呼ぶ)を見つけ、得票数をもとに登録モデルの顔画像と認識対象の顔画像の類似度を算出し、この算出結果を基準に画像認識・照合を行う(ステップS1409)。また、ピークの位置から、登録物体が認識対象画像内のどこにあるかを検出することができる。
【0022】
上記画像照合手法により、あらかじめ作成したモデルを用い、入力画像中の物体が登録モデルの物体と同一のものであるか否かを認識することができる。
【0023】
【発明が解決しようとする課題】
上記の改良局所固有空間法を用いた画像照合処理技術は、優れている面が多いものであり、今後も本技術を適用した画像照合処理システムの普及が期待されている。この改良局所固有空間法を用いた画像照合処理システムの普及にあたり考慮すべき課題点としては以下に挙げるものがある。
【0024】
第1の課題は、照明や人物の顔画像の撮影方向など顔画像の取り込み環境変動に対するロバスト性の確保である。つまり、モデル画像として登録する際に用いた画像の取り込み環境と、認識対象人物の画像の取り込み環境が少々異なるものであっても画像照合精度を高く維持できるものであることが求められる。画像照合処理システムは様々な場所に用いられることが想定され、画像取り込み環境を完全に一定に保つことは望めない。例えば、照明環境を考えると、自然光(太陽光)は朝、昼、夕方などの時間により変動したり、晴れ、曇り、雨など天候により変動したりする。また外光の影響の少ない屋内での利用であっても人工照明の強さや方向が変動する場合がある。また、被写体の撮影方向、撮影位置という撮影環境を考えると、画像を取り込む人物はカメラに対して常に正対しているとは限らず、また、カメラとの距離も一定とは限らない。もっとも被写体となる人物に指示を出して一定位置においてカメラに正対することを強要できれば良いが、このような運用のできるアプリケーションは限定され、ユーザ使い勝手面から問題が多いものとなる。
【0025】
従来技術における、顔画像の取り込み環境変動に対するロバスト性を確保する技術の一つとしては、各々の被写体すべてについて想定し得る様々な撮影環境ごとに画像を撮影して取り込み、登録、保持しておき、認識フェーズにおいて、認識対象人物の取り込み画像と、各々のモデルについてあらゆる撮影環境のバリエーションごとに用意したモデル画像との間で画像照合処理を行うものが知られている。しかしこの方法によれば、画像照合処理工数が膨大となり、処理時間の増大を招くとともに、登録、保持しておくモデルデータ容量も膨大なものとなってしまうという問題がある。
【0026】
また、従来技術における、顔画像の取り込み環境変動に対するロバスト性を確保する他の技術としては、逆に、認識フェーズにおける認識対象人物から顔画像を取り込む際に、照明条件、撮影方向、撮影位置などの環境を変え、様々な撮影環境のバリエーションの画像を多数取り込んで画像照合処理に用いるものが知られている。例えば、認識対象人物に対してカメラの前で顔を180度ゆっくり振らせて多様な方向からの顔画像を撮影して取り込むものである。しかしこの方法によれば、認識フェーズにおける認識対象人物からの顔画像取り込み処理の工数が増え、認識フェーズにおける処理時間の増大を招いてしまう。また、認識対象人物に対してカメラとの位置や方向に関する協力を得なければならず、ユーザフレンドリーの面から問題が多い。
【0027】
第2の課題は、画像照合精度を一定以上に維持しつつ、画像照合処理時間を更に低減することである。改良局所固有空間法を用いた画像照合処理は、上記のとおり、モデル画像から選択した窓画像と認識対象画像から選択した窓画像の対応をとり、それらの一致度合いを評価することにより両画像の画像照合を実行するものである。選択する窓画像領域の数が多くなると投影空間への投影処理、投影結果の一致度合いの評価などの処理工数が増え、処理時間の増大を招くこととなる。一方、単純に選択する窓画像領域の数を絞り込めば処理工数が減ることとなり処理時間の低減を図ることができるが、単純に窓画像領域の数を絞り込んだ場合には画像照合精度の低下を招くこととなる。このように単純に窓画像領域の数を絞り込む処理によれば、処理時間低減と画像照合精度の維持は二律背反の関係にあり、従来技術では処理時間低減という課題と画像照合精度の維持という課題のいずれか一方を犠牲にして他方の課題を解決していた。
【0028】
第3の課題は、モデルとして登録保持するモデルデータ容量の低減である。画像照合処理システムで扱う認識人物の数が増加し、撮影環境のバリエーションが大きくなれば、モデルデータとして登録保持する必要のあるデータ容量が増大することとなる。撮影環境のバリエーションにかかわらず単純に撮影環境のバリエーションを低減してモデルデータの容量を絞り込めば、登録保持するモデルデータ容量の低減は図ることができるが、撮影環境の変動に対するロバスト性が確保されず、撮影環境の変動に脆弱なものとなり画像照合処理精度の低下を招くこととなる。
【0029】
上記問題点に鑑み、本発明は、上記改良局所固有空間法をさらに改良し、取り込んだ認識対象物体画像に対して照明や人物の顔画像の撮影方向など顔画像の取り込み環境変動に対するロバスト性の高い画像照合処理システムを提供することを目的とする。
【0030】
また、本発明は、画像照合処理工数を低減し、かつ、画像照合精度を一定以上に維持しつつ、画像照合処理時間も低減することのできる画像照合処理システムを提供することを目的とする。
【0031】
また、本発明は、モデルとして登録保持するモデルデータ容量を低減し、かつ、少ないモデルデータ容量であっても画像照合精度を一定以上に維持することのできる画像照合処理システムを提供することを目的とする。
【0032】
また、本発明は、認識フェーズにおける認識対象人物の顔画像の撮影枚数を1枚または数枚程度で十分なものとし、かつ、顔画像取り込みの際の撮影姿勢も顔を振らせるなど特別な姿勢の強要を必要としない、概ね正面など通常想定される撮影方向による顔画像取り込みで良いという、ユーザフレンドリーな画像照合処理システムを提供することを目的とする。
【0033】
【課題を解決するための手段】
上記課題を解決するために、本発明の画像照合処理システムは、予め取り込んだ認識対象画像から特徴的な窓画像を切り出す窓画像切り出し部と、前記切り出した窓画像の撮影環境の変動による影響を評価する撮影環境変動影響評価部と、前記撮影環境変動影響評価結果に基づき、前記切り出した窓画像のうち、撮影環境の変動による影響が所定基準以下である窓画像を選択する窓画像選択部を備え、前記選択した窓画像を用いて画像照合することを特徴とする。
【0034】
上記構成により、撮影環境が異なっても撮影環境の変動による影響の受けにくい局所領域が窓画像として選択され、環境変動に対して影響を受けやすい窓画像が除去されることとなり、環境変動に対するロバスト性が高く、かつ、画像照合精度を一定以上に維持できる画像照合処理システムを構成することができる。
【0035】
次に、本発明の画像照合処理システムは、撮影環境の異なる複数の認識対象画像を予め取り込んで画像群としてまとめる画像群取得部と、前記画像群の各認識対象画像から撮影環境変動を加味しない第1の基準により特徴的な局所領域を切り出す第1の窓画像切り出し部と、前記画像群の各認識対象画像から撮影環境変動を加味した第2の基準により特徴的な局所領域を切り出す第2の窓画像切り出し部と、前記第1の基準により切り出した第1の窓画像と、前記第2の基準により切り出した第2の窓画像の双方に共通に含まれている窓画像をロバスト窓画像として選択するロバスト窓画像選択部を備え、前記選択した窓画像を用いて画像照合することを特徴とする。
【0036】
上記構成により、撮影環境の変動を加味しても加味しなくても共通して選ばれた窓画像を選択することができ、撮影環境変動によらず、常に選択されるロバスト性の高いロバスト窓画像をモデル窓画像とすることができる。
【0037】
次に、前記の各画像から切り出した窓画像のうち、認識対象の同じ部位として対応し合う窓画像同士を窓画像群とし、ロバスト窓画像の選択において、窓画像群単位で選択すれば、撮影環境の変動を加味しても加味しなくても共通して選ばれた窓画像群を選択することができ、撮影環境変動によらず、常に選択されるロバスト性の高いロバスト窓画像群をモデル窓画像群とすることができる。
【0038】
ここで、上記画像照合処理システムにおいて、前記画像群取得部から取り込まれる画像群が、撮影環境を連続的に変化させて認識対象を撮影した複数の連続画像からなる画像群であり、前記第1の基準が、前記画像群の連続画像において認識対象の各部位ごとにトラッキングして窓画像を切り出す基準であり、前記第2の基準が、前記画像群の各画像を個別の画像として特徴的な窓画像を切り出す基準であることが好ましい。
【0039】
上記構成が、撮影環境を加味しない基準と撮影環境を加味する基準の一例である。
【0040】
次に、本発明の画像照合処理システムは、撮影環境の異なる複数の認識対象画像を予め取り込んで画像群としてまとめる画像群取得部と、前記画像群の各認識対象画像から特徴的な局所領域を切り出す窓画像切り出し部と、前記切り出した窓画像の特徴を表す特徴量を算出する特徴量算出部と、前記選択した各画像から切り出した窓画像のうち認識対象の同じ部位として対応し合う窓画像の集合を窓画像群とし、窓画像群に含まれている窓画像同士の特徴量を比較し、その変動幅が所定しきい値以内の安定窓画像のみを画像特徴部分として選択する安定窓画像選択部を備え、前記選択した窓画像を用いて画像照合することを特徴とする。
【0041】
上記構成により、認識対象の同じ部位として対応し合う窓画像同士を比較して、特徴量の変動が所定しきい値以内にある安定窓画像を選択してモデル窓画像として採用することができ、撮影環境変動の影響を受けやすく特徴量変動が大きい窓画像は除去できることとなる。
【0042】
また、上記構成において、前記画像群が、撮影環境が連続的に変化した連続画像群であり、前記窓画像群に含まれている窓画像同士の特徴量の比較において、連続画像群の始端にある画像から切り出した窓画像と、終端にある画像から切り出した窓画像と、中間にある選ばれた1または複数の画像から切り出した窓画像の特徴量を比較することが好ましい。
【0043】
上記構成により、すべての窓画像を固有空間に投影しなくても、必要最小限の数の窓画像を投影して安定窓画像か否か判別することができる。
【0044】
また、本発明の画像処理照合システムは、選択した各画像から切り出した窓画像のうち認識対象の同じ部位として対応し合う窓画像の集合を窓画像群とし、特徴量をパラメタとする固有空間に対して特徴量に応じて前記窓画像群を投影する投影部を備え、前記投影部が、投影に用いる窓画像の選択にあたり、連続画像群の始端にある画像から切り出した窓画像と、終端にある画像から切り出した窓画像を選択し、さらに、投影点軌跡の精度に応じて、連続画像において選択済みの画像の中間点にある画像の窓画像を次々と投影に用いる窓画像として選択し、前記選択した窓画像を用いて画像照合することを特徴とする。
【0045】
上記構成により、窓画像群の固有空間内での投影点軌跡を求める場合において、求められている投影点軌跡の精度に応じて投影点数を決め、その投影点により投影点軌跡の外形を推定することができる。
【0046】
本発明の画像照合処理システムは、上記の画像照合処理システムを実現する処理ステップを記録したコンピュータ読み取り可能な記録媒体から処理プログラムを読み込むことにより、コンピュータを用いて構築することができる。
【0047】
【発明の実施の形態】
本発明の画像照合処理システムの実施形態を以下に示す。以下では、特に顔画像の画像照合への適用を例にとって説明する。
【0048】
本発明の画像照合処理システムは、窓画像の撮影環境の変動による影響を評価し、撮影環境の変動による影響が所定基準以下である窓画像を選択してモデル窓画像として画像照合処理に用いるものである。この窓画像の撮影環境の変動による影響の評価方法と窓画像の選択基準の例として、大きく分けて2つのタイプを示す。1つは環境変動の影響を受けにくい、つまり、環境変動に対するロバスト性が高く、認識フェーズで入力が想定される画像の環境変動にかかわらず窓画像として選択される窓画像(ロバスト窓画像)をモデル窓画像として用いて画像照合処理を実行するものである。もう1つは、環境変動があっても特徴量の変動が小さい窓画像(安定窓画像)、つまり、撮影環境の異なる撮影画像の認識画像において同じ部位として対応し合う窓画像同士の特徴量を比較し、特徴量の変動幅が所定しきい値以内である安定窓画像をモデル窓画像として用いて画像照合処理を実行するものである。ロバスト窓画像とは、一面において、撮影環境の変化に伴い、特徴量の絶対値は変化するものの、特徴量分布から特徴的な局所領域として常に一定基準を超えて選択される窓画像であり、安定窓画像とは、一面において、撮影環境の変化にかかわらず、特徴量の絶対値が安定的であまり変化せず常に一定基準を超えているために選択される窓画像と言える。
【0049】
以下、ロバスト窓画像を用いる画像照合システムの構成例を実施形態1において説明し、安定窓画像を用いる画像照合システムの構成例を実施形態2において説明し、実施形態3以降に他の実施形態を説明する。
【0050】
(実施形態1)
ロバスト窓画像を用いる画像照合システムの基本原理、構成、動作を説明する。
【0051】
まず、本発明の画像照合処理システムにおいて用いる、環境変動に対するロバスト性の高いロバスト窓画像の抽出原理を説明する。
【0052】
図1は、ロバスト窓画像の抽出原理を簡単に説明する図である。
【0053】
図1の上から第1段目は登録画像群100である。同じ人物の複数の画像である。ここでは撮影環境の変動として、姿勢を連続的に変化させることとし、姿勢を所定きざみで連続的に変化させた連続画像とし、左端から登録画像A(1)、登録画像A(2)、・・・、登録画像A(n)のn枚の画像群とした。ここでは便宜上第1の登録画像A(1)を基本登録画像とする。また、ここでは説明を簡単にするため第1の登録画像A(1)と第2の登録画像A(n)の間の画像図示は省略したが第1の登録画像A(1)から第2の登録画像A(n)までの姿勢変化の中間画像が与えられているものとする。なお、中間画像の枚数および撮影環境の変化のきざみは限定されることはなく、一例として示した。
【0054】
図1の例は姿勢の連続的に変化させた撮影環境の違いであるが、撮影環境変動は認識フェーズで入力が想定される様々なバリエーションのものとすることが好ましい。認識フェーズで入力された画像の撮影環境の違いに影響されないモデル窓画像を生成するため、多様な撮影環境バリエーションに対するロバスト性を検証しておく必要があるからである。ここで、想定されうる撮影環境の違いとは、人物とカメラとの相対位置(距離、方向)、照明条件(照度や照明光の波長やスペクトルなどの光源条件、人物と照明との相対位置(距離、方向))、経時変化(例えば髪型、眼鏡、ひげの有無)、表情変化(例えば無表情や笑顔)など多数あるが、これらは一例であり本発明は上記列挙の撮影環境の違いに限定されない。
【0055】
図1の上から第2段目はトラッキング窓画像群110を簡単に表した例である。撮影環境変動を加味しない第1の窓画像選択基準として、トラッキングによる窓画像の抽出を用いる。トラッキングによる窓画像抽出方法の一例を説明する。上記したようにここでは、登録画像群のうち第1の登録画像A(1)が基本登録画像とされている。トラッキング窓画像群とは、基本登録画像から窓画像として抽出された登録画像中の部位(例えば、目、鼻、口)に相当する窓画像を、登録画像群の各画像にわたりトラッキングして得た窓画像群である。つまり、基本登録画像である第1の登録画像A(1)において左目の部位が窓画像として抽出された場合、すべての登録窓画像群の連続画像にわたり左目の部位の窓画像をトラッキングして各画像において抽出して行き、このようにトラッキングして得た左目の部位の窓画像の群を意味する。ここで重要なことは連続画像の一つ一つを個別の画像として窓画像を抽出するものではなく、基本登録画像から窓画像として抽出された登録画像中の部位に相当する窓画像を、登録画像群の各画像にわたりトラッキングして得ることである。結局、トラッキングして得られる窓画像は、環境変動の影響を無視して、基本登録画像の環境において抽出された窓画像が、各環境変動バリエーションの登録画像内のどの位置に存在しているかをトラッキングした結果となる。
【0056】
図1でのトラッキング窓画像抽出の様子を説明する。図1の例では、基本登録画像A(1)から抽出した窓画像がB1(A1),B2(A1),・・・,B10(A1)までの10個である。この10個の窓画像に相当する画像部位がそれぞれの中間の登録窓画像においてどこに位置するかをトラッキングして抽出してゆき、登録画像A(2)においては、登録画像A(1)からのトラッキングの結果、B1(A2),B2(A2),・・・,B10(A2)の窓画像が抽出され、登録画像A(n)においては、登録画像A(1),A(2),・・・,A(n−1)からのトラッキングの結果、B1(An),B2(An),・・・,B10(An)の窓画像が抽出されることとなる。
【0057】
図1の上から第3段目は静的抽出窓画像120を簡単に表した例である。撮影環境変動を加味した第2の窓画像選択基準として窓画像の静的抽出を用いる。ここでいう静的抽出窓画像とは、登録画像群に含まれる連続画像の1枚1枚を個別に単独の画像として窓画像を抽出したものである。つまり、撮影環境の多様なバリエーションに対処するための用意された各撮影環境ごとの画像から窓画像を抽出したものとなり、これは、それぞれの撮影環境の影響下において認識対象画像から切り出される窓画像となる。この静的抽出窓画像は環境変動を受けた結果として各登録画像から抽出された窓画像と言っても良い。
【0058】
図1での静的抽出窓画像抽出の様子を説明する。いま、基本登録画像A(1)から抽出した窓画像がC1(A1),C2(A1),・・・,C10(A1)までの10個である。なお、これらはそれぞれ第2段のB1(A1),B2(A1),・・・,B10(A1)と同じものである。次に、図1の例では、登録画像A(2)から静的につまり単独に抽出した窓画像が、D1(A2),D2(A2),・・・,D12(A2)である。ここでは12個の窓画像が抽出されたものとする。つまり、登録画像A(2)は環境が登録画像A(1)とは異なっているので抽出される窓画像が、同じ10個とは限らないからである。つまり登録画像A(1)に比べてより多くの窓画像が抽出されるかも知れないし、より少ない窓画像が抽出されるかも知れない。つまり、トラッキング窓画像抽出においてトラッキングの結果抽出できた窓画像であっても、静的抽出では窓画像として抽出されないものや、逆にトラッキングの結果抽出されていない窓画像が静的抽出では窓画像として抽出される場合があり、静的抽出窓画像は各環境個別に抽出されるものである。
【0059】
続いて各中間画像についても同様に静的抽出による窓画像抽出を実行して行き、登録画像A(n)から静的につまり単独に抽出した窓画像が、E1(An),E2(An),・・・,E12(An)であり、12個の窓画像が抽出されたものとする。
【0060】
図1の上から第4段目はロバスト窓画像130を簡単に示したものである。図1の例におけるロバスト窓画像の抽出原理は、第2段目のトラッキング窓画像110と第3段目の静的抽出窓画像120においても共通して窓画像として抽出されている窓画像を選択するものである。つまり、分かりやすく言うと、環境変動のバリエーションにおいて、第1の窓画像選択基準であるトラッキングによる窓画像抽出の結果であっても第2の窓画像選択基準である静的抽出による窓画像抽出の結果であっても選択されている部位の窓画像、つまり、基本登録画像の撮影環境からの撮影環境変動にかかわらず選択された窓画像をロバスト窓画像として選択するものである。
【0061】
図1の例では、登録画像A(1)では、F1(A1),F2(A1),・・・,F10(A1)の10個の窓画像が選択され、登録画像A(2)では、G1(A2),G2(A2),・・・,G9(A2)の9個の窓画像が選択され、登録画像A(n)では、H1(An),H2(An),・・・,H8(An)の8個の窓画像が選択されている。
【0062】
次に、図2に別のパターンのロバスト窓画像の抽出原理の一例を示す。
【0063】
図2の上から第1段目は登録画像群100であり、図1と同様のものである。姿勢を所定きざみで連続的に変化させた連続画像であり、左端から登録画像A(1)、登録画像A(2)、・・・、登録画像A(n)のn枚の画像群である。ここでも便宜上第1の登録画像A(1)を基本登録画像とする。
【0064】
図2の上から第2段目はトラッキング窓画像群110であり、図1と同様のものである。図2の例でも、基本登録画像A(1)から窓画像B1(A1),B2(A1),・・・,B10(A1)までの10個が抽出され、登録画像A(2)においては、登録画像A(1)からのトラッキングの結果、B1(A2),B2(A2),・・・,B10(A2)の窓画像が抽出され、登録画像A(n)においては、登録画像A(1),A(2),・・・,A(n−1)からのトラッキングの結果、B1(An),B2(An),・・・,B10(An)の窓画像が抽出されている。
【0065】
図2の上から第3段目は静的抽出窓画像120であり、図1と同様のものである。基本登録画像A(1)から窓画像C1(A1),C2(A1),・・・,C10(A1)までの10個が抽出され、登録画像A(2)から静的につまり単独に窓画像が、D1(A2),D2(A2),・・・,D12(A2)の12個が抽出され、登録画像A(n)から静的につまり単独に窓画像が、D1(An),D2(An),・・・,D12(An)12個抽出されている。
【0066】
図2の上から第4段目はロバスト窓画像群140を簡単に示したものである。このロバスト窓画像の抽出原理は、第2段目のトラッキング窓画像110の各トラッキング窓画像群B1〜B10のうち、すべての登録画像にわたり第3段目の静的抽出窓画像120においても共通して窓画像として抽出されている窓画像群を選択するものである。つまり、分かりやすく言うと、環境変動のバリエーションすべてにおいて窓画像として選択された部位の窓画像、つまり、環境変動にかかわらず常に、第1の窓画像選択基準であるトラッキングによる窓画像抽出においても、第2の窓画像選択基準である静的抽出による窓画像抽出においても選択された窓画像がロバスト窓画像ということになる。図1に示したロバスト窓画像の抽出原理は、各登録画像ごとに基本登録画像の撮影環境との撮影環境変動に対してロバストな窓画像を選んだが、この図2に示したロバスト窓画像の抽出原理は、基本登録画像の撮影環境との撮影環境変動のすべてにわたってロバストな部位の窓画像群を選ぶものである。
【0067】
図2の例では、7つの窓画像群がロバスト窓画像群として選択され、登録画像A(1)では、I1(A1),I2(A1),・・・,I7(A1)が選択され、登録画像A(2)では、J1(A2),J2(A2),・・・,J7(A2)が選択され、登録画像A(n)では、K1(An),K2(An),・・・,K7(An)が選択されている。
【0068】
上記のように、ロバスト窓画像をモデル窓画像として選択することにより以下の効果が得られる。
【0069】
まず、第1の効果として、認識フェーズで入力が想定される環境変動のバリエーションに依存せずに画像照合を実行することが可能となる。つまり、認識フェーズで入力された画像から抽出した窓画像に対して、ロバスト窓画像であるモデル窓画像との画像照合を行うことにより良好な画像照合が実行できる。つまり、認識フェーズで入力された画像から抽出した窓画像にはロバスト窓画像に相当する窓画像が含まれており、その両者を比較することで画像照合が実行できる。
【0070】
次に、第2の効果として、認識フェースで入力が想定される画像の環境変動の大きい場合、画像照合精度の向上が見込める。ロバスト窓画像以外の窓画像は環境変動による影響を受けやすい部位の窓画像なので、これら部位の窓画像も含んだ形のモデル窓画像を生成し、認識フェースで入力が想定される画像から抽出された窓画像群と画像照合を行えば、環境変動の影響の結果、一致性の低い窓画像や存在しない窓画像が多くなり、むしろ画像照合精度を低下させる方向に働くこともある。本発明は環境変動に強いロバスト窓画像のみを用いて窓画像照合を行うので認識フェースで入力が想定される画像の環境変動の大きい場合でも画像照合精度を高く維持することができる。
【0071】
以上が、ロバスト窓画像の抽出原理の例である。
【0072】
次に、実施形態1にかかる本発明の画像照合処理システムの装置構成およびその動作を説明する。
【0073】
図3は、本発明の画像照合処理システムの基本構成例を示すブロック図である。
【0074】
10は、画像取り込み部である。登録フェーズで用いる登録画像データの取り込み、認識フェーズで用いる認識対象画像データの取り込みに用いることができる。外部から画像データファイルを取り込むものでも良く、カメラを備えて撮影画像を取り込むものでも良い。
【0075】
20は、窓画像切り出し部であり、取り込んだ認識対象画像から特徴的な窓画像を切り出す部分である。この切り出し処理は、局所固有空間法によるアルゴリズムを用いることができる。窓画像切り出し部20の入力データは取り込み画像であるので、各取り込み画像から人物の顔画像領域など、認識対象画像領域を検出し、認識対象画像領域を切り出す認識対象画像領域切り出し部50を備えることができる。
【0076】
30は、撮影環境変動影響評価部であり、窓画像切り出し部20が切り出した窓画像データを取り込み、撮影環境の変動による影響を評価する部分である。撮影環境変動による影響の評価方法は様々想定される。
【0077】
40は、窓画像選択部であり、撮影環境変動影響評価部30による撮影環境変動影響評価結果に基づき、切り出した窓画像のうち、撮影環境の変動による影響が所定基準以下である窓画像を選択する部分である。この撮影環境の変動による影響に対する基準をチューニングするため、撮影環境変動影響評価基準設定部60を備えることができる。
【0078】
図4は、図3の一実施例として、撮影環境の変動による影響の評価手法が、切り出した窓画像がロバスト窓画像であるか否かを評価する手法とした構成例を示したものである。図1に示した基本原理に対応した装置構成例である。
【0079】
画像取り込み部10aは、撮影環境の異なる複数の認識対象画像を取り込んで画像群としてまとめるものである。
【0080】
窓画像切り出し部20aは、その切り出し処理の違いにより、第1の窓画像切り出し部21aと第2の窓画像切り出し部22aの2つの処理部分を備えている。第1の窓画像切り出し部21aは、撮影環境変動を加味しない第1の基準により特徴的な局所領域を切り出す部分である。この実施例では、第1の基準が、上記基本原理で述べた画像群の連続画像において認識対象の各部位ごとにトラッキングして窓画像を切り出す基準とする。第2の窓画像切り出し部22aは、画像群の各認識対象画像から撮影環境変動を加味しない第2の基準により特徴的な局所領域を切り出す部分である。この実施例では、第2の基準が、上記基本原理で述べた画像群の各画像を個別の画像として特徴的な窓画像を切り出す基準とする。
【0081】
ロバスト窓画像評価部30aは、撮影環境変動影響評価部30に相当し、第1の窓画像切り出し部21aにより切り出した第1の窓画像と、第2の窓画像切り出し部22aにより切り出した第2の窓画像の双方に共通に含まれている場合にロバスト窓画像と評価する。
【0082】
ロバスト窓画像選択部40aは、ロバスト窓画像評価部30aの評価によりロバスト窓画像として評価された窓画像を抽出・選択する。
【0083】
次に、図5は、図3の別の一実施例として、撮影環境の変動による影響の評価手法が、切り出した窓画像を同じ部位ごとの窓画像群にまとめ、窓画像群がロバスト窓画像群足り得るか否かを評価する手法とした構成例を示したものであり、図2に示した基本原理に対応した装置構成例である。
【0084】
画像取り込み部10bは、図4の画像取り込み部10aと同様のもので、撮影環境の異なる複数の認識対象画像を取り込んで画像群としてまとめるものである。
【0085】
窓画像切り出し部20bは、図4の窓画像切り出し部20aと同様のもので、その切り出し処理の違いにより、第1の窓画像切り出し部21bと第2の窓画像切り出し部22bの2つの処理部分を備えている。
【0086】
ロバスト窓画像群評価部30bは、撮影環境変動影響評価部30に相当し、第1の窓画像切り出し部21bにより切り出した第1の窓画像から切り出した窓画像のうち、認識対象の同じ部位として対応し合う窓画像同士を窓画像群とし、窓画像群に属する各窓画像が、第1の基準により切り出した第1の窓画像と、第2の基準により切り出した第2の窓画像の双方に共通に含まれている場合にロバスト窓画像群と評価する部分である。
【0087】
ロバスト窓画像群選択部40bは、ロバスト窓画像群評価部30bの評価によりロバスト窓画像群として評価された窓画像群を抽出・選択する部分である。
【0088】
次に、実施形態1にかかる本発明の画像照合処理システムの動作例を図6のフローチャートと図7の説明図を参照しつつ説明する。ここでは代表的に図5に示した装置構成例の場合の動作を説明する。
【0089】
まず、画像取り込み部10bによりある撮影環境で撮影した登録対象となる人物の画像データを取り込む(ステップS601)。
【0090】
画像取り込み部10bは、所定の撮影環境の異なる複数の画像データが取り込めたか否かを確認し(ステップS602)、所定の画像データが取り込めていない場合(ステップS602:N)、撮影環境をステップS601で取り込んだ画像データの撮影環境とは異なるものに変更し(ステップS603)、登録対象人物の画像データを取り込む(ステップS601に戻る)。撮影環境を変更する際、無秩序に撮影環境を変えるより、撮影環境パラメタを所定の基準、所定のきざみで変え、撮影環境を変化させた連続画像とすることが好ましい。ここでは人物正面とカメラの相対位置という撮影環境を変化させるものとし、人物が顔を正面から右方向に振った連続画像を得たとする。図7の701は取り込んだ連続画像を簡単に示したものである。
【0091】
次に、窓画像切り出し部20bの第1の窓画像切り出し部21bによりトラッキング窓画像を抽出する。まず、基本登録画像から特徴的な局所領域である窓画像を切り出す(ステップS604)。図7の702はこの様子を簡単に表したものである。次に、残りの連続画像における、基本登録画像から切り出した窓画像の各部位に対応する部位がどの位置であるかをトラッキングして切り出す(ステップS605)。図7の703は右目の部位に対する窓画像についてトラッキングしている様子を簡単に表したものである。図7の704は切り出したトラッキング窓画像群として右目の部位と口の部位のトラッキング窓画像群を2つを簡単に示したものである。
【0092】
次に、各画像について、窓画像切り出し部20bの第2の窓画像切り出し部22bにより静的抽出による窓画像切り出しを行う(ステップS606)。図7の705は各画像から静的抽出により選択された窓画像の中心を丸印で簡単に示したものである。
【0093】
次に、ロバスト窓画像群評価部30bは、第1の窓画像切り出し部21bにより切り出した第1の窓画像から切り出した窓画像のうち、認識対象の同じ部位として対応し合う窓画像同士をトラッキング窓画像群とし、トラッキング窓画像群に属する各窓画像が、静的抽出窓画像としても選択されているか否かによりロバスト窓画像か否かを評価する(ステップS607)。
【0094】
ロバスト窓画像群選択部40bは、ロバスト窓画像群評価部30bの評価によりロバスト窓画像群として評価された窓画像群を抽出・選択する(ステップS608)。図7の706は、右目の窓画像群がロバスト窓画像として選択された様子を簡単に示したものである。
【0095】
未判定の他のトラッキング窓画像群が残っているかを調べ(ステップS609)、残っていれば(ステップS609:Y)ステップS607に戻ってロバスト窓画像の判定処理を続行する。残っていなければ(ステップS609:N)、処理を終了する。
【0096】
なお、この選択したロバスト窓画像をモデル窓画像として生成し、登録フェーズを終了する。
【0097】
認識フェーズでは、取り込んだ認識画像の窓画像と、ロバスト窓画像から生成したモデル窓画像の画像照合処理を実行する。
【0098】
以上、実施形態1の画像照合処理システムによれば、ロバスト窓画像を選択して画像照合処理に用いることにより、撮影環境が変動してもロバスト性の高い画像照合処理を実行することができる。
【0099】
(実施形態2)
安定窓画像を用いる画像照合システムの基本原理、構成、動作を説明する。
【0100】
まず、本発明の画像照合処理システムにおいて用いる、環境変動に対して特徴量の変動の少ない安定窓画像の抽出原理を説明する。
【0101】
図8は、安定窓画像の抽出原理を簡単に説明した図である。
【0102】
撮影環境を変動した連続画像の例として、登録対象となる人物が顔を右から左に振った連続画像を例に説明する。図8の上から第1段目の800がその様子を頭頂方向から模式的に示したものであり、上から第2段目の810がその様子を正面方向から模式的に示した図である。
【0103】
まず、各画像から実施形態1で説明した静的抽出による窓画像切り出しを行う。多数の部位の窓画像が切り出されることとなるが、今、説明を簡単にするため、820のように右目の部位の窓画像と、鼻の部位の窓画像の2つを用いて説明する。
【0104】
静的抽出による窓画像の切り出しは、従来技術や実施形態1などで説明したように画像の特徴的な局所領域を切り出す処理であり、各窓画像はこの特徴をパラメタにした特徴量を持つ。パラメタの定義の仕方で変わるが一例として当初225次元程度の次元数を持ち、これを20次元程度に圧縮して20次元の固有空間内の点として投影する。各窓画像はこの固有空間内に投影点を持つ。安定窓画像の抽出原理は簡単に述べると、認識画像中の同じ部位ごとに集めた窓画像群の各窓画像の固有空間への投影点群が、所定範囲内に収まるものであまり変動がないものを安定窓画像として抽出するものである。これは、特徴量の変動が所定基準以内であることを意味するものである。図8の830は、特徴量の変化を簡単に表したものである。縦軸が特徴量、横軸は各画像の撮影環境変動であり、ここでは人の顔の角度とする。目の窓画像の特徴量変化を示すものが830aであり、鼻の窓画像の特徴量変化を示すものが830bである。830a、bから分かるように、目の窓画像の特徴量変化は小さく、鼻の窓画像の特徴量変化は大きいものとなっている。特徴量変化は、窓画像の見えの変化とも言え、目の窓画像は、その特徴的形状が810に示すように大きく変化するものではないが、鼻の窓画像は、その特徴的形状が810に示すように大きく変化することが理解できる。このため、目の窓画像の特徴量変化は小さく、鼻の窓画像の特徴量変化は大きいものとなる。
【0105】
安定窓画像と評価する基準を、特徴量変動が所定幅以内であるものと設定すれば、目の窓画像を安定窓画像とし、鼻の窓画像を安定窓画像とはしない評価が可能となる。
【0106】
目の窓画像は810に示す範囲の顔の向きであれば、どの向きであっても高い画像照合精度が期待できる。一方、鼻の窓画像は顔の向きによって画像照合精度におおきなバラツキが生じ、鼻の窓画像をモデル画像の一部とすると、全体の画像照合精度の低下を招く結果となる。
【0107】
以上が、安定窓画像の抽出原理である。
【0108】
次に、安定窓画像抽出における処理量の低減の工夫について述べる。
【0109】
安定窓画像抽出においては、上記安定窓画像の抽出原理で述べたように、各画像から静的抽出により各窓画像を抽出し、認識画像中の同じ部位ごとに集めた窓画像群の各窓画像の特徴量を計算し、当該特徴量パラメタを次元とする固有空間への投影点群を求める必要がある。得られている窓画像すべての固有空間内での投影点を求めれば、各部位の窓画像が安定窓画像か否か判断することができる。しかし、すべて画像のすべての窓画像にわたり、特徴量の計算(例えば当初225次元)、特徴量圧縮計算処理(例えば20次元)、固有空間内への投影処理を行うこととなり、処理量が膨大になる。そこで安定窓画像抽出処理量を以下のように低減する。
【0110】
図9は、安定窓画像抽出処理量を低減する方法を簡単に示した図である。
【0111】
図9の上から第1段目の900は、各登録画像であり、ここでは例として9枚の画像があり、顔が右方向から左方向に振られた連続画像とする。
【0112】
第2段目の910は、静的に抽出された窓画像群を示す。左からL1〜L9とする。ここでは説明の便宜上、例として右目の窓画像と鼻の窓画像のみを示した。
【0113】
第3段目の920は、右目の窓画像に関して特徴量を計算し、当該特徴量パラメタを次元とする固有空間への投影点群を求めたものであるが、ここでは以下の順番で投影している。まず、連続画像の最初の画像から得た窓画像群L1の右目の窓画像を特徴空間内に投影した投影点がM1を求める。次に、連続画像の最後の画像から得た窓画像群L9の右目の窓画像を特徴空間内に投影した投影点M9、連続画像の中間の窓画像群L5の右目の窓画像を特徴空間内に投影した投影点M5を求める。今、M1とM9とM5の特徴量を見ると3者の差異が小さいことが分かる。この場合、連続画像の最初、真ん中、最後のいずれについても特徴量の差異が小さいので、すべての連続画像にわたって特徴量の変動が小さいことが十分期待できる。そこで、右目の窓画像に関してはこの3つの窓画像の投影処理により安定窓画像と判断し、安定窓画像判定処理をここで終了しても良い。
【0114】
なお、連続画像の全部にわたる右目の窓画像の特徴量投影軌跡を得たい場合は、920に示したように、上記の3点M1、M5、M9を結ぶことにより推定することも可能である。
【0115】
次に、第4段目の930は、鼻の窓画像に関して特徴量を計算し、当該特徴量パラメタを次元とする固有空間への投影点群を求めたものであるが、ここでは以下の順番で投影している。目の窓画像と同様に、連続画像の最初の画像から得た窓画像群E1の鼻の窓画像、連続画像の最後の画像から得た窓画像群E9の鼻の窓画像、連続画像の中間の窓画像群E5の鼻の窓画像の3つについて特徴空間内に投影して投影点がN1、N9、N5を得る。今、N1とN9とN5の特徴量を見ると3者の差異が大きいことが分かる。この場合、連続画像の残りの中間にある窓画像ついての特徴量の変化の様子は未だ不明であるが、全体として差異が大きいものであることは間違いない。そこで、鼻の窓画像に関してはこの3つの窓画像の投影処理により安定窓画像ではないと判断でき、安定窓画像判定処理をここで終了しても良い。
【0116】
なお、連続画像の全部にわたる鼻の窓画像の特徴量投影軌跡を得たい場合は、上記の3点N1、N5、N9をどのように結べば良いか未だ不明である。そこで必要となる精度に応じて中間の投影軌跡を求める。
【0117】
第4段目の930は、もっとも簡単に中間軌跡を推定したものである。単に上記の3点N1、N5、N9を結んだ軌跡としている。
【0118】
第5段目の940は、連続画像の中間の窓画像L3とL7の鼻の窓画像の特徴量投影点処理を実行して補間したものである。それぞれN3とN7の投影点が得られたものとする。この5つの投影点N1、N3、N5、N7、N9を結んだものを中間軌跡として推定したものである。
【0119】
第6段目の950は、さらに精度が必要とされた場合に、さらに連続画像の中間の窓画像の特徴量投影点処理を実行して補間したものである。連続画像の中間の窓画像L2、L4、L6、L8の鼻の窓画像の特徴量投影点処理を実行して補間し、それぞれN2、N4、N6、N8の投影点が得られたものとする。結局9つすべての投影点N1〜N9を結んだものを中間軌跡として推定したものである。
【0120】
このように、必要となる精度に応じて中間の投影軌跡を求めることにより投影処理を最適に低減することが可能となる。
【0121】
以上が安定窓画像抽出処理量を低減する方法の基本原理である。
【0122】
次に、実施形態2にかかる本発明の画像照合処理システムの装置構成およびその動作を説明する。
【0123】
なお、実施形態1において示した、図3の本発明の画像照合処理システムの基本構成例は、本実施形態2の画像照合処理システムの基本構成例でもあるが、説明の重複を避けるため、ここでの説明は省略する。
【0124】
図10は、図3の一実施例として、撮影環境の変動による影響の評価手法が、切り出した窓画像が安定窓画像であるか否かを評価する手法とした構成例を示したものである。
【0125】
画像取り込み部10cは、撮影環境の異なる複数の認識対象画像を取り込んで画像群としてまとめるものである。
【0126】
窓画像切り出し部20cは、静的抽出により画像から特徴的な局所領域を窓画像として切り出す部分である。
【0127】
安定窓画像評価部30cは、撮影環境影響評価部30に相当する部分であり、特徴量計算部31cと、固有空間投影部32cと、特徴量差異評価部33cを備えている。まず、撮影環境変動影響評価部30cは、取り込んだ窓画像から認識対象の同じ部位として対応し合う窓画像同士を窓画像群としてまとめる。次に特徴量計算部31cにより各窓画像から特徴量を計算し、固有空間投影部32cにより特徴量に応じて各窓画像の投影点を求める。さらに特徴量差異評価部33cにより窓画像群に属する各窓画像の特徴量差異が所定しきい値以内か否かを評価する。安定窓画像評価部30cは、特徴量差異が所定しきい値以内であれば安定窓画像と評価し、特徴量差異が所定しきい値以内でなければ安定窓画像ではないと評価する。
【0128】
安定窓画像選択部40cは、安定窓画像評価部30cの評価により安定窓画像群として評価された窓画像群を抽出・選択する部分である。
【0129】
次に、実施形態2にかかる本発明の画像照合処理システムの動作例を図11のフローチャートに示す。
【0130】
図11のステップS1101〜S1103は、図6のステップS601〜S603と同様であるので説明を省略する。
【0131】
次に、各画像について、窓画像切り出し部20cにより静的抽出による窓画像切り出しを行う(ステップS1104)。
【0132】
次に、安定窓画像評価部30cは、取り込んだ窓画像から認識対象の同じ部位として対応し合う窓画像同士を窓画像群としてまとめる(ステップS1105)。
【0133】
次に、特徴量計算部31cは、窓画像群の1つに対して、上記安定窓画像判別処理低減の方法に従って選択したある窓画像の特徴量を計算する(ステップS1106)。つまり、S1106〜S1108までの処理ループにおいて、1回目は連続画像の最初のもの、2回目は連続画像の最後、3回目は連続画像の真ん中といった順序で選択した窓画像から特徴量を計算する。
【0134】
次に、固有空間投影部32cは、特徴量に応じて各窓画像の投影点を求める(ステップS1107)。
【0135】
安定窓画像評価部30cは、現行のステップS1107までに投影されている判定対象の窓画像の投影点が所定数(3つ以上)あるか否か確認し(ステップS1108)、3つ以上あれば(ステップS1108:Y)、特徴量差異評価部33cは、各特徴量の差異を評価し、窓画像群に属する各窓画像の特徴量差異が所定しきい値以内か否かを評価する(ステップS1109)。
【0136】
安定窓画像評価部30cは、特徴量差異が所定しきい値以内であれば当該窓画像群を安定窓画像と評価し、特徴量差異が所定しきい値以内でなければ当該窓画像群を安定窓画像ではないと評価する(ステップS1110)。
【0137】
安定窓画像選択部40cは、安定窓画像評価部30cの評価により安定窓画像群として評価された窓画像群を抽出・選択する(ステップS1111)。
【0138】
安定窓画像評価部30cは、安定窓画像判定が未処理の窓画像群が残っていないか調べ(ステップS1112)、残っていれば(ステップS1112:Y)、ステップS1106に戻る。残っていない場合は選択処理を終了する。
【0139】
なお、この選択した安定窓画像をモデル窓画像として生成し、登録フェーズを終了する。
【0140】
認識フェーズでは、取り込んだ認識画像の窓画像と、安定窓画像から生成したモデル窓画像の画像照合処理を実行する。
【0141】
以上、実施形態2の画像照合処理システムによれば、安定窓画像を選択し、モデル窓画像データを生成することができる。安定窓画像をモデル窓画像データとすることにより、モデルとして登録保持するモデルデータ容量の低減し、かつ、少ないモデルデータ容量であっても撮影環境変動に影響されず、画像照合精度を一定以上に維持した画像照合処理を実行することができる。
【0142】
(実施形態3)
本発明の画像照合処理システムは、上記に説明した構成を実現する処理ステップを記述したプログラムをコンピュータ読み取り可能な記録媒体に記録して提供することにより、各種コンピュータを用いて構築することができる。本発明の画像照合処理システムを実現する処理ステップを備えたプログラムを記録した記録媒体は、図12に図示した記録媒体の例に示すように、CD−ROM1202やフレキシブルディスク1203等の可搬型記録媒体1201だけでなく、ネットワーク上にある記録装置内の記録媒体1200や、コンピュータのハードディスクやRAM等の記録媒体1205のいずれであっても良く、プログラム実行時には、プログラムはコンピュータ1204上にローディングされ、主メモリ上で実行される。
【0143】
【発明の効果】
本発明の画像照合処理システムによれば、取り込んだ認識対象物体画像に対して照明や人物の顔画像の撮影方向など顔画像の取り込み環境変動に対するロバスト性の高い画像照合処理が実行できる。
【0144】
また、本発明の画像照合処理システムによれば、画像照合処理工数を低減し、かつ、画像照合精度を一定以上に維持しつつ、画像照合処理時間も低減した画像照合処理が実行できる。
【0145】
また、本発明の画像照合処理システムによれば、モデルとして登録保持するモデルデータ容量を低減し、かつ、少ないモデルデータ容量であっても画像照合精度を一定以上に維持した画像照合処理が実行できる。
【0146】
また、本発明は、認識フェーズにおける認識対象人物の顔画像の撮影枚数を1枚または数枚程度で十分なものとし、かつ、顔画像取り込みの際の撮影姿勢も顔を振らせるなど特別な姿勢の強要を必要としない、概ね正面など通常想定される撮影方向による顔画像取り込みで良いという、ユーザフレンドリーな画像照合処理が実行できる。
【図面の簡単な説明】
【図1】 本発明の画像照合処理システムで用いるロバスト窓画像の抽出原理を簡単に説明する図
【図2】 本発明の画像照合処理システムで用いる別のパターンのロバスト窓画像の抽出原理の一例を示す図
【図3】 本発明の画像照合処理システムの基本構成例を示すブロック図
【図4】 図3の一実施例として、切り出した窓画像がロバスト窓画像であるか否かを評価する手法とした構成例を示した図
【図5】 図3の別の実施例として、切り出した窓画像がロバスト窓画像群であるか否かを評価する手法とした構成例を示した図
【図6】 実施形態1にかかる本発明の画像照合処理システムの動作例を示すフローチャート
【図7】 実施形態1にかかる本発明の画像照合処理システムの動作例を示した図
【図8】 本発明の画像照合処理システムで用いる安定窓画像の抽出原理を簡単に説明した図
【図9】 安定窓画像抽出処理量を低減する方法を簡単に示した図
【図10】 図3の一実施例として、切り出した窓画像が安定窓画像であるか否かを評価する手法とした構成例を示した図
【図11】 実施形態2にかかる本発明の画像照合処理システムの動作例を示すフローチャート
【図12】 本発明の実施形態3の画像照合処理システムを実現する処理プログラムを格納した記録媒体の例を示す図
【図13】 改良局所固有空間法における「登録フェーズ」の処理手順を示すフローチャート
【図14】 改良局所固有空間法における「認識フェーズ」の処理手順を示すフローチャート
【図15】 (a)は取得したモデル画像の例を表す図、(b)は、認識対象となる画像の例を表す図
【図16】 特徴点を基に局所領域を窓画像として選択した様子を示す図
【図17】 窓画像の画像上での相対位置を基に投票マップ上の対応する格子に投票を行った様子を示す図
【符号の説明】
10,10a,10b,10c 画像取り込み部
20,20a,20b,20c 窓画像切り出し部
21a,21b 第1の窓画像切り出し部
22a,22b 第2の窓画像切り出し部
30 撮影環境変動影響評価部
30a ロバスト窓画像評価部
30b ロバスト窓画像群評価部
30c 安定窓画像評価部
31c 特徴量計算部
32c 固有空間投影部
33c 特徴量差異評価部
40 窓画像選択部
40a,40b ロバスト窓画像選択部
40c 安定窓画像選択部
50,50a,50b,50c 認識対象画像領域切り出し部
60,60a,60b,60c 撮影環境変動影響評価基準設定部
100 登録画像群
110 トラッキング窓画像群
120 静的抽出窓画像
130 ロバスト窓画像
140 ロバスト窓画像群
800 登録対象人物が顔を右から左に振った連続画像を頭頂方向から模式的に示したもの
810 登録対象人物が顔を右から左に振った連続画像を正面方向から模式的に示したもの
820 右目の部位の窓画像と鼻の部位の窓画像
830a,830b 特徴量の変化
900 登録対象人物が顔を右から左に振った連続画像を正面方向から模式的に示したもの
910 静的に抽出された右目の部位の窓画像と鼻の部位の窓画像
920 右目の窓画像に関する投影点群
930,940,950 鼻の窓画像に関する投影点群
1200 記録装置内の記録媒体
1201 可搬型記録媒体
1202 CD−ROM
1203 フレキシブルディスク
1204 コンピュータ
1205 コンピュータのハードディスクやRAM等の記録媒体

Claims (12)

  1. 撮影環境を連続的に変化させて認識対象を撮影した複数の連続画像を、撮影環境の異なる複数の認識対象画像として予め取り込んで画像群としてまとめる画像群取得部と、
    前記画像群の各認識対象画像について前記認識対象の各部位ごとにトラッキングを行って得た窓画像を切り出す第1の窓画像切り出し部と、
    前記画像群の各認識対象画像を個別の画像とし、各画像において特徴点を含む領域を窓画像として切り出す第2の窓画像切り出し部と、
    同一の認識対象画像において、前記第1の窓画像切り出し部により切り出した第1の窓画像と、前記第2の窓画像切り出し部により切り出した第2の窓画像の双方に共通に含まれている部位の窓画像を、環境変動による影響を受けにくいロバスト窓画像として選択するロバスト窓画像選択部を備え、
    前記選択した窓画像を用いて画像照合することを特徴とする画像照合処理システム。
  2. 撮影環境を連続的に変化させて認識対象を撮影した複数の連続画像を、撮影環境の異なる複数の認識対象画像として予め取り込んで画像群としてまとめる画像群取得部と、
    前記画像群の各認識対象画像について前記認識対象の各部位ごとにトラッキングを行って得た窓画像を切り出す第1の窓画像切り出し部と、
    前記画像群の各認識対象画像を個別の画像とし、各画像において特徴点を含む領域を窓画像として切り出す第2の窓画像切り出し部と、
    前記第1の窓画像切り出し部により切り出した第1の窓画像のうち、認識対象の同じ部位として対応し合う窓画像同士を窓画像群とし、当該窓画像群に属する各窓画像が、全ての認識対象画像にわたり前記第2の窓画像切り出し部により切り出した第2の窓画像に含まれている窓画像群を、環境変動による影響を受けにくいロバスト窓画像群として選択するロバスト窓画像群選択部を備え、
    前記選択した窓画像を用いて画像照合することを特徴とする画像照合処理システム。
  3. 撮影環境が連続的に変化した認識対象の連続画像を予め取り込んで画像群としてまとめる画像群取得部と、
    前記画像群の各認識対象画像から特徴的な局所領域を切り出す窓画像切り出し部と、
    前記切り出した窓画像の特徴を表す特徴量を算出する特徴量算出部と、
    記切り出した窓画像のうち認識対象の同じ部位として対応し合う窓画像の集合を窓画像群とし、当該窓画像群に含まれている窓画像同士の特徴量を比較する際に、連続画像からなる前記画像群の始端にある画像から切り出した窓画像と、終端にある画像から切り出した窓画像と、中間にある選ばれた1または複数の画像から切り出した窓画像の特徴量を比較し、その変動幅が所定しきい値以内の安定窓画像のみを画像特徴部分として選択する安定窓画像選択部を備え、前記選択した窓画像を用いて画像照合することを特徴とする画像照合処理システム。
  4. 前記安定窓画像選択部は、更に、
    徴量をパラメタとする固有空間に対して前記特徴量に応じて前記窓画像群に含まれる窓画像を投影する投影部を備え、
    前記投影部は、投影に用いる窓画像の選択にあたり、連続画像からなる前記画像群の始端にある画像から切り出した窓画像と、終端にある画像から切り出した窓画像を選択し、さらに、投影点軌跡の精度に応じて、連続画像において選択済みの画像の中間点にある画像の窓画像を次々と投影に用いる窓画像として選択し、
    前記安定窓画像選択部は、前記投影部により投影された各窓画像間の特徴量差異に基づいて前記安定窓画像を選択する、請求項3に記載の画像照合処理システム。
  5. 前記画像群の各画像から認識対象画像領域を検出し、認識対象画像領域を切り出した画像群とする認識対象画像領域切り出し部を備えた請求項1〜のいずれか一項に記載の画像照合処理システム。
  6. 前記撮影環境が、認識対象と撮影カメラの相対位置および相対方向である請求項1〜のいずれか一項に記載の画像照合処理システム。
  7. 前記選択された窓画像の選択結果を表示する窓画像選択結果表示部と、前記選択された窓画像の選択を修正する窓画像選択修正部を備えた請求項1〜のいずれか一項に記載の画像照合処理システム。
  8. 画像照合処理システムを実現するための処理をコンピュータに実行させるプログラムを記録したコンピュータ読み取り可能な記録媒体であって、
    撮影環境を連続的に変化させて認識対象を撮影した複数の連続画像を、撮影環境の異なる複数の認識対象画像として予め取り込んで画像群としてまとめる画像群取得処理と、
    前記画像群の各認識対象画像について前記認識対象の各部位ごとにトラッキングを行って得た窓画像を切り出す第1の窓画像切り出し処理と、
    前記画像群の各認識対象画像を個別の画像とし、各画像において特徴点を含む領域を窓画像として切り出す第2の窓画像切り出し処理と、
    同一の認識対象画像において、前記第1の窓画像切り出し部により切り出した第1の窓画像と、前記第2の窓画像切り出し部により切り出した第2の窓画像の双方に共通に含まれている部位の窓画像を、環境変動による影響を受けにくいロバスト窓画像として選択するロバスト窓画像選択処理と、
    前記選択した窓画像を用いて画像照合する処理とを、前記コンピュータに実行させるプログラムを記録したコンピュータ読み取り可能な記録媒体。
  9. 画像照合処理システムを実現するための処理をコンピュータに実行させるプログラムを記録したコンピュータ読み取り可能な記録媒体であって、
    撮影環境を連続的に変化させて認識対象を撮影した複数の連続画像を、撮影環境の異なる複数の認識対象画像として予め取り込んで画像群としてまとめる画像群取得処理と、
    前記画像群の各認識対象画像について前記認識対象の各部位ごとにトラッキングを行って得た窓画像を切り出す第1の窓画像切り出し処理と、
    前記画像群の各認識対象画像を個別の画像とし、各画像において特徴点を含む領域を窓画像として切り出す第2の窓画像切り出し処理と、
    前記第1の窓画像切り出し部により切り出した第1の窓画像のうち、認識対象の同じ部位として対応し合う窓画像同士を窓画像群とし、当該窓画像群に属する各窓画像が、全ての認識対象画像にわたり前記第2の窓画像切り出し部により切り出した第2の窓画像に含まれている窓画像群を、環境変動による影響を受けにくいロバスト窓画像群として選択するロバスト窓画像群選択処理と、
    前記選択した窓画像を用いて画像照合する処理とを、前記コンピュータに実行させるプログラムを記録したコンピュータ読み取り可能な記録媒体。
  10. 画像照合処理システムを実現するための処理をコンピュータに実行させるプログラムを記録したコンピュータ読み取り可能な記録媒体であって、
    撮影環境が連続的に変化した認識対象の連続画像を予め取り込んで画像群としてまとめる画像群取得処理と、
    前記画像群の各認識対象画像から特徴的な局所領域を切り出す窓画像切り出し処理と、
    前記切り出した窓画像の特徴を表す特徴量を算出する特徴量算出処理と、
    記切り出した窓画像のうち、認識対象の同じ部位として対応し合う窓画像の集合を窓画像群とし、当該窓画像群に含まれている窓画像同士の特徴量を比較する際に、連続画像からなる前記画像群の始端にある画像から切り出した窓画像と、終端にある画像から切り出した窓画像と、中間にある選ばれた1または複数の画像から切り出した窓画像の特徴量を比較し、その変動幅が所定しきい値以内の安定窓画像のみを画像特徴部分として選択する安定窓画像選択処理と、
    前記選択した窓画像を用いて画像照合する処理とを、前記コンピュータに実行させるプログラムを記録したコンピュータ読み取り可能な記録媒体。
  11. 画像照合処理システムを実現するための処理をコンピュータに実行させるプログラムを記録したコンピュータ読み取り可能な記録媒体であって、
    撮影環境が連続的に変化した認識対象の連続画像を予め取り込んで画像群としてまとめる画像群取得処理と、
    前記画像群の各認識対象画像から特徴的な局所領域を切り出す窓画像切り出し処理と、
    前記切り出した窓画像の特徴を表す特徴量を算出する特徴量算出処理と、
    前記切り出した窓画像のうち、認識対象の同じ部位として対応し合う窓画像の集合を窓画像群とし、当該窓画像群に含まれている窓画像同士の特徴量を比較する際に、連続画像からなる前記画像群の始端にある画像から切り出した窓画像と、終端にある画像から切り出した窓画像と、中間にある選ばれた1または複数の画像から切り出した窓画像の特徴量を比較し、特徴量の変動の小さい窓画像を優先的に選択する安定窓画像選択処理と、
    前記選択した窓画像を用いて画像照合する処理とを、前記コンピュータに実行させるプログラムを記録したコンピュータ読み取り可能な記録媒体。
  12. 前記安定窓画像選択処理は、更に、
    特徴量をパラメタとする固有空間に対して前記特徴量に応じて前記窓画像群に含まれる窓画像を投影する投影処理を含み、
    前記投影処理、投影に用いる窓画像の選択にあたり、連続画像からなる前記画像群の始端にある画像から切り出した窓画像と、終端にある画像から切り出した窓画像を選択し、さらに、投影点軌跡の精度に応じて、連続画像において選択済みの画像の中間点にある画像の窓画像を次々と投影に用いる窓画像として選択し、
    前記安定窓画像選択処理は、前記投影部により投影された各窓画像間の特徴量差異に基づいて前記安定窓画像を選択する、請求項10または請求項11に記載の記録媒体。
JP2000128189A 2000-04-27 2000-04-27 画像照合処理システム Expired - Lifetime JP4387552B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2000128189A JP4387552B2 (ja) 2000-04-27 2000-04-27 画像照合処理システム
US09/768,361 US6999605B2 (en) 2000-04-27 2001-01-25 Picture matching processing according to environment variations

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000128189A JP4387552B2 (ja) 2000-04-27 2000-04-27 画像照合処理システム

Publications (2)

Publication Number Publication Date
JP2001307090A JP2001307090A (ja) 2001-11-02
JP4387552B2 true JP4387552B2 (ja) 2009-12-16

Family

ID=18637669

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000128189A Expired - Lifetime JP4387552B2 (ja) 2000-04-27 2000-04-27 画像照合処理システム

Country Status (2)

Country Link
US (1) US6999605B2 (ja)
JP (1) JP4387552B2 (ja)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006522411A (ja) * 2003-03-06 2006-09-28 アニメトリックス,インク. 複数の特徴を含むオブジェクトの画像データベースの生成
US7643671B2 (en) * 2003-03-24 2010-01-05 Animetrics Inc. Facial recognition system and method
JP4546956B2 (ja) 2003-06-12 2010-09-22 本田技研工業株式会社 奥行き検出を用いた対象の向きの推定
US8553949B2 (en) 2004-01-22 2013-10-08 DigitalOptics Corporation Europe Limited Classification and organization of consumer digital images using workflow, and face detection and recognition
JP4571628B2 (ja) * 2003-06-30 2010-10-27 本田技研工業株式会社 顔認識システム及び方法
JP2005078375A (ja) 2003-08-29 2005-03-24 Sony Corp 方向認識装置、方向認識方法、方向認識システム及びロボット装置
EP1792267A1 (en) * 2004-09-08 2007-06-06 Koninklijke Philips Electronics N.V. Feature extraction algorithm for automatic ear recognition
JP4594176B2 (ja) * 2005-06-22 2010-12-08 三菱電機株式会社 画像処理装置及び入退室管理システム
JP4708909B2 (ja) * 2005-08-09 2011-06-22 富士フイルム株式会社 デジタル画像の対象物検出方法および装置並びにプログラム
US7545307B2 (en) * 2005-12-15 2009-06-09 Raytheon Company Target recognition system and method with unknown target rejection
JP4692371B2 (ja) * 2006-04-26 2011-06-01 オムロン株式会社 画像処理装置、画像処理方法、画像処理プログラム、および画像処理プログラムを記録した記録媒体、ならびに移動物体検出システム
JP4947769B2 (ja) * 2006-05-24 2012-06-06 富士フイルム株式会社 顔照合装置および方法並びにプログラム
GB2447976B (en) * 2007-03-30 2011-04-27 Sony Uk Ltd Apparatus and method of image capture
US8200010B1 (en) * 2007-09-20 2012-06-12 Google Inc. Image segmentation by clustering web images
US10216800B2 (en) * 2015-06-18 2019-02-26 Rocket Apps, Inc. Self expiring social media
CN110728711B (zh) * 2018-07-17 2021-11-12 北京三快在线科技有限公司 定位建图方法及装置、定位方法、装置和系统
CN112580423A (zh) * 2019-09-30 2021-03-30 托比股份公司 处理用户眼睛的图像的方法、相关联系统和计算机程序

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6181805B1 (en) * 1993-08-11 2001-01-30 Nippon Telegraph & Telephone Corporation Object image detecting method and system
US6463176B1 (en) * 1994-02-02 2002-10-08 Canon Kabushiki Kaisha Image recognition/reproduction method and apparatus
JPH07249119A (ja) 1994-03-09 1995-09-26 Daikin Ind Ltd 画像認識方法およびその装置
JP3279913B2 (ja) * 1996-03-18 2002-04-30 株式会社東芝 人物認証装置、特徴点抽出装置及び特徴点抽出方法
JP3438580B2 (ja) 1998-04-21 2003-08-18 松下電器産業株式会社 画像認識方法及び画像認識装置
US6466685B1 (en) * 1998-07-14 2002-10-15 Kabushiki Kaisha Toshiba Pattern recognition apparatus and method

Also Published As

Publication number Publication date
US6999605B2 (en) 2006-02-14
JP2001307090A (ja) 2001-11-02
US20010038713A1 (en) 2001-11-08

Similar Documents

Publication Publication Date Title
JP4387552B2 (ja) 画像照合処理システム
US11120556B2 (en) Iterative method for salient foreground detection and multi-object segmentation
Abate et al. 2D and 3D face recognition: A survey
Bowyer et al. A survey of approaches and challenges in 3D and multi-modal 3D+ 2D face recognition
CN102087702B (zh) 图像处理设备和图像处理方法
JP5801601B2 (ja) 画像認識装置、画像認識装置の制御方法、およびプログラム
US6807286B1 (en) Object recognition using binary image quantization and hough kernels
EP2238563B1 (en) Enabling persistent recognition of individuals in images
JP4353246B2 (ja) 法線情報推定装置、登録画像群作成装置および画像照合装置ならびに法線情報推定方法
Zhang et al. 3-D face structure extraction and recognition from images using 3-D morphing and distance mapping
US20030161500A1 (en) System and method for probabilistic exemplar-based pattern tracking
JP4951498B2 (ja) 顔画像認識装置、顔画像認識方法、顔画像認識プログラムおよびそのプログラムを記録した記録媒体
KR101433472B1 (ko) 상황 인식 기반의 객체 검출, 인식 및 추적 장치, 방법 및 컴퓨터 판독 가능한 기록 매체
JP2000306095A (ja) 画像照合・検索システム
JP2003323622A (ja) 画像認識システム及びその認識方法並びにプログラム
JP4511135B2 (ja) データ分布を表現する方法、データ要素を表現する方法、データ要素の記述子、照会データ要素を照合または分類する方法、その方法を実行するように設定した装置、コンピュータプログラム並びにコンピュータ読み取り可能な記憶媒体
CN113033442B (zh) 基于StyleGAN的高自由度人脸驱动方法和装置
Tang et al. Automatic construction of 3D human face models based on 2D images
RU2370817C2 (ru) Система и способ отслеживания объекта
JP2014102810A (ja) 被写体認識装置、被写体認識方法および被写体認識プログラム
CN106415606B (zh) 一种基于边缘的识别、系统和方法
JP3577908B2 (ja) 顔画像認識システム
JP4384366B2 (ja) 画像照合処理システムおよび画像照合方法
CN106156739A (zh) 一种基于脸部轮廓分析的证件照耳朵检测与提取方法
JP3877274B2 (ja) 画像照合処理システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060704

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090706

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090709

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090902

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090929

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091001

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121009

Year of fee payment: 3