JP2012084112A - ノイズ及び環境による影響を抑制することが可能な顔認識方法 - Google Patents

ノイズ及び環境による影響を抑制することが可能な顔認識方法 Download PDF

Info

Publication number
JP2012084112A
JP2012084112A JP2011048447A JP2011048447A JP2012084112A JP 2012084112 A JP2012084112 A JP 2012084112A JP 2011048447 A JP2011048447 A JP 2011048447A JP 2011048447 A JP2011048447 A JP 2011048447A JP 2012084112 A JP2012084112 A JP 2012084112A
Authority
JP
Japan
Prior art keywords
face image
current
feature vector
noise
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011048447A
Other languages
English (en)
Other versions
JP5272215B2 (ja
Inventor
Wui-Jeong Yi
李威霆
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Micro Star International Co Ltd
Original Assignee
Micro Star International Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Micro Star International Co Ltd filed Critical Micro Star International Co Ltd
Publication of JP2012084112A publication Critical patent/JP2012084112A/ja
Application granted granted Critical
Publication of JP5272215B2 publication Critical patent/JP5272215B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/169Holistic features and representations, i.e. based on the facial image taken as a whole
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships

Abstract

【課題】ノイズ及び環境による影響を抑制することが可能な顔認識方法を提供する。
【解決手段】本発明に係るノイズ及び環境による影響を抑制することが可能な顔認識方法は、データ処理装置に適用され、現在の顔画像が参考顔画像と一致するかどうかを判別するのに用いられる。この方法では、現在の顔画像と参考顔画像に対してガウスぼかし・ノイズ低減処理を行い、更に現在の顔画像と参考顔画像を複数のブロックに分割し、それによって現在の顔画像と参考顔画像を代表する特徴ベクトル群をそれぞれ取得する。次いで、環境状態の変化に基づいて、適切な動的閾値を選択的に取得し、特徴ベクトル群の差を対比させることで、現在の顔画像が参考顔画像と一致するかどうかを決定する。
【選択図】図7

Description

本発明は、顔認識方法に関し、特に、ノイズ及び環境による影響を抑制することが可能な顔認識方法に関する。
例えばアクセス制御システムを利用した入退室やコンピュータシステムへのログインといった従来の使用権限取得方法においては、そのステップとして、使用者のアカウント番号及び対応するパスワードを入力して行われる。
使用者のアカウント番号及び対応するパスワードを入力する場合、完全に手動にて行うものと、接触型もしくは非接触型(RFID)の識別カードにより自動的に使用者のアカウント番号及び対応するパスワードを入力するものとがある。完全に手動にて行うものには、しばしばアカウント番号とパスワードが外部に流出したり、使用者がそれを忘れてしまったりする問題があり、一方の識別カードには、盗用されたり違法に複製されたりする問題があった。
上記の問題を未然に防ぐため、現在、IDを識別して特定の権限を取得する手段として、顔認識技術がしだいに用いられるようになって来ている。
顔認識技術には大きく分けて二つの段階があり、一つは顔学習段階で、もう一つは顔認識段階である。顔学習段階では、使用者の顔の画像を取得し、特定の数値化処理を行って画像を特定の数値化データに変換し、数値によってその特徴を表現する。顔認識段階では、識別される顔の画像を取得し、同様に画像を特定の形態の数値化データに変換し、数値によってその特徴を表現する。最後に、両方の数値化データを対比させ、その特徴が似ているかどうかを確認し、識別される顔が使用者の顔と一致するかどうかを判別する。
顔の画像を数値化データに変換して認識するための核心技術としては、主成分分析法(Principal Components Analysis)、三次元顔認識法、顔の構成要素による認識法、特徴ベクトル対比などがある。上記各方法にはそれぞれ長所と短所があるものの、これらが共通して直面する課題として、識別される顔の画像を取得する環境が、往々にして顔学習段階における環境とは大きな差異があったり、或いは識別される顔の画像にノイズが含まれ、これら環境による影響又はノイズによって、識別される顔の顔認識に失敗することが挙げられる。使用者が恒常的に顔認識に失敗することを回避するために、顔認識段階では対比の基準を引き下げなければならないが、対比の基準を引き下げれば、顔認識が成功しやすくなり、ひいては全くの他人が顔認識に成功することになる。
上述の課題に鑑み、本発明は、特徴ベクトル対比を基に、ノイズ及び環境による影響を抑制することが可能な顔認識方法を提供し、それによって顔認識の信頼性に対するノイズや環境の影響を低減する。
本発明は、データ処理装置に適用され、現在の顔(識別される顔)の画像が参考顔画像と一致するかどうかを判別するための、ノイズ及び環境による影響を抑制することが可能な顔認識方法を提供する。当該方法には以下のステップが含まれる。
前記参考顔画像の参考特徴ベクトル群と、参考環境状態ベクトルと、動的閾値表とを保存する、特徴ベクトルデータベースを提供するステップと、
前記現在の顔画像を取得するステップと、
前記現在の顔画像の現在の特徴ベクトル群を取得するステップと、
前記現在の特徴ベクトル群における各特徴ベクトルを、前記参考特徴ベクトル群における対応する特徴ベクトルと対比させ、前記現在の顔画像における各ブロックの特徴ベクトルの差を見つけ出すステップと、
前記各特徴ベクトルの差を小さいものから大きいものへと順に配列するステップと、
数値の小さいものから前記各特徴ベクトルの差を選択し始め、前記各特徴ベクトルの差における特定の個数のみを選択的に取得し、前記各特徴ベクトルの差を加算して差の総和とするステップと、
前記現在の顔画像における現在の環境状態ベクトルを取得するステップと、
前記参考環境状態ベクトルと前記現在の環境状態ベクトルとの間のユークリッド距離を計算するステップと、
前記参考環境状態ベクトルと前記現在の環境状態ベクトルとの間のユークリッド距離に基づいて、複数の動的閾値が記載され且つ各動的閾値が特定範囲のユークリッド距離と関連する前記動的閾値表から、対応する動的閾値を取得するステップと、
前記差の総和が前記動的閾値を超えているか否かを判別し、前記差の総和が前記動的閾値を超えていない場合に前記現在の顔画像が前記参考顔画像と一致すると決定するステップ。
本発明に係るノイズ及び環境による影響を抑制することが可能な顔認識方法においては、特徴ベクトル群を取得する前に、各顔画像のノイズを低減しておくことが可能である。次いで、特徴ベクトル群を取得した後、本発明では更に環境状態の変化を考慮して、動的に前記差を対比する閾値を選択し、それによって毎回取得された動的閾値がいずれも環境状態の変化に合致するようにし、顔認識の信頼性を改善することが可能である。
本発明に係るノイズ及び環境による影響を抑制することが可能な顔認識方法を適用するデータ処理装置を示した図である。 本発明に係るノイズ及び環境による影響を抑制することが可能な顔認識方法のフローチャート(1)である。 参考顔画像を参考特徴ベクトル群に変換することを示す図である。 本発明に係るノイズ及び環境による影響を抑制することが可能な顔認識方法のフローチャート(2)である。 参考環境状態ベクトルを取得することを示す図である。 本発明に係るノイズ及び環境による影響を抑制することが可能な顔認識方法のフローチャート(3)である。 現在の顔画像を現在の特徴ベクトル群に変換することを示す図である。 本発明に係るノイズ及び環境による影響を抑制することが可能な顔認識方法のフローチャート(4)である。 適応性対比を示す図である。 本発明に係るノイズ及び環境による影響を抑制することが可能な顔認識方法のフローチャート(5)である。 本発明に係るノイズ及び環境による影響を抑制することが可能な顔認識方法のフローチャート(6)である。 ユークリッド距離を取得計算して動的閾値を取得することを示す図である。 本発明に係るノイズ及び環境による影響を抑制することが可能な顔認識方法のフローチャート(7)である。 多段階サンプリングを示す図である。 本発明に係るノイズ及び環境による影響を抑制することが可能な顔認識方法のフローチャート(8)である。 マルチサイズサンプリングを示す図である。 本発明に係るノイズ及び環境による影響を抑制することが可能な顔認識方法のフローチャート(9)である。
図1、図2に示すように、本発明の一つの実施形態において、ノイズ及び環境による影響を抑制することが可能な顔認識方法は、データ処理装置20に適用され、現在の顔画像Cが参考顔画像Rと一致するかどうかを判別し、識別結果を生成し、対応するIDを見つけ出すのに用いられる。当該識別結果及びそれに対応するIDはデータ処理装置20のログイン用アカウント番号及びパスワードの代わりに用いられ、それによってデータ処理装置20の使用権限を取得するステップを簡略化することができる。
データ処理装置20(例えばコンピュータ又はノートパソコン)には、顔認識プログラムがインストールされ、それによって、ノイズ及び環境による影響を抑制することが可能な顔認識方法が適用される。データ処理装置20は、特徴ベクトルデータベース40に接続され又は特徴ベクトルデータベース40を内蔵し、画像取得装置30を介して現在の顔画像C又は参考顔画像Rを取得する。
本発明に係るノイズ及び環境による影響を抑制することが可能な顔認識方法は、主として顔画像特徴ベクトル処理工程を含み、当該顔画像特徴ベクトル処理工程は顔特徴学習段階に用いられるだけでなく、顔認識段階にも用いられる。
図1に示すように、本発明に係るノイズ及び環境による影響を抑制することが可能な顔認識方法では、画像取得装置30を介して使用者の現在の顔画像C又は参考顔画像Rを取得し、データ処理装置20に伝送する。画像取得装置30は、カメラであってよく、データ処理装置20に外付けされるか或いは内蔵される。
図2、図3を用いて、ここで顔特徴学習段階に含まれるステップを説明する。顔特徴学習段階には、実質的に顔画像特徴ベクトル処理工程が含まれ、特徴ベクトルデータベース40を提供する。
図2、図3に示すように、まず、ステップ110即ち顔画像特徴ベクトル処理工程の部分において、使用者は先に画像取得装置30を顔に合わせ、画像取得装置30を介して参考顔画像Rを取得し、データ処理装置20に伝送する。
図2、図3に示すように、次いで、ステップ120において、データ処理装置20は、参考顔画像Rに対してガウスぼかし・ノイズ低減処理(Gaussian Blur Noise Reduction)を行い、当該参考顔画像R中のノイズを低減する。
ガウスぼかし・ノイズ低減処理は、ノイズを低減するために行うものであり、その他ノイズ低減処理を行うことのできる他の方法で代替してもよい。又は、もし顔画像Rを取得する場所の照明が十分であり、顔画像R取得においてノイズを低く抑えることを確保できる場合は、ステップ120のガウスぼかし・ノイズ低減処理を実行しなくてもよい。
図2、図3に示すように、次いで、ステップ130において、データ処理装置20は、参考顔画像RをN×N個のブロックに分割し、各ブロックごとに一つのブロック識別コード(Block_ID)を設定する。
図2、図3に示すように、ステップ140において、データ処理装置20は、各ブロックにおける各画素の画素値を分析し、各ブロックに対して局部的な二値化処理(Local Binary Pattern,LBP)を行う。データ処理装置20は、画素値の変化に基づいて、各ブロックをM個の次元を有する特徴ベクトルに変換する。
図2、図3に示すように、ステップ150において、参考顔画像Rから合わせてN×N個の特徴ベクトルを得、そのためデータ処理装置20は、これら特徴ベクトルを一つの参考特徴ベクトル群として結合し、特徴ベクトルデータベース40に保存する。
図2、図3に示すように、ステップ160において、データ処理装置20は、この参考特徴ベクトル群を特徴ベクトルデータベース40に伝送する。
上記のプロセスは、参考特徴ベクトル群を構築することで、後続の対比を行えるようにするために行われる。参考特徴ベクトル群を構築する際、データ処理装置20は、同時にIDデータの入力をも受け入れ、それによって参考特徴ベクトル群が対応するIDと関連付けされる。
上記のステップを経た後、特徴ベクトルデータベース40が構築され、当該特徴ベクトルデータベース40には、少なくとも一つの参考特徴ベクトル群が保存され、当該参考特徴ベクトル群とIDとが相互に関連付けされるよう設定する。
その後、参考顔画像Rについて、参考環境状態ベクトルを取得する。その取得ステップは以下のとおりである。
図4、図5に示すように、ステップ170において、データ処理装置20は、まず参考顔画像Rを4等分に分割し、左上の等分部分から左回りに順次第一等分1、第二等分2、第三等分3、第四等分4に配列する。
図4、図5に示すように、次いで、ステップ181において、データ処理装置20は、第一等分1、第二等分2、第三等分3、第四等分4の平均グレースケール値m1、m2、m3、m4をそれぞれ計算する。
図4、図5に示すように、ステップ182において、データ処理装置20は、次いで、左側の等分の平均グレースケール値から右側の等分の平均グレースケール値を減じ且つ上側の等分の平均グレースケール値から下側の等分の平均グレースケール値を減じるという規則によって、四つのグレースケール値の差値(m1−m4)、(m2−m3)、(m1−m2)、(m4−m3)を取得する。ここで、上記規則は、主として各平均グレースケール値それぞれの他の平均グレースケール値との差値を計算するためのものであって、この規則に限定されない。又、等分の数も四つ(2×2)に限定されず、3×3、4×4等であってもよい。
ステップ190において、次いで、第一等分1、第二等分2、第三等分3、第四等分4の平均グレースケール値m1、m2、m3、m4と、四つのグレースケール値の差値(m1−m4)、(m2−m3)、(m1−m2)、(m4−m3)とを各次元の数値とし、結合して参考環境状態ベクトルとし、特徴ベクトルデータベース40に保存する。
次に、ノイズ及び環境による影響を抑制することが可能な顔認識方法における顔認識段階について説明する。顔認識段階においては、同様にまず顔画像特徴ベクトル処理工程を実行し、現在の特徴ベクトル群を取得し、更に当該現在の特徴ベクトル群を、特徴ベクトルデータベース40における参考特徴ベクトル群と順次対比させる。
図6、図7に示すように、ステップ210において、使用者は先に画像取得装置30を顔に合わせ、当該画像取得装置30を介して現在の顔画像Cを取得し、現在の顔画像Cをデータ処理装置20に伝送する。
図6、図7に示すように、次いで、ステップ220において、データ処理装置20は、現在の顔画像Cに対してガウスぼかし・ノイズ低減処理を行い、現在の顔画像C中のノイズを低減する。ステップ120と同様に、当該ガウスぼかし・ノイズ低減処理は、ノイズを低減するために行うものであり、ノイズ低減処理を行うことのできるその他の方法で代替してもよい。又は、もし顔画像Cを取得する場所の照明が十分であり、顔画像C取得においてノイズを低く抑えることを確保できる場合は、ステップ220のガウスぼかし・ノイズ低減処理を実行しなくてもよい。
図6、図7に示すように、次いで、ステップ230において、データ処理装置20は、現在の顔画像CをN×N個のブロックに分割し、各ブロックごとに一つのブロック識別コード(Block_ID)を設定する。
図6、図7に示すように、ステップ240において、データ処理装置20は、各ブロックにおける各画素の画素値を分析し、各ブロックに対して局部的な二値化処理を行う。データ処理装置20は、画素値の変化に基づいて、現在の顔画像Cの各ブロックをM個の次元を有する特徴ベクトルに変換する。
図6、図7に示すように、ステップ250において、現在の顔画像Cから合わせてN×N個の特徴ベクトルを得、そのためデータ処理装置20は、これら特徴ベクトルを一つの現在の特徴ベクトル群として結合する。
図8、図9に示すように、ステップ300において、データ処理装置20は、現在の顔画像Cに対応する現在の特徴ベクトル群における各特徴ベクトルと、参考顔画像Rの参考特徴ベクトル群における対応する特徴ベクトルとを対比させ、現在の顔画像Cにおける各ブロックの特徴ベクトルの差を見つけ出す。
図10を用い、ステップ300における適応性対比の詳細を以下に説明する。
まず、ステップ310において、データ処理装置20は、特徴ベクトルデータベース40から一つの参考特徴ベクトル群を読み込む。
ステップ320において、参考特徴ベクトル群及び現在の特徴ベクトル群において同じブロック識別コード(Block_ID)を具え相互に対応する特徴ベクトルを対比させ、N×N組の特徴ベクトルの差を得る。
ステップ330において、データ処理装置20は、前記各特徴ベクトルの差を小さいものから大きいものへと順に配列し、数値の小さいものから前記各特徴ベクトルの差を選択し始め、前記各特徴ベクトルの差における特定の個数のみを選択的に取得し、例えば前の65%のみを取得し、残りの数値の大きなものは捨てて採用しない。
ステップ340において、データ処理装置20は、前記選択的に取得された各特徴ベクトルの差を加算して差の総和とする。
ステップ330において、特徴ベクトルの差のうち数値の大きなものを捨てて採用しない理由は、ステップ140、ステップ240の局部の二値化処理(LBP)を実行する際、各ブロックの特徴ベクトルが実質的にいずれもノイズの影響を受け、その特徴ベクトルが影響を受けるためである。特徴ベクトルの差のうち数値の大きなものを捨てて採用しない場合は、捨てられたブロックは実質的にいずれもノイズの影響を強く受けたものであり、とりわけ、影、短い前髪、顔の光沢部位における粒状のノイズであって、重要な顔の特徴が採用されない確率は低い。
これに対し、光線が正常な場合では、ノイズは極めて少ないものの、識別性に欠けるブロックが時おり突出することがある。例えば光沢のある額、頬に強い光の作用のもとにおける粒状のノイズがあると、そのブロックは識別性の特徴を欠くだけでなく、十分な光線によってその特徴ベクトルが影響を受け特徴ベクトルの組み合わせにおいて突出し、その対応する特徴ベクトルの差の数値が大きくなってしまう。従って、光線が正常な場合に、特徴ベクトルの差の数値の大きなものを捨てることは、重要な顔の特徴を捨てることにはならず、反って重要な顔の特徴の比重を向上することが可能となる。
次いで、ステップ400において、データ処理装置20は、動的閾値を指定して、動的閾値検査を行う。動的閾値検査は、現在の顔画像Cと特徴ベクトルデータベース40における参考顔画像Rの特徴ベクトルの差の総和が前記動的閾値を超えているか否か、即ち、現在の特徴ベクトル群及び参考特徴ベクトル群の差異が前記動的閾値を超えているか否かを判別するために行われる。
図11、図12を用いて、以下ステップ400の詳細について説明する。
図11、図12に示すように、ステップ410において、データ処理装置20は、まず現在の顔画像Cを4等分に分割し、左上の等分部分から左回りに順次第一等分1、第二等分2、第三等分3、第四等分4に配列する。
図11、図12に示すように、ステップ420において、データ処理装置20は、第一等分1、第二等分2、第三等分3、第四等分4の平均グレースケール値m1、m2、m3、m4をそれぞれ計算する。
図11、図12に示すように、ステップ430において、データ処理装置20は、次いで、各平均グレースケール値それぞれの他の平均グレースケール値との差値(m1−m4)、(m2−m3)、(m1−m2)、(m4−m3)を計算する。
ステップ440において、次いで、第一等分1、第二等分2、第三等分3、第四等分4の平均グレースケール値m1、m2、m3、m4と、四つのグレースケール値の差値(m1−m4)、(m2−m3)、(m1−m2)、(m4−m3)とを各次元の数値とし、結合して現在の環境状態ベクトルとする。
実質的に、ステップ410から440までにおいて行うステップは、ステップ160から190までにおいて行うものと同じであり、その相違点は、実施対象が参考顔画像Rであるか現在の顔画像Cであるかという点に過ぎない。
ステップ450において、データ処理装置20は、参考環境状態ベクトルと現在の環境状態ベクトルとの間のユークリッド距離(Euclidean distance)を計算する。
ステップ460において、データ処理装置20は、特徴ベクトルデータベース40から一つの動的閾値表を読み込む。動的閾値表には複数の動的閾値が記載され、且つ各動的閾値は特定範囲のユークリッド距離と関連する。前記動的閾値表は、異なる環境でテストした後、各動的閾値と特定範囲のユークリッド距離との関連性を逐次確立する。
ステップ470において、データ処理装置20は、参考環境状態ベクトルと現在の環境状態ベクトルとの間のユークリッド距離に基づいて、対応する動的閾値を取得する。
図8に示すように、ステップ500において、データ処理装置20は、差の総和が動的閾値を超えているか否かを判別する。
ステップ510において、現在の特徴ベクトル群及び参考特徴ベクトル群の差の総和が動的閾値を超えている場合、現在の顔画像Cが参考顔画像Rとは不一致であり、全くの他人であると判定する。
ステップ520において、現在の特徴ベクトル群及び参考特徴ベクトル群の差が動的閾値を超えていない場合、現在の顔画像Cが参考顔画像Rと一致し、使用者であると決定する。
上述の識別結果及び参考特徴ベクトル群に対応するIDは、データ処理装置20のログイン用アカウント番号及びパスワードの代わりに用いられ、それによってデータ処理装置20の使用権限を取得するステップを簡略化することができる。
動的閾値は現在の顔画像Cを取得した際及び参考顔画像Rを取得した際の環境の影響を反映することが可能であり、当該環境の影響に応じて対比閾値を調整することで、顔認識方法における識別基準が厳格になり過ぎることを回避し、全くの他人が顔認識に成功する確率を低減することができる。
顔認識の正確性を向上させるため、本発明に係る顔認識方法のステップでは以下の二種類の修正を行ってもよい。
一つ目は、多段階サンプリングを行い、現在の特徴ベクトル群及び参考特徴ベクトル群における特徴ベクトル数を増加することで、有効な対比サンプル数を増加させることである。
図13、図14に示すように、多段階サンプリングを実行するステップは、ステップ130からステップ140まで、又はステップ230からステップ240までの代わりとして行われる。以下、現在の顔画像C及び参考顔画像Rを区別せず、単に顔画像Fとして説明する。
図13、図14に示すように、ステップ610において、顔画像Fを取得してノイズ低減処理を行った後(即ちステップ110からステップ120まで、又はステップ210からステップ220までを行った後)、データ処理装置20は、顔画像Fを第1層の画像F1と第2層の画像F2とに分ける。ここで、第1層の画像F1はオリジナルの顔画像Fであり、第2層の画像F2はオリジナルの顔画像Fにおける局部のエリアであり、特に顔の中心の特徴が顕著なエリアである。
図13、図14に示すように、ステップ620において、データ処理装置20は、第1層の画像F1と第2層の画像F2のそれぞれを複数のブロックに分割する。例えば、第1層の画像F1をN×N個のブロックに分割し、第2層の画像F2をL×L個のブロックに分割する。同様に、各ブロックの全てに一つのブロック識別コード(Block_ID)を設定する。
図13、図14に示すように、ステップ630において、データ処理装置20は、各ブロックにおける各画素の画素値を分析し、各ブロックに対して局部的な二値化処理を行う。データ処理装置20は、画素値の変化に基づいて、各ブロックをM個の次元を有する特徴ベクトルに変換する。
図13、図14に示すように、顔画像Fから合わせてN×N個及びL×L個の特徴ベクトルを得、当該L×L個はいずれも顔の特徴の顕著な部位から得たものであり、顔の特徴の比重を増加することができる。ステップ640において、データ処理装置20は、これら特徴ベクトルを一つの参考特徴ベクトル群として結合し、特徴ベクトルデータベース40に保存する。顔画像Fから合わせてN×N個及びL×L個の特徴ベクトルからなる特徴ベクトルの組み合わせを得、それらを参考特徴ベクトル群とする。
これにより、特徴ベクトルは、本来のN×N個に加え、L×L個増加し、且つ当該L×L個はいずれも顔の特徴の顕著な部位から得たものであり、顔の特徴の比重を増加することができる。
二つ目は、マルチサイズサンプリングを行い、現在の顔画像C及び特徴ベクトルデータベース40における参考顔画像Rとのユークリッド距離を修正し、それによってノイズの影響を低減することである。
図15、図16に示すように、マルチサイズサンプリングを実行するステップは、ステップ130からステップ140まで、又はステップ230からステップ240までの代わりとして行われる。
図15、図16に示すように、ステップ710において、参考顔画像R及び現在の顔画像Cを取得した後(即ちステップ110からステップ120まで、又はステップ210からステップ220までを行った後)、データ処理装置20は、更に参考顔画像R及び現在の顔画像Cの解像度を変更し、それぞれ参考縮小顔画像Rs及び現在の縮小顔画像Csを取得する。縮小顔画像を生成するプロセスにおいては、ノイズ部分を消去できるが、一方で顔の特徴の比重が低下する。そのため、オリジナルの顔画像Fは依然として後続のステップにおいて用いられる必要がある。
図15に示すように、次いで、ステップ720において、データ処理装置20は、参考顔画像R、現在の顔画像C、参考縮小顔画像Rs又は現在の縮小顔画像Csのそれぞれを複数のブロックに分割し、各ブロックの全てに一つのブロック識別コード(Block_ID)を設定する。
図15に示すように、ステップ730において、データ処理装置20は、各ブロックにおける各画素の画素値を分析し、各ブロックに対して局部的な二値化処理を行う。データ処理装置20は、画素値の変化に基づいて、各ブロックをM個の次元を有する特徴ベクトルに変換する。
図15、図16に示すように、最後に、ステップ740において、データ処理装置20は、参考縮小顔画像Rs及び現在の縮小顔画像Csの特徴ベクトル群をそれぞれ取得し、現在の縮小顔画像Csの特徴ベクトル群における各ブロックの特徴ベクトルの差を見つけ出す。
図16、図17に示すように、本来のステップ300、即ち、現在の顔画像Cの現在の特徴ベクトル群と、特徴ベクトルデータベース40における各参考特徴ベクトル群とに対して適応性対比を行うステップは、二つの平行する線に分けられて行われ、それぞれステップ300’とステップ300’’とする。
図16、図17に示すように、ステップ300’では、依然として現在の顔画像Cにおける各ブロックの特徴ベクトルの差を見つけ出す。即ち、ステップ310’からステップ340’までは、ステップ310からステップ340までと同じである。
図16、図17に示すように、ステップ300’’では、現在の縮小顔画像Csの特徴ベクトル群における各ブロックの特徴ベクトルの差を見つけ出す。即ち、ステップ310’’からステップ340’’までは、ステップ310からステップ340までと同じである。ただし、比較対象は現在の縮小顔画像Cs及び参考縮小顔画像Rsである。
最後に、現在の縮小顔画像Csの特徴ベクトル群における各ブロックの特徴ベクトルの差を現在の顔画像Cから得た差の総和に加算することによって取得された差の総和を用いて、ステップ500において動的閾値と対比させる。
本発明に係る顔認識方法は、主として環境状態の変化を考慮して、毎回対比する動的閾値を変更し、それによって毎回取得された動的閾値がいずれも環境状態の変化に合致するようにし、顔認識の信頼性を改善する。
20 データ処理装置
40 特徴ベクトルデータベース
30 画像取得装置
C 現在の顔画像
Cs 現在の縮小顔画像
F 顔画像
F1 第1層の画像
F2 第2層の画像
R 参考顔画像
Rs 参考縮小顔画像

Claims (9)

  1. データ処理装置に適用され、現在の顔画像が参考顔画像と一致するかどうかを判別するための、ノイズ及び環境による影響を抑制することが可能な顔認識方法であって、
    前記参考顔画像の参考特徴ベクトル群と、参考環境状態ベクトルと、動的閾値表とを保存する、特徴ベクトルデータベースを提供するステップと、
    前記現在の顔画像を取得するステップと、
    前記現在の顔画像の現在の特徴ベクトル群を取得するステップと、
    前記現在の特徴ベクトル群における各特徴ベクトルを、前記参考特徴ベクトル群における対応する特徴ベクトルと対比させ、前記現在の顔画像における各ブロックの特徴ベクトルの差を見つけ出すステップと、
    前記特徴ベクトルの差を小さいものから大きいものへと順に配列するステップと、
    数値の小さいものから前記各特徴ベクトルの差を選択し始め、前記各特徴ベクトルの差における特定の個数のみを選択的に取得し、前記各特徴ベクトルの差を加算して差の総和とするステップと、
    前記現在の顔画像における現在の環境状態ベクトルを取得するステップと、
    前記参考環境状態ベクトルと前記現在の環境状態ベクトルとの間のユークリッド距離を計算するステップと、
    前記参考環境状態ベクトルと前記現在の環境状態ベクトルとの間のユークリッド距離に基づいて、複数の動的閾値が記載され且つ各動的閾値が特定範囲のユークリッド距離と関連する前記動的閾値表から、対応する動的閾値を取得するステップと、
    前記差の総和が前記動的閾値を超えているか否かを判別し、前記差の総和が前記動的閾値を超えていない場合に前記現在の顔画像が前記参考顔画像と一致すると決定するステップと、
    を含むことを特徴とするノイズ及び環境による影響を抑制することが可能な顔認識方法。
  2. 前記参考特徴ベクトル群又は前記現在の特徴ベクトル群を取得するステップは、
    画像取得装置を介して前記参考顔画像又は前記現在の顔画像を取得するステップと、
    前記参考顔画像又は前記現在の顔画像を前記データ処理装置に伝送するステップと、
    前記データ処理装置によって前記参考顔画像又は前記現在の顔画像に対してノイズ低減処理を行うステップと、
    前記データ処理装置によって前記参考顔画像又は前記現在の顔画像を複数のブロックに分割するステップと、
    前記データ処理装置によって前記各ブロックに対して局部的な二値化処理を行い、前記各ブロックを複数の特徴ベクトルに変換し、特徴ベクトル群として結合するステップと、
    を更に含むことを特徴とする請求項1記載のノイズ及び環境による影響を抑制することが可能な顔認識方法。
  3. 前記参考顔画像又は前記現在の顔画像を取得した後、
    前記データ処理装置によって前記参考顔画像又は前記現在の顔画像を、前記参考顔画像又は前記現在の顔画像である第1層の画像と、前記参考顔画像又は前記現在の顔画像における局部のエリアである第2層の画像とに分けるステップと、
    前記第1層の画像と前記第2層の画像をそれぞれ複数のブロックに分割するステップと、
    を更に含むことを特徴とする請求項1記載のノイズ及び環境による影響を抑制することが可能な顔認識方法。
  4. 前記ノイズ低減処理のステップは、ガウスぼかし・ノイズ低減処理(Gaussian Blur Noise Reduction)を行うことを特徴とする請求項2記載のノイズ及び環境による影響を抑制することが可能な顔認識方法。
  5. 前記参考顔画像又は前記現在の顔画像を取得した後、
    前記参考顔画像及び前記現在の顔画像の解像度を変更し、それぞれ参考縮小顔画像及び現在の縮小顔画像を取得するステップと、
    前記参考縮小顔画像及び前記現在の縮小顔画像の特徴ベクトル群をそれぞれ取得し、前記現在の縮小顔画像の特徴ベクトル群における前記各ブロックの特徴ベクトルの差を見つけ出すステップと、
    前記現在の縮小顔画像の特徴ベクトル群における前記各ブロックの特徴ベクトルの差を前記現在の顔画像から得た差の総和に加算するステップと、
    を更に含むことを特徴とする請求項2記載のノイズ及び環境による影響を抑制することが可能な顔認識方法。
  6. 前記参考特徴ベクトル群を、対応するIDと関連付けることを特徴とする請求項1記載のノイズ及び環境による影響を抑制することが可能な顔認識方法。
  7. 前記参考環境状態ベクトル又は前記現在の環境状態ベクトルを取得するステップは、
    前記参考顔画像又は前記現在の顔画像を複数個の等分に分割するステップと、
    前記各等分の平均グレースケール値をそれぞれ計算するステップと、
    前記各平均グレースケール値それぞれの他の平均グレースケール値との差値を計算するステップと、
    前記各平均グレースケール値と四つのグレースケール値の差値とを各次元の数値とし、結合して現在の環境状態ベクトルとするステップと、
    を更に含むことを特徴とする請求項1記載のノイズ及び環境による影響を抑制することが可能な顔認識方法。
  8. 前記現在の顔画像と前記参考顔画像の前記特徴ベクトルの差を見つけ出すステップは、
    前記データ処理装置によって前記特徴ベクトルデータベースから前記参考特徴ベクトル群を読み込むステップと、
    前記参考特徴ベクトル群及び前記現在の特徴ベクトル群において同じブロックに属する特徴ベクトルを対比させ、前記特徴ベクトルの差を得るステップと、
    を更に含むことを特徴とする請求項1記載のノイズ及び環境による影響を抑制することが可能な顔認識方法。
  9. 選択的に取得される前記特徴ベクトルの差は、前記小さいものから大きいものへと配列された各特徴ベクトルの差において前から65%であることを特徴とする請求項1記載のノイズ及び環境による影響を抑制することが可能な顔認識方法。
JP2011048447A 2010-10-08 2011-03-07 ノイズ及び環境による影響を抑制することが可能な顔認識方法 Active JP5272215B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
TW099134449A TWI453680B (zh) 2010-10-08 2010-10-08 可抑制雜訊及環境影響之臉部辨識方法
TW099134449 2010-10-08

Publications (2)

Publication Number Publication Date
JP2012084112A true JP2012084112A (ja) 2012-04-26
JP5272215B2 JP5272215B2 (ja) 2013-08-28

Family

ID=45925170

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011048447A Active JP5272215B2 (ja) 2010-10-08 2011-03-07 ノイズ及び環境による影響を抑制することが可能な顔認識方法

Country Status (4)

Country Link
US (1) US8588481B2 (ja)
JP (1) JP5272215B2 (ja)
DE (1) DE102011001319B4 (ja)
TW (1) TWI453680B (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015513754A (ja) * 2013-03-19 2015-05-14 ▲ホア▼▲ウェイ▼技術有限公司 顔認識方法及びデバイス
KR20210108059A (ko) * 2020-02-25 2021-09-02 (주)아이티 노매즈 패턴인식 기반 도장날인 유사도 판별 방법 및 시스템

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2228583A1 (en) 2009-03-13 2010-09-15 Giga-Byte Technology Co., Ltd. Multifunctional support
EP2453383A1 (en) * 2010-11-12 2012-05-16 ST-Ericsson SA Facial features detection
US9135410B2 (en) * 2011-12-21 2015-09-15 At&T Intellectual Property I, L.P. Digital rights management using a digital agent
US11321772B2 (en) 2012-01-12 2022-05-03 Kofax, Inc. Systems and methods for identification document processing and business workflow integration
US8989515B2 (en) 2012-01-12 2015-03-24 Kofax, Inc. Systems and methods for mobile image capture and processing
US10127636B2 (en) 2013-09-27 2018-11-13 Kofax, Inc. Content-based detection and three dimensional geometric reconstruction of objects in image and video data
US10783615B2 (en) * 2013-03-13 2020-09-22 Kofax, Inc. Content-based object detection, 3D reconstruction, and data extraction from digital images
JP2015018400A (ja) * 2013-07-10 2015-01-29 グローリー株式会社 顔照合装置、顔照合方法及び顔照合プログラム
US9667575B1 (en) * 2013-11-04 2017-05-30 Symantec Corporation Systems and methods for detecting webpages belonging to spam campaigns
CN104598872B (zh) * 2014-12-23 2018-07-06 深圳市君利信达科技有限公司 一种面部比对的方法、设备及一种面部识别的方法、系统
CN105447441B (zh) * 2015-03-19 2019-03-29 北京眼神智能科技有限公司 人脸认证方法和装置
WO2016154781A1 (en) * 2015-03-27 2016-10-06 Intel Corporation Low-cost face recognition using gaussian receptive field features
US10467465B2 (en) 2015-07-20 2019-11-05 Kofax, Inc. Range and/or polarity-based thresholding for improved data extraction
US10242285B2 (en) 2015-07-20 2019-03-26 Kofax, Inc. Iterative recognition-guided thresholding and data extraction
US9536337B1 (en) * 2015-10-26 2017-01-03 Adobe Systems Incorporated Restoring digital image noise lost in a blur
CN106599813A (zh) * 2016-12-05 2017-04-26 中兴智能视觉大数据技术(湖北)有限公司 一种基于人脸识别的铁路安检安防管理系统
WO2019017079A1 (ja) * 2017-07-19 2019-01-24 パナソニックIpマネジメント株式会社 照合装置及び照合方法
US11227170B2 (en) * 2017-07-20 2022-01-18 Panasonic Intellectual Property Management Co., Ltd. Collation device and collation method
US10803350B2 (en) 2017-11-30 2020-10-13 Kofax, Inc. Object detection and image cropping using a multi-detector approach
US10747989B2 (en) * 2018-08-21 2020-08-18 Software Ag Systems and/or methods for accelerating facial feature vector matching with supervised machine learning
CN109086739A (zh) * 2018-08-23 2018-12-25 成都睿码科技有限责任公司 一种无人脸数据训练的人脸识别方法和系统
CN109886293B (zh) * 2019-01-10 2020-09-08 华中科技大学 一种基于融合空间和特征信息的均匀gmm的图像匹配方法
TWI717008B (zh) * 2019-09-09 2021-01-21 訊連科技股份有限公司 生物特徵資料庫的建立方法、臉部識別方法與系統
CN111507917B (zh) * 2020-04-15 2022-11-01 杭州小影创新科技股份有限公司 一种基于卷积神经网络的无参智能磨皮方法
US20230421884A1 (en) * 2022-06-24 2023-12-28 Dell Products L.P. Detection of image sensor shutter state

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000090101A (ja) * 1998-09-09 2000-03-31 Minolta Co Ltd 類似画像検索装置、類似画像検索方法及び記録媒体
JP2003323622A (ja) * 2002-02-27 2003-11-14 Nec Corp 画像認識システム及びその認識方法並びにプログラム
JP2010176304A (ja) * 2009-01-28 2010-08-12 Toshiba Corp 人物認証装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5859930A (en) 1995-12-06 1999-01-12 Fpr Corporation Fast pattern recognizer utilizing dispersive delay line
US7127087B2 (en) * 2000-03-27 2006-10-24 Microsoft Corporation Pose-invariant face recognition system and process
AU2002951473A0 (en) * 2002-09-18 2002-10-03 Canon Kabushiki Kaisha Method for tracking facial features in video sequence
EP1910977B1 (en) * 2005-07-29 2016-11-30 Telecom Italia S.p.A. Automatic biometric identification based on face recognition and support vector machines
KR100745981B1 (ko) * 2006-01-13 2007-08-06 삼성전자주식회사 보상적 특징에 기반한 확장형 얼굴 인식 방법 및 장치
TW201023055A (en) * 2008-12-12 2010-06-16 Moredna Technology Co Ltd Highly efficient method for processing fingerprint images
TWI453679B (zh) * 2009-01-16 2014-09-21 Hon Hai Prec Ind Co Ltd 圖像匹配系統及方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000090101A (ja) * 1998-09-09 2000-03-31 Minolta Co Ltd 類似画像検索装置、類似画像検索方法及び記録媒体
JP2003323622A (ja) * 2002-02-27 2003-11-14 Nec Corp 画像認識システム及びその認識方法並びにプログラム
JP2010176304A (ja) * 2009-01-28 2010-08-12 Toshiba Corp 人物認証装置

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015513754A (ja) * 2013-03-19 2015-05-14 ▲ホア▼▲ウェイ▼技術有限公司 顔認識方法及びデバイス
US9405969B2 (en) 2013-03-19 2016-08-02 Huawei Technologies Co., Ltd. Face recognition method and device
KR20210108059A (ko) * 2020-02-25 2021-09-02 (주)아이티 노매즈 패턴인식 기반 도장날인 유사도 판별 방법 및 시스템
KR102326254B1 (ko) 2020-02-25 2021-11-15 (주)아이티 노매즈 패턴인식 기반 도장날인 유사도 판별 방법 및 시스템

Also Published As

Publication number Publication date
TWI453680B (zh) 2014-09-21
TW201216175A (en) 2012-04-16
US8588481B2 (en) 2013-11-19
JP5272215B2 (ja) 2013-08-28
DE102011001319A1 (de) 2012-05-16
US20120087552A1 (en) 2012-04-12
DE102011001319B4 (de) 2013-07-25

Similar Documents

Publication Publication Date Title
JP5272215B2 (ja) ノイズ及び環境による影響を抑制することが可能な顔認識方法
US10740636B2 (en) Method, system and terminal for identity authentication, and computer readable storage medium
US7492926B2 (en) Method for identifying a person from a detected eye image
JP5361524B2 (ja) パターン認識システム及びパターン認識方法
US20170262472A1 (en) Systems and methods for recognition of faces e.g. from mobile-device-generated images of faces
US20110222743A1 (en) Matching device, digital image processing system, matching device control program, computer-readable recording medium, and matching device control method
CN109190470B (zh) 行人重识别方法及装置
WO2012086222A1 (ja) 画像認証装置、画像処理システム、画像認証装置制御プログラム、コンピュータ読み取り可能な記録媒体、および画像認証方法
JP2008533606A (ja) 顔認識を実行する方法
US20150016679A1 (en) Feature extraction device, feature extraction method, and feature extraction program
US20150254443A1 (en) Method and system for enforced biometric authentication
US20190347472A1 (en) Method and system for image identification
CN111626371A (zh) 一种图像分类方法、装置、设备及可读存储介质
JP2019057815A (ja) 監視システム
KR102552968B1 (ko) 다중 객체 추적 방법 및 이를 위한 장치
KR20200020107A (ko) 기계학습을 이용한 획 기반 수기 서명 인증 방법 및 시스템
Ebihara et al. Efficient face spoofing detection with flash
JP2014529816A (ja) 虹彩認識による識別
JP2019016268A (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
JP2005259049A (ja) 顔面照合装置
JP6202937B2 (ja) 画像認識装置、画像認識方法、及びコンピュータプログラム
CN110663043A (zh) 生物度量对象的模板匹配
JP2018137639A (ja) 動画像処理システム、並びに、符号化装置及びプログラム、並びに、復号装置及びプログラム
US11087121B2 (en) High accuracy and volume facial recognition on mobile platforms
JP5625196B2 (ja) 特徴点検出装置、特徴点検出方法、特徴点検出プログラム及び記録媒体

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120913

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121016

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130110

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130402

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20130423

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130423

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20130423

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5272215

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250