JP2008191816A - 画像処理装置、および画像処理方法、並びにコンピュータ・プログラム - Google Patents

画像処理装置、および画像処理方法、並びにコンピュータ・プログラム Download PDF

Info

Publication number
JP2008191816A
JP2008191816A JP2007024026A JP2007024026A JP2008191816A JP 2008191816 A JP2008191816 A JP 2008191816A JP 2007024026 A JP2007024026 A JP 2007024026A JP 2007024026 A JP2007024026 A JP 2007024026A JP 2008191816 A JP2008191816 A JP 2008191816A
Authority
JP
Japan
Prior art keywords
image
memory
processing
conversion
face image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007024026A
Other languages
English (en)
Inventor
Haruo Togashi
治夫 富樫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2007024026A priority Critical patent/JP2008191816A/ja
Priority to US12/013,050 priority patent/US8155398B2/en
Priority to CN2008100086172A priority patent/CN101236602B/zh
Publication of JP2008191816A publication Critical patent/JP2008191816A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/52Scale-space analysis, e.g. wavelet analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Processing (AREA)
  • Collating Specific Patterns (AREA)
  • Image Analysis (AREA)

Abstract

【課題】顔画像の正規化処理として実行する画像変換に際して、誤差の発生を抑制した変換を行い正確な顔識別を実現する。
【解決手段】入力顔画像の左右の目の中心を原点とした画像変換処理による正規化処理を実行する。具体的には、正規化前の顔画像を蓄えるSRAMの原点を左右目位置の中心で画素と画素の間の点とし、正規化後の顔画像を蓄えるSRAMの原点を固定した画素点とし、正規化前の座標と正規化後の座標が異なる正規化処理を行なう。本構成により、例えば顔識別処理に際して重要となる目、鼻、口といった顔パーツの位置や形の誤差の発生を抑制した画像変換が実現され、正確な登録画像との類似度判定が可能となり、高精度な顔識別処理が実現される。
【選択図】図6

Description

本発明は、画像処理装置、および画像処理方法、並びにコンピュータ・プログラムに関する。さらに、詳細には、例えば撮影された画像データに含まれる顔画像の正規化処理を実行する画像処理装置、および画像処理方法、並びにコンピュータ・プログラムに関する。
顔認識の技術は、ユーザに負担をかけない個人認証システムをはじめとして、性別の識別など、マンマシン・インターフェースに幅広く適用が可能である。初期は横顔を使った認識技術も検討されたが、現在は、正面画像の認識技術が中心となっている。
顔認識システムでは、CCDカメラなどによる撮像画像から顔の特徴情報に基づいて顔パターンを抽出する顔抽出処理と、抽出された顔パターンと登録顔画像との比較を行い、特定人物の顔であることを識別する顔識別処理を実行する。顔抽出処理や顔識別処理には、例えば、方位選択性を持ち周波数成分の異なる複数のフィルタを用いることにより、顔画像の特徴量を抽出する「ガボア・フィルタリング(Gabor Filtering)」を適用することができる(例えば、特許文献1を参照のこと)。
人間の視覚細胞には、ある特定の方位に対して選択性を持つ細胞が存在することが既に判明されている。これは、垂直の線に対して反応する細胞と、水平の線に反応する細胞で構成される。ガボア・フィルタは、これと同様に、方向選択性を持つ複数のフィルタで構成される空間フィルタである。
ガボア・フィルタは、窓にガウス関数、周波数応答にサイン関数又はコサイン関数を基底とするガボア関数によって空間表現される。フィルタ窓の大きさは例えば24×24固定とする。また、周波数fを5種類、角度θを8方向とすると、40種類のガボア・フィルタが構成される。
ガボア・フィルタの演算は、ガボア・フィルタを適用する画素とガボア・フィルタの係数との畳み込みである。ガボア・フィルタの係数は、周波数応答がコサイン関数からなる実部と周波数応答がサイン関数からなる虚部に分離することができ、それぞれに畳み込み演算を実施し、それぞれの成分を合成して1個のスカラ値からなるガボア・フィルタ結果を求めることができる。このような演算を、周波数fと角度θを切り替えながら最大40種類のガボア・フィルタを適用し、得られた最大40個のスカラ値の組を「ガボア・ジェット」と呼ぶ。顔画像データ上で水平方向及び垂直方向に一定間隔で検出される特徴量抽出位置毎に、局所特徴量としてガボア・ジェットが求められる。ガボア・ジェットは、特徴量抽出位置のある程度の位置のずれや変形に対して、不変であるという特徴を有している。
特定人物の顔であることを識別する顔識別処理では、抽出された顔パターンと登録顔画像との比較が行われる。登録顔画像に関しては、あらかじめ特徴量抽出位置毎のガボア・ジェットが算出されている。そして、同じ特徴量抽出位置における入力顔のガボア・ジェットと登録顔のガボア・ジェットの類似度を演算し、複数の特徴量抽出位置における類似度の集合である類似度ベクトルが求められる。続いて、サポート・ベクタ・マシーン(SVM)によるクラス判定を行なって、入力顔画像と登録顔画像の認識を行なう。サポート・ベクタ・マシーンは、類似度ベクトルの境界面の値を、例えば、+1又は−1と判定する境界面(値が0である位置の面)からの距離を算出し、intra−personal class又はextra−personal classのいずれに属するかを判断する。intra−personal classに属すると判断される類似度ベクトルが存在しない場合には、未登録の人物の顔が入力されたと判断される(例えば、非特許文献1を参照のこと)。また、1つのサポート・ベクタ・マシーンが多くの顔画像を学習(すなわち登録)することで、新たに入力された顔画像が登録されている(学習済みの)顔画像と一致するのか(intra−personal classに属するのか)、又は、一致しないのか(extra−personal classに属するのか)を判定することができる(例えば、特許文献2、特許文献3を参照のこと)。サポート・ベクタ・マシーンは、パターン認識の分野で最も学習汎化能力が高いと当業界では評価されている。
上述したように、顔認識システムでは、CCDカメラなどによる撮像画像から顔の特徴情報に基づいて顔パターンを抽出する顔抽出処理と、抽出された顔パターンと登録顔画像との比較を行い、特定人物の顔であることを識別する顔識別処理を実行するが、顔識別処理においては、登録画像との正確な比較処理が可能となるように、比較処理の前処理として、入力画像から抽出した顔画像に対してフィッティング(fitting)処理が実行される。
フィッティング処理は、例えば第1のメモリに記録された顔画像を取り出して正規化処理を実行して第2のメモリに記録する処理として実行される。具体的には、例えば、第1のメモリ上の顔画像の両目位置検出を行い検出された両目位置情報から顔の大きさ、顔の位置、顔の角度を求め、第2のメモリの固定した座標に右目、左目の位置を合わせるように、第1のメモリの顔画像を縮小、シフト、回転変換して顔認識に必要な顔画像を第2のメモリ上に作成する処理をフィッティング処理として実行する。
上述のガボア・フィルタによる顔識別処理は、このフィッティング処理後の画像を適用することで正確な処理が実現される。すなわち、同じ特徴量抽出位置における入力顔のガボア・ジェットと登録顔のガボア・ジェットの類似度を演算し、複数の特徴量抽出位置における類似度の集合である類似度ベクトルを求め、サポート・ベクタ・マシーン(SVM)によるクラス判定を行なって、入力顔画像と登録顔画像の照合に基づく顔識別を行なう。
上述したフィッティング処理としての正規化処理では、第1のメモリの顔画像に対する縮小、シフト、回転処理を伴う画像変換を実行して、実行結果を第2のメモリ上に作成する正規化処理を行なうが、この画像変換処理に際しては、それぞれのメモリ上に固定された原点を中心とした処理を行なうのが一般的である。例えば、具体的には、第1のメモリの原点座標と、第2のメモリの原点座標を中心座標として設定してアフィン変換を実行して、縮小、シフト、回転処理を伴う画像変換を実行する。
しかしながら、例えばアフィン変換による画像変換を実行した場合、原点からの距離が大きくなればなるほど誤差が発生しやすい。一方、顔識別処理において実行する入力顔画像と登録顔画像との類似度判定処理として実行する上述のガボア・ジェットの類似度判定は、主に顔のパーツ、すなわち目や鼻、口といった顔パーツの位置や形の類似度に基づく判定処理として実行される。
従って、アフィン変換による画像変換処理を例えば顔画像の外部に設定された原点を中心として実行してしまうと、顔識別処理に際して重要となる特徴量を抽出する重要情報である目、鼻、口といった顔パーツの位置や形に誤差が発生し、登録顔画像との類似度判定が正確に実行されない恐れが発生することになる。
特開2006−4041号公報 特再WO03/019475号公報 特開2006−4003号公報 B.sholkopf外著"Advance in Kernel Support Vector Learning"(The MIT Press、1999.)
本発明は、このような状況に鑑みてなされたものであり、顔識別処理の前処理として実行する入力顔画像の画像変換において、顔識別処理に際して重要となる目、鼻、口といった顔パーツの位置や形の誤差の発生を抑制した画像変換を実現する画像処理装置、および画像処理方法、並びにコンピュータ・プログラムを提供することを目的とする。
本発明の第1の側面は、
入力顔画像の識別処理を行なう画像処理装置であって、
識別処理の対象となる顔画像を入力し、入力顔画像に対して画像変換を実行し、予め定められた設定を持つ画像に正規化する処理を実行する画像変換部と、
前記画像変換部において変換された変換入力画像から求めた特徴量と、登録画像の特徴量との類似度を算出する類似度算出部と、
前記類似度算出部の算出した類似度に基づいて入力顔画像と登録顔画像が一致するか否かを判定する一致判定手段を備え、
前記画像変換部は、
前記入力顔画像の左右の目の中心を原点として設定した画像変換処理による正規化処理を実行する構成であることを特徴とする画像処理装置にある。
さらに、本発明の画像処理装置の一実施態様において、前記画像変換部は、正規化処理の対象とする顔画像を格納した第1メモリから、顔画像を取得して画像変換による正規化を実行して正規化後の顔画像を第2メモリに格納する処理を実行する構成であり、前記第2メモリの各画素位置に対応する前記第1メモリの対応点を算出するための変換パラメータを算出する演算部と、前記演算部の算出した変換パラメータに基づいて、前記第2メモリの各画素位置に対応する前記第1メモリの対応点を算出する座標変換部と、前記座標変換部の算出した対応点情報に従って、前記第2メモリの各画素位置に対応する画素値を決定する補間処理部と、を有する構成であることを特徴とする。
さらに、本発明の画像処理装置の一実施態様において、前記演算部は、前記変換パラメータとして、前記第1メモリに格納された顔画像を前記第2メモリに格納する顔画像に変換する際に適用する画像縮小処理、または画像回転処理、または画像平行移動処理の少なくともいずれかの処理を規定する変換パラメータを算出し、前記座標変換部は、画像縮小処理、または画像回転処理、または画像平行移動処理の少なくともいずれかの処理を規定する変換パラメータを適用して、前記第2メモリの各画素位置に対応する前記第1メモリの対応点を算出する処理を実行する構成であることを特徴とする。
さらに、本発明の画像処理装置の一実施態様において、
前記座標変換部は、
s1xを前記第1メモリ座標系におけるx座標、
s1yを前記第1メモリ座標系におけるy座標、
s2xを前記第2メモリ座標系におけるx座標、
s2yを前記第2メモリ座標系におけるy座標、
とし、
前記演算部から入力する
画像縮小処理パラメータを(c/P)、
画像回転処理パラメータをθ、
画像平行移動処理パラメータを(org_s1x_frc)および(org_s1y_frc)、
としたとき、
前記第2メモリの座標(s2x,s2y)の各々について下式、
s1x=(c/P)×((s2x)×cosθ+s2y×sinθ)+(org_s1x_frc)
s1y=(c/P)×((−s2x)×sinθ+s2y×cosθ)+(org_s1y_frc)
上記式に基づいて、正規化前の画像格納メモリである前記第1メモリの座標(s1x,s1y)を算出する構成であることを特徴とする。
さらに、本発明の画像処理装置の一実施態様において、前記平行移動処理パラメータ(org_s1x_frc,org_s1y_frc)は、前記第1メモリ座標系における前記第2メモリの原点に対応する位置を示す情報であることを特徴とする。
さらに、本発明の画像処理装置の一実施態様において、前記補間処理部は、前記座標変換部の算出した対応点情報を適用し、bi−linear手法、またはbi−cubic手法を適用した画素値補間処理を実行して、前記第2メモリの各画素位置に対応する画素値を決定する処理を実行する構成であることを特徴とする。
さらに、本発明の画像処理装置の一実施態様において、前記類似度算出部は、前記画像変換部において変換された変換入力画像の特徴量抽出位置毎に、窓にガウス関数、周波数応答にサイン関数又はコサイン関数を基底とするガボア関数によって空間表現されるガボア・フィルタの応答関数の周波数と角度を切り替えながら、該ガボア・フィルタ係数と画素の畳み込み演算を行なって、フィルタの種類に応じた個数のスカラ値からなるガボア・ジェットを求めるガボア・フィルタ適用手段と、特徴量抽出位置毎に、入力顔画像のガボア・ジェットと登録顔画像のガボア・ジェットの類似度を演算し、複数の特徴量抽出位置における類似度の集合からなる類似度ベクトルを求める類似度演算手段とを有し、前記一致判定手段は、前記類似度ベクトルを基に入力顔画像と登録顔画像が一致するか否かを判定する処理を実行する構成であることを特徴とする。
さらに、本発明の第2の側面は、
画像処理装置において、入力顔画像の識別処理を行なう画像処理方法であって、
画像変換部が、識別処理の対象となる顔画像を入力し、入力顔画像に対して画像変換を実行し、予め定められた設定を持つ画像に正規化する処理を実行する画像変換ステップと、
類似度算出部が、前記画像変換ステップにおいて変換された変換入力画像から求めた特徴量と、登録画像の特徴量との類似度を算出する類似度算出ステップと、
一致判定手段が、前記類似度算出ステップにおいて算出した類似度に基づいて入力顔画像と登録顔画像が一致するか否かを判定する一致判定ステップとを有し、
前記画像変換ステップは、
前記入力顔画像の左右の目の中心を原点として設定した画像変換処理による正規化処理を実行するステップを有することを特徴とする画像処理方法にある。
さらに、本発明の画像処理方法の一実施態様において、前記画像変換ステップは、正規化処理の対象とする顔画像を格納した第1メモリから、顔画像を取得して画像変換による正規化を実行して正規化後の顔画像を第2メモリに格納する処理を実行するステップを有し、演算部が、前記第2メモリの各画素位置に対応する前記第1メモリの対応点を算出するための変換パラメータを算出する演算ステップと、座標変換部が、前記演算ステップにおいて算出した変換パラメータに基づいて、前記第2メモリの各画素位置に対応する前記第1メモリの対応点を算出する座標変換ステップと、補間処理部が、前記座標変換ステップにおいて算出した対応点情報に従って、前記第2メモリの各画素位置に対応する画素値を決定する補間処理ステップと、を有することを特徴とする。
さらに、本発明の画像処理方法の一実施態様において、前記演算ステップは、前記変換パラメータとして、前記第1メモリに格納された顔画像を前記第2メモリに格納する顔画像に変換する際に適用する画像縮小処理、または画像回転処理、または画像平行移動処理の少なくともいずれかの処理を規定する変換パラメータを算出し、前記座標変換ステップは、画像縮小処理、または画像回転処理、または画像平行移動処理の少なくともいずれかの処理を規定する変換パラメータを適用して、前記第2メモリの各画素位置に対応する前記第1メモリの対応点を算出する処理を実行することを特徴とする。
さらに、本発明の画像処理方法の一実施態様において、前記座標変換ステップは、
s1xを前記第1メモリ座標系におけるx座標、
s1yを前記第1メモリ座標系におけるy座標、
s2xを前記第2メモリ座標系におけるx座標、
s2yを前記第2メモリ座標系におけるy座標、
とし、
前記演算部から入力する
画像縮小処理パラメータを(c/P)、
画像回転処理パラメータをθ、
画像平行移動処理パラメータを(org_s1x_frc)および(org_s1y_frc)、
としたとき、
前記第2メモリの座標(s2x,s2y)の各々について下式、
s1x=(c/P)×((s2x)×cosθ+s2y×sinθ)+(org_s1x_frc)
s1y=(c/P)×((−s2x)×sinθ+s2y×cosθ)+(org_s1y_frc)
上記式に基づいて、正規化前の画像格納メモリである前記第1メモリの座標(s1x,s1y)を算出することを特徴とする。
さらに、本発明の画像処理方法の一実施態様において、前記平行移動処理パラメータ(org_s1x_frc,org_s1y_frc)は、前記第1メモリ座標系における前記第2メモリの原点に対応する位置を示す情報であることを特徴とする。
さらに、本発明の画像処理方法の一実施態様において、前記補間処理ステップは、前記座標変換部の算出した対応点情報を適用し、bi−linear手法、またはbi−cubic手法を適用した画素値補間処理を実行して、前記第2メモリの各画素位置に対応する画素値を決定する処理を実行することを特徴とする。
さらに、本発明の画像処理方法の一実施態様において、前記類似度算出ステップは、ガボア・フィルタ適用手段が、前記画像変換部において変換された変換入力画像の特徴量抽出位置毎に、窓にガウス関数、周波数応答にサイン関数又はコサイン関数を基底とするガボア関数によって空間表現されるガボア・フィルタの応答関数の周波数と角度を切り替えながら、該ガボア・フィルタ係数と画素の畳み込み演算を行なって、フィルタの種類に応じた個数のスカラ値からなるガボア・ジェットを求めるガボア・フィルタ適用ステップと、類似度演算手段が、特徴量抽出位置毎に、入力顔画像のガボア・ジェットと登録顔画像のガボア・ジェットの類似度を演算し、複数の特徴量抽出位置における類似度の集合からなる類似度ベクトルを求める類似度演算ステップとを有し、前記一致判定ステップは、前記類似度ベクトルを基に入力顔画像と登録顔画像が一致するか否かを判定する処理を実行することを特徴とする。
さらに、本発明の第3の側面は、
画像処理装置において、入力顔画像の識別を行なわせるコンピュータ・プログラムであり、
画像変換部に、識別処理の対象となる顔画像を入力させ、入力顔画像に対して画像変換を実行させ、予め定められた設定を持つ画像に正規化する処理を実行させる画像変換ステップと、
類似度算出部に、前記画像変換ステップにおいて変換された変換入力画像から求めた特徴量と、登録画像の特徴量との類似度を算出させる類似度算出ステップと、
一致判定手段に、前記類似度算出ステップにおいて算出した類似度に基づいて入力顔画像と登録顔画像が一致するか否かを判定させる一致判定ステップとを有し、
前記画像変換ステップは、
前記入力顔画像の左右の目の中心を原点として設定した画像変換処理による正規化処理を実行させるステップを有することを特徴とするコンピュータ・プログラムにある。
なお、本発明のコンピュータ・プログラムは、例えば、様々なプログラム・コードを実行可能なコンピュータ・システムに対して、コンピュータ可読な形式で提供する記憶媒体、通信媒体、例えば、DVD、CD、MOなどの記録媒体、あるいは、ネットワークなどの通信媒体によって提供可能なコンピュータ・プログラムである。このようなプログラムをコンピュータ可読な形式で提供することにより、コンピュータ・システム上でプログラムに応じた処理が実現される。
本発明のさらに他の目的、特徴や利点は、後述する本発明の実施例や添付する図面に基づくより詳細な説明によって明らかになるであろう。なお、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
本発明の一実施例の構成によれば、入力画像と登録顔画像との類似度判定による顔識別処理の前処理として実行する入力顔画像の画像変換において、入力顔画像の左右の目の中心を原点として設定した画像変換処理による正規化処理を実行する構成とした。具体的には、正規化前の顔画像を蓄えるSRAMの原点を左右目位置の中心で画素と画素の間の点とし、正規化後の顔画像を蓄えるSRAMの原点を固定した画素点とし、正規化前の座標と正規化後の座標が異なる正規化処理を行なう構成としたので、例えば顔識別処理に際して重要となる目、鼻、口といった顔パーツの位置や形の誤差の発生を抑制した画像変換が実現され、正確な登録画像との類似度判定が可能となり、高精度な顔識別処理が実現される。
以下、図面を参照しながら本発明の画像処理装置、および画像処理方法、並びにコンピュータ・プログラムの詳細について説明する。
顔認識システムにおいては、入力画像から顔画像を抽出する顔抽出処理と、抽出された顔画像と登録画像との照合を実行して、入力顔画像がどの登録画像に対応するかを識別する顔識別処理が実行されることは既に述べた通りである。ここでは、まず顔検出処理と顔識別処理について改めて定義しておく。
顔検出は、ある1枚の画像(1枚の写真や動画像の1ピクチャ(フィールド又はフレーム)に当たる)に対して、人物顔を検出しその位置と大きさを求める処理である。1枚の画において複数の顔が存在することがある。一方、顔識別とは検出されたある1個の顔が以前に登録された顔と同一人物かを識別することを言う。
図1には、本発明の一実施形態に係る顔認識システムの全体構成を模式的に示している。図示の顔認識システム1は、画縮小器11と、顔検出器12と、両目位置検出器13と、顔識別器14と、複数枚の画像を蓄えるメモリ(SDRAM)15で構成される。また、顔検出器12と、両目位置検出器13と、顔識別器14内部にローカル・メモリ(SRAM)を備えている。本システム1への入力は画像であり、本システム1からの出力(Yes/No)は、入力顔画像と登録顔画像とが同一人物であるか否かを示すフラグである。
画縮小器11では、入力画像に対し水平及び垂直の各方向にそれぞれ1/2にした縮小画像を作成し、原入力画像とともにSDRAM(Synchronous DRAM)15に格納する。図1に示す例では、入力画像を画1、入力画像に対し水平及び垂直方向にそれぞれ1/2にした縮小画像を画1/2、入力画像に対し水平及び垂直方向にそれぞれ1/4にした縮小画像を画1/4として、これら3枚の画像を作成して、SDRAM15に格納する。
縮小画像を作成する際、演算精度を考慮すると、入力画像から直接それぞれの縮小画像を作成する方法が望ましい。但し、ハードウェアの規模を考慮して、1/2縮小を順番に施す方法、つまり、始めに入力画像(画1)から画1/2を作成し、次に作成された画1/2から画1/4を作成する方法で実現するようにしてもよい。
顔検出器12では、入力画像とSDRAM15に格納されているすべての縮小画像に対して顔を検出し、検出された顔の大きさと顔の位置を求める。顔の位置の検出に関しては、画像全体を検出することで処理速度を考慮しなければ容易に実現可能である。一方、いろいろな大きさの顔の検出に関しては、画像の解像度と検出顔の大きさの相対関係の問題で、画像の解像度を固定にする方法(すなわち、入力画像に対していろいろな大きさの顔検出器を用意する方法)と、検出顔の大きさを固定にする方法(検出できる顔の大きさが固定された1つの顔検出器を用い、入力画像をいろいろな解像度に縮小して検出する方法)が考えられるが、後者の方法が現実的である。したがって、図1に示すように、顔検出器12では、画縮小器11で作成された画1、画1/2、画1/4の各縮小画像に対して、24×24画素内に顔が存在するか否かを識別する。
なお、縮小率の刻みが1/2、1/4では粗過ぎて精度が不十分である場合には、例えば画縮小器11で画7/8、画6/8、画5/8の縮小率の画像をさらに作成し、顔検出器12でそれぞれの縮小率の画像に対しても顔検出を行なうようにすれば良い。
顔検出の特徴抽出として2点画素差分方式を適用することができる。これは、24×24画素内において顔の特徴を抽出し易い2点の画素の差分をさまざまな2点で行なう方式である。また、識別器演算としてadaboostアルゴリズムを用いることができる。
両目位置検出器13では、両目位置検出は、顔画像を顔認識するための準備として、顔検出器12によって検出された顔に対して解像度を上げた画像の顔を正規化するために、左右の目の位置を特定する。すなわち、両目位置を検出して、顔検出によって得られた顔の大きさ、顔の位置から、その顔画像の解像度を上げた顔の大きさ、顔の位置、顔の角度を求める。
顔検出器12では24×24画素の解像度で顔検出が行なわれ、顔識別器14では60×66画素の解像度で顔認識が行なわれる。言い換えると、顔識別器14に必要な解像度は、顔検出器12のそれより精度を要求される。そこで、顔検出器で検出された顔が画1/2とすると、それよりも解像度の高い画1の同等の顔が存在する場所で且つ目が存在する顔の上部で左右の目を検出する。
両目位置検出の特徴抽出として2点画素差分方式を適用することができる。2点画素差分方式の適用範囲も24×24画素であり、顔検出器12と同じであるので、顔検出器12と同一のハードウェアで処理時間をシリアルにして実現することができる。
顔識別器14では、両目位置検出器13によって左右の目位置が特定された顔画像から顔の大きさ、位置、角度を求め、それらに応じて顔を正規化して60×66画素の内部のSRAMに一旦蓄えて、登録画像と一致するか否かを調べる。
顔識別器14は、例えば顔認識の特徴抽出としてガボア・フィルタリングを適用する。また、識別器演算としてgentleboostを用いる。正規化された顔画像にガボア・フィルタを適用して得られた結果と、以前に登録された画像にガボア・フィルタを適用して得られた結果との類似度を求める。そして、求められた類似度に対してgentleboostを施すことによって、登録画と一致したか否か識別する。
図2には、顔識別器14の構成例を示している。図示の顔識別器14は、画像変換部141と、ガボア・フィルタ適用部142と、類似度算出部143と、一致判定部144を備えている。
画像変換部141は、初めに、両目位置検出で検出された両目位置情報に基づいて顔識別に必要である解像度に相当する顔画像を、SDRAM15から、顔識別器14にローカルのSRAM1に転送する。次いで、両目位置情報から顔の大きさ、顔の位置、顔の角度を求め、SRAM1にある顔画像の画像変換による正規化処理を実行して、顔識別処理に必要な顔画像を作成して、顔識別器14に備えられたローカルメモリであるSRAM2に格納する。
つまり、画像変換部141では、両目位置情報からSRAM2の固定した座標に右目、左目の位置を合わせるように、SRAM1の顔画像に対する縮小、シフト、回転処理などの画像変換(正規化)を実行して顔認識に必要な顔画像をSRAM2に作成するフィッティング処理を実行する。すなわち、図3に示すように、SRAM1にある顔画像の画像変換による正規化処理を実行してSRAM2に格納する。
なお、本発明の装置においては、顔識別処理に際して重要となる目、鼻、口といった顔パーツの位置や形の誤差の発生を抑制した画像変換(正規化)処理を実行する。この処理については、後段で詳細に説明する。
ガボア・フィルタ適用部142は、画像変換部141において正規化された顔画像に対してガボア・フィルタを適用する。
ガボア・フィルタは、窓にガウス関数、周波数応答にサイン関数又はコサイン関数を基底とするガボア関数によって空間表現される。本実施形態では、フィルタ窓は、図4Aに示すように24×24画素固定とする。そして、図4Bに示すような特定の周波数成分のサイン関数又はコサイン関数からなる応答関数にフィルタ窓をかけると、図4Cに示すようなガボア・フィルタを作成することができる。また、例えば、0度、22.5度、45度、67.5度、90度、112.5度、135度、157.5度と22.5度ずつずらした8方向のサイン関数又はコサイン関数からなる応答関数に対してそれぞれフィルタ窓をかけると、図4Dに示すように8通りのガボア・フィルタを作成することができる。さらに、低周波域から高周波域に至る5種類の周波数fの応答関数について、同様に8方向の角度θでフィルタ窓をかけることで、図4Eに示すように合計で40種類のガボア・フィルタが構成される。ガボア・フィルタ(ガボア・カーネルK(x,y))は、以下の演算式で表される。
ガボア・フィルタの演算は、ガボア・フィルタGi(x,y)を適用する画素I(x,y)とガボア・フィルタの係数との畳み込みである。ガボア・フィルタの係数は、周波数応答がコサイン関数からなる実部Re(x,y)と周波数応答がサイン関数Im(x,y)からなる虚部に分離することができ、それぞれに畳み込み演算を実施し、それぞれの成分を合成して、1個のスカラ値からなるガボア・フィルタ結果Ji(x,y)を求めることができる。但し、(x,y)は特徴量抽出位置の画素位置を示し、iは上述した40通りのガボア・フィルタのうちi番目であることを示す。
画像の特徴量抽出位置(x,y)において最大40種類のガボア・フィルタを適用して得られた最大40スカラ値の組{J1,J2,…,J40}をガボア・ジェットと呼ぶ。
類似度算出部143は、入力画像について算出されたガボア・ジェットGSと登録画像のガボア・ジェットGRに正規化相関演算を行ない、特徴量抽出位置毎の類似度dを求める。
本実施形態では、正規化された60×66画素の顔画像のうち、特徴量が抽出し易い82箇所の特徴量抽出位置(図5を参照のこと)において、正規化相関演算を行ない、類似度を求める。この結果、d0、d1、…、d81の82箇所の各特徴量抽出位置で求められた正規化相関演算結果を要素とする類似度ベクトルDが得られる。
なお、上記では「最大40種類」のガボア・フィルタを適用することを記述したが、これは82箇所のすべての特徴量抽出位置において40種類すべてのガボア・フィルタを適用する必要はないことを意味する。何種類のガボア・フィルタを適用するかは、類似度を抽出する特徴量抽出位置の場所に依存し、場所に応じてガボア・フィルタの種類とその数(ガボア・ジェットの要素数)が異なる。
一致判定部144は、入力画と登録画間の類似度ベクトルに基づいて、両画像の一致を判定する。本実施形態では、識別器演算としてgentleboostを用いる。ここでは、以下の演算式を用いてgentleboostを算出する。但し、同式中のa、q、bは辞書としてあらかじめ登録されているものとする。
そして、以下の判別式に従って、入力画が登録画と一致するかどうかを判定する。
なお、本実施形態では、一致判定にgentleboostを用いているが、例えば、サポート・ベクタ・マシーンを用いて類似ベクトルの境界面の値をクラス判定して、顔画像の一致を判定するようにしてもよい。
次に、図1に示す顔識別器14における画像変換部141(図2参照)において実行する画像変換処理の詳細について説明する。先に図3を参照して説明したように、画像変換部141では、SRAM1に格納した顔画像を取り出して取り出した顔画像の両目位置情報からSRAM2の固定した座標に右目、左目の位置を合わせるように、SRAM1の顔画像に対する縮小、シフト、回転処理などの画像変換(正規化)を実行して顔認識に必要な顔画像をSRAM2に作成するフィッティング処理を実行する。本発明の装置においては、顔識別処理に際して重要となる目、鼻、口といった顔パーツの位置や形の誤差の発生を抑制した画像変換(正規化)処理を実行する。以下この画像変換処理の詳細について説明する。
顔識別器14における画像変換部141は、まず、SDRAM15(図1参照)上にある画像の顔領域部分をSRAM1(図2参照)に書き込む処理(ライト)を実行する。画像変換部141は、SRAM1(図2参照)に書き込んだ画像から顔画像領域を取り出してフィッティング処理としての画像変換を実行して、処理結果をSRAM2に書き込む。フィッティング処理は、SRAM1の画像を正規化してSRAM2に作成する処理である。本装置における正規化とは、顔画像の位置合わせ、回転、拡大縮小処理の少なくともいずれかの処理を含む画像変換処理である。
図6を参照して、画像変換部141において実行する画像変換処理の詳細について説明する。図6は、画像変換部141の詳細構成を示す図である。画像変換部141の演算部203は、まず、SDRAM200上からSRAM1,201に書き込まれた顔画像を読み取り、さらに目位置検出部202からSRAM1,201に書き込まれた顔画像の左右目位置座標を入力する。
演算部203は、この座標データに基づいて、フィッティング処理として実行する画像変換に適用する顔画像の回転角度、倍率、原点位置を求める。さらに座標変換部205は、求めた角度・倍率・原点からSRAM2,251の各々の画素がSRAM1,201のどこの位置に相当するのかを小数精度で求める。例えば、図7に示すSRAM2,251の画素(p,q)が、SRAM1,201のメモリ上の画素位置(m,n)を算出する。例えば図7に示すSRAM2,251が60×66画素情報を格納するメモリである場合、60×66の画素中の顔領域に含まれる各画素位置に対応するSRAM1,201のメモリ上の画素位置(m,n)を算出する。この場合、SRAM1,201のメモリ上の画素位置(m.n)のmやnは整数値とならない場合もあるが、演算部は、対応画素位置(m,n)について、整数部のみならず、小数部、例えば小数点以下2桁等の精度で対応画素位置(m,n)を算出する。
この座標変換部205の算出した対応画素位置情報に基づいて、図6に示す補間処理部207が、SRAM2,251の各々の画素の画素値を決定する。すなわち、座標変換部205の算出した対応画素位置情報において、SRAM2,251の画素(p,q)に対応するSRAM1,201のメモリ上の画素位置(m.n)が整数値m,nを持つ場合は、SRAM2,251の画素(p,q)の画素値は、対応するSRAM1,201のメモリ上の画素位置(m.n)の画素値として設定するが、対応画素位置(m,n)のmまたはnの値が整数値とならず小数部を持つときは、対応画素位置(m,n)周囲のSRAM1画素の画素値に基づく補間処理によって、SRAM2,251の画素(p,q)の画素値を決定する。
図6に示す画像変換部141の補間処理部207の実行する画素補間処理について、図8を参照して説明する。補間処理部207の実行する画素補間処理が、bi−linear手法である場合、図8(a)に示すように、SRAM1,201上の対応画素位置(m,n)の周囲画素4点(SRAM1,201整数部座標)と周囲4画素までの距離(SRAM1小数部座標)を求める。また、補間処理部207の実行する画素補間処理が、bi−cubic手法である場合は、図8(b)に示すように、SRAM1,201上の対応画素位置(m,n)周りの画素16点(SRAM1,201整数部座標)と周り16画素までの距離(SRAM1小数部座標)を求める。
次に求めたSRAM1,201における整数部座標の画素とSRAM1,201における小数部座標データを適用して各画素値の寄与度としての重みを算出し、算出した重みに基づいてSRAM2,251の対応画素(p,q)の画素値を算出して、SRAM2に記録(ライト)する画素値を算出する。
このようにして、SRAM1,201に格納された画像の各構成画素値に基づいて、SRAM2,251に格納する画像の画素値が決定されることになる。なお、先に説明したように、画像変換部141の演算部203は、まず、SDRAM200上からSRAM1,201に書き込まれた顔画像を読み取り、さらに目位置検出部202からSRAM1,201に書き込まれた顔画像の左右目位置座標を入力し、この座標データに基づいて、フィッティング処理として実行する画像変換に適用する顔画像の回転角度、倍率、原点位置を求める。さらに演算部203は、求めた角度・倍率・原点からSRAM2,251の各々の画素がSRAM1,201のどこの位置に相当するのかを小数精度で求める。
このフィッティング処理は、登録画像との照合処理をより正確に実行するための正規化処理として実行される画像変換処理である。この正規化処理(画像変換処理)について、以下説明する。演算部203は、はじめに正規化された顔画像を蓄えるSRAM2,251の座標を定義する。
本実施例に従った正規化処理では、まず、正規化された顔画像を蓄積するSRAM2,251上の左右の目の位置の座標を決定する。すなわち、左右の目の位置のSRAM2,251の固定座標を決定する。具体的には、例えば、次のような処理によって、SRAM2,251の固定座標を割り当てる。
図9に示すように、正規化(画像変換処理)後の顔画像を格納するSRAM2,251の顔画像格納領域の画素座標(x,y)とし、
横軸(X軸):サイズ60画素、x=−29〜+30、
縦軸(Y軸):サイズ66画素、y=−39〜+26、
とした場合の処理例について説明する。
このようなSRAM2,251の顔画像格納領域の座標において、右目位置の(x,y)座標を(−11,0)、左目位置の(x,y)座標を(11,0)に割り当てる。また原点の(x,y)座標を右目位置と左目位置の中心(0,0)とする。
次に、正規化前の顔画像を格納したSRAM1,201の座標を割り当てる。SRAM1,201に格納する顔画像データは、図6に示すSDRAM200に格納された顔画像に対応しており、まずSDRAM200上での座標を考える。図6に示す目位置検出部202において、SDRAM200上での左右目位置情報が取得され、この情報が演算部203に入力される。なお、検出された左右目位置は、SDRAMの特定の画素に対応するとは限らない。さらに左右目位置の中心もSDRAM上に規定される特定の画素に対応するとは限らない。
つまり、正規化後の顔画像を格納するSRAM2.251において設定する原点である左右の目の中心に対応するSDRAM上の原点(左右目の中心)座標は、SDRAM上の特定の画素位置に対応するとは限らない。
SDRAM上の原点(左右目の中心)座標を、
(org_drx,org_dry)
とする。
SDRAM200上の原点(左右目の中心)座標(org_drx,org_dry)
は、SDRAM200上のある画素(x,y)に対し次の範囲に存在する。
x<=org_drx<x+1
y<=org_dry<y+1
SDRAM200上の画素を切り出してSRAM1,201に格納(ライト)するときは、SDRAM200上の画素(x,y)をSRAM1,201の原点(0,0)に合わせる。
図10に示すように、正規化(画像変換処理)前の顔画像を格納するSRAM1,201の顔画像格納領域の画素座標(x,y)とし、
横軸(X軸):サイズ192画素、x=−95+96、
縦軸(Y軸)サイズ180画素、y=−107〜+72、
とする。
この設定とすると、SDRAM200上の原点(左右目の中心)座標(org_drx,org_dry)に対応するSRAM1,201上の原点位置(org_s1x,org_s1y)は、図10に示すように次の範囲に存在する。
0<=org_s1x<1
0<=org_s1y<1
図10に示すSRAM1,201の原点領域の近傍を拡大した図を図11に示す。SRAM2の原点に対応する図に示す[▲]は、SRAM1における座標系では、
0<=org_s1x<1
0<=org_s1y<1
の位置にある。ここで、
org_s1x_int:SRAM1の原点座標xの整数部、
org_s1x_frc:SRAM1の原点座標xの小数部、
org_s1y_int:SRAM1の原点座標yの整数部、
org_s1y_frc:SRAM1の原点座標yの小数部、
とすると、
org_s1x_int=0、
org_s1y_int=0、
となる。
このように、正規化(画像変換処理)後の画像を格納するSRAM2,251における原点はSRAM2座標系における原点(0,0)座標であるが、図10、図11を参照して説明したように、正規化(画像変換処理)前の画像を格納しているSRAM1,201におけるこの原点の対応するSRAM2座標系の座標位置は(0,0)とならず、
0<=org_s1x<1
0<=org_s1y<1
となる(org_s1x,org_s1x)となる。
従って、SRAM1,201に格納された顔画像を正規化(画像変換)してSRAM2,251に格納する場合は、SRAM2,251の各座標がSRAM1,201の座標系のどこに対応するかを求める処理が必要となる。
すなわち、SRAM1,201に記録された顔画像に対する正規化(画像変換)処理として、画像の縮小処理、回転処理、平行移動処理の少なくともいずれかの処理を実行してSRAM2,251に正規化後画像を格納する場合、正規化後の画像格納メモリであるSRAM2,251の各座標が、正規化前の画像格納メモリであるSRAM1,201の座標系のどこに対応するかを求める処理が必要となる。図6に示す画像変換部141の演算部203では、対応を求めるために必要となる画像変換パラメータとしての回転角度、変換倍率、原点情報を求め、これらの変換パラメータを座標変換部205に出力する。
座標変換部205では、演算部203から入力するこれらの変換パラメータを適用して、SRAM2,251の座標各々に対応するSRAM1,201の座標を算出する。なお、この処理に際して、座標変換部205は、図6に示す画像変換部141のアドレス作成部204から、SDRAM200やSRAM1,201における顔画像格納領域の画素位置に対応するアドレスを受領して、対応画素位置算出を実行する。この算出結果が補間処理部207に出力され、補間処理部207では、先に図8を参照して説明したbi−linear手法、あるいはbi−cubic手法を適用した画素値補間処理を実行して、画素値を決定して、決定した画素値をSRAM2,251の各座標位置に書き込む。
図12を参照して、正規化処理において必要とする対応画素算出処理、すなわち、正規化後の画像格納メモリであるSRAM2,251の各座標が、正規化前の画像格納メモリであるSRAM1,201の座標系のどこに対応するかを求める処理の詳細について説明する。図12には、入力画像を格納したSDRAM200、SDRAM200に格納された顔画像領域を切り出して格納するSRAM1,201、SRAM1,201に格納された顔画像の正規化(画像変換)処理を実行して、正規化(変換処理)後の画像を格納するSRAM2,252のメモリ領域を示している。
SDRAM200、SRAM1,201、SRAM2,251のそれぞれのメモリ領域は、図12に示すように、
SDRAM:320×240画素
SRAM1:192×180画素
SRAM2:60×66画素
とする。
また、正規化処理後にSRAM2,251に格納される顔画像における原点を、SRAM2,251に格納される顔画像の左右の目の中心位置として、この座標SRAM2座標系における原点(0,0)とする。SRAM2,251に格納される顔画像の左右の目の距離を[P]、例えば22画素とする。
正規化前の画像を格納しているSRAM1,201における顔画像の左目および右目座標、および左右目の中心である原点の座標を、図12に示すように、
左目座標(lex,ley)、
右目座標(rex,rey)、
原点座標(cex,cey)、
とする。また、
左目座標(lex,ley)と右目座標(rex,rey)との距離を[c]とし、
左目座標(lex,ley)と右目座標(rex,rey)とのx座標差分を[a]、
左目座標(lex,ley)と右目座標(rex,rey)とのy座標差分を[b]、
とする。
a,b,cは、図12に示すSRAM1,201内の直角三角形の辺の長さに相当し、
=a+b
の関係を持つ。辺aとcのなす角をθとする。
ここで、正規化前の画像格納メモリであるSRAM1,201の座標系、および、正規化後の画像格納メモリであるSRAM2,251の座標系における(x,y)座標を以下のように定義する。
s1x:SRAM1座標系におけるx座標、
s1y:SRAM1座標系におけるy座標、
s2x:SRAM2座標系におけるx座標、
s2y:SRAM2座標系におけるy座標、
このように定義する。
座標変換部205では、正規化後の画像格納メモリであるSRAM2の座標(s2x,s2y)の各々について以下の式(式1)に基づいて、正規化前の画像格納メモリであるSRAM1,201の座標(s1x,s1y)を算出する。
s1x=(c/P)×((s2x)×cosθ+s2y×sinθ)+(org_s1x_frc)
=(a×s2x+b×s2y)/P+(org_s1x_frc)
s1y=(c/P)×((−s2x)×sinθ+s2y×cosθ)+(org_s1y_frc)
=(−b×s2x+a×s2y)/P+(org_s1y_frc)
・・・(式1)
なお、上記式(式1)において、
a=(lex)−(rex)、
b=ley−rey、
c=√(a×a+b×b)、
cosθ=a/c、
sinθ=b/c、
である。
座標変換部205では、上記式(式1)を適用して、正規化後の画像格納メモリであるSRAM2の座標(s2x,s2y)の各々について正規化前の画像格納メモリであるSRAM1,201の座標(s1x,s1y)を算出する。
演算部203は、上記式(式1)において適用する変換パラメータとしての回転角度、変換倍率、原点情報を求め、これらの変換パラメータを座標変換部205に出力する。上記式(式1)において、
変換倍率(画像縮小処理パラメータ):(c/P)
回転角度(画像回転処理パラメータ):θ、
原点情報(画像平行移動処理パラメータ):(org_s1x_frc,org_s1y_frc)
である。
なお、原点情報(画像平行移動処理パラメータ)は、SRAM1座標系におけるSRAM2における原点に対応する位置を示す情報(図11参照)である。演算部203では、SRAM2,251の原点情報と、SRAM1,201に格納された顔画像情報とに基づいて、上記の各変換パラメータ:回転角度、変換倍率、原点情報を求め、これらの変換パラメータを座標変換部205に出力する。
座標変換部205は、カウンタ206から、SRAM2,251の各画素(s2x,s2y)のカウント値を入力して、1画素毎に、上記式(式1)を適用して、SRAM2,251の各画素(s2x,s2y)に対応するSRAM1の画素位置(s1x,s1y)を算出する。
この算出結果が補間処理部207に出力され、補間処理部207では、先に図8を参照して説明したbi−linear手法、あるいはbi−cubic手法を適用した画素値補間処理を実行し画素値を決定して、決定した画素値がSRAM2,251の各座標位置に書き込まれる。なお、カウンタ206から、SRAM2,251の各画素(s2x,s2y)のカウント値がSRAM2の書き込みアドレスとして入力され、アドレス位置に従って、決定した画素値の書き込みが実行される。
補間処理部207における画素値の決定処理例の一例として、bi−linear手法を適用した処理例について図13を参照して説明する。図13には、SRAM1座標系において、SRAM2のある1つの座標点(s2x,s2y)のSRAM1座標系における対応点[★]301を示している。
対応点[★]301は、SRAM2の座標系では、特定の1つの座標点に対応せず、複数の座標点(e,f,g,h)に囲まれた位置にある。座標点E,F,G,Hの各々は、SRAM1座標の座標点であり、以下の座標を持つ。
E=(s1x_int,s1y_int)
F=(s1x_int+1,s1y_int)
G=(s1x_int,s1y_int+1)
H=(s1x_int+1,s1y_int+1)
これらの画素点E,F,G,Hには、それぞれ画素値が設定されている。ここで、画素点E,F,G,Hの各画素値をそれぞれe,f,g,hとする。このとき、補間処理部207は、SRAM2の座標点(s2x,s2y)に設定する画素値[Q]を、bi−linear手法を適用して以下の計算式(式2)によって算出する。
Q=[(1−s1x_frc)×(1−s1y_frc)×e+(s1x_frc)×(1−s1y_frc)×f+(1−s1x_frc)×(s1y_frc)×g+(s1x_frc)×(s1y_frc)×h]/4
・・・(式2)
上記式(式2)は、bi−linear手法による画素値補間処理であり、先に図8(a)を参照して説明した処理に従った画素値決定処理である。すなわち、SRAM2の画素(s2x,s2y)に対応するSRAM1上の対応画素位置[★]と、周囲画素4点(E,F,G,H)との距離(SRAM1小数部座標)を求め、求めた距離に基づいて、各画素値の寄与度としての重みを算出し、算出した重みに基づいてSRAM2の画素(s2x,s2y)の画素値を算出する処理である。上記式によって、
決定した画素値がSRAM2,251の各座標位置に書き込まれる。
なお、前述したように、補間処理部207における画素値の決定処理手法としては、上述のbi−linear手法に限らず、bi−cubic手法等の他の手法を適用してもよい。
以上、特定の実施例を参照しながら、本発明について詳解してきた。しかしながら、本発明の要旨を逸脱しない範囲で当業者が該実施例の修正や代用を成し得ることは自明である。すなわち、例示という形態で本発明を開示してきたのであり、限定的に解釈されるべきではない。本発明の要旨を逸脱しない範囲で当業者が該実施形態の修正や代用を成し得ることは自明である。本発明の要旨を判断するためには、特許請求の範囲の欄を参酌すべきである。
なお、本明細書では、顔認識装置に適用した実施形態を中心に説明してきたが、本発明の要旨はこれに限定されるものではない。顔画像データの変換を実行して、メモリに格納、あるいはディスプレイに出力する処理を行なう様々な画像処理装置において適用可能である。
また、明細書中において説明した一連の処理はハードウェア、またはソフトウェア、あるいは両者の複合構成によって実行することが可能である。ソフトウェアによる処理を実行する場合は、処理シーケンスを記録したプログラムを、専用のハードウェアに組み込まれたコンピュータ内のメモリにインストールして実行させるか、あるいは、各種処理が実行可能な汎用コンピュータにプログラムをインストールして実行させることが可能である。
本発明の一実施例の構成によれば、入力画像と登録顔画像との類似度判定による顔識別処理の前処理として実行する入力顔画像の画像変換において、入力顔画像の左右の目の中心を原点として設定した画像変換処理による正規化処理を実行する構成とした。具体的には、正規化前の顔画像を蓄えるSRAMの原点を左右目位置の中心で画素と画素の間の点とし、正規化後の顔画像を蓄えるSRAMの原点を固定した画素点とし、正規化前の座標と正規化後の座標が異なる正規化処理を行なう構成としたので、例えば顔識別処理に際して重要となる目、鼻、口といった顔パーツの位置や形の誤差の発生を抑制した画像変換が実現され、正確な登録画像との類似度判定が可能となり、高精度な顔識別処理が実現される。
図1は、本発明の一実施形態に係る顔認識システムの全体構成を模式的に示した図である。 図2は、顔識別器14の構成例を示した図である。 図3は、検出された顔画像を、縮小、シフト、回転変換して顔認識に必要な顔画像に正規化する様子を示した図である。 図4Aは、24×24画素固定で構成されるガウス関数からなるフィルタ窓を示した図である。 図4Bは、サイン関数又はコサイン関数からなる応答関数を示した図である。 図4Cは、図4Bに示した応答関数に図4Aに示したフィルタ窓をかけて得られるガボア・フィルタを示した図である。 図4Dは、22.5度ずつずらした8方向の応答関数についてそれぞれフィルタ窓をかけて得られる8通りのガボア・フィルタを示した図である。 図4Eは、5種類の周波数fの応答関数について、同様に8方向の角度θでフィルタ窓をかけて得られる40種類のガボア・フィルタを示した図である。 図5は、正規化された60×66画素の顔画像に設けられた82箇所の特徴量抽出位置を示した図である。 図6は、画像変換部141において実行する画像変換処理の詳細について説明する図である。 図7は、SRAM2の画素位置二対応するSRAM1の画素位置を求める処理について説明する図である。 図8は、画像変換部141の補間処理部207の実行する画素補間処理について説明する図である。 図9は、正規化(画像変換処理)後の顔画像を格納するSRAM2,251の顔画像格納領域の画素の構成を示した図である。 図10は、正規化(画像変換処理)前の顔画像を格納するSRAM1,201の顔画像格納領域の画素の構成を示した図である。 図11は、図10に示すSRAM1,201の原点領域の近傍を拡大した図である。 図12は、正規化処理において必要とする対応画素算出処理について説明する図である。 図13は、補間処理部207における画素値の決定処理例の一例として、bi−linear手法を適用した処理例について説明する図である。
符号の説明
1 顔認識システム
11 画縮小器
12 顔検出器
13 両目位置検出器
14 顔識別器
15 メモリ
141 画像変換部
142 ガボア・フィルタ適用部
143 類似度算出部
144 一致判定部
200 SDRAM
201 SRAM1
202 目位置検出部
203 演算部
204 アドレス作成部
205 座標変換部
206 カウンタ
207 補間処理部
251 SRAM2

Claims (15)

  1. 入力顔画像の識別処理を行なう画像処理装置であって、
    識別処理の対象となる顔画像を入力し、入力顔画像に対して画像変換を実行し、予め定められた設定を持つ画像に正規化する処理を実行する画像変換部と、
    前記画像変換部において変換された変換入力画像から求めた特徴量と、登録画像の特徴量との類似度を算出する類似度算出部と、
    前記類似度算出部の算出した類似度に基づいて入力顔画像と登録顔画像が一致するか否かを判定する一致判定手段を備え、
    前記画像変換部は、
    前記入力顔画像の左右の目の中心を原点として設定した画像変換処理による正規化処理を実行する構成であることを特徴とする画像処理装置。
  2. 前記画像変換部は、
    正規化処理の対象とする顔画像を格納した第1メモリから、顔画像を取得して画像変換による正規化を実行して正規化後の顔画像を第2メモリに格納する処理を実行する構成であり、
    前記第2メモリの各画素位置に対応する前記第1メモリの対応点を算出するための変換パラメータを算出する演算部と、
    前記演算部の算出した変換パラメータに基づいて、前記第2メモリの各画素位置に対応する前記第1メモリの対応点を算出する座標変換部と、
    前記座標変換部の算出した対応点情報に従って、前記第2メモリの各画素位置に対応する画素値を決定する補間処理部と、
    を有する構成であることを特徴とする請求項1に記載の画像処理装置。
  3. 前記演算部は、
    前記変換パラメータとして、前記第1メモリに格納された顔画像を前記第2メモリに格納する顔画像に変換する際に適用する画像縮小処理、または画像回転処理、または画像平行移動処理の少なくともいずれかの処理を規定する変換パラメータを算出し、
    前記座標変換部は、
    画像縮小処理、または画像回転処理、または画像平行移動処理の少なくともいずれかの処理を規定する変換パラメータを適用して、前記第2メモリの各画素位置に対応する前記第1メモリの対応点を算出する処理を実行する構成であることを特徴とする請求項2に記載の画像処理装置。
  4. 前記座標変換部は、
    s1xを前記第1メモリ座標系におけるx座標、
    s1yを前記第1メモリ座標系におけるy座標、
    s2xを前記第2メモリ座標系におけるx座標、
    s2yを前記第2メモリ座標系におけるy座標、
    とし、
    前記演算部から入力する
    画像縮小処理パラメータを(c/P)、
    画像回転処理パラメータをθ、
    画像平行移動処理パラメータを(org_s1x_frc)および(org_s1y_frc)、
    としたとき、
    前記第2メモリの座標(s2x,s2y)の各々について下式、
    s1x=(c/P)×((s2x)×cosθ+s2y×sinθ)+(org_s1x_frc)
    s1y=(c/P)×((−s2x)×sinθ+s2y×cosθ)+(org_s1y_frc)
    上記式に基づいて、正規化前の画像格納メモリである前記第1メモリの座標(s1x,s1y)を算出する構成であることを特徴とする請求項3に記載の画像処理装置。
  5. 前記平行移動処理パラメータ(org_s1x_frc,org_s1y_frc)は、前記第1メモリ座標系における前記第2メモリの原点に対応する位置を示す情報であることを特徴とする請求項4に記載の画像処理装置。
  6. 前記補間処理部は、
    前記座標変換部の算出した対応点情報を適用し、bi−linear手法、またはbi−cubic手法を適用した画素値補間処理を実行して、前記第2メモリの各画素位置に対応する画素値を決定する処理を実行する構成であることを特徴とする請求項2に記載の画像処理装置。
  7. 前記類似度算出部は、
    前記画像変換部において変換された変換入力画像の特徴量抽出位置毎に、窓にガウス関数、周波数応答にサイン関数又はコサイン関数を基底とするガボア関数によって空間表現されるガボア・フィルタの応答関数の周波数と角度を切り替えながら、該ガボア・フィルタ係数と画素の畳み込み演算を行なって、フィルタの種類に応じた個数のスカラ値からなるガボア・ジェットを求めるガボア・フィルタ適用手段と、
    特徴量抽出位置毎に、入力顔画像のガボア・ジェットと登録顔画像のガボア・ジェットの類似度を演算し、複数の特徴量抽出位置における類似度の集合からなる類似度ベクトルを求める類似度演算手段とを有し、
    前記一致判定手段は、
    前記類似度ベクトルを基に入力顔画像と登録顔画像が一致するか否かを判定する処理を実行する構成であることを特徴とする請求項1に記載の画像処理装置。
  8. 画像処理装置において、入力顔画像の識別処理を行なう画像処理方法であって、
    画像変換部が、識別処理の対象となる顔画像を入力し、入力顔画像に対して画像変換を実行し、予め定められた設定を持つ画像に正規化する処理を実行する画像変換ステップと、
    類似度算出部が、前記画像変換ステップにおいて変換された変換入力画像から求めた特徴量と、登録画像の特徴量との類似度を算出する類似度算出ステップと、
    一致判定手段が、前記類似度算出ステップにおいて算出した類似度に基づいて入力顔画像と登録顔画像が一致するか否かを判定する一致判定ステップとを有し、
    前記画像変換ステップは、
    前記入力顔画像の左右の目の中心を原点として設定した画像変換処理による正規化処理を実行するステップを有することを特徴とする画像処理方法。
  9. 前記画像変換ステップは、
    正規化処理の対象とする顔画像を格納した第1メモリから、顔画像を取得して画像変換による正規化を実行して正規化後の顔画像を第2メモリに格納する処理を実行するステップを有し、
    演算部が、前記第2メモリの各画素位置に対応する前記第1メモリの対応点を算出するための変換パラメータを算出する演算ステップと、
    座標変換部が、前記演算ステップにおいて算出した変換パラメータに基づいて、前記第2メモリの各画素位置に対応する前記第1メモリの対応点を算出する座標変換ステップと、
    補間処理部が、前記座標変換ステップにおいて算出した対応点情報に従って、前記第2メモリの各画素位置に対応する画素値を決定する補間処理ステップと、
    を有することを特徴とする請求項8に記載の画像処理方法。
  10. 前記演算ステップは、
    前記変換パラメータとして、前記第1メモリに格納された顔画像を前記第2メモリに格納する顔画像に変換する際に適用する画像縮小処理、または画像回転処理、または画像平行移動処理の少なくともいずれかの処理を規定する変換パラメータを算出し、
    前記座標変換ステップは、
    画像縮小処理、または画像回転処理、または画像平行移動処理の少なくともいずれかの処理を規定する変換パラメータを適用して、前記第2メモリの各画素位置に対応する前記第1メモリの対応点を算出する処理を実行することを特徴とする請求項9に記載の画像処理方法。
  11. 前記座標変換ステップは、
    s1xを前記第1メモリ座標系におけるx座標、
    s1yを前記第1メモリ座標系におけるy座標、
    s2xを前記第2メモリ座標系におけるx座標、
    s2yを前記第2メモリ座標系におけるy座標、
    とし、
    前記演算部から入力する
    画像縮小処理パラメータを(c/P)、
    画像回転処理パラメータをθ、
    画像平行移動処理パラメータを(org_s1x_frc)および(org_s1y_frc)、
    としたとき、
    前記第2メモリの座標(s2x,s2y)の各々について下式、
    s1x=(c/P)×((s2x)×cosθ+s2y×sinθ)+(org_s1x_frc)
    s1y=(c/P)×((−s2x)×sinθ+s2y×cosθ)+(org_s1y_frc)
    上記式に基づいて、正規化前の画像格納メモリである前記第1メモリの座標(s1x,s1y)を算出することを特徴とする請求項10に記載の画像処理方法。
  12. 前記平行移動処理パラメータ(org_s1x_frc,org_s1y_frc)は、前記第1メモリ座標系における前記第2メモリの原点に対応する位置を示す情報であることを特徴とする請求項11に記載の画像処理方法。
  13. 前記補間処理ステップは、
    前記座標変換部の算出した対応点情報を適用し、bi−linear手法、またはbi−cubic手法を適用した画素値補間処理を実行して、前記第2メモリの各画素位置に対応する画素値を決定する処理を実行することを特徴とする請求項9に記載の画像処理方法。
  14. 前記類似度算出ステップは、
    ガボア・フィルタ適用手段が、前記画像変換部において変換された変換入力画像の特徴量抽出位置毎に、窓にガウス関数、周波数応答にサイン関数又はコサイン関数を基底とするガボア関数によって空間表現されるガボア・フィルタの応答関数の周波数と角度を切り替えながら、該ガボア・フィルタ係数と画素の畳み込み演算を行なって、フィルタの種類に応じた個数のスカラ値からなるガボア・ジェットを求めるガボア・フィルタ適用ステップと、
    類似度演算手段が、特徴量抽出位置毎に、入力顔画像のガボア・ジェットと登録顔画像のガボア・ジェットの類似度を演算し、複数の特徴量抽出位置における類似度の集合からなる類似度ベクトルを求める類似度演算ステップとを有し、
    前記一致判定ステップは、
    前記類似度ベクトルを基に入力顔画像と登録顔画像が一致するか否かを判定する処理を実行することを特徴とする請求項8に記載の画像処理方法。
  15. 画像処理装置において、入力顔画像の識別を行なわせるコンピュータ・プログラムであり、
    画像変換部に、識別処理の対象となる顔画像を入力させ、入力顔画像に対して画像変換を実行させ、予め定められた設定を持つ画像に正規化する処理を実行させる画像変換ステップと、
    類似度算出部に、前記画像変換ステップにおいて変換された変換入力画像から求めた特徴量と、登録画像の特徴量との類似度を算出させる類似度算出ステップと、
    一致判定手段に、前記類似度算出ステップにおいて算出した類似度に基づいて入力顔画像と登録顔画像が一致するか否かを判定させる一致判定ステップとを有し、
    前記画像変換ステップは、
    前記入力顔画像の左右の目の中心を原点として設定した画像変換処理による正規化処理を実行させるステップを有することを特徴とするコンピュータ・プログラム。
JP2007024026A 2007-02-02 2007-02-02 画像処理装置、および画像処理方法、並びにコンピュータ・プログラム Pending JP2008191816A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2007024026A JP2008191816A (ja) 2007-02-02 2007-02-02 画像処理装置、および画像処理方法、並びにコンピュータ・プログラム
US12/013,050 US8155398B2 (en) 2007-02-02 2008-01-11 Image processing apparatus, image processing method and computer program
CN2008100086172A CN101236602B (zh) 2007-02-02 2008-02-01 图像处理设备、图像处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007024026A JP2008191816A (ja) 2007-02-02 2007-02-02 画像処理装置、および画像処理方法、並びにコンピュータ・プログラム

Publications (1)

Publication Number Publication Date
JP2008191816A true JP2008191816A (ja) 2008-08-21

Family

ID=39676202

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007024026A Pending JP2008191816A (ja) 2007-02-02 2007-02-02 画像処理装置、および画像処理方法、並びにコンピュータ・プログラム

Country Status (3)

Country Link
US (1) US8155398B2 (ja)
JP (1) JP2008191816A (ja)
CN (1) CN101236602B (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012512478A (ja) * 2008-12-30 2012-05-31 ノキア コーポレイション 顔姿勢推定を提供するための方法、装置、およびコンピュータプログラム
KR101468192B1 (ko) * 2013-10-15 2014-12-05 순천향대학교 산학협력단 스마트워크 환경에서의 얼굴인식기반 사용자인증 기법
WO2019239744A1 (ja) * 2018-06-11 2019-12-19 パナソニックIpマネジメント株式会社 撮像制御装置、撮像制御方法、及びプログラム

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4367663B2 (ja) * 2007-04-10 2009-11-18 ソニー株式会社 画像処理装置、画像処理方法、プログラム
JP4506795B2 (ja) 2007-08-06 2010-07-21 ソニー株式会社 生体運動情報表示処理装置、生体運動情報処理システム
JP5450984B2 (ja) * 2008-06-02 2014-03-26 キヤノン株式会社 情報処理装置、撮像装置、制御方法、及びプログラム
JP2010033305A (ja) * 2008-07-29 2010-02-12 Hitachi Ltd 画像情報処理方法、及び装置
JP4547639B2 (ja) * 2008-08-26 2010-09-22 ソニー株式会社 画像処理装置および方法、並びにプログラム
KR101522985B1 (ko) * 2008-10-31 2015-05-27 삼성전자주식회사 영상처리 장치 및 방법
JP2010244381A (ja) * 2009-04-08 2010-10-28 Sony Corp ガボアフィルタ、画像認識装置および方法、プログラム、並びに記録媒体
JP5438419B2 (ja) * 2009-07-29 2014-03-12 富士フイルム株式会社 人物照合装置及び人物照合方法
JP2011128990A (ja) * 2009-12-18 2011-06-30 Canon Inc 画像処理装置とその方法
JP5110098B2 (ja) * 2010-02-08 2012-12-26 カシオ計算機株式会社 表示処理装置、及び、プログラム
CN102739999A (zh) * 2011-05-17 2012-10-17 新奥特(北京)视频技术有限公司 一种二维字幕变形的加权补偿方法及系统
JP5793353B2 (ja) * 2011-06-20 2015-10-14 株式会社東芝 顔画像検索システム、及び顔画像検索方法
JP5713821B2 (ja) * 2011-06-30 2015-05-07 キヤノン株式会社 画像処理装置及び方法、並びに画像処理装置を有するカメラ
US20130286161A1 (en) * 2012-04-25 2013-10-31 Futurewei Technologies, Inc. Three-dimensional face recognition for mobile devices
CN103679628B (zh) * 2012-09-07 2016-08-17 华晶科技股份有限公司 影像处理记录系统及其影像处理记录方法
CN104346797A (zh) * 2013-07-31 2015-02-11 北大方正集团有限公司 关键像素点匹配方法和装置、图像匹配方法和装置
US9471847B2 (en) * 2013-10-29 2016-10-18 Nec Corporation Efficient distance metric learning for fine-grained visual categorization
CN103679701B (zh) * 2013-11-19 2016-12-07 西安理工大学 基于支持向量机回归的晶体图像直线轮廓检测方法
CN103605972B (zh) * 2013-12-10 2017-02-15 康江科技(北京)有限责任公司 一种基于分块深度神经网络的非限制环境人脸验证方法
CN104134213B (zh) * 2014-09-02 2017-02-15 武汉华目信息技术有限责任公司 一种数字图像中的目标定位方法以及装置
JP6544900B2 (ja) * 2014-09-17 2019-07-17 キヤノン株式会社 オブジェクト識別装置、オブジェクト識別方法及びプログラム
CN105512599A (zh) * 2014-09-26 2016-04-20 数伦计算机技术(上海)有限公司 人脸识别方法及人脸识别系统
CN106887024B (zh) 2015-12-16 2019-09-17 腾讯科技(深圳)有限公司 照片的处理方法及处理系统
JP2018081402A (ja) * 2016-11-15 2018-05-24 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
CN107784482A (zh) * 2017-09-30 2018-03-09 平安科技(深圳)有限公司 招聘方法、电子装置及可读存储介质
CN108537208A (zh) * 2018-04-24 2018-09-14 厦门美图之家科技有限公司 一种多尺度的人脸检测方法及计算设备
CN109472753B (zh) * 2018-10-30 2021-09-07 北京市商汤科技开发有限公司 一种图像处理方法、装置、计算机设备和计算机存储介质
CN110704559B (zh) * 2019-09-09 2021-04-16 武汉大学 一种多尺度矢量面数据匹配方法
CN111738194B (zh) * 2020-06-29 2024-02-02 深圳力维智联技术有限公司 一种用于人脸图像相似性的评价方法和装置
AU2021204581A1 (en) * 2021-02-22 2022-09-08 Sensetime International Pte. Ltd. Methods, apparatuses, devices and storage media for predicting correlation between objects involved in image
CN116030396B (zh) * 2023-02-27 2023-07-04 温州众成科技有限公司 一种用于视频结构化提取的精确分割方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003250036A (ja) * 2002-02-22 2003-09-05 Mitsubishi Electric Corp 電子透かし埋込み方法、電子透かし検出方法
JP2005141318A (ja) * 2003-11-04 2005-06-02 Omron Corp 輪郭判断装置及び輪郭表示装置
JP2006004003A (ja) * 2004-06-15 2006-01-05 Sony Corp 画像処理装置および方法、記録媒体、並びにプログラム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3861421B2 (ja) 1997-11-28 2006-12-20 日本ビクター株式会社 個人識別装置
KR100941209B1 (ko) 2001-08-23 2010-02-10 소니 주식회사 로봇 장치, 얼굴 인식 방법 및 얼굴 인식 장치
US6879709B2 (en) * 2002-01-17 2005-04-12 International Business Machines Corporation System and method for automatically detecting neutral expressionless faces in digital images
KR100438841B1 (ko) * 2002-04-23 2004-07-05 삼성전자주식회사 이용자 검증 및 데이터 베이스 자동 갱신 방법, 및 이를이용한 얼굴 인식 시스템
US7596247B2 (en) * 2003-11-14 2009-09-29 Fujifilm Corporation Method and apparatus for object recognition using probability models
JP4317465B2 (ja) * 2004-02-13 2009-08-19 本田技研工業株式会社 顔識別装置、顔識別方法及び顔識別プログラム
JP2006004041A (ja) 2004-06-16 2006-01-05 Matsushita Electric Ind Co Ltd 物体画像抽出装置および物体画像抽出方法
JP4653606B2 (ja) * 2005-05-23 2011-03-16 株式会社東芝 画像認識装置、方法およびプログラム
JP2007072620A (ja) * 2005-09-05 2007-03-22 Toshiba Corp 画像認識装置及びその方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003250036A (ja) * 2002-02-22 2003-09-05 Mitsubishi Electric Corp 電子透かし埋込み方法、電子透かし検出方法
JP2005141318A (ja) * 2003-11-04 2005-06-02 Omron Corp 輪郭判断装置及び輪郭表示装置
JP2006004003A (ja) * 2004-06-15 2006-01-05 Sony Corp 画像処理装置および方法、記録媒体、並びにプログラム

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012512478A (ja) * 2008-12-30 2012-05-31 ノキア コーポレイション 顔姿勢推定を提供するための方法、装置、およびコンピュータプログラム
US8396263B2 (en) 2008-12-30 2013-03-12 Nokia Corporation Method, apparatus and computer program product for providing face pose estimation
KR101468192B1 (ko) * 2013-10-15 2014-12-05 순천향대학교 산학협력단 스마트워크 환경에서의 얼굴인식기반 사용자인증 기법
WO2019239744A1 (ja) * 2018-06-11 2019-12-19 パナソニックIpマネジメント株式会社 撮像制御装置、撮像制御方法、及びプログラム
JPWO2019239744A1 (ja) * 2018-06-11 2021-08-26 パナソニックIpマネジメント株式会社 撮像制御装置、撮像制御方法、及びプログラム
JP7246029B2 (ja) 2018-06-11 2023-03-27 パナソニックIpマネジメント株式会社 撮像制御装置、撮像制御方法、及びプログラム

Also Published As

Publication number Publication date
CN101236602A (zh) 2008-08-06
US8155398B2 (en) 2012-04-10
CN101236602B (zh) 2013-01-02
US20080187186A1 (en) 2008-08-07

Similar Documents

Publication Publication Date Title
JP2008191816A (ja) 画像処理装置、および画像処理方法、並びにコンピュータ・プログラム
US8331616B2 (en) Face image processing apparatus, face image processing method, and computer program
JP5406705B2 (ja) データ補正装置及び方法
JP2008152530A (ja) 顔認識装置及び顔認識方法、ガボア・フィルタ適用装置、並びにコンピュータ・プログラム
US9053388B2 (en) Image processing apparatus and method, and computer-readable storage medium
US9117111B2 (en) Pattern processing apparatus and method, and program
Vemulapalli et al. R3DG features: Relative 3D geometry-based skeletal representations for human action recognition
US20140043329A1 (en) Method of augmented makeover with 3d face modeling and landmark alignment
US9690988B2 (en) Image processing apparatus and image processing method for blink detection in an image
JP4321350B2 (ja) パラメタ推定方法、パラメタ推定装置および照合方法
US20150262346A1 (en) Image processing apparatus, image processing method, and image processing program
JP6071002B2 (ja) 信頼度取得装置、信頼度取得方法および信頼度取得プログラム
JP2012038106A (ja) 情報処理装置、情報処理方法、およびプログラム
JP2013015891A (ja) 画像処理装置、画像処理方法及びプログラム
Ren et al. A non-contact sleep posture sensing strategy considering three dimensional human body models
Deng et al. Expression-robust 3D face recognition based on feature-level fusion and feature-region fusion
Ackland et al. Real-time 3d head pose tracking through 2.5 d constrained local models with local neural fields
Pang et al. Robust eye center localization through face alignment and invariant isocentric patterns
Spizhevoy Robust dynamic facial expressions recognition using Lbp-Top descriptors and Bag-of-Words classification model
Hsu et al. Robust cross-pose face recognition using landmark oriented depth warping
Zamuner et al. A pose-adaptive constrained local model for accurate head pose tracking
JP2008191817A (ja) 画像処理装置、および画像処理方法、並びにコンピュータ・プログラム
JP2004178210A (ja) 画像処理方法及び画像認識方法並びにこれらの方法をコンピュータにより実行させるプログラム
Azary et al. View invariant activity recognition with manifold learning
Soltanpour 3D Face Recognition Using Local Feature Based Methods

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090109

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090120

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090318

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090414

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090611

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090721

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091020

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20091029

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20091204

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110606