JP2004527863A - 物体の識別 - Google Patents

物体の識別 Download PDF

Info

Publication number
JP2004527863A
JP2004527863A JP2003500826A JP2003500826A JP2004527863A JP 2004527863 A JP2004527863 A JP 2004527863A JP 2003500826 A JP2003500826 A JP 2003500826A JP 2003500826 A JP2003500826 A JP 2003500826A JP 2004527863 A JP2004527863 A JP 2004527863A
Authority
JP
Japan
Prior art keywords
image
gradient
model
magnitude
linear function
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003500826A
Other languages
English (en)
Other versions
JP4150665B2 (ja
Inventor
ティモシー・フランシス・クーツ
クリストファー・ジョン・テイラー
Original Assignee
ザ・ビクトリア・ユニバーシテイ・オブ・マンチエスター
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ザ・ビクトリア・ユニバーシテイ・オブ・マンチエスター filed Critical ザ・ビクトリア・ユニバーシテイ・オブ・マンチエスター
Publication of JP2004527863A publication Critical patent/JP2004527863A/ja
Application granted granted Critical
Publication of JP4150665B2 publication Critical patent/JP4150665B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/169Holistic features and representations, i.e. based on the facial image taken as a whole
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/755Deformable models or variational models, e.g. snakes or active contours
    • G06V10/7557Deformable models or variational models, e.g. snakes or active contours based on appearance, e.g. active appearance models [AAM]

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Pharmaceuticals Containing Other Organic And Inorganic Compounds (AREA)
  • Detergent Compositions (AREA)
  • Gloves (AREA)

Abstract

物体識別の方法であり、本方法は、識別されるべき物体の画像に対し、前記画像における1組の位置のセットの各々について隣接する位置に対する強度変化の勾配が最大である方向を、その勾配の大きさとともに、決定するステップ、非線形関数を用いて勾配の大きさを修正し、その修正された勾配、および、位置のセットに対応する方向がその画像を表すベクトルを提供するステップ、ならびに、そのベクトルを、予め生成された、物体識別を供与する統計的モデルと比較するステップ、を含んでいる。

Description

【技術分野】
【0001】
本発明は見えモデルに関する。
【背景技術】
【0002】
見えに関する統計モデルは計算機視覚において広範に用いられ、多くの利用用途があり、それらには、医療用画像の解釈、および、顔を含む画像(image)の解釈が含まれる。
【0003】
従来より、画像、または、画像の一部に渡る(グレースケール、または、カラーの)強度(intensity)の変動(variation)を表す統計モデルが構築されている。顔の見えモデルの場合、多くの顔の画像を用いてモデルを生成しており、これら画像は教育画像(training images)として知られている。あらゆる所与の顔においておそらく見られるであろう強度変動は、類似のパターンを有する傾向が見られるであろうし、その統計モデルはこれらのパターンを表している。ひとたび統計モデルが構築されれば、その新しい画像が顔の強度パターンを有するかどうかを判断することで、新しい画像に顔が含まれているかどうかを判断するようにその統計モデルが用いられる。画像における顔の識別は、画像において見出された強度パターンと既知の顔の識別パターンとを比較することにより決定される。肯定的識別は、誤差距離(error metric)の二乗の合計のような適当な誤差の指標(measure)が所定の閾値を下回った場合に、与えられる。
【0004】
いくつかの統計的見えモデルを生成する方法が知られており、そのモデルを用いて画像における顔またはその他の物体を識別、および/または、認識している。2つの周知のモデル、動的形状モデル(Active Shape Model)(ASM)[3、4]、および、動的見えモデル(Active Appearance Model)(AAM)[2]は英国、ヴィクトリア・ユニバーシティ・オブ・マンチェスター(Victoria University of Manchester)で開発され、広く用いられている。これら両モデルは規格化された強度値の使用を基にしている。ASM、および、AAMは共に、固有顔モデル(eigen-face models)[6]の一般化である。固有顔モデルも強度値の使用に基づいており、また広く使用されている。
【0005】
強度変動の情報に基づいた統計的見えモデルの不利点は、これらモデルは照明効果の変化がある場合に不正確に機能する傾向があることである。例えば、モデルを生成する際に用いられた照明とは異なる角度から照明されている顔は誤りを生じることがある。
【0006】
非線形フィルタを適用した画像を用いてASMを生成することが知られている。そのようなフィルタの1つは、所与の画像における縁部(edge)の位置を特定するために配され、縁部でない全ての強度をゼロに設定する(これはカニー・エッジ・オペレータ(Canny Edge Operator)として知られている。)ASMを用いて画像における物体を識別、および/または、認識する場合、同じフィルタを新しい画像に適用する。フィルタの出力は一対の画像であり、その一方は画像の縁部の方向(direction)を表しており、他方は、縁部の大きさ(magnitude)を表している。この方法には2つの不利点が存在する。第1の不利点は現れる画像が二値画像であり、各縁部は「オン(on)」の値で表され、その結果、画像に関する情報の大部分は失われる。特に、縁部に近接した構造に関する情報が損なわれる。この方法の第2の不利点は各画像のあらゆる領域で同一のフィルタパラメータのままであり、また、あらゆる画像で同じままであることである。フィルタパラメータを調整することは可能であるが、この方法は、あらゆる調整に基づくあらゆる測定を供与するものではない。
【発明の開示】
【発明が解決しようとする課題】
【0007】
本発明の目的は、上記不利点の少なくとも1つを克服、または、軽減する見えモデルを提供することである。
【課題を解決するための手段】
【0008】
本発明により、物体識別の方法が提供され、その方法は、識別されるべき物体の画像に対し、前記画像における1組の位置のセット(a set of locations)の各々について隣接する位置に対する強度変化の勾配が最大である方向を、その勾配の大きさとともに、決定するステップ、非線形関数を用いて勾配の大きさを修正し、その修正された勾配、および、位置のセットに対応する方向がその画像を表すベクトルを提供するステップ、ならびに、そのベクトルを、予め生成された、物体識別を供与する統計的モデルと比較するステップ、を含んでいる。
【0009】
用語「画像」には、画像、または、興味の対象となる画像領域の意味を含むことを意図している。
【0010】
適切には、非線形関数が勾配の大きさを固定的な値の範囲にマッピングする。
【0011】
適切には、非線形関数のパラメータは、所与の位置、または、画像内の領域に、その位置、または、領域の性質(property)に従って、設定される。
【0012】
適切には、その性質の1つは、画像の位置、または、領域のスケールである。
【0013】
適切には、その性質の1つは、画像の位置、または、領域の方向性(orientation)である。
【0014】
適切には、その性質の1つは、画像の位置、または、領域の統計である。
【0015】
適切には、非線形関数は、勾配の大きさの和で割った勾配の大きさと勾配の大きさの期待値の平均もしくは中央値のモジュラスである(the modulus of the gradient magnitude divided by the sum of the gradient magnitude and the mean or median of the expected values of the gradient magnitude)。
【0016】
適切には、非線形関数は、画像における有効ノイズ(effective noise)に起因する勾配の大きさの累積確率分布を表している単調関数である。
【0017】
適切には、ノイズ分散(noise variance)によって表されるような有効ノイズは、画像、または、画像の領域に渡る勾配の分布から得る。
【0018】
適切には、ノイズ分散によって表されるような有効ノイズは、画像に対し総体的に予測される。
【0019】
適切には、非線形関数は勾配の大きさを規格化する作用を有する。
【0020】
適切には、勾配の方向は2πを法として表される。
【0021】
適切には、勾配の方向はπを法として表される。
【0022】
適切には、所定の物体の位置およびサイズは、勾配の方向および大きさを決定する前に推定される。
【0023】
適切には、本方法は物体のクラスの識別を供する。
【0024】
適切には、本方法は、物体のクラスに含まれる特定の物体の認識を供する。
【0025】
適切には、物体のクラスは顔である。
【0026】
適切には、予め生成される見えモデルは、動的形状モデルである。
【0027】
適切には、動的形状モデルは、プロファイルモデル(profile models)を使用する。
【0028】
適切には、プロファイルモデルは1次元モデルである。
【0029】
適切には、予め生成される見えモデルは複合見えモデル(Combined Appearance Model)である。
【0030】
適切には、予め生成される見えモデルは動的見えモデルである。
【0031】
本発明はまた、所定の物体の画像を表しているデータのセットを有する見えモデルを提供し、そのモデルは、画像における1組の位置のセットの各々について隣接する位置に対する強度変化の勾配が最大である方向を、その勾配の大きさとともに、決定すること、非線形関数を用いて勾配を修正すること、ならびに、その修正された勾配および対応する方向のセットと他の画像に対して決定されている修正された勾配および対応する方向のセットを統合してデータセットを形成することにより、構築される。
【発明を実施するための最良の形態】
【0032】
次に、本発明の特定の実施形態について添付の図面を参照し、単に例示的に説明する。
【0033】
本発明の第1の実施形態は動的形状モデル(ASM)に基づいており、これについてはアペンディックス1に詳細に説明されている。従来技術におけるASMは、各モデルポイントにおいて画像の強度に関する統計的モデルを備えている。
【0034】
本発明の第1の実施形態は、単に強度の測定を用いる代わりに、画像の構造を勾配として表し、その勾配は大きさおよび方向によって明確にされている。あらゆる所与の画素に対し、勾配の方向はその画素から隣接する画素へ移動する場合に最大の強度変化となる方向を示している。形体の縁部が通る、または、その縁部に隣接する画素においては、勾配の方向はその縁部を横断する方向となるであろう。勾配の大きさは測定の正確さに関する信頼性の指標を、換言すれば縁部が存在していることに対する信頼性に関する指標を提供する。原則として、よく規定された縁部においては、勾配の方向がよく規定されるので、指標も強く出るが、原則的に、画像のフラットでノイジーな領域においては、指標は弱く出るか、または、ゼロになる。強度情報の代わりに勾配を用いることは有利である。なぜなら、特有の(inherent)画像内縁部識別を供するからである。
【0035】
所与の画素に対する勾配は非線形フィルタにより操作され、ASMに(ASM生成の間に)付加される。この点が、非線形フィルタが画像にわたって適用され、画素に対する勾配が後から決定される周知の従来技術と顕著な対照をなす点である。
【0036】
本発明の第1の有利点は、従来技術によるASMにより保持されるよりも多くの情報が保持される点である。特に、必要な手段により、縁部ではないと判明した領域に関する情報を捨てながら縁部の位置を特定する目的でフィルタを使用する代わりに、画像全体に関する勾配の情報を提供する目的でフィルタを使用している(情報を捨てる必要がない。)。非線形フィルタは、画像の所定の領域と関連する傾向の低い情報の重要度を抑制するように作用する。
【0037】
本発明の用いる方法の第2の有利点は、調査している画像の特定領域のため、容易にフィルタのパラメータを調整する点である。特に、乱雑な画像で所定の物体の例を探す場合、規格化関数のパラメータは、画像全体の統計量に基づくよりもむしろ、モデル位置(model position)に関する現在の評価の下、調査している領域における画像の統計量に基づいて選択される。これにより、画像全体に対して1つのフィルタパラメータの組み合わせを用いる従来技術から実質的向上が得られる。
【0038】
ASMを生成する際、従来技術のASMまたは本発明によるASMであれば、重要な位置は手動的に各画像にマークされ、ASMに付加される(アペンディックス1にて説明する。)。ここではASMは、口の隅部、目の隅部、等、を含む所定の位置に着目している。所定の形体に関する位置がわかっているので、画像の別の領域に対してフィルタのパラメータを調整することができる。例えば、顔モデルに対しては、口の隅部外側直近に位置する画素の効果を抑制するように、フィルタのパラメータを設定してもよい。なぜなら、これらの画素は極めて有用な情報を有する見込みのない画素だからである(画素は頬を表している。)。同様にして、フィルタのパラメータを、口の隅部の間に位置する水平な縁部を強調するように設定してもよい。なぜなら、これらの画素は非常に有用な情報を含んでいる傾向があるからである(画素は口を表している。)。顔の方向性は判っているので、マークされたポイントの定位より、フィルタをかける前に、顔のあらゆる回転を正すことができる。
【0039】
ASMを用いて、新しい画像における所定の物体の位置を特定する場合、フィルタのパラメータは、ASM生成の間に調整した方法と同じ方法で、再調整される。ひとたび、所定の物体の、最初の位置(initial location)、スケール、および、方向が決定されれば(その方法はアペンディックス2に説明されている。)、フィルタのパラメータは、位置に関する現在の評価の周囲の領域において、画像の統計量、スケール、および、方向、に従って設定される。
【0040】
見えモデルは所定の物体の周囲の領域において、画像の構造を表している。ASMの場合、これは各モデルポイントの周りの小領域であって、ポイントにおける境界に垂直なプロファイル、または、ポイント周囲の小2D領域である。
【0041】
モデル生成、および、新しい画像の調査、の両方の間、所定の画像は所定の各領域にわたって標本化され、その標本値はその領域の画像の構造を表すベクトルとして配置される。先行技術のASMにおいては、通例、単にその領域における各画素の強度値をとってそれらをベクトルとして配置するケースである。本発明の第1の実施形態では、以下の方法を用いて各領域をベクトルで表している。
【0042】
1. xおよびyによってポイントXにおける局所勾配を評価する。勾配は、先ずx方向エッジフィルタを適用し(本質的には(−1 0 1)フィルタでの畳み込み)、次にy方向に適用し、決定される。これにより、各ポイントXに対して勾配値g、gが得られる。勾配が最大である方向は、ベクトル(g、g)により与えられる。
【0043】
2. 勾配の大きさ、g=√(g +g )を計算する。
【0044】
3. 非線形関数、f(g、X)を適用し、勾配の方向および強さに関する表現、(g’、g’)=f(g、X)(g/g、g/g)を得る。
【0045】
4. g’、g’をその領域を代表する値を含んでいる形体ベクトルに加える。
【0046】
5. 領域内の全てのポイントに対して繰り返す。
【0047】
モデル構築に関するその他の全てのステップはアペンディックス1に記載の先行技術、および、記載したリファレンスと変わるところがない。そのステップとは、
【0048】
6. 形体ベクトルをASMに加える。
【0049】
7. 多数の領域に対して繰り返す。必要とされる領域の数はモデルの統計量の質によって決定される。
【0050】
勾配の方向は2πを法として表される(つまり、0から2πの間の角度で表される。)。勾配が測定される方向はモデルのフレームにおいて決定され、本方法が回転、および、画像におけるモデル例(model instance)のスケールとは独立であることを保証する。
【0051】
新しい動的形状モデル(ASM)に値を加える場合、従来技術のASMにおいては所与の画像に対する全ての強度値の連鎖である、規格化強度形体ベクトルgは、画像に対する全ての勾配値の連鎖であり、g=(...,g’xi,g’yi,...)の形式を有する2倍の長さの形体ベクトルにとって代わられる。ASMに対するその他の全ての計算は同じである。
【0052】
非線形関数f(g,X)は、有望な縁部を強調し、ノイズである可能性の高い構造を抑制するように選択される。この関数を使用しなければ、ASMに入力される値は単なる勾配である。テストによれば、無修正の勾配を使用すると、周知の強度値に基づいたASMと比較して性能の向上の見られないASMが得られる。
【0053】
一般性を損なうことなく、全てのgに対し、0≦f(g,X)≦1、つまり、非線形関数が勾配に関して0から1までの値に規格化する。これにより、扱いやすい値で統計的モデルを生成することが可能となる。当然のことながら、あらゆる2つの値の間の勾配に関する規格化を用いてもよい。
【0054】
画像の全域において非線形関数は変化してもよい。このことは、例えば、非極大縁部(non-maximal edges)を抑制、または、画像の別の部分における異なるノイズ特性を予想することで実施される。代わりに、非線形関数は画像の位置から独立であってもよく、その場合、f(g,X)=f(g)である。
【0055】
有効な非線形関数として、f(g)=|g|/(|g|+g)が見出され、ここで、gはgの期待値の平均、または、中央値である。動的形状モデルの場合、これは、画像の所定の領域にわたって測定されたgの平均、または、中央値でよい。異なる値のgを画像の別の領域に対して使用してもよい(例えば、画像を領域に分割し、各領域に対して個別的に平均または中央値を決定することによる。)。関数には、平均ノイズ値よりも小さいg値はゼロに近くマッピングし、平均を超過しているg値は1に近くマッピングするような、望ましい性質が備わっている。関数の有用な性質は、平均勾配は最大勾配との比較においてかなり小さくなるという事実に基づいている。このことは、あらゆる所与の画像において、隣接するポイント間の強度の変動が僅かしかない領域が多数存在する可能性が高いからである。
【0056】
代わりとなる非線形関数には、f(g)=P(g)があり、ここで、P(a)は画像において有効ノイズに起因する縁部の大きさの累積確率分布である。
【0057】
(a)は、分布より抽出された確率変数(random value)、b、が所与のaよりも小
さい確率がP(a)である(つまりは、Prob[b<a]=P(a))ような、[0,1]の範囲の値を有する単調関数である。また、ノイズの影響を受けている可能性の高いg値はゼロに近くマッピングされ、ノイズである可能性の低いg値は興味深い構造として扱われ、効果的に強調される。各画素におけるノイズがガウス分布(Gaussian)に従うなら、導関数、g、g、上のノイズもガウス分布に従い、よってg=g +g は、ガンマ関数でP(g)を解析的評価可能な、χ分布に従うであろうことを注記する。ノイズ分散の推定は、標本化領域にわたるgの分布から得られ、また、必要に応じ、画像全体で予測可能である。
【0058】
新しいASMは、ひとたび生成されれば、画像における顔、または、その他の物体を識別、ならびに/または、認識するのに用いることができる。このことは、所定の物体の最初の評価位置(initial estimated position)を決定し、先に述べたステップ1ないし5を実行してASMと比較される形体ベクトルを生成することにより実施される。用いられる非線形フィルタ、および、それに対応するパラメータは、モデルを生成するために用いたフィルタおよびパラメータを基にしている。新しい画像におけるノイジーでおよそフラットな領域はゼロに近い値として表される傾向があり、よって、最適化に及ぼす影響は僅かしかない。実験では、本発明は画像における所定の構造の境界の位置の特定をより正確でありかつ信頼性高く供しており、特に、標的となる画像が元の教育セット(original training set)と比較して著しく異なる照明条件を有する場合に、画像における所定の構造の境界の位置の特定より正確でありかつ信頼性高く供している。
【0059】
形体ベクトルが特定のクラスに対して有効例であることをチェックすることで、新しい画像、または画像の領域は、そのクラスに属していることを確かめることができる(つまり、特定の固定ベクトルに対して「十分に近い(close enough)」、または、そのクラスを表している確率密度分布によって生成された可能性が十分に高いことである。)。
【0060】
いくつかの場合においては、縁部の構造の方向を、原則的に縁部の勾配の方向を識別するがその極性を識別しない、法πまでのみで表すことが有利である。これは、画像の背景が前もって知らされていない場合に有用である。画像における所定の物体が背景よりも暗くとも、または、背景よりも明るくともよく、そうであるならば、縁部の方向と位置はわかるが、その極性(暗部から明部、または、明部から暗部)はわからない。この状況は、先ず縁部の方向を極座標で表して対処することができる、(g,g)→(g,θ)。角度はそれから2倍され、マッピングされる、つまり、(h,h)=(gcos2θ,gsin2θ)=(g −g ,2g)/g。
そして、上記のように、適切な非線形規格化が適用される。
(g'x,g'y)=f(g)(hx/g,hy/g)=f(g)(gx 2-gy 2,2gxgy)/g2
πを法とするデータは、上記のように新しい動的形状モデルを生成することに用いられる(πを法とする、および、2πを法とするデータは単一のモデルにおいて統合されない。)。
【0061】
本発明の第1の実施形態によるASMは、この位置の境界と垂直にポイントを通るプロファイルに沿って測定された勾配の統計的モデルを用いて、各ポイント近傍の領域の構造をモデル化する。ここでは、プロファイルモデルが使用されるべきであって、それらは、上記のように構造をベクトルのxおよびy成分の両方に寄与する各画素を用いて表すか、または、ただ1次元にて用いられるモデルであってよい。
【0062】
ただ1次元のみが使用される場合、プロファイルに沿ったポイントにおける勾配は単にプロファイルの方向に沿って測定される(例えば、g(i)=I(p+u(i+1))-I(p+u(i-1))、ここで、pはプロファイルの中心であり、uはプロファイルに沿ったステップである。)。
【0063】
本発明の実施形態では、これに非線形規格化を適用し、g'(i)=f(g'(i),X)であり、ここで、f(g,X)は、前述のものと性質を同じくする適切な非線形関数である。これは、g’およびg’の表す情報と全く同等の情報を含んでいるものではないが、通例、計算は高速である。
【0064】
本発明の第2の実施形態は動的見えモデル(AAM)に基づいており、これについてはアペンディックス2にて詳細に説明している。周知の従来技術のAAMは、先ず画像をワーピング(warping)して形状の変動性を補正した後、画像における物体にわたる強度の変動の統計的モデルを使用する。本発明の第2の実施形態においては、画像はワープされて形状の変動性が補正され、それから、強度の変動を用いる代わりに非線形規格化勾配を用いて、新しいAAMの生成、ならびに、新しいAAMを用いた物体の識別および/もしくは認識、の両方を行う。
【0065】
見えモデルは所定の物体の周りの領域における画像の構造を表す。一般に、AAMの場合においては、これは物体の全体または部分をカバーする2D領域である。
【0066】
モデルの構築および画像の調査の両方の間、所定の画像は各所定の領域にわたって標本化され、ベクトルとして配置される標本値がその領域における画像の構造を表している。先行技術のAAMにおいては、これは通例、単に領域内の各画素の強度値を取り、そしてベクトルとしてそれらを配置するケースである。本発明の第2の実施形態では、以下の方法で各領域をベクトルで表している。
【0067】
2D画像に対し、以下のステップを、各画素で実施する。
【0068】
1. xおよびyでポイントXにおける局所勾配を評価する。勾配は先ず、x方向にエッジフィルタを適用し(本質的には(−1 0 1)フィルタでの畳み込み)、次にy方向に適用し、決定される。これによって、各ポイントXにおける勾配値g、gが得られる。勾配が最大である方向は、ベクトル(g,g)で与えられる。
【0069】
2. 勾配の大きさを計算する。g=√(g +g )。
【0070】
3. 非線形関数、f(g,X)を適用して勾配の方向および強さに関する表現、
(g’,g’)=f(g,X)(g/g,g/g)を得る。
【0071】
4. 値、g’、g’を、その領域の代表値を含んでいる形体ベクトルに加える。
【0072】
5. その領域の全てのポイントに対して繰り返す。
【0073】
モデル構築に関するその他全てのステップは従来の技術と変わりなく、アペンディックス1、および、記載したリファレンスの記述のとおりである。
【0074】
6. 形体ベクトルをAAMに加える。
【0075】
7. 多数の領域に対して繰り返す。必要とされる領域の数はモデルの統計量の質によって決定される。
【0076】
当然のことながら、上述の本発明の第1の実施形態の特徴は本発明の第2の実施形態に対しても適用される。例えば、フィルタパラメータを異なる画像の範囲に対して調整する方法は、本発明の第2の実施形態に適用してもよい。
【0077】
非線形的な勾配の表現を用いて生成されるモデルは、そのままの(raw)強度値による直接的なモデルよりも、照明の変化に対して強固(robust)である点で、本発明は有益である。よって、クラシフィケーション/レコグニション・フレームワークで用いる場合、本発明はより信頼性の高い結果をもたらす。
【0078】
(アペンディックス1−動的形状モデル(ASM))
本発明の第1の態様は動的形状モデル([3、4])に基づく。本発明に動的形状モデルを適用する方法を確実に、完全に、理解するため、従来技術の動的形状モデルを以下に説明する。
【0079】
動的形状モデルは、新しい画像における物体の例に合うように逐次的に変形する、物体の形状に関する統計的モデルである。形状は統計的形状モデル(Statistical Shape Model)によって制約を受け、ラベル付の例(labelled examples)の教育セットにおいて見られるような方法でのみ変化する。
【0080】
形状モデルに加え、我々は各モデルポイントの周りでの画像の見えに関するモデルを必要としている。最もシンプルなものは、強い縁部上のポイントを推測することである。さらに複雑なモデルを構築し、ポイントを通るプロファイルの、そのポイントにおける境界のカーブに垂直な勾配の統計的変動を表すことができる。
【0081】
我々は、姿勢(pose)および形状のパラメータ(例えば、平均形状)に対する最初の推定値を有すると仮定する。これは、以下のようにして逐次的にアップデートされる。
・ 法線に沿って各モデルポイントをよく調べ、このポイントにおける画像の見えのモデルに対する、最高の局所的適合を見つける(例えば最も強い隣接縁部)。
・ 姿勢および形状のパラメータをアップデートし、見つけたポイントとモデル例とが最も適するようにする。
・ 収束するまで繰り返す。
ガウシアン画像ピラミッドの粗いレベルについて調査を開始し、漸次的に精緻化する、複−解像度による実施を行うことで、性能は著しく向上する。これにより、さらに高速で、より正確かつ強固な調査になる。
【0082】
動的形状モデルは、以下に記載の統計的形状モデルを用いている。
形状例のセットがあれば、統計的形状モデルを構築可能である。教育セットの各形状は、n個のラベル付の目標ポイントで表されており、ある形状とその次の形状とはコンシステントでなければならない。例えば、手の例では、7番目のポイントは常に親指の先端に対応している。
【0083】
そのようなラベルの付された教育例のセットがあれば、プロクルステス解析(Procrustes Analysis)を用いてそれらを共通の座標フレームに合わせる。これは、セットの平均との二乗距離の合計が最小になるように、各教育形状の形を変え(translate)、回転し、また、拡大縮小(scale)している。各形状は2n個の成分からなるベクトルによって表される。
x=(x_1, ..., x_n, y_1, ..., y_n)
合わせられた教育セットは2n次元空間における点群(cloud)を形成し、確率密度関数からの例であると考えることができる。
【0084】
最もシンプルな定式化では、点群をガウシアンで近似する。主成分分析(PCA)を用いて点群の主軸選び、そして、変動の主要部を占める最初の僅かな例のみモデル化する。
【0085】
形状モデルは以下のようになる。
x=x_mean+Pb
ここで、x_meanは揃えられた教育例の平均であり、Pは2n×tの行列であり、その列は点群の主軸に沿った単位ベクトルである。bは形状パラメータのt成分ベクトルである。
(このモデルは「点分布モデル(Point Distribution Model)」(PDM)と称されているが、統計における点分布(Point Distribution)とは殆ど関係がない。)
【0086】
教育セットから習得した限界内で形状パラメータを変化させることにより、新しい例を生成することができる。
【0087】
上述のように、このようなモデルは動的形状モデルのフレームワークにおいて、新しい画像の新しい例の位置を特定することに用いられる。
【0088】
(アペンディックス2−動的見えモデル(AAM))
本発明の第2の態様は動的見えモデル(Active Appearance Model)(G.エドワーズ(Edwards)、C.テイラー(Taylor)、および、T.クーツ(Cootes)、動的見えモデルを用いた顔画像解釈(Interpreting face images using active appearance models)、第3回顔とジェスチャ自動認識国際会議(In 3rdInternational Conference on Automatic Face and Gesture Recognition 1998)、300−305頁、奈良、日本、1998年4月、IEEEコンピュータ学会出版(IEEE Computer Society Press))に基づいており、更なる説明がクーツ(Cootes)らによりなされている(T.クーツ、G.J.エドワーズ、および、C.J.テイラー、動的見えモデル(Active Appearance Model)、第5回計算機視覚欧州会議(In 5thEuropean Conference on Computer Vision)、484−498頁、シュプリンガー(Springer)、1998年6月)。本発明に動的見えモデルを適用する方法が確実に全て理解されるように、先行技術による動的見えモデルを以下に記載する。
【0089】
動的見えモデルは、モデルによって生成された再構成画像と内在する標的画像との差異を用いてモデルパラメータをより良い値の方に駆動する。先の教育段階においては、周知の変位、δc、が周知のモデル例に適用され、その結果現れるモデルと画像との差異、δvが測定される。多変量直線回帰をそのような教育変位(training displacements)の大きなセットに適用し、近似的線形関係を確立する。
δc=Aδv
画像を調査する際、現在のモデルと画像との差異、δv、を用い、モデル適合性を向上させる、モデルパラメータに対する調整量、−δc、を予測する。表記の簡単化のため、ベクトルδcは、スケール、回転、および、変形(translation)における変位を含んでいるものと仮定する。
【0090】
動的見えモデルは顔画像のセットを用いて構成される。これを実施するため、エドワーズら(G.エドワーズ、A.ラニティス(Lanitis)、C.テイラー、および、T.クーツ、顔画像の統計的モデル−特定性の向上(Statistical model of face images - improving specificity)、イメージ・アンド・ビジョンコンピューティング(Image and Vision Computing)、16、203−211頁、1998)が記した方法に従って顔見えモデル(Facial appearance models)が生成される。モデルは、顔の形状の変動に関するモデルと形状が規格化された顔の見えの変動に関するモデルとを組み合わせることにより生成される。モデルは400の顔画像を習得し、それぞれは手がかりとなる特徴の場所を表している122の目標ポイントを示すラベルが付されている。形状モデルは、目標の各セットをベクトルxとして表し、データに主成分分析(PCA)を適用することで、生成される。あらゆる例は以下を用いて近似可能である。
x=x-+Psbs (1)
ここでx-は平均形状であり、Psは直交する変動モード(orthogonal modes of variation)のセットであり、bsは形状パラメータのセットである。各例画像はワープされて、そのコントロールポイントが(三角測量アルゴリズム(triangulation algorithm)を用いて)平均形状に一致され、そして、グレーレベル情報gがこの形状規格化顔パッチ(shape-normalised face patch)から標本化される。このデータにPCAを適用することで同様のモデルが得られる。
g=g-+Pgbg (2)
【0091】
いかなる例の形状や見えであってもこのようにベクトルbsおよびbgで取りまとめることが可能である。形状およびグレーレベルの変動の間には相関性があるので、さらにPCAを連結されたベクトルに適用し、以下の形式の複合見えモデル(combined appearance model)を得る。
x=x-+Qsc (3)
g=g-+Qgc (4)
ここで、cはモデルの形状およびグレーレベルの両方をコントロールしている見えパラメータベクトルであり、QsおよびQgは、形状および形状規格化グレーレベルのデータにおける変化に対するcの値をマッピングする。顔は所与のcに対し、形状フリーグレーレベル画像をベクトルgから生成し、xで記述されるコントロールポイントを用いてワープすることで、合成される(この過程は[3]に詳細に説明されている。)。式3および式4は複合見えモデルとして知られる、見えの統計的モデルを定義している。
【0092】
400の例から、23の形状パラメータ、b、および、114のグレーレベルパラメータ、bが導かれる。だが、観測される変動の98%を解釈するために必要とされる複合見えモデルのパラメータ、c、はたった80である。
【0093】
見えモデルを顔画像と一致させるため、2段階的方策(two-stage strategy)を採用する。その第1のステップは、シンプルかつ迅速な手法によっておおよその一致を見つけることである。最初の知識には、顔が画像内のどこに存在するか、または、そのスケール、および、方向に関する推定はない。簡単な固有顔モデル(M.ターク(Turk)、および、A.ペントランド(Pentland)、固有顔による認識、認知神経科学論文誌(Journal of Cognitive Neuroscience)、3(1)、71−86頁、1991)をこの位置特定の段階に用いている。画像データの固有顔表現、M、と画像それ自体、I、との相関のスコアは、様々なスケール、場所、および、方向で計算可能である。
S=|I−M| (5)
【0094】
原理的には網羅的に画像を調査することも可能だが、マタス(Matas)らのスキーム(K.J.J.マタス、および、J.キトラー(Kittler)、高速顔位置測定および照合(Fast face localisation and verification)、於英国機会視覚会議(In British Machine Vision Conference)1997、コールチェスター(Colchester)、英国、1997)と類似の確率論的スキームを使用することがさらに効果的である。モデルおよび画像は2段抽出され、モデル標本ポイントのごく少量のみを用いて相関のスコアを計算する。図2は、この方法によって生成された標準的顔仮説(typical face hypotheses)を示している。位置特定にかかる平均時間は、モデル標本ポイントの10%を使えば、およそ0.2秒である。
【0095】
ひとたび顔の場所に関する始動用の概算が決まれば、できる限り画像と一致する合成顔が生成されるように見えモデルのパラメータが調整される。
【0096】
解釈は、実際の顔画像と、見えモデルによって合成された顔画像との差異が最小となるような、最適化問題として扱われる。差異ベクトルδIは以下のように定義される。
δI=I−I (6)
ここで、Iは画像におけるグレーレベル値に関するベクトルであり、Iは現在のモデルのパラメータに対するグレーレベル値に関するベクトルである。
【0097】
モデルと画像との最高の一致を見出すため、差異ベクトルの大きさ、Δ=|δI|、を、モデルパラメータ、c、を変化させて最小化する。
【0098】
モデルはおよそ80のパラメータを有するので、当初、非常に高次元の空間におけるサーチを含んでいる、非常に困難な最適化問題のように思われる。だが、モデルを新しい顔画像に一致させるための試行のそれぞれは実際、相似な最適化問題であることが知られている。よって、モデルは予めこのような問題のクラスを解決する方法について何らかを習得する。画像調査の間にモデルパラメータを調整する方法に関する先験的知識を提供することにより、効率的なランタイムのアルゴリズムに帰着する。特に、モデルパラメータがどのような状態であるか、についての情報を記号化する、δIの空間パターンを変更し、よりよいフィットを実現すべきである、と考えてもよいと思われる。例えば、顔の側部において、モデルと像との差異が最大であれば、それは、モデルの顔の幅を調整するパラメータを調整すべきであることを暗に意味している。これにより見込まれる効果は図3に示されており、オリジナル画像を上部左に、摂動を加えられたモデルの変位を上部右に示し、形状規格化差異画像は底部中央に示している。
【0099】
このやり方を採用する場合、問題に対して2つの部分があって、それらは、δIとモデルパラメータにおける誤差、δc、との関係性を学習すること、および、この知識を、Δを最小化するための逐次的アルゴリズムで用いることである。
【0100】
ΔIと、モデルパラメータにおける誤差(およびそのために必要な補正)との関係性に関して、選択可能な最もシンプルなモデルは線形である。
δc=AδI (7)
【0101】
これは、良い結果を得るには十分に良好な近似である。Aを求めるには、周知のモデル変位、δc、および、それに対応した際画像、δI、の多くの標本に対して複数の多変量線形回帰を実施する。これらの、ランダムな変位の大きなセットは、教育セットの画像に対する「真の」モデルパラメータに周知の量の摂動を加えることで、生成される。モデルパラメータにおける摂動のみならず、2Dの位置、スケール、および、方向における小さな変位もまた、モデル化される。表記の簡単のため、これら付加的な4つのパラメータは単にベクトルδcの付加的成分とみなすことができるのだが、これらは回帰において盛り込まれる。良いふるまいをする関係性を得るため、画像の差異を計算する、参照フレームを慎重に選択することが重要である。最適な参照フレームは上記の形状規格化顔パッチである。差異はこのように計算される。現在の、モデルの位置に対し、現在の位置での画像データを形状規格化顔パッチにワープすることにより、画像のグレーレベル標本ベクトル、g、を計算する。これは式4を用いて計算され、モデルのグレーレベル標本ベクトル、g、と比較される。
δg=g−g (8)
【0102】
よって、式7は修正可能である。
δc=Aδg (9)
【0103】
教育の間に用いるべきδcの値で最も良い範囲は、実験的に決定される。理想では、誤差範囲、δg、の可能な限り大きな範囲で保持される関係性をモデル化することが望まれる。だが、実際の関係性は、限定的な値域のみでの線形な関係性として見出される。実験では、モデルは80のパラメータを使用した。最適な摂動レベルは、各モデルパラメータに対し、(教育セットの)およそ0.5標準偏差であることがわかった。各パラメータは、0から1標準偏差までの間の値によって、平均からの摂動が加えられる。スケール、角度、および、位置は0から±10%(顔の幅に比する位置の変位)の範囲の値で摂動が加えられる。線形回帰を実施した後で、R統計を各パラメータの摂動、δc、に対して計算し、どの程度よく変位が誤差ベクトルδgによって「予測」されるかを測定する。80のパラメータに対し、平均R値は0.82であり、最高は0.98(第1のパラメータ)であり、最小は0.48である。図3はδgに対して再構成された形状フリー誤差画像を、第1のモデルパラメータにおける標準偏差の2倍の偏差、および、水平方向変位10画素に対して示している。
【0104】
モデルパラメータに対してする必要のある補正を予測する方法があれば、最適化問題を解決するための逐次的方法を構成してもよい。所与の、画像cへのモデル射影に対し、グレーレベル標本誤差ベクトルδgが計算され、モデル推定はこのようにアップデートされる。
c’=c−Aδg (10)
【0105】
始動用概算が正しい解からかけ離れていれば、第1イタレーションにおける予測モデルは一般には非常に正確とはいえないが、差異画像におけるエネルギを減少させているべきである。このことは、教育セットの全ての例に対し、予測が差異ベクトル|δg|の大きさを減少させるようなスケーリングAによって保証可能である。モデルパラメータの値が改善されれば、次のイタレーションでなされる予測はよりよくなる。この手続きは収束するまで反復される。一般に、アルゴリズムは、相当にひどい指導用概算から、およそ5−10イタレーションで収束する。より定量的データは以下に記される。
【0106】
本方法は80個の前もって見たことがない顔画像セットについて試験された。図4は試験に用いられる3つの例画像、および、顔の位置および形状に関するハンド・アノテーション(hand-annotation)に基づく、「真の」モデルの再構成を示している。
【0107】
図5はAAM調査をこれら画像に適用した結果を示している。左手の画像は、顔の位置に関する最初の仮説をかぶせたオリジナルである。一般に、用いられる始動用仮説はここに示されているものよりはよい。だが、確率論的ジェネレータにより生成される仮説は、AAM調査の収束性を示すため、故意に離している。最初の概算と並んで、1回、5回、および、12回のイタレーション後の調査結果をそれぞれ示している。
【0108】
AAM調査の再構成誤差は80の前もって見たことがない画像のセットで試験された。各画像に対する再構成誤差は形状規格化グレーレベル標本ベクトル、|δg|の大きさとして計算される。図6は再構成誤差対イタレーションのグラフである。図6には2つのプロットがある。実曲線は試験セットについての平均誤差対イタレーションのプロットである。破曲線は試験において遭遇した最悪のケースを示している。2つの水平線は、それぞれ平均および最悪のケースで、モデルを、正確な、手でラベルを付したポイント(hand-labelled points)を用いて適合させたときに測定された誤差を示している。誤差は、標本画素当りの平均グレーレベル差異として測定されており、ここでは画素は0ないし63の値をとる。
【0109】
(リファレンス)
[1]
H.ボッシュ(Bosch)、S.C.ミッチェル(Mitchell)、P.F.ボウデヴィン(Boudewijn)、P.F.ライエベルト(Leieveldt)、F.ナイランド(Nijland)、O.カンプ(Kamp)、M.ソンカ(Sonka)、および、J.ライバー(Reiber)、
心エコー図の時系列における心内膜の輪郭検出のための動的見え−運動モデル(Active appearance-motion models for endocardial contour detection in time sequences of echocardiograms)
SPIE医療用画像(In SPIE Medical Imaging)、2001年、2月。
[2]
T.F.クーツ(Cootes)、G.J.エドワーズ(Edwards)、および、C.J.テイラー(Taylor)、
動的見えモデル(Active appearance models)、
H.ブルクハルト(Burkhardt)、B.ノイマン(Neumann)編、第5回計算機視覚欧州会議(In 5thEuropean Conference in Computer Vision)、巻2、484−498頁、シュプリンガー(Springer)、ベルリン、1998年。
[3]
T.F.クーツ、A.ヒル(Hill)、C.J.テイラー、および、J.ハスラム(Haslam)、
医療用画像における構造の位置特定のための動的形状モデルの利用(The use of active shape models for locating structures in medical images)、
イメージ・アンド・ビジョン・コンピューティング(Image and Vision Computing)、12(6)、276−286頁、1994年、6月。
[4]
T.F.クーツ、C.J.テイラー、D.クーパー(Cooper)、および、J.グラハム(Graham)、
動的形状モデル−その教育と応用(Active shape models - their training and application)、
コンピュータ・ビジョン・アンド・イメージ・アンダスタンディング(Computer Vision and Image Understanding)、61(1)、38−59頁、1995年、1月。
[5]
D.ホンド(Hond)、および、L.スパシェク(Spacek)、
顔処理の特徴的描写(Distinctive descriptions for face processing)、
第8回英国機械視覚会議(In 8thBritish Machine Vision Conference)、巻1、320−329頁、コールチェスター(Colchester)、英国、1997年。
【図面の簡単な説明】
【0110】
【図1】本発明の第1の実施形態にて使用する重み付け関数を表すグラフである。

Claims (23)

  1. 識別されるべき物体を含む画像に対し、前記画像における1組の位置のセットの各々について隣接する位置に対する強度変化の勾配が最大である方向を、前記勾配の大きさとともに、決定するステップ、
    非線形関数を用いて前記勾配の大きさを修正し、位置の前記セットに対する前記修正された勾配、および、対応する方向が前記画像を表すベクトルを提供するステップ、ならびに、
    前記ベクトルを、前もって生成されている、前記物体の識別を供与する統計的モデルと比較するステップ、を有する物体識別の方法。
  2. 前記非線形関数が前記勾配の前記大きさを固定的値域にマッピングする、ことを特徴とする請求項1に記載の物体識別の方法。
  3. 前記非線形関数の前記パラメータが、前記画像における所与の位置、または、領域に対し、前記位置、または、前記領域の特性に依存して設定される、ことを特徴とする請求項1または2に記載の物体識別の方法。
  4. 前記特性の1つが前記画像の、前記位置、または、前記領域のスケールである、ことを特徴とする請求項3に記載の物体識別の方法。
  5. 前記特性の1つが前記画像の前記位置、または、前記領域の方向である、ことを特徴とする請求項3または4に記載の物体識別の方法。
  6. 前記特性の1つが前記画像の前記位置、または、前記領域の統計量である、ことを特徴とする請求項3ないし5のいずれか1つに記載の物体識別の方法。
  7. 前記非線形関数が、前記勾配の大きさの和で割った前記勾配の大きさと前記勾配の大きさの期待値の平均もしくは中央値のモジュラスである、ことを特徴とする請求項1ないし6のいずれか1つに記載の物体識別の方法。
  8. 前記非線形関数が、前記画像における有効ノイズによる勾配の大きさに関する累積確率分布を表している単調関数である、ことを特徴とする請求項1ないし7のいずれか1つに記載の物体識別の方法。
  9. ノイズの分散により表される、前記有効ノイズを、前記画像、または、前記画像の領域にわたる前記勾配の分布より得る、ことを特徴とする請求項8に記載の物体識別の方法。
  10. ノイズの分散により表される、前記有効ノイズを、前記画像に対して総括的に予め計算する、ことを特徴とする請求項8に記載の物体識別の方法。
  11. 前記非線形関数が前記勾配の大きさを規格化する作用を有する、ことを特徴とする請求項1ないし10のいずれか1つに記載の物体識別の方法。
  12. 前記勾配の前記方向を、2πを法として表す、ことを特徴とする請求項1ないし11のいずれか1つに記載の物体識別の方法。
  13. 前記勾配の前記方向を、πを法として表す、ことを特徴とする請求項1ないし11のいずれか1つに記載の物体識別の方法。
  14. 前記勾配の方向および大きさを決定する前に、所定の物体の前記位置および大きさを推定する、ことを特徴とする請求項1ないし13のいずれか1つに記載の物体識別の方法。
  15. 前記方法が、物体のクラスの識別を供する、ことを特徴とする請求項1ないし14のいずれか1つに記載の物体識別の方法。
  16. 前記方法が、物体のクラスに含まれる特定の物体の認識を供する、請求項1ないし15のいずれか1つに記載の物体識別の方法。
  17. 前記物体のクラスが顔である、請求項1ないし16のいずれか1つに記載の物体識別の方法。
  18. 予め生成される見えモデルが動的形状モデルである、ことを特徴とする請求項1ないし17のいずれか1つに記載の物体識別の方法。
  19. 前記動的形状モデルがプロファイルモデルを使用する、ことを特徴とする請求項18に記載の物体識別の方法。
  20. 前記プロファイルモデルが1次元モデルである、ことを特徴とする請求項19に記載の物体識別の方法。
  21. 前もって生成される見えモデルが複合見えモデルである、ことを特徴とする請求項1ないし17のいずれか1つに記載の物体識別の方法。
  22. 前もって生成される見えモデルが動的見えモデルである、ことを特徴とする請求項1ないし17のいずれか1つに記載の物体識別の方法。
  23. 所定の物体の画像を表しているデータのセットを有する見えモデルであって、
    前記モデルは、前記画像における1組の位置のセットの各々について、隣接する位置に対する強度変化の勾配が最大である方向を、前記勾配の大きさとともに、決定すること、
    非線形関数を用いて前記勾配を修正すること、ならびに、
    その結果生じる、修正された勾配および対応する方向のセットと、他の画像に対して決定されている修正された勾配および対応する方向のセットを統合し、データセットを形成することにより構築される、見えモデル。
JP2003500826A 2001-05-25 2002-05-24 物体の識別 Expired - Fee Related JP4150665B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
GBGB0112773.7A GB0112773D0 (en) 2001-05-25 2001-05-25 Object identification
PCT/GB2002/002228 WO2002097720A1 (en) 2001-05-25 2002-05-24 Object identification

Publications (2)

Publication Number Publication Date
JP2004527863A true JP2004527863A (ja) 2004-09-09
JP4150665B2 JP4150665B2 (ja) 2008-09-17

Family

ID=9915294

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003500826A Expired - Fee Related JP4150665B2 (ja) 2001-05-25 2002-05-24 物体の識別

Country Status (10)

Country Link
US (1) US7295709B2 (ja)
EP (1) EP1393243B1 (ja)
JP (1) JP4150665B2 (ja)
AT (1) ATE377805T1 (ja)
AU (1) AU2002304495B2 (ja)
CA (1) CA2448448C (ja)
DE (1) DE60223361T2 (ja)
GB (1) GB0112773D0 (ja)
HK (1) HK1058847A1 (ja)
WO (1) WO2002097720A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008543224A (ja) * 2005-06-02 2008-11-27 イーストマン コダック カンパニー 撮影者を利用した画像の分類
JP2015525648A (ja) * 2012-08-06 2015-09-07 コーニンクレッカ フィリップス エヌ ヴェ 画像ノイズの低減及び/又は画像解像度の向上

Families Citing this family (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7200269B2 (en) * 2002-02-01 2007-04-03 Siemens Medical Solutions Usa, Inc. Non-rigid image registration using distance functions
CN1313979C (zh) * 2002-05-03 2007-05-02 三星电子株式会社 产生三维漫画的装置和方法
JP4227564B2 (ja) * 2004-06-08 2009-02-18 キヤノン株式会社 管理装置、情報処理方法並びにプログラム
SE528068C2 (sv) 2004-08-19 2006-08-22 Jan Erik Solem Med Jsolutions Igenkänning av 3D föremål
EP1815434A2 (en) * 2004-11-23 2007-08-08 Eastman Kodak Company Method for classifying radiographs
US7599549B2 (en) * 2004-12-22 2009-10-06 Fujifilm Corporation Image processing method, image processing apparatus, and computer readable medium, in which an image processing program is recorded
JP4410732B2 (ja) * 2005-07-27 2010-02-03 グローリー株式会社 顔画像検出装置、顔画像検出方法および顔画像検出プログラム
JP2007096405A (ja) * 2005-09-27 2007-04-12 Fujifilm Corp ぶれ方向判定方法および装置ならびにプログラム
JP4767718B2 (ja) * 2006-02-24 2011-09-07 富士フイルム株式会社 画像処理方法および装置ならびにプログラム
US8165354B1 (en) * 2008-03-18 2012-04-24 Google Inc. Face recognition with discriminative face alignment
US8363973B2 (en) * 2008-10-01 2013-01-29 Fuji Xerox Co., Ltd. Descriptor for image corresponding point matching
JP2010186288A (ja) * 2009-02-12 2010-08-26 Seiko Epson Corp 顔画像の所定のテクスチャー特徴量を変更する画像処理
US9417700B2 (en) 2009-05-21 2016-08-16 Edge3 Technologies Gesture recognition systems and related methods
US8358855B2 (en) * 2009-07-08 2013-01-22 Honeywell International Inc. Determining probabilities from compared covariance appearance models to detect objects of interest in images
KR101268520B1 (ko) * 2009-12-14 2013-06-04 한국전자통신연구원 영상 인식 장치 및 방법
US8396252B2 (en) 2010-05-20 2013-03-12 Edge 3 Technologies Systems and related methods for three dimensional gesture recognition in vehicles
US8582866B2 (en) 2011-02-10 2013-11-12 Edge 3 Technologies, Inc. Method and apparatus for disparity computation in stereo images
US8655093B2 (en) 2010-09-02 2014-02-18 Edge 3 Technologies, Inc. Method and apparatus for performing segmentation of an image
US8666144B2 (en) 2010-09-02 2014-03-04 Edge 3 Technologies, Inc. Method and apparatus for determining disparity of texture
WO2012030872A1 (en) 2010-09-02 2012-03-08 Edge3 Technologies Inc. Method and apparatus for confusion learning
US8970589B2 (en) 2011-02-10 2015-03-03 Edge 3 Technologies, Inc. Near-touch interaction with a stereo camera grid structured tessellations
US9857868B2 (en) 2011-03-19 2018-01-02 The Board Of Trustees Of The Leland Stanford Junior University Method and system for ergonomic touch-free interface
US8840466B2 (en) 2011-04-25 2014-09-23 Aquifi, Inc. Method and system to create three-dimensional mapping in a two-dimensional game
US9672609B1 (en) 2011-11-11 2017-06-06 Edge 3 Technologies, Inc. Method and apparatus for improved depth-map estimation
US8854433B1 (en) 2012-02-03 2014-10-07 Aquifi, Inc. Method and system enabling natural user interface gestures with an electronic system
JP5880182B2 (ja) * 2012-03-19 2016-03-08 カシオ計算機株式会社 画像生成装置、画像生成方法及びプログラム
US9111135B2 (en) 2012-06-25 2015-08-18 Aquifi, Inc. Systems and methods for tracking human hands using parts based template matching using corresponding pixels in bounded regions of a sequence of frames that are a specified distance interval from a reference camera
US8934675B2 (en) * 2012-06-25 2015-01-13 Aquifi, Inc. Systems and methods for tracking human hands by performing parts based template matching using images from multiple viewpoints
US8836768B1 (en) 2012-09-04 2014-09-16 Aquifi, Inc. Method and system enabling natural user interface gestures with user wearable glasses
US9196154B2 (en) 2012-11-12 2015-11-24 Samsung Electronics Co., Ltd. Method and electronic device for controlling display device using watermark
US9523781B2 (en) 2012-12-27 2016-12-20 Schlumberger Technology Corporation Normalization seismic attribute
US9092665B2 (en) 2013-01-30 2015-07-28 Aquifi, Inc Systems and methods for initializing motion tracking of human hands
US9129155B2 (en) 2013-01-30 2015-09-08 Aquifi, Inc. Systems and methods for initializing motion tracking of human hands using template matching within bounded regions determined using a depth map
US10721448B2 (en) 2013-03-15 2020-07-21 Edge 3 Technologies, Inc. Method and apparatus for adaptive exposure bracketing, segmentation and scene organization
US9298266B2 (en) 2013-04-02 2016-03-29 Aquifi, Inc. Systems and methods for implementing three-dimensional (3D) gesture based graphical user interfaces (GUI) that incorporate gesture reactive interface objects
US9798388B1 (en) 2013-07-31 2017-10-24 Aquifi, Inc. Vibrotactile system to augment 3D input systems
US9507417B2 (en) 2014-01-07 2016-11-29 Aquifi, Inc. Systems and methods for implementing head tracking based graphical user interfaces (GUI) that incorporate gesture reactive interface objects
US9619105B1 (en) 2014-01-30 2017-04-11 Aquifi, Inc. Systems and methods for gesture based interaction with viewpoint dependent user interfaces
US9286695B2 (en) 2014-03-13 2016-03-15 Bendix Commercial Vehicle Systems Llc Systems and methods for tracking points within an encasement
US10593007B1 (en) 2015-06-11 2020-03-17 Digimarc Corporation Methods and arrangements for configuring industrial inspection systems
US10102642B2 (en) * 2015-11-25 2018-10-16 Omni Ai, Inc. Image driver that samples high-resolution image data
US10769776B2 (en) 2016-02-12 2020-09-08 Cognex Corporation System and method for efficiently scoring probes in an image with a vision system
CN110321778B (zh) * 2019-04-26 2022-04-05 北京市商汤科技开发有限公司 一种人脸图像处理方法、装置和存储介质

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5142592A (en) 1990-12-17 1992-08-25 Moler Keith E Method and apparatus for detection of parallel edges in image processing
GB9103931D0 (en) 1991-02-26 1991-04-10 Dsp Consultants Ltd Signal processing apparatus and method
AU2001261163A1 (en) 2000-05-03 2001-11-12 University Of Washington Method for determining the contour of an in vivo organ using multiple image frames of the organ

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008543224A (ja) * 2005-06-02 2008-11-27 イーストマン コダック カンパニー 撮影者を利用した画像の分類
JP4908505B2 (ja) * 2005-06-02 2012-04-04 イーストマン コダック カンパニー 撮影者を利用した画像の分類
JP2015525648A (ja) * 2012-08-06 2015-09-07 コーニンクレッカ フィリップス エヌ ヴェ 画像ノイズの低減及び/又は画像解像度の向上

Also Published As

Publication number Publication date
DE60223361D1 (de) 2007-12-20
DE60223361T2 (de) 2008-08-28
EP1393243A1 (en) 2004-03-03
US20040170323A1 (en) 2004-09-02
ATE377805T1 (de) 2007-11-15
CA2448448C (en) 2012-07-24
WO2002097720A1 (en) 2002-12-05
EP1393243B1 (en) 2007-11-07
US7295709B2 (en) 2007-11-13
GB0112773D0 (en) 2001-07-18
AU2002304495B2 (en) 2008-06-26
HK1058847A1 (en) 2004-06-04
JP4150665B2 (ja) 2008-09-17
CA2448448A1 (en) 2002-12-05

Similar Documents

Publication Publication Date Title
JP4150665B2 (ja) 物体の識別
AU2002304495A1 (en) Object identification
US8594430B2 (en) Method of locating features of an object
EP3259704B1 (en) Three dimensional modelling
Cootes et al. On representing edge structure for model matching
US8811744B2 (en) Method for determining frontal face pose
US8050473B2 (en) Segmentation method using an oriented active shape model
CN109086675B (zh) 一种基于光场成像技术的人脸识别及攻击检测方法及其装置
Wang et al. An improved active shape model for face alignment
Wacker et al. Enhanced anomaly detection in wire ropes by combining structure and appearance
Parikh et al. Effective approach for iris localization in nonideal imaging conditions
US20220061659A1 (en) System and method for finding an area of an eye from a facial image
Smiatacz Normalization of face illumination using basic knowledge and information extracted from a single image
KR100955255B1 (ko) 얼굴 인식 장치 및 그 방법, 얼굴의 내외적 환경 변화 정도추정 방법
WO2022120532A1 (en) Presentation attack detection
Meyer et al. Real-time 3D face verification with a consumer depth camera
KR101785661B1 (ko) 회색 값 분산을 이용한 얼굴 윤곽 인식방법 및 그 장치
Zhong et al. Automatic segmentation in tongue image by mouth location and active appearance model
KR20110067480A (ko) 얼굴 검출을 위한 특징점 검출 방법
Kowalski et al. Evaluation of active appearance models in varying background conditions
Scotti Computational intelligence techniques for reflections identification in iris biometric images
Flanagan et al. Enhanced normalized mutual information for localization in noisy environments
Lindblad et al. High-resolution reconstruction by feature distance minimization from multiple views of an object
Bhilavade et al. Image Inpainting for Fingerprint Reconstruction
Lin et al. Automatic face authentication with self compensation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050524

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20070724

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071106

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20080206

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20080214

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20080306

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20080313

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20080407

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20080414

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080507

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080603

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080630

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110704

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110704

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120704

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120704

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130704

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees