JP2003514309A - 物体の種類の識別、検証あるいは物体の画像合成 - Google Patents

物体の種類の識別、検証あるいは物体の画像合成

Info

Publication number
JP2003514309A
JP2003514309A JP2001536987A JP2001536987A JP2003514309A JP 2003514309 A JP2003514309 A JP 2003514309A JP 2001536987 A JP2001536987 A JP 2001536987A JP 2001536987 A JP2001536987 A JP 2001536987A JP 2003514309 A JP2003514309 A JP 2003514309A
Authority
JP
Japan
Prior art keywords
appearance
parameters
model
probability density
type
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001536987A
Other languages
English (en)
Inventor
クリストファー・ジョン・テイラー
ティモシー・フランシス・クーツ
ギャレス・エドワーズ
Original Assignee
ザ・ビクトリア・ユニバーシテイ・オブ・マンチエスター
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from GBGB9926459.0A external-priority patent/GB9926459D0/en
Priority claimed from GB0017966A external-priority patent/GB0017966D0/en
Application filed by ザ・ビクトリア・ユニバーシテイ・オブ・マンチエスター filed Critical ザ・ビクトリア・ユニバーシテイ・オブ・マンチエスター
Publication of JP2003514309A publication Critical patent/JP2003514309A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/169Holistic features and representations, i.e. based on the facial image taken as a whole
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/755Deformable models or variational models, e.g. snakes or active contours
    • G06V10/7557Deformable models or variational models, e.g. snakes or active contours based on appearance, e.g. active appearance models [AAM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification

Abstract

(57)【要約】 異なる種類の物体の画像を比較することによって得られた外観パラメータに基づいたモデルを使用して物体の種類を識別する方法であって、このモデルは、外観パラメータが所与の物体の種類に対して変わる範囲を記述する確率密度関数の表現を含み、このモデルは、この外観パラメータと確率密度関数との間の所定の関係をさらに含むものにおいて、未知の物体を示す外観パラメータを生成し、この外観パラメータとこの確率密度関数との間の所定の関係を使用して未知の物体のための適切な確率密度関数を推定し、次にこの確率密度関数を使用して決定された限界内のこの外観パラメータの少なくともいくつかを繰り返して修正し、この物体の種類を識別することとを含む。

Description

【発明の詳細な説明】
【0001】 本発明は、物体の種類の識別あるいは検証に関し、物体の画像の合成にも関す
るものである。本発明は、特に排他的ではないけれども顔の識別あるいは検証に
関し、顔の画像の合成にも関するものである。
【0002】 公知である多数の顔識別の方法は、非同種の人々の顔の特徴を示す汎用顔空間
モデルを利用する。一般的に、汎用顔空間モデルは、制限された寸法の空間にお
ける顔の間の変化を示すことができるのが最適である外観パラメータのセットと
して示される(例えば、M.A.TurkおよびA.P.Pentlandの米
国特許第5,164,992号を参照せよ)。識別される顔は外観パラメーター
のセットに変換され、それから既知の顔を示す外観パラメーターのセットと比較
される。
【0003】 最近発表された顔識別方法は、能動外観方法および能動形状方法を含む(19
98年に開催されたコンピュータビジョンに関する第5回ヨーロッパ会議におけ
るG.J.Edwards、C.J.Taylor、およびT.F.Coote
s著の論文「能動外観モデルを使用する顔認識」(581〜595ページ);T
.F.Cootes、C.J.Taylor、D.H.Cooper、およびJ
.Graham著の論文「能動形状モデル‐そのトレーニングおよび応用」(コ
ンピュータビジョンおよびイメージ認識、61(1):38〜59、1995年
1月))。能動外観方法は、未知の顔が比較される汎用顔空間モデルを含み、さ
らにモデルを使用して合成された顔を未知の顔に合わせるために、汎用顔空間で
外観パラメータをいかに調整するかを示す予め記憶された知識を含む。予め記憶
された知識によって、必要数の調整反復は最少にできるので、予め記憶された知
識を使用することは有利である。
【0004】 各個人の顔の外観が変化していなくて、各個人のあらゆる画像が同じである場
合、各個人は汎用顔空間における単一ポイントによって示すことができる。しか
しながら、個人の顔の外観は、多数の要素、例えば表情、姿勢あるいは照明の変
化に応じて変わってもよい。表情、姿勢、照明あるいは他の要素の変化の下での
個人の外観を示す外観パラメータの変異性は、確率密度関数として示すことがで
きる。この確率密度関数は、所与の個人に一致するとみなされる汎用顔空間の統
計を規定する。したがって、例えば、異なる表情を有する個人の一連の画像は、
全て汎用顔空間における確率密度関数によって示された統計の中に含まれるべき
である。
【0005】 公知の顔識別方法では、全ての個人に用いられる単一確率密度関数が生成され
る。これは、確率密度関数を所与の個人に対する平均パラメータベクトルに集中
することによって行われる。
【0006】 本発明の第1の態様の目的は、改良された物体の種類の識別あるいは検証方法
を提供することにある。
【0007】 本発明の第1の態様によれば、異なる種類の物体の画像を比較することによっ
て得られた外観パラメータに基づいたモデルを使用して物体の種類を識別する方
法が提供され、このモデルは、外観パラメータが所与の物体の種類に対して変わ
る範囲を記述する確率密度関数の表現を含み、このモデルは、この外観パラメー
タと前記確率密度関数との所定の関係をさらに含み、この方法は、未知の物体を
示す外観パラメータを生成し、この外観パラメータとこの確率密度関数との所定
の関係を使用して未知の物体のための適切な確率密度関数を推定し、次にこの確
率密度関数を使用して決定された限界内のこの外観パラメータの少なくともいく
つかを繰り返して修正し、前記物体の種類を識別することとを含む。
【0008】 本発明の第1の態様による方法は、未知の物体の種類の改良された識別を行う
【0009】 好ましくは、確率密度関数の閾値レベルが決定され、外観パラメータは、閾値
よりも大きい確率密度を有することを抑制される。
【0010】 適度に、この物体は顔であり、物体の所与の種類は特定の識別を有する顔であ
る。この物体は、代わりに手、家畜、自動車等であってもよい。各々の場合、物
体の種類は、この物体、例えば特定の人の手、特定の馬、自動車の特定のモデル
である。
【0011】 本発明の第1の態様は、異なる個人の顔が異なる方法で変わり、外観パラメー
タが顔を識別する場合に変わり得る範囲を制限するという事実を使用するために
有利である。
【0012】 適度に、外観パラメータと確率密度関数との関係は、物体の各種類に対して決
定された平均外観パラメータと物体の各種類に関連した確率密度関数との関係で
ある。
【0013】 確率密度関数は、いかなる適当な関数も、例えばガウス関数であってもよい。
【0014】 適度に、確率密度関数は、所与の共分散マトリックスによってガウス関数とし
て近似される。
【0015】 適度に、このモデルは能動外観モデルである。このモデルは、代わりに能動形
状モデルであってもよい。
【0016】 本発明の第1の態様は、例えば所与の個人の外観における予測変異性を考慮す
ることによっても個人の追跡を改良するために使用されてもよい。個人の外観に
おける予測変化に対してより強い制約を行うことによって、このモデルを画像あ
るいは手順に合わせることをより確固たるものにすることができる。
【0017】 本発明の第2の態様によれば、異なる種類の物体の画像を比較することによっ
て得られた外観パラメータに基づいたモデルを使用して物体の種類の識別を検証
する方法が提供され、このモデルは、所与の物体の種類に対して外観パラメータ
の変化を記述する確率密度関数の表現を含み、このモデルは、この確率密度関数
とこの外観パラメータとの所定の関係をさらに含み、検証がその後必要とされる
物体の種類に対して、この方法は、一連のこの物体の種類の画像を使用し、この
物体の種類に対する外観パラメータの変化を記述する特定の確率密度関数の表現
を生成し、かつこの物体の種類のその後の検証中、この未知の種類の物体を示す
外観パラメータを生成し、かつこの固有確率密度関数を使用して決定された限界
内の前記外観パラメータの少なくともいくつかを繰り返して修正することによっ
て、未知の種類の画像を既知の種類の画像と比較することとを含む。
【0018】 用語「検証」は、未知の物体の種類が、特定の物体の種類に一致しているかど
うかを調べるためにチェックされることを意味することを意図される。
【0019】 好ましくは、確率密度関数の閾値レベルが決定され、外観パラメータは、閾値
よりも大きい確率密度を有するように抑制される。
【0020】 適度に、この物体は顔であり、物体の所与の種類は特定の識別を有する顔であ
る。この物体は、代わりに手、家畜、自動車等であってもよい。各々の場合、物
体の種類は、この物体、例えば特定の人の手、特定の馬、自動車の特定のモデル
である。
【0021】 本発明の第2の態様は、異なる個人の顔が異なる方法で変わり、顔を識別する
場合に、外観パラメータが変わり得る範囲を制限するという事実を使用するため
に有利である。
【0022】 本発明の第2の態様による方法は、未知の物体の種類の改良された検証を行っ
てもよい。例えば、所与の個人の顔は、全てが比較的完全連続な確率密度関数の
中に含まれる外観パラメータを有してもよい。本発明の第2の態様によるモデル
は、その外観パラメータがこの完全連続な確率密度関数の中に含まれる場合、画
像がこの個人の顔であることを検証するだけである。より大きい統計を有する単
一グローバル確率密度関数を使用する従来の検証方法は、外観パラメータがグロ
ーバル確率密度関数の中に含まれる場合(外観パラメータが本発明の第2の態様
によって提供された比較的完全連続な確率密度関数の範囲外にあった場合、検証
は間違っている)、個人の画像の識別を間違って検証し得る。
【0023】 適度に、外観パラメータと確率密度関数との関係は、物体の各種類に対して決
定された平均外観パラメータと物体の各種類に関連した確率密度関数との関係で
ある。
【0024】 確率密度関数は、いかなる適当な関数も、例えばガウス関数であってもよい。
【0025】 適度に、確率密度関数は、所与の共分散マトリックスによってガウス関数とし
て近似される。
【0026】 適度に、このモデルは能動外観モデルである。このモデルは、代わりに能動形
状モデルであってもよい。
【0027】 本発明の第3の態様によれば、異なる種類の物体の画像を比較することによっ
て得られる外観パラメータに基づいたモデルを使用して物体の種類の合成画像を
生成する方法が提供され、このモデルは、物体の所与の種類に対する外観パラメ
ータの変化を記述する確率密度関数の表現を含み、このモデルは、確率密度関数
と外観パラメータとの所定の関係をさらに含み、合成される物体の種類に対して
、この方法は、この物体の種類の一連の画像を使用し、この物体の種類に対する
外観パラメータの変化を記述する固有確率密度関数の表現を生成することを含み
、物体の種類の合成画像は、固有確率密度関数を使用して決定された限界内に限
定された外観パラメータを使用して生成される。
【0028】 本発明の第3の態様は、合成画像の外観パラメータがあるべき物体の種類の固
有限界を生じるために有利である。
【0029】 好ましくは、確率密度関数の閾値レベルが決定され、この外観パラメータは、
閾値よりも大きい確率密度を有するように抑制される。
【0030】 適度に、この物体は顔であり、物体の所与の種類は特定の識別を有する顔であ
る。この物体は、代わりにに手、家畜、自動車等であってもよい。各々の場合、
物体の種類は、この物体、例えば特定の人の手、特定の馬、自動車の特定のモデ
ルである。
【0031】 本発明の第3の態様は、異なる個人の顔が異なる方法で変わり、顔を識別する
場合に外観パラメータが変わり得る範囲を制限するという事実を使用するために
有利である。
【0032】 適度に、外観パラメータと確率密度関数との関係は、物体の各種類に対して決
定された平均外観パラメータと物体の各種類に関連した確率密度関数との関係で
ある。
【0033】 確率密度関数は、いかなる適当な関数も、例えばガウス関数であってもよい。
【0034】 適度に、確率密度関数は、所与の共分散マトリックスによってガウス関数とし
て近似される。
【0035】 適度に、このモデルは能動外観モデルである。このモデルは、その代わり能動
形状モデルであってもよい。
【0036】 一般に、多数の外観パラメータは、適切な顔認識を可能にするのに十分に詳細
な顔を表現するために必要である。これを示す代替の方法は、汎用顔空間モデル
が適切な顔認識を可能にするのに十分に詳細な顔を表現するために多数の大きさ
を有していなければならないことにある。
【0037】 一般的には、約100の外観パラメータは、顔の正確な識別を可能にするのに
十分な詳細を有する顔を汎用顔空間モデルで表現するのに必要である。しかしな
がら、所与の個人の顔に対して著しく変わる外観パラメータ数は、100よりも
非常に少なく(一般的には30である)、残りの外観パラメータ(一般的には7
0)は実質的に冗長である。既存の顔識別モデルは、汎用顔空間モデルを構成す
る外観パラメータの全てを変えることによって顔を識別しようと試みる。同様に
、全ての使用可能な外観パラメータは、顔以外の物体の種類を識別しようと試み
る場合に変更される。
【0038】 本発明の第4の態様の目的は、改良された物体の種類の検証方法を提供するこ
とにある。
【0039】 本発明の第4の態様によれば、異なる種類の物体の画像を比較することによっ
て得られた外観パラメータに基づいたモデルを使用して物体の種類の識別を検証
する方法が提供され、この方法は、未知の種類の物体をこのモデルに取り込まれ
た既知の種類の物体と比較することを含み、この外観パラメータは、新しい座標
空間で規定された変換パラメータのセットに変換され、この新しい座標空間は、
複数の変換パラメータがこの座標空間で変化しないように選択され、変換パラメ
ータは、この座標空間で既知の種類の物体を示すパラメータのセットと比較され
る。
【0040】 発明者らは、画像が所与の種類の物体のものであるかどうかを検証する(例え
ば、この個別の顔の画像を使用して個人の識別を検証する)場合、未知の種類の
物体を含む(例えば、画像に含まれた顔の識別を認識しようと試みる)画像で物
体の種類を認識するのに必要であるよりも少ない数の自由度が必要である。さら
に、座標空間を回転させることによって、物体の種類の識別を検証するために変
化されねばならないパラメータ数は、著しく減少されてもよい。
【0041】 適度に、この物体は顔であり、物体の所与の種類は特定の識別を有する顔であ
る。この物体は、代わりにに手、家畜、自動車等であってもよい。各々の場合、
物体の種類は、この物体、例えば特定の人の手、特定の馬、自動車の特定のモデ
ルである。
【0042】 適度に、このモデルは能動外観モデルである。このモデルは、代わりに能動形
状モデルであってもよい。
【0043】 本発明の第4の態様による方法が使用される場合、検証に対して必要であるパ
ラメータ数は、一般的には約100から約30に減少される。したがって、本発
明の第4の態様は、特定の個人に「合わせた」モデルを使用して(すなわち、個
人の検証に対して必要とされる変換パラメータ数を最少にする新しい座標空間を
使用して)画像照合を実行にすることを可能にする。これは、より速い、より信
頼性がある検証を行う。
【0044】 本発明の第5の態様によれば、異なる種類の物体の画像を比較することによっ
て得られた外観パラメータに基づいたモデルを使用して所与の種類の物体の一連
の画像を送信する方法が提供され、外観パラメータは、新しい座標空間で規定さ
れた変換パラメータのセットに変換され、この新しい座標空間は、複数の変換パ
ラメータがこの座標空間で変化しないように選択され、変化しない変換パラメー
タは、変換の記述とともに受信機に送信され、変化する変換パラメータは、その
後一連の画像の各画像のために受信機に送信され、逆変換は、受信機で変換パラ
メータを外観パラメータに逆変換するために使用される。
【0045】 好ましくは、外観パラメータは、受信機で合成画像を生成するために使用され
る。
【0046】 本発明の第6の態様によれば、異なる種類の物体の画像を比較することによっ
て得られた外観パラメータに基づいたモデルを使用して所与の種類の物体の一連
の画像を記憶する方法が提供され、外観パラメータは、新しい座標空間で規定さ
れた変換パラメータのセットに変換され、この新しい座標空間は、複数の変換パ
ラメータがこの座標空間で変化しないように選択され、変化しない変換パラメー
タは、変換の記述とともに記憶媒体に記憶され、変化する変換パラメータは、一
連の画像の各画像のために記憶媒体にも記憶される。
【0047】 適度に、この変換は線形変換である。
【0048】 それとは別に、この変換は非線形変換である。
【0049】 好ましくは、物体は顔であり、物体の所与の種類は特定の識別を有する顔であ
る。
【0050】 好ましくは、このモデルは能動外観モデルである。
【0051】 能動外観モデルは、公知の顔識別方法である(1998年に開催されたコンピ
ュータビジョンに関する第5回ヨーロッパ会議におけるG.J.Edwards
、C.J.Taylor、およびT.F.Cootes著の論文「能動外観モデ
ルを使用する顔認識」(581〜595ページ)。能動外観モデルのトレーニン
グ中、合成画像とターゲット画像との差が監視され、合成画像とターゲット画像
との測定差に対する(外観パラメータによって生成される)合成画像の回帰マト
リックス関連変位が決定される。能動外観モデルを使用する物体識別中、回帰マ
トリックスは、モデルを最少エラーを示す物体の種類の識別に至らせるために使
用される。
【0052】 本発明の第7の態様の目的は、改良された物体の種類識別方法を提供すること
にある。
【0053】 本発明の第7の態様によれば、異なる種類の物体の画像を比較することによっ
て得られた外観パラメータに基づいたモデルを使用して物体の種類を識別する方
法が提供され、このモデルは、画像差の外観パラメータの摂動の影響を記述する
予め記憶された推定関係を含み、この画像差は、このモデルに従って生成された
物体の画像と物体そのものの画像との差を示す要素のセットを含み、異なる固有
の関係は物体の異なる種類に対して予め記憶される。
【0054】 適度に、この関係は回帰マトリックスとして規定される。
【0055】 適度に、この物体は顔であり、物体の所与の種類は特定の識別を有する顔であ
る。この物体は、代わりにに手、家畜、自動車等であってもよい。各々の場合、
物体の種類は、この物体、例えば特定の人の手、特定の馬、自動車の特定の型で
ある。
【0056】 本発明の第7の態様は、物体の種類に固有である回帰マトリックスを提供する
ために有利である。顔認識の場合、回帰マトリックスは、特定の識別を有する顔
に固有であり、これは、より骨の折れる、正確な検索を行う。
【0057】 前述されるような本発明の各態様は、分離において役に立つ。しかしながら、
本発明の態様は、より速い、より骨の折れる物体の種類の識別および/または検
証を行うために一緒に組合せることができる。
【0058】 本発明の第1の態様は、そのとき本発明の第4の態様による方法または本発明
の第7の態様による方法で使用されてもよい物体の種類の固有確率密度関数を提
供するために使用できる。
【0059】 次に、本発明の第1および第2の態様の特定の実施例は例としてだけ説明され
る。
【0060】 本発明は、非同種の人々の顔特徴を示す汎用顔空間モデルに基づいたモデルに
用いられてもよい。
【0061】 表情、姿勢、照明等の変化の下で、顔の所与の識別のための外観パラメータの
変異性は、汎用顔空間モデルで確率密度関数(PDF)として示すことができる
。所与の顔の平均外観値に集中されるPDFに対して、この顔のこの任意の表情
、姿勢あるいは照明は、PDF内にある外観パラメータによって記述されるべき
である。
【0062】 従来の顔認識方法では、単一PDFは、識別にもかかわらず全ての顔の変化を
記述するために使用される。しかしながら、実際には、異なる顔は異なる方向で
変わる。本発明の第1の態様は、異なる個人の顔を示す外観パラメータとそのP
DFとの関係を規定することによってこれを考慮する。これによって、特定の顔
に固有なPDFは、この顔の単一画像に基づいて未知の顔に対して予測できる。
【0063】 このモデルは、姿勢、照明、表情等の変化を含む多数の例がある所定の顔のた
めに計算されたPDFを含む。これらの「周知」の顔は、(外観パラメータによ
って規定されるように)汎用顔空間のいろいろな位置にある。このモデルは、特
定の顔に関連したPDFと汎用顔空間におけるこれらの顔の位置との関係を記憶
する。特定の顔の汎用顔空間における位置は、例えば、この顔を示す外観パラメ
ータの平均値として規定されてもよい。
【0064】 このモデルを使用する顔識別中、未知の顔に対するPDFは、未知の顔を示す
1つあるいはそれ以上の外観パラメータの位置に基づいて推定される。これは、
顔のより有効な識別を可能にする特定の顔がいかに変わるかを記述する顔固有P
DFを示す。顔固有PDFは、未知の顔の単一画像だけが調べられる場合さえ決
定してもよい。
【0065】 本発明の第1の態様の実施例は、下記のように機械的に示すことができる。
【0066】 cを外観モデルパラメータのベクトルとする。 p(c|x)をパラメータのベクトルxによってそのものをパラメータで表さ
れるパラメータcに対するPDFとする。 例えば、PDFは、共分散マトリックスS=S(x)を有するガウス関数であ
ってもよい。 モデルは、下記を含んでもよいが、これに限定されない。 a)1つのスケーリングパラメータxを有するモデルS(x)=x b)xによる共分散マトリックスの固有値を示すこと すなわち、S(x)=P’diag(x)P(ここで、Pは直交マトリックス
)である。
【0067】 このモデルにはn人の個人の各々からのm個の例の顔画像が備えられると仮
定する(i=1...n)。yを個人iに対するこれらmi個のベクトルの平
均値とする。各個人iに対して、平均値yについてのPDFのパラメータx が求められる。
【0068】 このモデルは、空間における平均位置yとPDFのパラメータxとの関係
、 x=f(y)を記憶する。 この関係は、任意の適当な方法、例えば多変数線形回帰、ニューラルネットワー
ク等で記憶することができる。十分なデータが与えられると、複合非線形関係を
記憶することができる。
【0069】 したがって、個人の単一画像を与えられると、このモデルは、顔パラメータy
を記憶でき、次に関連PDFをp(c|f(y))として推定できる。
【0070】 PDFは、パラメータcによって示される物体がp(c)の最大値を示す種
類jとして分類される標準最大可能性分類子フレームワークの分類/識別のため
に使用できる。ここで、p()はj番目の種類に対するPDFである。
【0071】 本発明は、例えば、所与の個人の外観の予測変異性を考慮することによって個
人の認識を改善するために使用されてもよい。
【0072】 本発明も、例えば、所与の個人の外観における予測変異性を考慮することによ
って個人のトラッキングを改善するために使用されてもよい。個人の外観におけ
る予想された変化により強い制約を与えることによって、モデルを画像あるいは
手順に適合させることをより確実なものにすることができる。
【0073】 同様に、本発明は、既知の顔の合成にも用いられてもよく、本発明によって所
与の個人の外観における予測変異性は考慮できる。合成された顔は、例えば、コ
ンピュータゲームの一部として、あるいは一般のユーザコンピュータインタフェ
ースの一部として使用されてもよい。合成された顔はユーザーの顔となりうる。
【0074】 本発明も、検証目的に適切なPDFを使用することに関するものである。この
PDFは、p(c)>t(ここで、tは所定の閾値である)である場合、こ
の種の有効な例としてパラメータcを有する物体を受け入れることによって検証
のために使用できる。検証が必要である場合、特定の物体の種類のPDFは、最
初にこの物体の種類の一連の画像を使用して決定される。一旦これが行われると
、検証は、物体の単一画像を得て、この物体の種類に固有なPDFの制約内にあ
るモデルを用いることによって次の機会に実行されてもよい。
【0075】 本発明も、合成目的に適切なPDFを使用することに関するものである。物体
の画像は、汎用顔空間においてこの物体を示す外観パラメータを物体の2次元輝
度表現に変換することによって合成される。この外観パラメータは、関連した物
体の種類の固有確率密度関数によって決定された限界内に制限される。
【0076】 本発明の第4の態様の実施例は顔検証に関するものである。一般に、顔の外観
は、n個の外観モデルパラメータcのベクトルによって示すことができる。しか
しながら、個別の顔の外観は、限られた数の方法で変わり得るだけであるので、
c=c+Bbとしてモデル化できる。ここで、bはk次元ベクトル、k<n、
Bはn×kマトリックス、cは個人に対する平均外観である。
【0077】 既知の個人を検索する(すなわち、個人の識別を検証しようと試みる)場合、
全cのn個のパラメータよりもむしろこのモデルを画像に最適に適合させるbの
k個のパラメータを求めることが必要とされるだけである。顔に対して、n≒1
00およびk≒30であるので、本発明の第4の態様は、より速い、より信頼性
がある顔適合をもたらす。
【0078】 本発明は、線形変換に関して説明されているけれども、形式c=f(b)のい
かなる適当な変換も使用されてもよい。
【0079】 本発明は、顔の一連の画像、例えば、移動する顔画像が電話回線を介して送信
されるべきである場合に有用である。発呼者の顔がカメラによって撮影され、外
観パラメータのセットに変換される。この外観パラメータのセットは、送信より
前に新しい座標空間で変換パラメータのセットに変換される。この送信の第1の
部分は、変換の記述とともに新しい座標空間で変わらないこれらの変換パラメー
タを含む。この送信の第2の部分は、新しい座標空間で変わるこれらの変換パラ
メータを含む。これらのパラメータは一連の各画像に対して送信される。
【0080】 変換パラメータは、画像を合成するために使用される外観パラメータに逆変換
される受信機に送信される。
【0081】 所与の画像を受信機に送信するのに必要とされる変換パラメータ数は、同じ画
像を送信するのに必要とされる外観モデルパラメータ数よりも著しく少ない。こ
れによって、送信機と受信機との間の下部帯域幅接続は使用でき、あるいは代わ
りに画像はよりしばしば更新できる。顔画像の更新速度が増加されると、顔画像
はより写実的に見え、連続する顔の画像間の差はより小さく、カメラによる顔の
トラッキングをより確実なものにする。
【0082】 本発明は公知の顔をトラッキングすることにも用いられてもよい。顔を表現す
るのに必要とされるパラメータ数の削減は、テレビ電話のような用途において価
値のある、より速い、より確実なトラッキングを可能にする(一端でトラッキン
グされる顔は、このパラメータが本人によく似ている合成顔を再構成するために
使用される受信機に送信される少数のパラメータbに符号化される)。b個のパ
ラメータをc個のパラメータに変換するのに必要とされる変換は、受信機にも送
信されねばならない。
【0083】 本発明は、既知の顔を合成するために使用される場合に有利である。顔を表現
するのに必要とされるパラメータ数bの削減は、必要とされる計算上の負荷を減
少させるより速い合成を可能にする。合成顔は、例えばコンピュータゲームの一
部あるいは一般のユーザコンピュータインタフェースとして使用されてもよい。
合成顔は、ユーザの顔であってもよい。
【0084】 上記の方法の全てが、本発明は、能動外観モデル(1998年第3回自動顔お
よびジェスチャー認識に関する国際会議におけるG.Edwards、C.Ta
ylor、およびT.Cootes著の論文「能動外観モデルを使用する顔画像
の解読」(300〜305ページ)(1998年4月に日本の奈良市のIEEE
コンピュータ学会出版で発行)に用いられ、Cootesら(第5回のコンピュ
ータビジョンのヨーロッパ会議におけるT.F.Cootes、G.J.Edw
ards、およびC.J.Taylor著の論文「能動外観モデル」(484〜
498ページ)(1998年6月にSpringer発行)によってさらに説明
されいる。
【0085】 能動外観モデルは、モデルによって生成した再構成画像と下にあるターゲット
画像との差を使用し、モデルパラメータをさらによい値の方へ至らせる。従来の
記憶段階では、公知の変位cは、公知のモデル例に用いられ、モデルと画像との
間に生じる差vが測定される。多変数の線形回帰は、そのようなトレーニング変
位の大きなセットに用いられ、近似線形関係は確立される。すなわち、 δc=Rδvである。
【0086】 画像を検索する場合、モデルと画像との現差vは、モデルフィットを改善する
モデルパラメータの調整値−cを予測するために使用される。表示を簡単にする
ために、ベクトルcは、スケールにおける変位、回転および並進を含むものと仮
定される。
【0087】 能動外観モデルは、顔画像のセットを使用して構成された。これを行うために
、顔画像モデルは、Edwardsら(G.Edwards、A.Laniti
s、C TaylorおよびT.Cootes著の「特異性を改善する顔画像の
統計モデル」(イメージおよびビジョンコンピューティング、16:203〜2
11、1998)によって示された方式に従って生成された。このモデルは、顔
形状変化のモデルを形状正規化された顔の外観変化のモデルと結合することによ
って生成された。このモデルは、各々が主要な機能を示す122個のランドマー
ク点で示される400個の顔画像でトレーニングされた。この形状モデルは、ラ
ンドマークのセットをベクトルxとして示し、主要成分分析(PCA)をデータ
に用いることによって生成された。次に、いかなる例も下記を使用して近似でき
る。 x=x+P (1) ここで、xは平均形状であり、Pは、変化の直交モードのセットであり、b は形状パラメータのセットである。各例の画像は、曲げられるので、その制御点
は、(三角形分割アルゴリズムを使用して)平均形状に適合し、グレイレベル情
報gは、形状正規化された顔パッチからサンプルされた。PCAをこのデータに
用いることによって同じモデルが得られた。 g=g+P (2)
【0088】 したがって、いかなる例の形状および外観もベクトルbおよびbによって
要約できる。形状変化とグレイレベル変化との間の相関があるので、他のPCA
は、下記の形式の結合モデルを得るために結合されたベクトルに用いられる。 x=x+Qc (3) g=g+Qc (4) ここで、cはモデルの形状およびグレイレベルの両方を制御する外観パラメータ
のベクトルであり、QおよびQはcの値を形状および形状正規化グレイレベ
ルデータの変化にマッピングする。顔は、無形状グレイレベル画像をベクトルg
から生成し、xに示された制御点を使用してこの画像を曲げることによって所与
のcのために合成することができる(この処理は、1997年の英国のColc
hester市で開催された1997年の英国マシンビジョン会議におけるG.
J.Edwards、C.J.TaylorおよびT.Cootes著の論文「
画像シーケンスの顔を識別し、追跡する学習」に詳述される。
【0089】 400の例は、23の形状パラメータbおよび114のグレイレベルパラメ
ータbをもたらす。しかしながら、80の結合外観モデルパラメータcだけが
観測された変化の98%を説明するために必要とされる。
【0090】 一旦外観モデルが生成されると、この外観モデルは、顔を識別し、顔の表現を
生成するために使用されてもよい。
【0091】 2つの工程は、外観モデルを顔の画像に適合させるために採用される。第1の
工程は、簡単で速い方式を使用して近似適合を求めるべきである。顔が画像にあ
ってもよい場合あるいは顔のスケールおよび向きの最初の情報が全然仮定されな
い。簡単な固有の顔モデル(M.TurkおよびA.Pentland著の論文
「認識のための固有の顔」(Journal Cognitive Neuro
science、3(1):71〜86、1991)は、位置選定のこの工程の
ために使用されてもよい。画像データMの固有の顔の表現と画像そのものIとの
間の相関スコアSは、いろいろなスケール、位置および向きで計算できる。すな
わち、 S=|I−M| (5)である。
【0092】 原則として、画像は徹底的に検索できるけれども、Matasらの確率方式(
1997年英国のColchester市に開催された英国のマシンビジョン会
議におけるK.J.J.MatasおよびJ.Kittler著の論文「高速の
顔局在性および検証」)と同様な確率方式を使用することは非常に有効である。
モデルおよび画像の両方は、ほんの少しのモデルサンプルポイントだけを使用し
て相関スコアを形成するためにサブサンプリングされる。
【0093】 一旦顔の位置の妥当な開始近似が決定されると、次に、外観モデルは、顔を識
別するために使用される。外観モデルのパラメータは、画像をできるだけ接近し
て適合する合成の顔が生成されるように調整される。アルゴリズムの詳細が続く
基本アイディアは、下記に概略される。
【0094】 解釈法は、実際の顔の画像と外観モデルによって合成される顔の画像との間の
差が最小にされる最適化問題とみなされる。差のベクトルδIは、下記のように
規定できる。 δI=I−I (6) ここで、I=画像のグレイレベル値のベクトルであり、Iは現モデルパラメ
ータのためのグレイレベル値のベクトルである。
【0095】 モデルと画像との間の最適照合を見つけるために、差ベクトルの大きさ△=|
δI|は、モデルパラメータcを変えることによって最小にされる。
【0096】 このモデルは約80のパラメータを有するので、これは、最初に非常に高次元
空間における検索を含む非常に困難な最適化問題であるように見える。しかしな
がら、このモデルを新しい顔の画像に適合させようとする各試みが実際に同じ最
適問題であることが注目される。したがって、このモデルは、まえもっていかに
この種の問題を解決するかについて何らかの学習をする。画像検索中にいかにモ
デルパラメーターを調整するかの先験的知識を与えることによって、効率的なラ
ンタイムアルゴリズムに到達する。特に、よりよいフィットを得るためにモデル
パラメータをいかに変えるべきかについての情報を符号化するために、δIにお
ける空間パターンを予想することができる。モデルと画像との最大の差が顔の側
面で生じた場合、これは、モデルの顔の幅を調整したパラメータが調整されるべ
きであることを意味する。
【0097】 この方式を採用する際に、この問題に2つ面がある。すなわち、δIとモデル
パラメータのエラーδcとの関係を記憶することおよび△を最小にするための反
復アルゴリズムでこの情報を使用することである。
【0098】 δIとモデルパラメータのエラーとの関係のために選択できる最も簡単なモデ
ル(したがって行われる必要のある補正)は、線形である。すなわち、 δc=RδI (7)である。
【0099】 これは、適切な結果を提供するのに十分適切な近似である。Rを求めるために
、複数の多変数線形回帰は、既知のモデル変位δcの大きなサンプルおよび対応
する差画像で実行される。これらの大きなランダム変位のセットは、既知量だけ
トレーニングセットの画像のための「正確な」モデルパラメータを摂動すること
によって生成される。モデルパラメータの摂動と同様に、2D位置のわずかな変
位、スケールおよび配向もモデル化される。これらの余分な4つのパラメータは
、回帰に含められる。しかしながら、表示を簡単にするために、このパラメータ
は、単にベクトルの余分な要素δcとみなすことができる。うまく作動する関係
を得るために、画像差が計算される基準のフレームを注意深く選択することは重
要である。最も適している基準のフレームは、前述された形状正規化された顔の
パッチである。したがって、差が計算される。すなわち、モデルの現位置に対し
て、現位置の画像データを曲げて形状正規化された顔のパッチにすることによっ
て、画像グレイレベルサンプルベクトルgを計算する。これは、式4を使用して
計算されたモデルグレイレベルサンプルベクトルgと比較される。すなわち、 δg=g−g (8)である。
【0100】 したがって、式7は、修正できる。すなわち、 δc=Rδg (9)
【0101】 トレーニング中使用するδcの値の最適範囲は経験的に決定される。理想的に
は、できるだけ大きいエラーの範囲δgにわたって保持する関係をモデル化する
ことが望ましい。しかしながら、実際の関係は、限られた範囲の値にわたっての
み線形であることが分かる。実施例において、モデルは80のパラメーターを使
用した。最適摂動レベルは、各モデルパラメータに対して(トレーニングセット
にわたって)約0.5標準偏差であることが分かった。各パラメータは、0と1
の間の標準偏差の値によって平均値から摂動される。スケール、角度および位置
は、0〜+/−10%の範囲にある値(位置変位は顔の幅に対するものである)
によって摂動された。線形回帰を実行した後、R統計値は、いかに十分変位が
エラーベクトルδgによって「予測される」かを測定するために各パラメータ摂
動δcに対して計算される。80のパラメータに対する平均R値は、0.9
8の最大値(第1のパラメータ)および0.48の最小値を有する0.82であ
った。
【0102】 モデルパラメータで行われる必要がある補正を予測する方法を示されると、反
復法は、最適化問題を解決するために構成されてもよい。画像cへの所与のモデ
ル投影に関して、グレイレベルサンプルエラーベクトルδgは計算され、モデル
推定値はこのように更新される。 c’=c−Rδg (10)
【0103】 最初の近似が正しい解とは全く違っている場合、第1の反復で予測モデルパラ
メータは、一般に全く正確でなく、異なる画像においてエネルギーを減らすべき
である。これは、Rをスケーリングすることによって保証できるので、この予測
は、トレーニングセットにおける全ての例に対して差ベクトルの大きさ|δg |を減らす。モデルパラメータの改良された値が与えられると、次の反復で行わ
れる予測はさらに適するべきである。この手順は、集中性に対して反復される。
一般的に、アルゴリズムは、かなり不十分な起動近似から約5〜10個の反復で
集中する。
【0104】 本発明は、能動外観モデルに用いられてもよい。一般的形式では、外観パラメ
ータcを与えられると、合成顔が生成され、合成画像とターゲット画像との間の
差ベクトルIが計算される。次に、外観パラメータは下記の式を使用して更新さ
れる。 c→c−RδI ここで、Rは、モデルトレーニングフェーズ中に記憶された画像エラーに対する
モデル変位に関する回帰マトリックスである。
【0105】 本発明を用いると、このモデルが既知の平均外観cおよびBによって示され
た変化量で特定の個人を調べる場合、次にパラメータbは下記のように操作でき
る。 b→b−RδI c=c+Bb ここで、Rは、Rを計算するために使用された方法と同様な方法でトレーニン
グセットから学習された回帰マトリックスであるが、bのわずかな変化と誘起さ
れた画像エラーとの関係を記憶する。
【0106】 画像が特定の物体のものであることを検証する場合、平均画像cおよびこの
物体が正当に変わる距離B、(c=c+Bb)が既知であると仮定される。こ
の画像は、減少されたパラメータbのセットを操作する能動外観モデルを使用し
て検索される。最適のフィットは、目標画像にできるだけ接近する目標物体の画
像を合成する。この物体が必要とされる種類に属していることを検証するために
、最もよく一致する合成画像と実際の画像との差dIが測定される。|dI|<
(ここで、tは適している閾値)である場合、この物体は正確に検証され
るために言明される。
【0107】 従来の能動外観モデルで使用されるアルゴリズムは、全個人に対して同じ回帰
マトリックスを使用する。本発明の第7の態様は、各個人に対して(すなわち、
各被験者の顔に対して)同じ回帰マトリックスRを使用する。特に、Rがt個の
パラメータを有するモデル内に示されている場合、すなわちR=R(x)である
場合、パラメータxと平均外観モデルパラメータとの関係は、個人yに対して記
憶できる、すなわち x=g(y)である。 したがって、平均外観モデルパラメータyを有する個人を検索する場合、この
モデルは、下記の形式の更新式を使用する。 c→c−R(g(y))δI 例えば、単一パラメータを有する1つの簡単なモデルxを考察する、すなわち
、 R(x)=xRである。 原点からの距離とxの最適値との関係、すなわちx=a+b|y|があり得る
【0108】 回帰マトリックスは、このパラメータyに対する画像を合成するためにこのモ
デルを使用し、次に多数の変位dy、および対応する画像エラーδIを生成する
ことによって空間の任意の点yで計算できる。線形回帰は、所与のyに対してd
y=RδIであるように最適のRを記憶するために使用できる。
【手続補正書】特許協力条約第34条補正の翻訳文提出書
【提出日】平成13年12月29日(2001.12.29)
【手続補正1】
【補正対象書類名】明細書
【補正対象項目名】特許請求の範囲
【補正方法】変更
【補正の内容】
【特許請求の範囲】
───────────────────────────────────────────────────── フロントページの続き (81)指定国 EP(AT,BE,CH,CY, DE,DK,ES,FI,FR,GB,GR,IE,I T,LU,MC,NL,PT,SE,TR),OA(BF ,BJ,CF,CG,CI,CM,GA,GN,GW, ML,MR,NE,SN,TD,TG),AP(GH,G M,KE,LS,MW,MZ,SD,SL,SZ,TZ ,UG,ZW),EA(AM,AZ,BY,KG,KZ, MD,RU,TJ,TM),AE,AG,AL,AM, AT,AU,AZ,BA,BB,BG,BR,BY,B Z,CA,CH,CN,CR,CU,CZ,DE,DK ,DM,DZ,EE,ES,FI,GB,GD,GE, GH,GM,HR,HU,ID,IL,IN,IS,J P,KE,KG,KP,KR,KZ,LC,LK,LR ,LS,LT,LU,LV,MA,MD,MG,MK, MN,MW,MX,MZ,NO,NZ,PL,PT,R O,RU,SD,SE,SG,SI,SK,SL,TJ ,TM,TR,TT,TZ,UA,UG,US,UZ, VN,YU,ZA,ZW (72)発明者 ティモシー・フランシス・クーツ イギリス、エスケイ4・3エルイー、スト ックポート、ヒートン・ムーア、グリー ン・レイン21番 (72)発明者 ギャレス・エドワーズ イギリス、エスケイ17・7ジェイジェイ、 ダービーシャー、バクストン、ウォーター スワローズ・ロード、ザ・パドック Fターム(参考) 5B057 CA12 CA16 DA11 DB02 DC01 DC36 5L096 BA18 GA30 JA11

Claims (22)

    【特許請求の範囲】
  1. 【請求項1】 異なる種類の物体の画像を比較することによって得られた外
    観パラメータに基づいたモデルを使用して物体の種類を識別する方法であって、
    前記モデルが、外観パラメータが所与の物体の種類に対して変わる範囲を記述す
    る確率密度関数の表現を含み、前記モデルが、前記外観パラメータと前記確率密
    度関数との所定の関係をさらに含むものにおいて、未知の物体を示す外観パラメ
    ータを生成し、前記外観パラメータと前記確率密度関数との所定の関係を使用し
    て未知の物体のための適切な確率密度関数を推定し、次に前記確率密度関数を使
    用して決定された限界内の前記外観パラメータの少なくともいくつかを繰り返し
    て修正し、前記物体の種類を識別することとを含むことを特徴とする方法。
  2. 【請求項2】 異なる種類の物体の画像を比較することによって得られた外
    観パラメータに基づいたモデルを使用して物体の種類の識別を検証する方法であ
    って、前記モデルが、所与の物体の種類に対して外観パラメータの変化を記述す
    る確率密度関数の表現を含み、前記モデルが、前記確率密度関数と前記外観パラ
    メータとの間の所定の関係をさらに含むものにおいて、検証がその後必要とされ
    る物体の種類に対して、前記方法が、一連のこの物体の種類の画像を使用し、こ
    の物体の種類に対する外観パラメータの変化を記述する固有確率密度関数の表現
    を生成し、かつ前記物体の種類のその後の検証中、前記未知の種類の物体を示す
    外観パラメータを生成し、かつ前記固有確率密度関数を使用して決定された限界
    内の前記外観パラメータの少なくともいくつかを繰り返して修正することによっ
    て、未知の種類の画像を既知の種類の画像と比較することを含むことを特徴とす
    る方法。
  3. 【請求項3】 異なる種類の物体の画像を比較することによって得られた外
    観パラメータに基づいたモデルを使用して物体の種類の合成画像を生成する方法
    であって、前記モデルが、所与の物体の種類に対して外観パラメータの変化を記
    述する確率密度関数の表現を含み、前記モデルが、前記確率密度関数と前記外観
    パラメータとの所定の関係をさらに含むものにおいて、合成される物体の種類に
    対して、前記方法が、一連のこの物体の種類の画像を使用し、この物体の種類に
    対する外観パラメータの変化を記述する固有確率密度関数の表現を生成すること
    を含み、かつ前記物体の種類のその後の合成中、使用された前記外観パラメータ
    が、前記固有確率密度関数を使用して決定された限界内に制限されることを特徴
    とする方法。
  4. 【請求項4】 前記確率密度関数の閾値レベルが決定され、かつ前記外観パ
    ラメータが、前記閾値よりも大きい確率密度を有するように抑制されることを特
    徴とする請求項1乃至3のいずれかに記載の方法。
  5. 【請求項5】 前記物体が顔であり、所与の物体の種類が特定の識別を有す
    る顔であることを特徴とする前述の請求項のいずれかに記載の方法。
  6. 【請求項6】 前記外観パラメータと前記確率密度関数との関係が、物体の
    各種類に対して決定された平均外観パラメータと物体の各種類に関連した確率密
    度関数との関係であることを特徴とする前述の請求項のいずれかに記載の方法。
  7. 【請求項7】 前記確率密度関数がガウス関数であることを特徴とする前述
    の請求項のいずれかに記載の方法。
  8. 【請求項8】 前記確率密度関数が、所与の共分散マトリックスでガウス関
    数として近似されることを特徴とする前述の請求項のいずれかに記載の方法。
  9. 【請求項9】 前記モデルが、能動外観モデルであることを特徴とする前述
    の請求項のいずれかに記載の方法。
  10. 【請求項10】 異なる種類の物体の画像を比較することによって得られた
    外観パラメータに基づいたモデルを使用して物体の種類の識別を検証する方法で
    あって、前記方法が、未知の種類の物体を前記モデルに組み込まれた既知の種類
    の物体と比較することを含み、前記外観パラメータが、新しい座標空間で規定さ
    れた変換パラメータのセットに変換され、複数の変換パラメータがこの座標空間
    で変わらないように選択され、前記変換パラメータが、この座標空間における既
    知の種類の物体を示すパラメータのセットと比較されることを特徴とする方法。
  11. 【請求項11】 異なる種類の物体の画像を比較することによって得られた
    外観パラメータに基づいたモデルを使用して一連の所与の種類の物体の画像を送
    信する方法であって、外観パラメータが、新しい座標空間で規定された変換パラ
    メータのセットに変換され、複数の変換パラメータがこの座標空間で変わらない
    ように前記新しい座標空間が選択され、変化しない変換パラメータが、前記変換
    の記述とともに受信機に送信され、かつ変化する変換パラメータが、前記一連の
    画像の各画像に対して前記受信機に続いて送信され、逆変換が、受信機で受信さ
    れた変換パラメータを外観パラメータに逆変換するために使用されることを特徴
    とする方法。
  12. 【請求項12】 前記外観パラメータが、前記受信機で合成画像を生成する
    ために使用されることを特徴とする請求項11記載の方法。
  13. 【請求項13】 異なる種類の物体の画像を比較することによって得られた
    外観パラメータに基づいたモデルを使用して一連の所与の種類の物体の画像を記
    憶する方法であって、外観パラメータが、新しい座標空間で規定された変換パラ
    メータのセットに変換され、複数の変換パラメータがこの座標空間で変わらない
    ように前記新しい座標空間が選択され、変化しない変換パラメータが、前記変換
    の記述とともに記憶媒体に記憶され、かつ変化する変換パラメータが、前記一連
    の画像の各画像のための前記記憶媒体にも記憶されることを特徴とする方法。
  14. 【請求項14】 前記変換パラメータが、前記記憶媒体から検索され、かつ
    逆変換が、受信された変換パラメータを外観パラメータに逆変換するために使用
    されることを特徴とする請求項13記載の方法。
  15. 【請求項15】 前記変換が線形変換であることを特徴とする請求項10乃
    至14のいずれかに記載の方法。
  16. 【請求項16】 前記変換が、非線形変換であることを特徴とする請求項1
    0乃至14のいずれかに記載の方法。
  17. 【請求項17】 前記物体が顔であり、かつ物体の所与の種類が特定の識別
    を有する顔であることを特徴とする請求項10乃至16のいずれかに記載の方法
  18. 【請求項18】 前記モデルが能動外観モデルであることを特徴とする請求
    項10乃至17記載のいずれかに記載の方法。
  19. 【請求項19】 異なる種類の物体の画像を比較することによって得られた
    外観パラメータに基づいたモデルを使用して物体の種類を識別する方法であって
    、前記モデルが、画像差の前記外観パラメータの摂動の影響を記述する予め記憶
    された推定関係を含み、前記画像差が、前記モデルに従って生成された物体の画
    像と前記物体そのものの画像との差を記述する要素のセットを含み、特定の関係
    が、物体の特定の種類に対して予め記憶され、かつ異なる特定の関係が物体の異
    なる種類に対して予め記憶されることを特徴とする方法。
  20. 【請求項20】 前記関係が、回帰マトリックスによって規定されることを
    特徴とする請求項19記載の方法。
  21. 【請求項21】 前記物体が顔であり、かつ物体の所与の種類が、特定の識
    別を有する顔であることを特徴とする請求項19あるいは20記載の方法。
  22. 【請求項22】 実質的に前述されたような物体の種類の識別あるいは検証
    の方法。
JP2001536987A 1999-11-09 2000-11-09 物体の種類の識別、検証あるいは物体の画像合成 Pending JP2003514309A (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
GB9926459.0 1999-11-09
GBGB9926459.0A GB9926459D0 (en) 1999-11-09 1999-11-09 Object class identification or verification
GB0017966.3 2000-07-21
GB0017966A GB0017966D0 (en) 2000-07-21 2000-07-21 Object class identification verification or object image synthesis
PCT/GB2000/004295 WO2001035326A1 (en) 1999-11-09 2000-11-09 Object class identification, verification or object image synthesis

Publications (1)

Publication Number Publication Date
JP2003514309A true JP2003514309A (ja) 2003-04-15

Family

ID=26244702

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001536987A Pending JP2003514309A (ja) 1999-11-09 2000-11-09 物体の種類の識別、検証あるいは物体の画像合成

Country Status (9)

Country Link
US (1) US7095878B1 (ja)
EP (1) EP1228479B1 (ja)
JP (1) JP2003514309A (ja)
AT (1) ATE294423T1 (ja)
AU (1) AU772362B2 (ja)
CA (1) CA2390695A1 (ja)
DE (1) DE60019786T2 (ja)
ES (1) ES2241667T3 (ja)
WO (1) WO2001035326A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7925048B2 (en) 2006-03-13 2011-04-12 Omron Corporation Feature point detecting device, feature point detecting method, and feature point detecting program

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB0114271D0 (en) 2001-06-12 2001-08-01 Univ Manchester Parameterisation
CN1313979C (zh) * 2002-05-03 2007-05-02 三星电子株式会社 产生三维漫画的装置和方法
US7454067B1 (en) * 2003-09-12 2008-11-18 Adobe Systems Incorporated Symbol classification depending on cluster shapes in difference image
US7483553B2 (en) * 2004-03-29 2009-01-27 Microsoft Corporation Caricature exaggeration
SE528068C2 (sv) 2004-08-19 2006-08-22 Jan Erik Solem Med Jsolutions Igenkänning av 3D föremål
US7287694B2 (en) 2004-08-25 2007-10-30 International Business Machines Corporation Method and system for context-based automated product identification and verification
WO2007044044A2 (en) * 2004-12-21 2007-04-19 Sarnoff Corporation Method and apparatus for tracking objects over a wide area using a network of stereo sensors
US7672482B2 (en) 2006-05-16 2010-03-02 Eastman Kodak Company Shape detection using coherent appearance modeling
WO2008070701A2 (en) * 2006-12-06 2008-06-12 Honda Motor Co., Ltd. Fast human pose estimation using appearance and motion via multi-dimensional boosting regression
HUE041756T2 (hu) * 2007-02-05 2019-05-28 Siemens Healthcare Diagnostics Inc Rendszer és eljárás sejt mikroszkópos elemzésére
US20080270425A1 (en) * 2007-04-27 2008-10-30 James Cotgreave System and method for connecting individuals in a social networking environment based on facial recognition software
EP2153378A1 (en) * 2007-06-01 2010-02-17 National ICT Australia Limited Face recognition
US8447100B2 (en) * 2007-10-10 2013-05-21 Samsung Electronics Co., Ltd. Detecting apparatus of human component and method thereof
WO2010144259A1 (en) * 2009-06-09 2010-12-16 Arizona Board Of Regents Acting For And On Behalf Of Arizona State University Ultra-low dimensional representation for face recognition under varying expressions
WO2011047103A2 (en) * 2009-10-13 2011-04-21 The Charles Stark Draper Laboratory, Inc. Mathematical image analysis based cell reprogramming with applications for epigenetic and non-epigenetic base induced pluripotent stem cell derivation
US9607202B2 (en) * 2009-12-17 2017-03-28 University of Pittsburgh—of the Commonwealth System of Higher Education Methods of generating trophectoderm and neurectoderm from human embryonic stem cells
JP2012027572A (ja) * 2010-07-21 2012-02-09 Sony Corp 画像処理装置および方法、並びにプログラム
US9236024B2 (en) 2011-12-06 2016-01-12 Glasses.Com Inc. Systems and methods for obtaining a pupillary distance measurement using a mobile computing device
US9483853B2 (en) 2012-05-23 2016-11-01 Glasses.Com Inc. Systems and methods to display rendered images
US9286715B2 (en) 2012-05-23 2016-03-15 Glasses.Com Inc. Systems and methods for adjusting a virtual try-on
US9311746B2 (en) 2012-05-23 2016-04-12 Glasses.Com Inc. Systems and methods for generating a 3-D model of a virtual try-on product
US9373051B2 (en) * 2012-06-14 2016-06-21 Insitu, Inc. Statistical approach to identifying and tracking targets within captured image data
US9025811B1 (en) 2013-01-02 2015-05-05 Google Inc. Performing image similarity operations using semantic classification
US9380275B2 (en) 2013-01-30 2016-06-28 Insitu, Inc. Augmented video system providing enhanced situational awareness
US9105119B2 (en) * 2013-05-02 2015-08-11 Emotient, Inc. Anonymization of facial expressions
US9639743B2 (en) * 2013-05-02 2017-05-02 Emotient, Inc. Anonymization of facial images
US9514354B2 (en) * 2013-12-18 2016-12-06 International Business Machines Corporation Facial analysis by synthesis and biometric matching
US9576188B2 (en) 2013-12-23 2017-02-21 Atheer, Inc. Method and apparatus for subject identification
US20180157769A1 (en) * 2016-03-21 2018-06-07 Brigham Young University Multi-reference interface inheritance for concurrent cad interoperability applications
CN109460485A (zh) * 2018-10-12 2019-03-12 咪咕文化科技有限公司 一种图像库建立方法、装置和存储介质

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6044168A (en) * 1996-11-25 2000-03-28 Texas Instruments Incorporated Model based faced coding and decoding using feature detection and eigenface coding
US6741756B1 (en) * 1999-09-30 2004-05-25 Microsoft Corp. System and method for estimating the orientation of an object

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7925048B2 (en) 2006-03-13 2011-04-12 Omron Corporation Feature point detecting device, feature point detecting method, and feature point detecting program

Also Published As

Publication number Publication date
EP1228479A1 (en) 2002-08-07
DE60019786T2 (de) 2006-03-09
US7095878B1 (en) 2006-08-22
DE60019786D1 (de) 2005-06-02
EP1228479B1 (en) 2005-04-27
AU772362B2 (en) 2004-04-22
ES2241667T3 (es) 2005-11-01
AU1165301A (en) 2001-06-06
ATE294423T1 (de) 2005-05-15
CA2390695A1 (en) 2001-05-17
WO2001035326A1 (en) 2001-05-17

Similar Documents

Publication Publication Date Title
JP2003514309A (ja) 物体の種類の識別、検証あるいは物体の画像合成
Cootes et al. View-based active appearance models
Kusakunniran et al. Gait recognition under various viewing angles based on correlated motion regression
Edwards et al. Statistical models of face images—improving specificity
US7415152B2 (en) Method and system for constructing a 3D representation of a face from a 2D representation
US7853085B2 (en) Viewpoint-invariant detection and identification of a three-dimensional object from two-dimensional imagery
US6683968B1 (en) Method for visual tracking using switching linear dynamic system models
US20070103471A1 (en) Discriminative motion modeling for human motion tracking
JP4553141B2 (ja) 重み情報を用いた物体姿勢推定・照合システム
Luo et al. Robust arbitrary view gait recognition based on parametric 3D human body reconstruction and virtual posture synthesis
Tian et al. Articulated pose estimation in a learned smooth space of feasible solutions
JP2009533724A (ja) オブジェクトの特徴を位置特定する方法
Sheng et al. Combining pose invariant and discriminative features for vehicle reidentification
Lui et al. Adaptive appearance model and condensation algorithm for robust face tracking
JP4419543B2 (ja) 検出装置および検出方法
Tresadern et al. Combining Local and Global Shape Models for Deformable Object Matching.
Ferryman et al. Learning Enhanced 3D Models for Vehicle Tracking.
CN115205903A (zh) 一种基于身份迁移生成对抗网络的行人重识别方法
Perronnin et al. A probabilistic model of face mapping with local transformations and its application to person recognition
Paterson et al. 3D head tracking using non-linear optimization.
Yuan et al. Research on intelligent algorithm of identity authentication based on facial features
Lu et al. Active shape model and its application to face alignment
Li et al. Modeling facial shape and appearance
US20240062441A1 (en) System and method for photorealistic image synthesis using unsupervised semantic feature disentanglement
Wang et al. Beyond view transformation: feature distribution consistent GANs for cross-view gait recognition