JP4950787B2 - 画像処理装置及びその方法 - Google Patents

画像処理装置及びその方法 Download PDF

Info

Publication number
JP4950787B2
JP4950787B2 JP2007183610A JP2007183610A JP4950787B2 JP 4950787 B2 JP4950787 B2 JP 4950787B2 JP 2007183610 A JP2007183610 A JP 2007183610A JP 2007183610 A JP2007183610 A JP 2007183610A JP 4950787 B2 JP4950787 B2 JP 4950787B2
Authority
JP
Japan
Prior art keywords
image
region
dimensional
interest
dimensional model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007183610A
Other languages
English (en)
Other versions
JP2009020761A (ja
Inventor
達夫 小坂谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2007183610A priority Critical patent/JP4950787B2/ja
Priority to US12/171,473 priority patent/US8086027B2/en
Publication of JP2009020761A publication Critical patent/JP2009020761A/ja
Application granted granted Critical
Publication of JP4950787B2 publication Critical patent/JP4950787B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional [3D] objects
    • G06V20/647Three-dimensional [3D] objects by matching two-dimensional images to three-dimensional objects
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/755Deformable models or variational models, e.g. snakes or active contours
    • G06V10/7553Deformable models or variational models, e.g. snakes or active contours based on shape, e.g. active shape models [ASM]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Human Computer Interaction (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、認識対象の個人差や部分的な変形が吸収された3次元モデルを構築する画像処理装置及びその方法に関する。
実用的な顔画像認識技術の開発のためには、非正面の顔や表情変化のある顔についても適切に対応する必要があるため、姿勢や変形に対する顔の見え(パターン)の変化を正規化することが重要な課題となっている。また、コストの面からも3次元形状を直接的に計測するレンジファインダやステレオ装置などの特殊な機材は好ましくなく、応用可能な範囲を広げるためにも画像1枚のみから処理が可能であることが望ましい。
そのため、特許文献1によれば、入力画像と3次元モデルとの間の対応関係を複数の共通する特徴点を用いて計算することにより、入力画像1枚のみから、画面内の回転やサイズのような2次元的な変形だけでなく、顔の姿勢変化のような3次元的な変形についても正規化された画像を生成し、認識を行う方法が述べられている。
しかし、処理すべき顔画像と3次元モデルの形状が同一ではない場合には個人差による影響がある。また、処理対象の顔が笑っているなどの部分的な変形を含む場合には、単一の3次元モデルでは表現できないため、対応関係の計算に誤差が生じ、認識精度が低下する可能性があった。
特開2007−4767公報
上記したように、従来技術には、個人差や表情変化などの顔の部分的な変形により、うまく入力画像と3次元モデルとの対応関係を計算することができない問題点があった。
そこで本発明は、上記問題点を解決するためになされたものであって、入力画像の2次元位置と3次元モデルの3次元位置との対応関係を求めることができる画像処理装置及びその方法を提供することを目的とする。
本発明は、対象物体が写った画像を入力する画像入力部と、3次元モデルの形状を表す情報と、前記3次元モデル上の同一平面上に存在しない4点以上の基準特徴点の3次元位置を格納する格納部と、前記対象物体に関し、かつ、前記複数の基準特徴点に対応する複数の特徴点を、前記入力画像から抽出する抽出部と、(1)前記基準特徴点と関連付けされ、(2)前記3次元モデル上に存在する複数の局所的な領域である複数の注目領域を設定する設定部と、前記抽出された特徴点と、前記注目領域に関する基準特徴点とを用いて、前記入力画像の2次元位置と前記注目領域の3次元位置との対応関係を、前記注目領域毎に求める計算部と、前記注目領域毎の対応関係に基づいて、前記入力画像の各領域に少なくとも一つの前記注目領域をそれぞれ対応させて、前記注目領域に対応する3次元モデルの3次元位置のピクセル値を、前記入力画像の2次元位置のピクセル値に決定する決定部と、を有する画像処理装置である。
本発明によれば、入力画像の2次元位置と3次元モデルの3次元位置との対応関係を求めることができる。
以下、本発明に係わる実施形態の画像処理装置10について図面に基づいて説明する。
(第1の実施形態)
以下、第1の実施形態の画像処理装置10について図1〜図4に基づいて説明する。本実施形態の画像処理装置10は、人間の顔を認識する認識装置である。
(1)画像処理装置10の構成
図1は、画像処理装置10の構成を示すブロック図である。
画像処理装置10は、対象となる人物の顔を入力する画像入力部12と、入力された画像から複数の特徴点を抽出する特徴点抽出部14と、3次元モデルと3次元モデル上の基準特徴点座標を記憶しておく3次元モデル保持部16と、3次元モデルから注目領域を設定する注目領域設定部18と、抽出された特徴点と注目領域に属する基準特徴点を用いて入力画像と注目領域との対応関係を推定する対応関係計算部20と、画像と対応付けられた注目領域を統合する3次元モデル統合部22と、3次元モデル統合部22で統合された3次元モデルに基づいて正規化画像を生成する正規化画像生成部24と、正規化された画像を用いて画像間のマッチングを行う認識部26とを備えている。
なお、各部14〜26の機能は、コンピュータに格納されたプログラムによっても実現可能である。
次に、画像処理装置10の動作について図2に基づいて説明する。
(2)画像入力部14
画像入力部12は、処理対象となる顔画像を入力する。画像入力部12より得られた画像は、特徴点抽出部14に逐次送られる。
画像入力部12を構成する装置の一つの例として、USBカメラやデジタルカメラ等が挙げられる。また、予め撮影、保存された顔画像データを保持している記録装置やビデオテープ、DVDなどを用いても良いし、顔写真をスキャンするスキャナでも良い。ネットワーク等を経由して画像を入力しても構わない。
(3)特徴点抽出部14
特徴点抽出部14では、顔特徴点として、画像中の顔部位の座標が検出される。
顔特徴点の検出はどのような方法を用いても構わないが、例えば、非特許文献1(湯浅,武口,小坂谷,山口,「静止画顔認証のための自動顔特徴点抽出」,信学技報PRMU2006-222,pp.5-10,2007.)で述べられている方法を用いて検出することができる。
検出する特徴点は、同一平面上に存在しない4点以上の点であれば、瞳、眉毛、鼻孔、口端など、顔のどのような部位でも良い。
但し、ここで抽出された特徴点を対応付けの際の基準点として用いるため、参照したい注目領域近傍に特徴点が存在していることが望ましい。
(4)3次元モデル保持部16
3次元モデル保持部16では、顔の3次元的な情報と、基準特徴点座標が保持されている。なお、顔の3次元的な情報とは、顔の立体的なモデルを構成する3次元位置情報である。また、基準特徴点座標の情報には、特徴点抽出部14により抽出される特徴点の種類も含まれている。
例えば、特徴点抽出部14で瞳、眉毛、鼻孔、口端が抽出された場合には、少なくとも基準特徴点にも瞳、眉毛、鼻孔、口端が含まれる。
また、顔の3次元情報は複数人の顔の形状から作成する平均形状や、一般的な顔を表現するような一般形状でも良いし、個人毎の顔形状が得られている場合には、それを用いても良い。
また、複数の3次元モデルや基準特徴点を保持していても良い。
(5)注目領域設定部18
注目領域設定部18では、3次元モデル保持部16で保持されている3次元モデルに対し、任意に定義された局所的な注目領域を設定する。この設定のときに注目領域内に顔特徴点が属するようにする。
注目領域の位置やサイズには特に制限はないが、注目領域に属する顔特徴点が少ないと、後段の対応関係の計算が不安定となる可能性がある。そのため、領域のサイズと構成する特徴点数とのバランスが重要であると考えられる。
例えば、図3に示すように、3次元モデルを上下半分及び左右半分に分割した領域と顔領域全体の計5個の注目領域を用いても良いし、目や鼻や口といった部位毎に注目領域を設定することも可能である。
また、この注目領域はそれぞれが重なっていても良いし、重なっていなくても良い。
なお、注目領域に属する顔特徴点は、必ずしも注目領域内に存在する必要はない。例えば、目の近傍に対して注目領域を設定した場合でも、口の端点などの特徴点を用いても構わず、注目領域と顔特徴点とが関連付けされていればよい。
また、これら注目領域に属する特徴点は、任意に組み合わせることが可能である。
(6)対応関係計算部20
対応関係計算部20では、注目領域設定部18で設定された注目領域毎に、入力画像上の顔との対応関係を計算する。
どのように対応関係を求めても良いが、ここでは例として、入力画像と3次元モデル上の特徴点との間の対応関係を表す射影行列を求める方法について述べる。
まず、3次元モデル上に設定された注目領域の総数をMとしたときに、i番目の注目領域に属している特徴点数をNi個とし、入力画像にも同数の対応する特徴点が検出されているとする。このとき、計測行列Wiは2×Ni行列、形状行列Siは3×Ni行列として以下の(1)式で定義できる。
Figure 0004950787
ここで、(uij,vij)はi番目の注目領域におけるj番目の入力画像上の特徴点、(u’ij,v’ij)は特徴点から特徴点の重心を引いた座標である。同様に(xij,yij,zij)はi番目の3次元形状モデル上の基準特徴点、(x’ij,y’ij,z’ij)は特徴点から基準特徴点の重心を引いた座標である。
このとき、非特許文献2(C. Tomasi and T. Kanade, Shape and motion from image streams under orthography: A factorization method. Int. J. of Computer Vision,Vol.9,No.2,pp.137-154,1992.)によれば、運動行列Miは計測行列Wiと形状行列Siを用いて以下の(2)式で表すことができる。
Figure 0004950787
この射影行列Miを注目領域設定部18において設定されたM個の注目領域の全てについてそれぞれ計算することで、注目領域毎の画像との対応関係が計算される。
(7)3次元モデル統合部22
3次元モデル統合部22では、対応関係計算部20において計算された注目領域毎の画像との対応関係を統合し、対照となる顔に対して当てはめを行って、最終的な3次元モデルを計算する。
まず、注目領域が選択され、入力画像との対応関係を表す射影行列Miが得られれば、以下の(3)式から3次元モデル上の座標から入力画像上の座標への写像を計算することができる。
Figure 0004950787
最終的な3次元モデルから入力画像への対応点は、(4)式に示す写像した座標(uij,vij)の重み付け和により求めることができる。
Figure 0004950787
但し、wijは各注目領域を構成する3次元モデル上の座標毎に設定された重みで、各注目領域(i=1〜M)に対する重みの総和が1という制約(すなわち、Σwij=1である)を満たす値である。
この重みは、ある注目領域の境界付近の座標を写像した際に、隣接する他の注目領域を写像した結果との不整合を抑制するために用いる。
(7−1)統合例1
図4に注目領域毎に計算した対応点を統合する例を示す。
まず、各注目領域上に共通する同一座標(図4ではまぶた付近)に対し、それぞれ(4)式に基づいて入力画像上の対応点を計算する。
次に、この入力画像上の対応点を重み付け和することにより、前述した図4の3次元モデルのまぶた付近の点に対する入力画像上の最終的な対応点が決定する(図4ではx印で表現する)。
次に、これを3次元モデル上の全ての点に対して適用することにより、3次元モデルを構成する全ての点に対する入力画像上の対応点を求めることができる。
(7−2)統合例2
このとき、座標を重み付けして統合する以外に、注目領域毎に正規化画像を生成し、その後に画素値を重み付けして統合する方法も考えられる。これは、特許文献1で述べられている方法を注目領域毎に単純に複数回適用し、生成した正規化画像を重み付け和することと等価である。
この方法を「画像ベースの統合」と仮に呼称する。本実施形態で用いる統合方法と画像ベースの統合は一見似ているが、最終的に得られる正規化画像は大きく異なることに注意が必要である。
なぜならば、注目領域毎に計算した入力画像上の座標値は、3次元モデルが入力された形状を近似的に表現可能であれば、基本的には真の対応点と大きな誤差は生じないと期待できる。しかし、画素値は連続値を取るとは限らないため、座標がわずかにずれただけでも値が大きく変動する可能性がある。
例えば、図4のまぶた付近の対応点を計算した場合、仮に座標の計算に誤差が生じ、眉毛上の点に対応付けられてしまうと、画素値は本来の肌色から眉毛の色へと大きく変化する。また、この画素値の重み付け和を求めても画素値の誤差の影響は抑制できない。
それに対し、本実施形態の方法によれば、座標値を基準として重み付け和を行うことで、注目領域毎の対応付け誤差に依存せずに3次元モデルの最終的な統合処理を行うことが可能である。
また、特許文献1との比較という観点で注目すべき利点として、入力された顔が姿勢変化などによって隠れ領域が発生している場合に、注目領域毎に対応関係を計算することで、より安定に処理可能であるという点が挙げられる。例えば、顔が左右に向いているなどの理由で特徴点のうち目尻が画像からうまく抽出できない、あるいは検出誤差が生じるという場合がある。
このとき、従来のように全ての特徴点を用いて単一の3次元モデルで対応関係を計算すると、目尻の検出誤差が対応付け全てに対して影響を与えてしまう。一方、本実施形態の方法では、3次元モデルは複数の注目領域から構成されるため、一部の特徴点に検出誤差があっても、他の注目領域には誤差は伝播しない。従って、特許文献1の方法と比較して、隠れなどによる検出誤差に対して安定に処理することが可能である。
(7−3)統合の変更例
なお、重み付け和の係数wijは、注目領域毎に予め決めてあっても良い。
また、重み付け和の係数wijは、特徴点検出の信頼度に応じて変化させても良い。
また、特徴点検出の信頼度は、3次元モデルとのマッチング誤差に基づいて計算しても良い。
また、事前に手入力した特徴点と自動的に検出した特徴点との差を計算しておき、その標準偏差などを考慮して特徴点毎に信頼度を決定しておいても良い。
特徴点毎に信頼度を求めた場合には、注目領域における信頼度は、例えば、特徴点毎の信頼度の平均値や最大値などによって求めることが可能である。
これらの重みを適応的に設定することで、3次元モデルの入力画像に対する局所的な変形への追従度を調整することが可能となる。
(8)正規化画像生成部24
正規化画像生成部24では、3次元モデル統合部22で計算した3次元モデルと入力画像との位置の対応関係に基づいて、正規化画像を生成する。
3次元モデル上の座標(X,Y,Z)におけるピクセル値IM(X,Y,Z)と対応する入力画像上の座標(u,v)に従ってピクセル値I(u,v)とすればよい。
また、計算された入力画像上の座標(u,v)は実数であるのに対し、入力画像のピクセル値は離散的(整数値)な座標のみにしか設定されていない場合は、(u,v)のピクセル値をサブピクセル推定(リサンプリング)することによって、より正確な画素値を計算することも可能である。
リサンプリングは多種多様な方法が存在し、例えば、単純に(u,v)の小数部分を切り捨てて代入するニアレストネイバー法や、バイリニア法などが良く知られている。もちろん、この他のいかなるリサンプリング方法を用いても構わない。
(9)認識部26
認識部26では、正規化画像生成部24で得られた正規化画像(顔パターン)と、予め保存されている登録辞書との認識処理を行う。
正規化画像生成部24により、姿勢と変形が正規化されている顔パターンが得られており、顔の部位も基準特徴点として得られているため、この認識部26ではこれまで提案されている任意のパターン認識方法が適用可能である。
例えば、よく知られる固有顔法や、特徴点を摂動させて切り出して複数の顔パターンを生成して主成分分析し、登録されている部分空間との類似度を計算することもできる。部分空間同士の類似度は、非特許文献2にある相互部分空間法などにより計算可能である。
また、生成された顔パターンは任意の特徴抽出処理が適用可能である。例えば、ヒストグラム平坦化処理や、縦微分処理、フーリエ変換などを用いて、より顔パターンの持つ本質的な情報を抽出し、認識精度を向上させることが可能である。
また、複数枚の画像入力があった場合でも、生成された複数枚の顔パターンを認識部26において統合し、認識処理を行うことが可能である。この統合に際しても、複数の顔パターンを1つの特徴量として統合することも可能であるし、複数の顔パターンを複数の特徴量として計算した後に類似度を統合することも可能である。
また、1枚の顔パターンから異なる特徴抽出処理を行うことで複数の特徴量を抽出して認識を行うことによって、より多様な特徴を捉えて認識を行うことが可能である。
(10)効果
このように、本実施形態に係わる画像処理装置10によれば、3次元モデルに対して複数個の注目領域を設定し、それぞれ個別の注目領域毎に入力画像との対応関係を計算し、画像上へ変換した座標値を用いて1つに統合した3次元モデルを求め、入力された顔の個人差や部分的な変形に対しても柔軟に適応した正規化画像を生成することで、より高精度な認識が可能となる。
(第2の実施形態)
第2の実施形態の画像処理装置10について説明する。
第1の実施形態においては、注目領域設定部18では1つの3次元モデルから複数の注目領域を設定する方法について述べたが、本実施形態では、注目領域は複数種類の3次元モデルから設定する。
一般に、注目領域はいかなる3次元モデルの局所領域を用いても構わないが、さらに局所領域同士で同一の3次元モデルを用いなくても構わない。
例えば、目元や鼻、口元などを局所領域として設定する際に、別々の3次元モデル及び基準特徴点を用いることも可能である。このとき、用いる3次元モデルの選択はいかなる方法を利用しても構わないが、例えば、次の方法がある。
入力画像と注目領域の対応関係を計算した後に、入力画像上の特徴点と基準特徴点を画像上に写像した点との距離が最も近くなる3次元モデルを選択しても良い。
また、人種や性別、年代などのパラメータに基づいて3次元モデルを選択しても良い。
また、入力画像のパターンを利用して最も適合する3次元モデルを選択することも可能である。
また、複数の3次元モデルの線形結合や、メッシュの変形などの生成的手段により別個に構築した3次元モデルを用いることも可能である。
また、ある1つの注目領域に複数の3次元モデルを用いる、つまり、注目領域を構成する位置情報は同一であるが3次元モデルは異なるように選択しても構わない。例えば、目の近傍を表す局所領域が、複数の3次元モデルにより選択されている状態を指す。
本実施形態によれば、注目領域毎に3次元モデルを任意に選択することで、1つの3次元モデルでは表現できない入力対象の部分的な変形などをさらに的確に表現できるようになり、最終的に統合される3次元モデルの精度を向上させることができる。
(第3の実施形態)
第3の実施形態の画像処理装置10について図5に基づいて説明する。
第1の実施形態において、3次元モデル統合部22により得られた画像と3次元モデルとの対応関係を利用して正規化画像を生成して認識を行ったが、この対応関係を利用して、後述する画像変換部28により、入力された顔を他の顔へと変換することも可能である。
(1)画像処理装置10の構成
図5に本実施形態に係わる画像処理装置10の構成を表す。
本実施形態の画像処理装置10は、第1の実施形態と3次元モデル統合部22までは同一であるが、画像の変換を行うために、2枚以上の画像が入力され、個別に3次元モデルの統合処理が行われる点が異なる。以下、2枚の画像が入力され、3次元モデルの統合処理が完了したものとし、後段の画像変換部28について説明する。
(2)画像変換部28
画像変換部28では、3次元モデル統合部22により計算された3次元モデルを利用して、入力された顔画像を別の顔画像へと変換処理を行う。
2つの統合済み3次元モデル(モデル1、モデル2とする)が得られたとすると、3次元モデル間の対応関係は既知であるため、任意に画素値の変換を行うことが可能である。
まず、モデル1で3次元モデルを構成する頂点毎の色を求め(正規化画像生成部24と同様の処理)ておき、その色をモデル2の同じ頂点の色情報として保存する。
次に、この処理をモデル1とモデル2の全ての頂点に対して行うことで、モデル2は幾何学的な位置情報はモデル2のままで、色情報のみがモデル1と同じとなる。
次に、モデル2は入力画像と対応付けられているため、モデル2の頂点と画像上の位置関係は既知である。そこで、モデル2の頂点が示す画像上の位置へ、変更したモデル2の色情報を入力画像へと上書きする。画像上へ射影した特徴点位置がそれぞれ離れている場合は補間処理を行う。
これらの操作により、モデル2に対応する入力画像の顔は、モデル2の顔形状を維持しつつ、モデル1の顔の色情報へと変更することができる。
(3)適用例
この画像変換部28を用いることで、2枚の画像が与えられたときに、相互に顔画像を変換することが可能となり、例えば、コンピュータ上でのアバターなどに利用できる。
また、入力画像は必ずしも実世界の顔である必要はない。片方の画像をアニメなどのキャラクターにしておき、予め3次元モデルや基準特徴点、モデル間の対応関係を与えておけば、これまで述べた方法により顔画像とアニメなどのキャラクターとの変換を行うことができる。
また、画像と3次元モデルの正確な対応関係が分かっているため、顔の一部分のみを別の画像やキャラクターへと変換することも容易である。
(4)変更例
なお、入力画像は2枚として説明したが、これが2枚以上の任意の枚数であったとしても、これまでの議論は完全に成り立ち、任意の画像間の変換が可能である。
(変更例)
本発明は、上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。
本発明の第1の実施形態に係わる画像処置装置の構成を示すブロック図である。 画像処理装置のフローチャートである。 注目領域の設定の例である。 3次元モデルの統合処理の概念図である。 第3の実施形態に係わる画像処理装置の構成を示すブロック図である。
符号の説明
10 画像処理装置
12 画像入力部
14 特徴点抽出部
16 3次元モデル保持部
18 注目領域設定部
20 対応関係計算部
22 3次元モデル統合部
24 正規化画像生成部

Claims (8)

  1. 対象物体が写った画像を入力する画像入力部と、
    3次元モデルの形状を表す情報と、前記3次元モデル上の同一平面上に存在しない4点以上の基準特徴点の3次元位置を格納する格納部と、
    前記対象物体に関し、かつ、前記複数の基準特徴点に対応する複数の特徴点を、前記入力画像から抽出する抽出部と、
    (1)前記基準特徴点と関連付けされ、(2)前記3次元モデル上に存在する複数の局所的な領域である複数の注目領域を設定する設定部と、
    前記抽出された特徴点と、前記注目領域に関する基準特徴点とを用いて、前記入力画像の2次元位置と前記注目領域の3次元位置との対応関係を、前記注目領域毎に求める計算部と、
    前記注目領域毎の対応関係に基づいて、前記入力画像の各領域に少なくとも一つの前記注目領域をそれぞれ対応させて、前記注目領域に対応する3次元モデルの3次元位置のピクセル値を、前記入力画像の2次元位置のピクセル値に決定する決定部と、
    を有する画像処理装置。
  2. 前記計算部における前記注目領域毎の対応関係は、前記抽出された特徴点と前記注目領域の基準特徴点との間の射影行列である、
    請求項1記載の画像処理装置。
  3. 前記決定部は、
    前記注目領域毎の射影行列を用いて、前記各注目領域を前記入力画像上へそれぞれ射影し、
    前記それぞれ射影された前記複数の注目領域の2次元位置を重み付け加算することにより、前記複数の注目領域にそれぞれ対応する3次元モデルの3次元位置のピクセル値を、前記入力画像の2次元位置のピクセル値に決定するものであり、
    前記重み付け加算するための重みの総和は1であり、かつ、前記重みは、前記入力画像から検出した特徴点の信頼度から求める、
    請求項2記載の画像処理装置。
  4. 前記格納部は、複数の前記3次元モデルを格納し、
    前記設定部は、前記複数の3次元モデルのそれぞれに複数の注目領域を設定する、
    請求項1記載の画像処理装置。
  5. 前記注目領域に対応する3次元モデルの3次元位置と前記入力画像の2次元位置との対応関係に基づいて、前記入力画像から正規化画像を生成する画像生成部と、
    前記正規化画像と、予め格納された前記対象物体の辞書情報とに基づいてパターン認識を行い、前記入力画像の認識を行う認識部と、
    をさらに有する請求項1記載の画像処理装置。
  6. 前記画像入力部に第1の入力画像と第2の入力画像が入力し、
    前記決定部は、前記3次元モデルの3次元位置のピクセル値と、前記第1の入力画像の2次元位置のピクセル値の第1の対応関係を決定し、また、前記3次元モデルの3次元位置のピクセル値と、前記第2の入力画像の2次元位置のピクセル値の第2の対応関係を決定し、前記第1の対応関係と前記第2の対応関係を利用して、前記第2の入力画像のピクセル値を前記第1の入力画像のピクセル値に変換する画像変換部をさらに有する、
    請求項1記載の画像処理装置。
  7. 対象物体が写った画像を入力する画像入力ステップと、
    3次元モデルの形状を表す情報と、前記3次元モデル上の同一平面上に存在しない4点以上の基準特徴点の3次元位置を格納する格納ステップと、
    前記対象物体に関し、かつ、前記複数の基準特徴点に対応する複数の特徴点を、前記入力画像から抽出する抽出ステップと、
    1)前記基準特徴点と関連付けされ、(2)前記3次元モデル上に存在する複数の局所的な領域である複数の注目領域を設定する設定ステップと、
    前記抽出された特徴点と、前記注目領域に関する基準特徴点とを用いて、前記入力画像の2次元位置と前記注目領域の3次元位置との対応関係を、前記注目領域毎に求める計算ステップと、
    前記注目領域毎の対応関係に基づいて、前記入力画像の各領域に少なくとも一つの前記注目領域をそれぞれ対応させて、前記注目領域に対応する3次元モデルの3次元位置のピクセル値を、前記入力画像の2次元位置のピクセル値に決定する決定ステップと、
    を有する画像処理方法。
  8. 対象物体が写った画像を入力する画像入力機能と、
    3次元モデルの形状を表す情報と、前記3次元モデル上の同一平面上に存在しない4点以上の基準特徴点の3次元位置を格納する格納機能と、
    前記対象物体に関し、かつ、前記複数の基準特徴点に対応する複数の特徴点を、前記入力画像から抽出する抽出機能と、
    1)前記基準特徴点と関連付けされ、(2)前記3次元モデル上に存在する複数の局所的な領域である複数の注目領域を設定する設定機能と、
    前記抽出された特徴点と、前記注目領域に関する基準特徴点とを用いて、前記入力画像の2次元位置と前記注目領域の3次元位置との対応関係を、前記注目領域毎に求める計算機能と、
    前記注目領域毎の対応関係に基づいて、前記入力画像の各領域に少なくとも一つの前記注目領域をそれぞれ対応させて、前記注目領域に対応する3次元モデルの3次元位置のピクセル値を、前記入力画像の2次元位置のピクセル値に決定する決定機能と、
    をコンピュータに実現させるための画像処理プログラム。
JP2007183610A 2007-07-12 2007-07-12 画像処理装置及びその方法 Expired - Fee Related JP4950787B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2007183610A JP4950787B2 (ja) 2007-07-12 2007-07-12 画像処理装置及びその方法
US12/171,473 US8086027B2 (en) 2007-07-12 2008-07-11 Image processing apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007183610A JP4950787B2 (ja) 2007-07-12 2007-07-12 画像処理装置及びその方法

Publications (2)

Publication Number Publication Date
JP2009020761A JP2009020761A (ja) 2009-01-29
JP4950787B2 true JP4950787B2 (ja) 2012-06-13

Family

ID=40360341

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007183610A Expired - Fee Related JP4950787B2 (ja) 2007-07-12 2007-07-12 画像処理装置及びその方法

Country Status (2)

Country Link
US (1) US8086027B2 (ja)
JP (1) JP4950787B2 (ja)

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101793273B (zh) 2009-01-30 2017-05-17 日立汽车系统株式会社 缸装置
CN102460514A (zh) * 2009-06-18 2012-05-16 皇家飞利浦电子股份有限公司 成像程序规划
WO2011003171A1 (en) * 2009-07-08 2011-01-13 Smart Technologies Ulc Three-dimensional widget manipulation on a multi-touch panel
CN103220974A (zh) * 2010-07-21 2013-07-24 阿敏·E·莫尔勒 图像报告方法
US8334985B2 (en) * 2010-10-08 2012-12-18 Omron Corporation Shape measuring apparatus and shape measuring method
US8721567B2 (en) * 2010-12-27 2014-05-13 Joseph Ralph Ferrantelli Mobile postural screening method and system
US9788759B2 (en) * 2010-12-27 2017-10-17 Joseph Ralph Ferrantelli Method and system for postural analysis and measuring anatomical dimensions from a digital three-dimensional image on a mobile device
US9801550B2 (en) * 2010-12-27 2017-10-31 Joseph Ralph Ferrantelli Method and system for measuring anatomical dimensions from a digital photograph on a mobile device
JP6131149B2 (ja) * 2013-08-26 2017-05-17 富士フイルム株式会社 画像処理装置、方法およびプログラム
JP6424822B2 (ja) * 2013-08-29 2018-11-21 日本電気株式会社 画像処理装置、画像処理方法、及びプログラム
KR102077260B1 (ko) * 2014-08-08 2020-02-13 삼성전자주식회사 확룔 모델에 기반한 신뢰도를 이용하여 얼굴을 인식하는 방법 및 장치
JP6543062B2 (ja) * 2015-03-23 2019-07-10 キヤノン株式会社 画像処理装置、画像処理方法
JP6348093B2 (ja) * 2015-11-06 2018-06-27 ファナック株式会社 入力データから検出対象物の像を検出する画像処理装置および方法
JP6874772B2 (ja) * 2016-11-25 2021-05-19 日本電気株式会社 画像生成装置、画像生成方法、およびプログラム
KR102565755B1 (ko) * 2018-02-23 2023-08-11 삼성전자주식회사 얼굴의 특징점의 움직임에 따라 모션이 수행된 아바타를 표시하는 전자 장치와 이의 동작 방법
CA3042819C (en) 2018-05-09 2026-02-03 Postureco, Inc. Method and system for postural analysis and measuring anatomical dimensions from a digital image using machine learning
CN108717719A (zh) * 2018-05-23 2018-10-30 腾讯科技(深圳)有限公司 卡通人脸图像的生成方法、装置及计算机存储介质
CN109583406B (zh) * 2018-12-06 2022-09-27 中山大学 基于特征关注机制的人脸表情识别方法
US11610305B2 (en) 2019-10-17 2023-03-21 Postureco, Inc. Method and system for postural analysis and measuring anatomical dimensions from a radiographic image using machine learning
CN111159976B (zh) * 2019-12-18 2025-04-08 腾讯科技(深圳)有限公司 文本位置标注方法、装置
CN113661513B (zh) * 2019-12-27 2025-03-28 深圳市卓驭科技有限公司 一种图像处理方法、设备、图像处理系统及存储介质
CN112669198A (zh) * 2020-10-29 2021-04-16 北京达佳互联信息技术有限公司 图像特效的处理方法、装置、电子设备和存储介质
CN112598808B (zh) * 2020-12-23 2024-04-02 深圳大学 数据处理方法、装置、电子设备和存储介质
CN116704555B (zh) * 2023-08-09 2023-10-13 四川大学 基于姿态调整的小熊猫识别方法及系统
CN117522951B (zh) * 2023-12-29 2024-04-09 深圳市朗诚科技股份有限公司 鱼类监测方法、装置、设备及存储介质

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001283216A (ja) * 2000-04-03 2001-10-12 Nec Corp 画像照合装置、画像照合方法、及びそのプログラムを記録した記録媒体
JP4167390B2 (ja) * 2000-11-20 2008-10-15 日本電気株式会社 物体照合方法,物体照合装置,およびそのプログラムを記録した記録媒体
JP4161659B2 (ja) * 2002-02-27 2008-10-08 日本電気株式会社 画像認識システム及びその認識方法並びにプログラム
JP2006227739A (ja) * 2005-02-15 2006-08-31 Toyota Motor Corp 画像処理装置及び画像処理方法
JP4653606B2 (ja) * 2005-05-23 2011-03-16 株式会社東芝 画像認識装置、方法およびプログラム
JP4774818B2 (ja) * 2005-06-07 2011-09-14 トヨタ自動車株式会社 画像処理装置及び画像処理方法
JP4691158B2 (ja) * 2005-06-16 2011-06-01 ストライダー ラブス,インコーポレイテッド 三次元クラスモデルを用いた二次元画像における認識システムおよび方法
KR100785594B1 (ko) * 2005-06-17 2007-12-13 오므론 가부시키가이샤 화상 처리 장치
JP4991317B2 (ja) * 2006-02-06 2012-08-01 株式会社東芝 顔特徴点検出装置及びその方法

Also Published As

Publication number Publication date
US20090262989A1 (en) 2009-10-22
US8086027B2 (en) 2011-12-27
JP2009020761A (ja) 2009-01-29

Similar Documents

Publication Publication Date Title
JP4950787B2 (ja) 画像処理装置及びその方法
JP4829141B2 (ja) 視線検出装置及びその方法
JP4653606B2 (ja) 画像認識装置、方法およびプログラム
CN110147721B (zh) 一种三维人脸识别方法、模型训练方法和装置
Hasler et al. Estimating body shape of dressed humans
KR101980503B1 (ko) 신체 이미징
EP3241151B1 (en) An image face processing method and apparatus
JP4951498B2 (ja) 顔画像認識装置、顔画像認識方法、顔画像認識プログラムおよびそのプログラムを記録した記録媒体
JP6207210B2 (ja) 情報処理装置およびその方法
CN103425964B (zh) 图像处理设备和图像处理方法
CN111553284B (zh) 人脸图像处理方法、装置、计算机设备和存储介质
WO2009091029A1 (ja) 顔姿勢推定装置、顔姿勢推定方法、及び、顔姿勢推定プログラム
WO2017029488A2 (en) Methods of generating personalized 3d head models or 3d body models
CN110675487A (zh) 基于多角度二维人脸的三维人脸建模、识别方法及装置
JP2017016192A (ja) 立体物検知装置及び立体物認証装置
CN104123749A (zh) 一种图像处理方法及系统
JP4284664B2 (ja) 三次元形状推定システム及び画像生成システム
JP2005339288A (ja) 画像処理装置及びその方法
JP2012185545A (ja) 顔画像処理装置
Kang et al. Appearance-based structure from motion using linear classes of 3-d models
US11361467B2 (en) Pose selection and animation of characters using video data and training techniques
JP4814666B2 (ja) 顔解析システム
Lefevre et al. Structure and appearance features for robust 3d facial actions tracking
JP2009043065A (ja) 顔認証装置
JP7326965B2 (ja) 画像処理装置、画像処理プログラム、及び画像処理方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100527

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110912

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110927

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111128

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120214

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120309

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150316

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150316

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees