JP5895703B2 - 画像処理装置及び画像処理方法、並びにコンピューター・プログラム - Google Patents

画像処理装置及び画像処理方法、並びにコンピューター・プログラム Download PDF

Info

Publication number
JP5895703B2
JP5895703B2 JP2012116366A JP2012116366A JP5895703B2 JP 5895703 B2 JP5895703 B2 JP 5895703B2 JP 2012116366 A JP2012116366 A JP 2012116366A JP 2012116366 A JP2012116366 A JP 2012116366A JP 5895703 B2 JP5895703 B2 JP 5895703B2
Authority
JP
Japan
Prior art keywords
shape
input image
model
image
texture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012116366A
Other languages
English (en)
Other versions
JP2013242757A5 (ja
JP2013242757A (ja
Inventor
達雄 藤原
達雄 藤原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2012116366A priority Critical patent/JP5895703B2/ja
Priority to US13/851,454 priority patent/US9443325B2/en
Priority to CN201310179626.9A priority patent/CN103425964B/zh
Publication of JP2013242757A publication Critical patent/JP2013242757A/ja
Publication of JP2013242757A5 publication Critical patent/JP2013242757A5/ja
Application granted granted Critical
Publication of JP5895703B2 publication Critical patent/JP5895703B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/755Deformable models or variational models, e.g. snakes or active contours
    • G06V10/7557Deformable models or variational models, e.g. snakes or active contours based on appearance, e.g. active appearance models [AAM]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Geometry (AREA)
  • Human Computer Interaction (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

本明細書で開示する技術は、入力画像中の変形を含む物体形状の認識・推定を行なう画像処理装置及び画像処理方法、並びにコンピューター・プログラムに係り、特に、事前に得られた複数の形状情報を基底空間に分解しておき、入力画像に含まれる物体の任意の形状を基底空間への射影及び逆射影により形状の認識や推定を行なう画像処理装置及び画像処理方法、並びにコンピューター・プログラムに関する。
視覚的事象をモデル化する手法として、「Active Shape Model(ASM)」や「Active Appearance Model(AAM)」が知られている。これらの手法は、事前学習として、与えられた複数の形状情報(例えば、顔画像上に定義された複数の特徴点の位置(座標)と画素値(輝度値など))を主成分分析(Principal Component Analysis:PCA)や独立成分分析(Independent Conponent Analysis:ICA)などの統計的分析を通じて複数の基底空間に分解(射影:projection)して登録しておく(例えば、非特許文献1、2を参照のこと)。そして、任意の形状を、登録しておいた複数の基底空間の重ね合わせ(逆射影:Back Projection)で表現することができるので、顔などの変形を含む物体の形状の認識や推定を行なうことができる。また、ASM/AAMによれば、ある人物について顔の向きを変化させる、眼や口の開閉具合を変化させるなど、顔の変形表現が可能である。
例えば、AAMを用いた形状モデル及びテクスチャー・モデルの設定時において、顔テクスチャーの特定の特徴を表す特定特徴モデルを別に独立して設定するとともに、当該特定のテクスチャー特徴を除いたテクスチャーについて補正テクスチャー・モデルを設定して、特定特徴モデルと補正テクスチャー・モデルとを合成することにより、精度良く且つ効率的にテクスチャー・モデルを設定する画像処理装置について提案がなされている(例えば、特許文献1を参照のこと)。
また、AAMを利用して画像の含まれる顔の特徴部位の位置を特定する処理において、基準顔画像と対象顔画像との顔テクスチャーを互いに近づけるように基準顔画像と対象顔画像との少なくとも一方に対してテクスチャー補正を行ない、テクスチャー補正後の基準顔画像と対象顔画像とに基づいて特徴部位信頼度を算出する画像処理装置について提案がなされている(例えば、特許文献2を参照のこと)。
ASM/AAMは、任意の形状分布を基底空間への射影並びに逆射影を繰り返すことで、事前に登録しておいた形状に近い、すなわち整形された出力が得られる、という特長がある。また、ASM/AAMは、入力画像に含まれる顔領域から主要な特徴部位(顔パーツ)をトラッキングやフィッティングする処理を、軽量且つ高速に実現することができる。
しかしながら、ASM/AAMのような、事前に得られた複数の形状情報を基底空間に分解して任意の形状を複数の基底空間の重ね合わせで表現する方法には、以下のような欠点がある。
(1)入力画像中で対象とする物体の形状(特徴点)の一部が本来とは大きく外れた位置に分布していた場合、物体の形状全体がこの外れ値の影響を受けてずれてしまう。
(2)画像中の局所的な特徴量を用いて形状(特徴点)の位置を推定する場合、エッジやテクスチャーといった特徴に乏しい領域では、位置の特定が困難になる。
特開2010−244321号公報 特開2010−244318号公報
T.F.Cootes and C.J.Taylor."Active shape models",In D.Hogg and R.Boyle,editors,3rd British Machine Vision Conference,pages 266−275.Springer−Verlag,Sept.1992 T.F.Cootes G.J.Edwards and C.J.Taylor."Active Appearance Models",in Proc.European Conference on Computer Vision 1998(H.Burkhardt & Neumann Ed.s).Vol.2,pp.484−498,Springer,1998
本明細書で開示する技術の目的は、入力画像に含まれる形状の一部が本来とは大きく外れた位置に分布する場合であっても、複数の形状情報から事前に得られた基底空間の重ね合わせにより、外れ点の影響を受けることなく、形状の認識や推定を正確に行なうことができる、優れた画像処理装置及び画像処理方法、並びにコンピューター・プログラムを提供することにある。
本明細書で開示する技術のさらなる目的は、特徴に乏しい領域を含む形状であっても、複数の形状情報から事前に得られた基底空間の重ね合わせにより、位置の特定を正確に行なうことができる、優れた画像処理装置及び画像処理方法、並びにコンピューター・プログラムを提供することにある。
本願は、上記課題を参酌してなされたものであり、請求項1に記載の技術は、
事前に得られた複数の形状情報を基底空間に分解したモデル情報を取得するモデル情報取得部と、
入力画像中の対象物の形状から、前記モデル情報と差分を生じた外れ領域を検出する外れ領域検出部と、
前記外れ領域にマスクを掛けて、入力画像中の対象物の形状を前記基底空間へ射影する射影部と、
を具備する画像処理装置である。
本願の請求項2に記載の技術によれば、前記基底空間は、前記事前に得られた複数の形状情報の平均形状及び基底成分からなる。請求項1に記載の画像処理装置にの前記外れ領域検出部は、入力画像中の対象物の形状のうち前記平均形状と差分を生じた外れ領域を検出するように構成されている。
本願の請求項3に記載の技術によれば、前記モデル情報は、対象物の形状上で定義された複数の特徴点の座標位置に関する形状情報を基底空間に分解した形状モデルと、特徴点毎のテクスチャー情報に関するテクスチャー・モデルを含んでいる。そして、請求項1に記載の画像処理装置は、入力画像と前記テクスチャー・モデルとのテクスチャー情報の差分のコスト計算に基づいて、入力画像から各特徴点の位置を探索するテクスチャー・モデル適合処理部をさらに備え、前記外れ領域検出部は、前記テクスチャー・モデル適合処理部において算出したコストが所定の閾値以上となる特徴点を外れ点として判別するように構成されている。
また、本願の請求項4に記載の技術は、
事前に得られた複数の形状情報を基底空間に分解したモデル情報を取得するモデル情報取得部と、
入力画像中の対象物の形状のうち、事前に指定された外れ領域を検出する外れ領域検出部と、
前記外れ領域にマスクを掛けて、入力画像中の対象物の形状を前記基底空間へ射影する射影部と、
を具備する画像処理装置である。
本願の請求項5に記載の技術によれば、請求項4に記載の画像処理装置において、前記モデル情報は、対象物の形状上で定義された複数の特徴点の座標位置に関する形状情報を基底空間に分解した形状モデルと、特徴点毎のテクスチャー情報に関するテクスチャー・モデルを含んでいる。そして、テクスチャー情報の乏しい特徴点に対して事前に外れ点として指定されている。
本願の請求項6に記載の技術によれば、請求項5に記載の画像処理装置は、入力画像と前記テクスチャー・モデルとのテクスチャー情報の差分のコスト計算に基づいて、入力画像から各特徴点の位置を探索するテクスチャー・モデル適合処理部をさらに備え、前記テクスチャー・モデル適合処理部は、外れ点として事前に指定されている特徴点についての処理を省略するように構成されている。
本願の請求項7に記載の技術によれば、請求項1又は4のいずれかに記載の画像処理装置の前記モデル情報取得部は、事前に得られた複数の形状情報を、主成分分析又は独立成分分析して分解された基底空間をモデル情報として取得するように構成されている。
また、本願の請求項8に記載の技術は、
事前に得られた複数の形状情報を基底空間に分解したモデル情報を取得するモデル情報取得ステップと、
入力画像中の対象物の形状から、前記モデル情報と差分を生じた外れ領域を検出する外れ領域検出ステップと、
前記外れ領域にマスクを掛けて、入力画像中の対象物の形状を前記基底空間へ射影する射影ステップと、
を有する画像処理方法である。
また、本願の請求項9に記載の技術は、
事前に得られた複数の形状情報を基底空間に分解したモデル情報を取得するモデル情報取得ステップと、
入力画像中の対象物の形状のうち、事前に指定された外れ領域を検出する外れ領域検出ステップと、
前記外れ領域にマスクを掛けて、入力画像中の対象物の形状を前記基底空間へ射影する射影ステップと、
を有する画像処理方法である。
また、本願の請求項10に記載の技術は、
対象物を含んだ画像を入力する画像入力部と、
入力画像中の対象物の形状のうち、事前に得られた複数の形状情報を基底空間に分解しモデル情報との差分が生じた外れ領域を検出する外れ領域検出部と、
検出した外れ領域の情報とともに、入力画像中の対象物の形状を前記基底空間へ射影して形状を推定する処理をサーバーに要求する処理要求部と、
入力画像中の対象物の形状のうち前記外れ領域にマスクを掛けて前記基底空間へ射影して得られた形状の推定結果をサーバーから受け取る処理結果受信部と、
を具備する画像処理装置である。
また、本願の請求項11に記載の技術は、
対象物を含んだ画像を入力する画像入力部と、
事前に指定した外れ領域の情報とともに、入力画像中の対象物の形状を事前に得られた複数の形状情報を分解した基底空間へ射影して形状を推定する処理をサーバーに要求する処理要求部と、
入力画像中の対象物の形状のうち前記外れ領域にマスクを掛けて前記基底空間へ射影して得られた形状の推定結果をサーバーから受け取る処理結果受信部と、
を具備する画像処理装置である。
また、本願の請求項12に記載の技術は、
事前に得られた複数の形状情報を基底空間に分解したモデル情報を取得するモデル情報取得部、
入力画像中の対象物の形状から、前記モデル情報と差分を生じた外れ領域を検出する外れ領域検出部、
前記外れ領域にマスクを掛けて、入力画像中の対象物の形状を前記基底空間へ射影する射影部、
としてコンピューターを機能させるようにコンピューター可読形式で記述されたコンピューター・プログラムである。
また、本願の請求項13に記載の技術は、
事前に得られた複数の形状情報を基底空間に分解したモデル情報を取得するモデル情報取得部、
入力画像中の対象物の形状のうち、事前に指定された外れ領域を検出する外れ領域検出部、
前記外れ領域にマスクを掛けて、入力画像中の対象物の形状を前記基底空間へ射影する射影部、
としてコンピューターを機能させるようにコンピューター可読形式で記述されたコンピューター・プログラムである。
本願の請求項12、13に係る各コンピューター・プログラムは、コンピューター上で所定の処理を実現するようにコンピューター可読形式で記述されたコンピューター・プログラムを定義したものである。換言すれば、本願の請求項12、13に係るコンピューター・プログラムをコンピューターにインストールすることによって、コンピューター上では協働的作用が発揮され、それぞれ本願の請求項1、4に係る画像処理装置と同様の作用効果を得ることができる。
本明細書で開示する技術によれば、入力画像に含まれる形状のうち、本来の位置とは大きく外れた領域に対してマスクを掛けて基底空間への射影を行なうことによって、遮蔽物や照明、陰などの影響で形状が外れてしまう現象を解消して、形状の認識や推定を正確に行なうことができる、優れた画像処理装置及び画像処理方法、並びにコンピューター・プログラムを提供することができる。
また、本明細書で開示する技術によれば、入力画像に含まれる形状のうち特徴に乏しい領域に対してマスクを掛けて基底空間への射影を行なうことによって、これらの領域についても形状の認識や推定を正確に行なうことができる、優れた画像処理装置及び画像処理方法、並びにコンピューター・プログラムを提供することができる。
本明細書で開示する技術のさらに他の目的、特徴や利点は、後述する実施形態や添付する図面に基づくより詳細な説明によって明らかになるであろう。
図1は、本明細書で開示する技術を適用可能な画像処理装置100のハードウェア構成を模式的に示した図である。 図2は、画像処理装置100上で実行される画像処理プログラムの機能的構成を模式的に示した図である。 図3は、複数の学習座標の座標ベクトルを主成分分析して得られた、平均ベクトルs0と形状ベクトルs0、s1、s2、…を例示した図である。 図4は、形状sと基底空間の間で射影、逆射影を行なう様子を示した図である。 図5は、事前学習されるテクスチャー・モデル(Local Texture Model)を説明するための図である。 図6は、認識・推定処理部220の機能的構成を模式的に示した図である。 図7は、局所的なテクスチャー・モデルについての顔領域に対する適合処理を説明するための図である。 図8は、被写体となる人物が顔の一部が手で覆われている入力画像中の外れ点を例示した図である。 図9は、外れ点のマスク掛けを含んだ認識・推定処理の手順を示したフローチャートである。 図10は、さまざまな向きや表情をし、且つ、手で一部が遮蔽された顔形状を含んだ入力画像に対して、図9に示した認識・推定処理を実施した結果を例示した図である。 図11は、事前に指定した外れ点のマスク掛けを含んだ認識・推定処理の手順を示したフローチャートである。 図12は、さまざまな向きや表情をした顔形状を含んだ入力画像に対して、図11に示した認識・推定処理を実施した結果を例示した図である。 図13は、画像処理装置100がサーバーとの連携により物体形状の認識・推定処理を行なうシステム構成例を示した図である。 図14は、画像処理装置100がサーバーとの連携により物体形状の認識・推定処理を行なうシステム構成例示した図である。 図15は、同一人物について顔の向きを変えて撮られた学習画像を例示した図である。
以下、図面を参照しながら本明細書で開示する技術の実施形態について詳細に説明する。
図1には、本明細書で開示する技術を適用可能な画像処理装置100のハードウェア構成を模式的に示している。図示の画像処理装置100は、CPU(Central Processing Unit)110と、記憶部120と、通信部130と、画像入力部140と、画像出力部150と、操作部160と、表示部170を備えている。
CPU110は、画像処理プログラムを始め各種のプログラム・コードを実行して、画像処理装置100内の各部の動作を制御する。
記憶部120は、RAM(Random Access Memory)やROM(Read On Memory)などの内部メモリーや、ハード・ディスク・ドライブなどの大容量記憶装置、さらにはDVD(Digital Versatile Disc)記録再生装置などを含む概念である。大容量記憶装置内には、オペレーティング・システムや画像処理プログラムなどのCPU110が実行するプログラム・コードや、画像認識時に使用する事前学習データを始め各種データなどのファイルが格納されている。CPU110は、大容量記憶装置内のプログラム・コードをRAMにロードして実行する。
通信部130は、ネットワーク・インターフェースなどで構成され、画像処理プログラムを始め各種アプリケーション・プログラムのダウンロード、あるいは事前学習データやその他のデータ・ファイルのダウンロード、当該画像処理装置100で取得した事前学習データのアップロード若しくはネットワーク機器への転送、画像処理の実行結果(例えば、入力画像の認識結果)のアップロード若しくはネットワーク機器への転送などを行なう際に利用される。
画像入力部140は、カメラやスキャナーなどで構成され、画像処理(物体形状の認識・推定など)の対象となる画像の入力に利用される。但し、処理対象となる画像を、通信部130経由でネットワーク上の他の機器から取得する場合もある。
画像出力部150は、プリンターなどで構成され、画像入力部140から入力された画像の紙やその他の媒体への記録処理、あるいは画像認識結果のプリントアウトなどを行なう。但し、以下で説明する画像処理(物体形状の認識・推定など)の際に、画像出力部150は必須の構成要素ではない。
操作部160は、キーボードやマウス、ボタン、タッチパネルなど、ユーザー操作が可能な操作子で構成され、画像処理プログラムを始め各種アプリケーションの起動指示や、事前学習時におけるデータのマニュアル入力(例えば、学習画像上での特徴点の設定など)、その他の設定処理を行なう際に利用される。
表示部170は、液晶ディスプレイなどで構成され、画像入力部140から入力された画像の表示、入力画像に対する画像認識処理の結果(事前学習したデータや、処理過程のデータ、入力画像に対する認識・推定結果を含む)の表示などに利用される。
図1に示した画像処理装置100は、例えば、パーソナル・コンピューターや、携帯電話機、スマートフォン又はタブレットなどの多機能端末、プリンターなどの機器に相当する。画像処理装置100上では、CPU110がプログラムを実行するという形態で、物体形状の認識・推定などの処理が行なわれる。但し、画像処理装置100自身で認識・推定処理をすべて行なうのではなく、当該処理の一部又は全部をネットワーク上の他の機器(サーバーなど)にリクエストし、画像処理装置100上では入力画像の表示や、処理結果の表示など、認識・推定処理の一部しか行なわない場合もある。
本実施形態に係る画像処理装置100上では、CPU110上で所定の画像処理プログラムを実行することにより、複数の形状情報を基底空間に分解して、任意の入力形状をこれら基底空間に射影及び逆射影して、変形を含む物体形状の認識・推定処理を行なう。この種の手法として、既に述べたようにASMやAAMが知られているが、任意の形状分布を基底空間に射影及び逆射影することで成形し、事前に登録しておいた形状に近い出力が得られるという特長がある。以下では、変形を含む物体形状として、人間の顔画像を例にとって説明する。
図2には、このような処理を実現するための画像処理プログラム200の機能的構成を模式的に示している。図示の画像処理プログラム200は、事前学習を行なう事前学習部210と、事前学習に基づいて入力画像に含まれる顔画像の認識・推定処理を行なう認識・推定処理部220を備えている。
事前学習部210には、事前学習のための、多数の学習画像が入力される。学習画像は、画像入力部140から入力される以外に、通信部130経由で外部から取得する場合、さらには、記憶部120としてのディスク再生装置から読み込む場合もある。
学習画像として、人種や性別、表情、向き(正面、正面口開け、正面片目閉じ、横向き、横向き口開け、上向き、下向き)といった、想定される種々の属性に関する顔画像を含むように用意する(図15を参照のこと)。多様な顔画像を学習画像として用意することにより、より適切なモデル化を行ない、認識・推定処理の精度を向上させることができる。
事前学習部210では、まず、各学習画像について、Annotationすなわち特徴点の設定を行なう。特徴点とは、顔画像における特徴部位の位置を示す点である。特徴部位として、人物の顔における、眉毛上の輪郭上の複数の点(端点と、両端点間をN分割した点など)、目の輪郭上の複数の点、鼻筋や小鼻の輪郭上の複数の点、口の輪郭上の複数の点、顔の輪郭上の複数の点などである。ここで言う「…輪郭上の複数の点」とは、例えば、輪郭の端点と、輪郭をN分割した点などである。図15(F)には、特徴部位の輪郭上で設定された特徴点を例示している。眉、眼、鼻、口、顔の輪郭上で、例えば53箇所の特徴点が定義される。特徴点の設定は、オペレーターが学習画像を見ながら、定義された各特徴点をマニュアルで設定してもよいし、画像処理により自動化してもよい。
特徴点の設定処理により、各学習画像について、特徴点毎の位置を示す座標情報が得られる。すなわち、各学習画像について、53箇所の特徴点の座標値により構成される座標ベクトルが得られる。
事前学習部210では、続いて、形状モデルの算出が行なわれる。具体的には、各学習画像における53箇所の特徴点の座標値により構成される座標ベクトルに対して、主成分分析(PCA)や独立成分解析(ICA)などの統計的分析を行なって、基底空間s0、s1、s2、…に分解して、各特徴点の位置によって特定される顔の形状を下式(1)に示すように形状モデルsとしてモデル化する。
ここで、複数の学習画像の座標ベクトルを主成分分析などにより分解された基底空間s0、s1、s2、…のうち、s0は顔の形状モデルsの平均ベクトル(平均形状を表す座標ベクトル)であり、siは主成分分析により得られるi番目の基底成分に対応する形状ベクトルである。主成分分析では、分散の大きい主成分に対応する基底成分の順に、所定の個数(上式(1)ではn個)だけ形状ベクトルとして採用される。形状ベクトルsiは、主成分分析により得られる第i番目の主成分に対応する基底ベクトルであり、互いに直交する正規直交ベクトルである。図3には、複数の学習座標の座標ベクトルを主成分分析して得られた、平均ベクトルs0と形状ベクトルs0、s1、s2、…を例示している。
また、上式(1)において、piは、平均形状s0と形状ベクトルs1、s2、…の重ね合わせにより形状モデルを構成する際の、i番目の形状ベクトルsiの重みを表す基底係数(形状パラメーター)である。要するに、形状モデルsは、平均形状s0と形状ベクトルsiの重ね合わせにより、さまざまな顔形状を表現するものである(但し、基底ベクトルsiの重ね合わせを、基底係数piで制御する)。入力形状sを基底成分に分解することを、基底空間での射影(Projection)と呼ぶ。逆に基底成分から形状sを生成することを逆射影(Back−Projection)と呼ぶ。図4には、入力された顔画像についての形状sと、平均形状s0及び形状ベクトルs1、s2、…からなる基底空間の間で射影、逆射影を行なう様子を示している。
事前学習部210で得られた平均形状s0並びに形状ベクトルsiは、事前学習データとして記憶部120に保存され、入力画像に対する認識・推定処理を行なう際に利用される。
事前学習部210では、続いて、テクスチャー・モデルの設定が行なわれる。テクスチャー・モデルの表現方法は、ASMとAAMでは異なる。
ASMでは、特徴点毎の局所的な輝度分布情報を表現した局所的なテクスチャー・モデル(Local Texture Model)を用いる。具体的には、眉、眼、鼻、口、顔などの特徴部位の輪郭上に設定された各特徴点において、輪郭に対して法線方向の平均的な輝度勾配を、テクスチャー・モデルとして事前学習する。図5左には、特徴部位の輪郭上に設定された各特徴点における法線を示している。また、図5右には、顔の輪郭上のある1つの特徴点における法線方向の輝度分布情報で表現した局所的なテクスチャー・モデルを例示している。図示の例では、テクスチャー・モデルは、輪郭に対して法線方向に、特徴点並びに特徴点から±2画素分という局所的な1次元の輝度分布情報からなる。
一方、AAMでは、包括的なテクスチャー・モデル(Global Texture Model)を用いる。具体的には、学習画像(但し、平均形状以外の領域をマスクする)の画素群xの各々における輝度値により構成される輝度値ベクトルを主成分分析して、平均顔画像A0(x)と、基底成分として分解されたテクスチャー・ベクトルAi(x)に分解して、下式(2)に示すように、顔のテクスチャーA(x)を、平均顔画像A0(x)とテクスチャー・ベクトルAi(x)との重ね合せにより表現する(但し、テクスチャー・ベクトルAi(x)の重ね合わせを、係数λiで制御する)。
事前学習されたテクスチャー・モデルは、記憶部120に保存され、入力画像に対する認識・推定処理を行なう際に利用される。なお、本明細書では、テクスチャー・モデルの算出方法の詳細については、説明を省略する。
このようにして、事前学習部210では、事前学習データとしてテクスチャー・モデルを取得すると、記憶部120に保存され、入力画像に対する認識・推定処理を行なう際に利用される。
認識・推定処理部220では、上記の事前学習データを用いて、入力画像に対して顔画像の認識・推定処理を実施して、入力画像に含まれる顔画像の形状を出力する。
図6には、認識・推定処理部220の機能的構成を模式的に示している。図示の認識・推定処理部220は、を備えている。顔領域検出部610と、テクスチャー・モデル適合処理部620と、形状モデル整形部630を備えている。
顔領域検出部610は、画像入力部140などを通じて入力された入力画像から、顔の画像が含まれる顔領域を検出するとともに、あらかじめされた53箇所の特徴点を顔領域から検出する。本明細書で開示する技術を実施する上で、顔領域の検出処理をどのように行なうかは任意であるので、ここでは詳細な説明を省略する。
テクスチャー・モデル適合処理部620は、検出された顔領域を事前学習したテクスチャー・モデルに適合させて、各特徴点を探索する処理を行なう。具体的には、事前学習で得られたテクスチャー・モデルと入力画像との輝度差分などをコストとして計算し、コストが最小となる座標位置を探索する処理を行なう。ここでは、局所的なテクスチャー・モデルについての顔領域に対する適合処理について、図7を参照しながら説明する。
既に述べたように、局所的なテクスチャー・モデルは、眉、眼、鼻、口、顔などの特徴部位の輪郭上に設定された各特徴点について、輪郭に対する法線方向に、特徴点並びに特徴点から±2画素分についての1次元の輝度分布情報からなる。
一方、テクスチャー・モデル適合処理部620への入力画像は、テクスチャー・データとして各画素の輝度値を含んでいる。そこで、各特徴点について法線方向の輝度勾配のみを1次元探索して、事前学習した輝度勾配とのコストが最小となる画素位置を、入力画像上の特徴点として検出する。
図7左には、特徴部位の輪郭上に設定された各特徴点における法線を示している。また、図7右には、顔の輪郭上のある1つの特徴点について、入力画像上の輪郭線に対して法線方向の輝度分布情報と、事前学習された特徴点並びに特徴点から±2画素分の輝度分布情報からなるテクスチャー・モデルと、このテクスチャー・モデルを法線方向に画素単位でスキャンしたときに逐次算出されたコストを示している。そして、コストが最小となる位置が、当該特徴点において適合する画素である。
入力画像(特徴点)gsに対するコストf(gs)は、例えば下式(3)のように表わされる。
上式(3)は、距離指標としてマハラノビス(Mahalanobis)距離を用いた場合である。共分散行列Sgを単位行列にした場合、より単純な2条和の距離の場合となる。
一方、包括的なテクスチャー・モデルについての顔領域に対する適合処理では、特徴点により囲まれた領域をメッシュ状に分割し、メッシュ内の輝度分布と近似する領域を2次元探索して、特徴点を検出する。但し、本明細書で開示する技術を実施する上で、ASM又はAAMのうちいずれの手法を用いるか、言い換えれば、局所的なテクスチャー・モデル又は包括的なテクスチャー・モデルのいずれについて顔領域に対する適合処理を行なうかは任意である。本明細書では、後者の適合処理については、詳細な説明を省略する。
形状モデル整形部630は、上記の適合処理を行なった後の各特徴点からなる形状モデルsと、平均形状s0及び形状ベクトルs1、s2、…からなる基底空間の間で射影、逆射影を行ない、基底係数すなわち各形状ベクトルsiの形状パラメーターpiを最適化して、形状モデルsを整形する。
そして、テクスチャー・モデル適合処理部620及び形状モデル整形部630の処理を数回にわたり反復して実行することで、形状モデルを入力画像に含まれる顔画像に適合させていくことができ、学習時と同等のそれらしい(すなわち、顔らしい)形状に近い、すなわち整形された形状を得ることができる。
しかしながら、ASM/AAMのような、事前に得られた複数の形状情報を基底空間に分解して任意の形状を複数の基底空間の重ね合わせで表現する方法には、入力画像中で対象とする物体の形状(特徴点)の一部が本来とは大きく外れた位置に分布していた場合、物体の形状全体がこの外れ値の影響を受けてずれてしまう、という第1の問題がある。
ここで言う外れ点の一例として、対象物の一部が遮蔽されている領域内の特徴点が挙げられる。図8には、被写体となる人物が顔の一部が手で覆われている入力画像中の外れ点を、丸で囲んで示している。図示のように、鼻や唇の輪郭上の数箇所の特徴点は、手で遮蔽されているという状況を考慮せずにそのままテクスチャー・モデル適合処理部620で処理を行なうと、本来の鼻や唇の輪郭とは大きく外れた位置を特徴点として検出してしまう。
また、外れ点の他の例として、顔などの対象物の一部が画面の枠からはみ出ている場合の、はみ出た領域内の特徴点を挙げることができる。入力画像内に存在しない特徴点に対してテクスチャー・モデル適合処理部620で処理を行なうと、上記と同様に、本来の場所とは大きく外れた位置を特徴点として検出してしまうであろう。
そこで、本実施形態では、このような外れ点となる特徴点を検出して、形状モデル整形部630において基底空間への射影を行なう際に、外れ点となる特徴点にマスクを掛けることによって、上記第1の問題を解消するようにしている。
外れ点は、対象物が遮蔽され、あるいは画面枠から外れているなど、入力画像中では情報を持たない特徴点である。このため、テクスチャー・モデル適合処理部620で算出される輝度差分などの最小コストは大きな値になると想定される。したがって、テクスチャー・モデル適合処理部620で、入力画像から各特徴点の座標位置を探索する処理において算出された最小コストが所定の閾値以上となる特徴点を、外れ点として判別することができる。
図9には、認識・推定処理部220で実行する、外れ点のマスク掛けを含んだ認識・推定処理の手順をフローチャートの形式で示している。
まず、入力画像に対して初期点群座標を設定する(ステップS901)。具体的には、顔検出部210で入力画像から検出した顔領域に、平均顔形状s0を配置することに相当する。
そして、テクスチャー・モデル適合処理部620では、特徴点毎の処理として(S902〜S907)、入力画像上で設定した特徴点を、事前学習したテクスチャー・モデルへの適合処理を行なう(ステップS903)。具体的には、入力画像上で設定された特徴点について、事前学習で得られたテクスチャー・モデルとの輝度差分などをコストとして計算し、コストが最小となる座標位置を探索する処理を行なう。
ここで、算出された最小コストが所定の閾値未満であるかどうかを判別する(ステップS904)。そして、最小コストが所定の閾値未満である場合には(ステップS904のYes)、通常処理として、入力画像上で初期設定された特徴点を、コストが最小となる座標位置に移動する(ステップS906)。
他方、最小コストが所定の閾値以上である場合には(ステップS904のNo)、入力画像上の当該特徴点を外れ点と判別して、マスク処理を実施する(ステップS905)。マスク処理とは、具体的には、射影時の入力画像上の当該特徴点の座標及びこれに対応する基底成分の値をすべて0に設定することで、後段の形状モデル整形部630における射影時及び基底係数算出時の、当該外れ点の影響を打ち消すものである。入力画像を基底空間へ一旦射影して重み係数が求まれば、それ以降は通常の逆射影を行なえば、基底成分によりマスクされた点に関しても、それらしい座標値が出力されるという結果になる。
そして、ステップS901で設定されたすべての初期点に対して、テクスチャー・モデル適合処理部620でコスト最小位置への移動又はマスク処理が終了すると、後段の形状モデル整形部620で、入力画像の基底空間への射影、及び基底空間の逆射影を行なって基底係数piの最適化を行なう(ステップS908)。このようにして、認識・推定処理部220からは入力画像に含まれる形状モデルの各特徴点の座標値が出力される。
図10には、さまざまな向きや表情をし、且つ、手で一部が遮蔽された顔形状を含んだ入力画像に対して、図9に示した認識・推定処理を実施した結果を示している。図10では、推定された顔姿勢を3次元立方体で示すとともに、推定された鼻や唇の輪郭に線を引いている。手で一部が遮蔽されていても、遮蔽された特徴点をマスク処理して形状モデル整形部630で射影・逆射影を行なうことで、遮蔽された各特徴点はそれらしい位置に整形され、顔全体としてもそれらしい形状が推定されることが分かる。特に、図10(D)に示すように、唇が完全に遮蔽された場合であっても、目や鼻などの遮蔽されていないその他の特徴部位の(マスク掛けされない)特徴点の処理により、マスク掛けされた特徴点を含め、顔全体としてそれらしい形状が推定される。
なお、図9に示した処理手順によれば、図8並びに図10に示したように遮蔽された領域の特徴点だけでなく、影や照明の輝度変動要因により本来とは大きく外れた位置で検出されてしまう特徴点や、画面枠からはみ出た領域の特徴点なども、外れ点として検出してマスク掛けして、入力画像の基底空間への射影及び逆射影を行なうので、上記と同様に、外れ点の影響を除外して、それらしい形状を推定することができる。
また、ASM/AAMのような、事前に得られた複数の形状情報を基底空間に分解して任意の形状を複数の基底空間の重ね合わせで表現する方法における第2の問題として、画像中の局所的な特徴量を用いて形状(特徴点)の位置を推定する場合、エッジやテクスチャーといった特徴に乏しい領域では、位置の特定が困難になるという点が挙げられる。
例えば、顔画像において、鼻頂点の座標などは、テクスチャーもエッジも乏しい。このため、テクスチャー・モデル適合処理部620が事前学習で得られたテクスチャー・モデルと入力画像との輝度差分などのコスト計算に基づいて、鼻頂点を単独で探索しようとすると、位置の特定が困難である。
そこで、本実施形態では、顔画像における鼻頂点など、単独で探索しても位置を特定することが困難な特徴点を、外れ点として事前に指定して常にマスク掛けすることによって、第2の問題を解決するようにしている。位置の特定が困難な特徴点を常にマスク掛けして射影を行なうことによって、位置の推定が可能になる。
図11には、認識・推定処理部220で実行する、事前に指定した外れ点のマスク掛けを含んだ認識・推定処理の手順をフローチャートの形式で示している。
まず、入力画像に対して初期点群座標を設定する(ステップS1101)。具体的には、顔検出部210で入力画像から検出した顔領域に、平均顔形状s0を配置することに相当する。
そして、テクスチャー・モデル適合処理部620では、特徴点毎の処理として(S1102〜S1107)、特徴点が事前に外れ点として指定された点であるかどうかを確認する(ステップS1103)。
ここで、外れ点と事前に指定された以外の特徴点に対しては(ステップS1103のNo)、テクスチャー・モデル適合処理部620は、事前学習したテクスチャー・モデルへの適合処理を行なう(ステップS1105)。具体的には、入力画像上で設定された特徴点について、事前学習で得られたテクスチャー・モデルとの輝度差分などをコストとして計算し、コストが最小となる座標位置を探索する処理を行なう。そして、通常処理として、入力画像上で初期設定された特徴点を、コストが最小となる座標位置に移動する(ステップS1106)。
一方、事前に外れ点と指定されている特徴点に対しては(ステップS1103のYes)、常にマスク処理を実施する(ステップS1104)。マスク処理とは、具体的には、射影時の入力画像上の当該特徴点の座標及びこれに対応する基底成分の値をすべて0に設定することで、後段の形状モデル整形部630における射影時及び基底係数算出時の、当該外れ点の影響を打ち消すものである。入力画像を基底空間へ一旦射影して重み係数が求まれば、それ以降は通常の逆射影を行なえば、基底成分によりマスクされた点に関しても、それらしい座標値が出力されるという結果になる。
そして、ステップS1101で設定されたすべての初期点に対して、テクスチャー・モデル適合処理部620でコスト最小位置への移動又はマスク処理が終了すると、後段の形状モデル整形部620で、入力画像の基底空間への射影、及び基底空間の逆射影を行なって基底係数piの最適化を行なう(ステップS1108)。このようにして、認識・推定処理部220からは入力画像に含まれる形状モデルの各特徴点の座標値が出力される。
図12には、さまざまな向きや表情をした顔形状を含んだ入力画像に対して、図11に示した認識・推定処理を実施した結果を示している。図12中、推定された顔姿勢を3次元立方体で示すとともに、推定された鼻や唇の輪郭に線を引いている。通常、エッジやテクスチャーに乏しい鼻頂点の位置推定は困難であるが、このような特徴点を事前に外れ点に指定して、マスク掛けして、テクスチャー・モデルへの適合処理を省略し、また、形状モデルの射影・逆射影を行なうことで、正しい顔姿勢を推定できることが分かる。
画像処理装置100は、例えば、パーソナル・コンピューターや、携帯電話機、スマートフォン又はタブレットなどの多機能端末、プリンターなどの機器に相当する。図9や図11に示したような物体形状(顔画像)の認識・推定処理をすべて画像処理装置100上で実行することも可能であるが、処理の一部又は全部を、ネットワーク上のサーバーなど外部装置に委ねることもできる。
図13に示すシステム構成例では、画像処理装置100上ではカメラなどにより画像を入力するだけであり、入力画像から顔などの物体形状の認識・推定処理はすべてサーバーにリクエストし、サーバーからは形状の認識結果が返されるようになっている。
また、図14に示すシステム構成例では、画像処理装置100上ではカメラなどにより画像を入力するとともに、入力画像上で外れ点の検出、又は、外れ点の事前指定を行ない、入力画像とともに、外れ点の情報を付けて、サーバーに物体形状の認識・推定処理をリクエストするようになっている。あるいは、画像処理装置100は、外れ点にマスク処理を施した対象物の形状モデルをサーバーに送信して、この形状モデルの基底空間への射影及び逆射影をリクエストするようにしてもよい。そして、サーバー側では、外れ点にマスクを掛けて認識・推定処理を行ない、形状の認識結果を画像処理装置100に返すようになっている。
なお、本明細書の開示の技術は、以下のような構成をとることも可能である。
(1)事前に得られた複数の形状情報を基底空間に分解したモデル情報を取得するモデル情報取得部と、入力画像中の対象物の形状から、前記モデル情報と差分を生じた外れ領域を検出する外れ領域検出部と、前記外れ領域にマスクを掛けて、入力画像中の対象物の形状を前記基底空間へ射影する射影部と、を具備する画像処理装置。
(2)前記基底空間は、前記事前に得られた複数の形状情報の平均形状及び基底成分からなり、前記外れ領域検出部は、入力画像中の対象物の形状のうち前記平均形状と差分を生じた外れ領域を検出する、上記(1)に記載の画像処理装置。
(3)前記モデル情報は、対象物の形状上で定義された複数の特徴点の座標位置に関する形状情報を基底空間に分解した形状モデルと、特徴点毎のテクスチャー情報に関するテクスチャー・モデルを含み、入力画像と前記テクスチャー・モデルとのテクスチャー情報の差分のコスト計算に基づいて、入力画像から各特徴点の位置を探索するテクスチャー・モデル適合処理部をさらに備え、前記外れ領域検出部は、前記テクスチャー・モデル適合処理部において算出したコストが所定の閾値以上となる特徴点を外れ点として判別する、上記(1)に記載の画像処理装置。
(4)事前に得られた複数の形状情報を基底空間に分解したモデル情報を取得するモデル情報取得部と、入力画像中の対象物の形状のうち、事前に指定された外れ領域を検出する外れ領域検出部と、前記外れ領域にマスクを掛けて、入力画像中の対象物の形状を前記基底空間へ射影する射影部と、を具備する画像処理装置。
(5)前記モデル情報は、対象物の形状上で定義された複数の特徴点の座標位置に関する形状情報を基底空間に分解した形状モデルと、特徴点毎のテクスチャー情報に関するテクスチャー・モデルを含み、テクスチャー情報の乏しい特徴点に対して事前に外れ点として指定されている、上記(4)に記載の画像処理装置。
(6)入力画像と前記テクスチャー・モデルとのテクスチャー情報の差分のコスト計算に基づいて、入力画像から各特徴点の位置を探索するテクスチャー・モデル適合処理部をさらに備え、前記テクスチャー・モデル適合処理部は、外れ点として事前に指定されている特徴点についての処理を省略する、上記(5)に記載の画像処理装置。
(7)前記モデル情報取得部は、事前に得られた複数の形状情報を、主成分分析又は独立成分分析して分解された基底空間をモデル情報として取得する、上記(1)又は(4)のいずれかに記載の画像処理装置。
(8)事前に得られた複数の形状情報を基底空間に分解したモデル情報を取得するモデル情報取得ステップと、入力画像中の対象物の形状から、前記モデル情報と差分を生じた外れ領域を検出する外れ領域検出ステップと、前記外れ領域にマスクを掛けて、入力画像中の対象物の形状を前記基底空間へ射影する射影ステップと、を有する画像処理方法。
(9)事前に得られた複数の形状情報を基底空間に分解したモデル情報を取得するモデル情報取得ステップと、入力画像中の対象物の形状のうち、事前に指定された外れ領域を検出する外れ領域検出ステップと、前記外れ領域にマスクを掛けて、入力画像中の対象物の形状を前記基底空間へ射影する射影ステップと、を有する画像処理方法。
(10)対象物を含んだ画像を入力する画像入力部と、入力画像中の対象物の形状のうち、事前に得られた複数の形状情報を基底空間に分解しモデル情報との差分が生じた外れ領域を検出する外れ領域検出部と、検出した外れ領域の情報とともに、入力画像中の対象物の形状を前記基底空間へ射影して形状を推定する処理をサーバーに要求する処理要求部と、入力画像中の対象物の形状のうち前記外れ領域にマスクを掛けて前記基底空間へ射影して得られた形状の推定結果をサーバーから受け取る処理結果受信部と、を具備する画像処理装置。
(11)対象物を含んだ画像を入力する画像入力部と、事前に指定した外れ領域の情報とともに、入力画像中の対象物の形状を事前に得られた複数の形状情報を分解した基底空間へ射影して形状を推定する処理をサーバーに要求する処理要求部と、入力画像中の対象物の形状のうち前記外れ領域にマスクを掛けて前記基底空間へ射影して得られた形状の推定結果をサーバーから受け取る処理結果受信部と、を具備する画像処理装置。
(12)事前に得られた複数の形状情報を基底空間に分解したモデル情報を取得するモデル情報取得部、入力画像中の対象物の形状から、前記モデル情報と差分を生じた外れ領域を検出する外れ領域検出部、前記外れ領域にマスクを掛けて、入力画像中の対象物の形状を前記基底空間へ射影する射影部、としてコンピューターを機能させるようにコンピューター可読形式で記述されたコンピューター・プログラム。
(13)事前に得られた複数の形状情報を基底空間に分解したモデル情報を取得するモデル情報取得部、入力画像中の対象物の形状のうち、事前に指定された外れ領域を検出する外れ領域検出部、前記外れ領域にマスクを掛けて、入力画像中の対象物の形状を前記基底空間へ射影する射影部、としてコンピューターを機能させるようにコンピューター可読形式で記述されたコンピューター・プログラム。
以上、特定の実施形態を参照しながら、本明細書で開示する技術について詳細に説明してきた。しかしながら、本明細書で開示する技術の要旨を逸脱しない範囲で当業者が該実施形態の修正や代用を成し得ることは自明である。
本明細書では、ASM/AAMを利用した実施形態を中心に説明してきたが、本明細書で開示する技術の要旨はこれに限定されるものではない。事前に得られた複数の形状情報を基底空間に分解しておき、入力画像に含まれる物体の任意の形状を基底空間への射影及び逆射影する、さまざまなタイプの画像処理技術に対して、同様に本明細書で開示する技術を適用することができる。
また、本明細書では、顔画像の認識・推定を行なう実施形態を中心に説明してきたが、本明細書で開示する技術の要旨はこれに限定されるものではない。変形を含むその他のさまざまな物体形状の認識・推定処理においても、同様に本明細書で開示する技術を適用することができる。
要するに、例示という形態により本明細書で開示する技術について説明してきたのであり、本明細書の記載内容を限定的に解釈するべきではない。本明細書で開示する技術の要旨を判断するためには、特許請求の範囲を参酌すべきである。
100…画像処理装置
110…CPU
120…記憶部
130…通信部
140…画像入力部
150…画像出力部
160…操作部
170…表示部
210…事前学習部
220…認識・推定処理部
610…顔検出部
620…テクスチャー・モデル適合処理部
630…形状モデル整形部

Claims (13)

  1. 事前に得られた複数の形状情報を基底空間に分解したモデル情報を取得するモデル情報取得部と、
    入力画像中の対象物の形状から、前記モデル情報と差分を生じた外れ領域を検出する外れ領域検出部と、
    前記外れ領域にマスクを掛けて、入力画像中の対象物の形状を前記基底空間へ射影する射影部と、
    を具備する画像処理装置。
  2. 前記基底空間は、前記事前に得られた複数の形状情報の平均形状及び基底成分からなり、
    前記外れ領域検出部は、入力画像中の対象物の形状のうち前記平均形状と差分を生じた外れ領域を検出する、
    請求項1に記載の画像処理装置。
  3. 前記モデル情報は、対象物の形状上で定義された複数の特徴点の座標位置に関する形状情報を基底空間に分解した形状モデルと、特徴点毎のテクスチャー情報に関するテクスチャー・モデルを含み、
    入力画像と前記テクスチャー・モデルとのテクスチャー情報の差分のコスト計算に基づいて、入力画像から各特徴点の位置を探索するテクスチャー・モデル適合処理部をさらに備え、
    前記外れ領域検出部は、前記テクスチャー・モデル適合処理部において算出したコストが所定の閾値以上となる特徴点を外れ点として判別する、
    請求項1又は2のいずれかに記載の画像処理装置。
  4. 事前に得られた複数の形状情報を基底空間に分解したモデル情報を取得するモデル情報取得部と、
    入力画像中の対象物の形状のうち、テクスチャー情報の乏しい特徴点として事前に指定された外れを検出する外れ検出部と、
    前記外れにマスクを掛けて、入力画像中の対象物の形状を前記基底空間へ射影する射影部と、
    を具備する画像処理装置。
  5. 前記モデル情報は、対象物の形状上で定義された複数の特徴点の座標位置に関する形状情報を基底空間に分解した形状モデルと、特徴点毎のテクスチャー情報に関するテクスチャー・モデルを含
    請求項4に記載の画像処理装置。
  6. 入力画像と前記テクスチャー・モデルとのテクスチャー情報の差分のコスト計算に基づいて、入力画像から各特徴点の位置を探索するテクスチャー・モデル適合処理部をさらに備え、
    前記テクスチャー・モデル適合処理部は、外れ点として事前に指定されている特徴点についての処理を省略する、
    請求項5に記載の画像処理装置。
  7. 前記モデル情報取得部は、事前に得られた複数の形状情報を、主成分分析又は独立成分分析して分解された基底空間をモデル情報として取得する、
    請求項1乃至6のいずれかに記載の画像処理装置。
  8. 事前に得られた複数の形状情報を基底空間に分解したモデル情報を取得するモデル情報取得ステップと、
    入力画像中の対象物の形状から、前記モデル情報と差分を生じた外れ領域を検出する外れ領域検出ステップと、
    前記外れ領域にマスクを掛けて、入力画像中の対象物の形状を前記基底空間へ射影する射影ステップと、
    を有する画像処理方法。
  9. 事前に得られた複数の形状情報を基底空間に分解したモデル情報を取得するモデル情報取得ステップと、
    入力画像中の対象物の形状のうち、入力画像中の対象物の形状のうち、テクスチャー情報の乏しい特徴点として事前に指定された外れを検出する外れ検出ステップと、
    前記外れにマスクを掛けて、入力画像中の対象物の形状を前記基底空間へ射影する射影ステップと、
    を有する画像処理方法。
  10. 対象物を含んだ画像を入力する画像入力部と、
    入力画像中の対象物の形状のうち、事前に得られた複数の形状情報を基底空間に分解しモデル情報との差分が生じた外れ領域を検出する外れ領域検出部と、
    検出した外れ領域の情報とともに、入力画像中の対象物の形状を前記基底空間へ射影して形状を推定する処理をサーバーに要求する処理要求部と、
    入力画像中の対象物の形状のうち前記外れ領域にマスクを掛けて前記基底空間へ射影して得られた形状の推定結果をサーバーから受け取る処理結果受信部と、
    を具備する画像処理装置。
  11. 対象物を含んだ画像を入力する画像入力部と、
    テクスチャー情報の乏しい特徴点として事前に指定した外れの情報とともに、入力画像中の対象物の形状を事前に得られた複数の形状情報を分解した基底空間へ射影して形状を推定する処理をサーバーに要求する処理要求部と、
    入力画像中の対象物の形状のうち前記外れにマスクを掛けて前記基底空間へ射影して得られた形状の推定結果をサーバーから受け取る処理結果受信部と、
    を具備する画像処理装置。
  12. 事前に得られた複数の形状情報を基底空間に分解したモデル情報を取得するモデル情報取得部、
    入力画像中の対象物の形状から、前記モデル情報と差分を生じた外れ領域を検出する外れ領域検出部、
    前記外れ領域にマスクを掛けて、入力画像中の対象物の形状を前記基底空間へ射影する射影部、
    としてコンピューターを機能させるようにコンピューター可読形式で記述されたコンピューター・プログラム。
  13. 事前に得られた複数の形状情報を基底空間に分解したモデル情報を取得するモデル情報取得部、
    入力画像中の対象物の形状のうち、テクスチャー情報の乏しい特徴点として事前に指定された外れを検出する外れ検出部、
    前記外れにマスクを掛けて、入力画像中の対象物の形状を前記基底空間へ射影する射影部、
    としてコンピューターを機能させるようにコンピューター可読形式で記述されたコンピューター・プログラム。
JP2012116366A 2012-05-22 2012-05-22 画像処理装置及び画像処理方法、並びにコンピューター・プログラム Expired - Fee Related JP5895703B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2012116366A JP5895703B2 (ja) 2012-05-22 2012-05-22 画像処理装置及び画像処理方法、並びにコンピューター・プログラム
US13/851,454 US9443325B2 (en) 2012-05-22 2013-03-27 Image processing apparatus, image processing method, and computer program
CN201310179626.9A CN103425964B (zh) 2012-05-22 2013-05-15 图像处理设备和图像处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012116366A JP5895703B2 (ja) 2012-05-22 2012-05-22 画像処理装置及び画像処理方法、並びにコンピューター・プログラム

Publications (3)

Publication Number Publication Date
JP2013242757A JP2013242757A (ja) 2013-12-05
JP2013242757A5 JP2013242757A5 (ja) 2015-03-05
JP5895703B2 true JP5895703B2 (ja) 2016-03-30

Family

ID=49621256

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012116366A Expired - Fee Related JP5895703B2 (ja) 2012-05-22 2012-05-22 画像処理装置及び画像処理方法、並びにコンピューター・プログラム

Country Status (3)

Country Link
US (1) US9443325B2 (ja)
JP (1) JP5895703B2 (ja)
CN (1) CN103425964B (ja)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015088095A (ja) * 2013-11-01 2015-05-07 株式会社ソニー・コンピュータエンタテインメント 情報処理装置および情報処理方法
WO2016017296A1 (ja) 2014-07-29 2016-02-04 ソニー株式会社 投射型表示装置
JP6372266B2 (ja) 2014-09-09 2018-08-15 ソニー株式会社 投射型表示装置および機能制御方法
US10134177B2 (en) * 2015-01-15 2018-11-20 Samsung Electronics Co., Ltd. Method and apparatus for adjusting face pose
CN104778458B (zh) * 2015-04-17 2017-12-22 浙江理工大学 一种基于纹理特征的纺织品花纹检索方法
CN105760826B (zh) * 2016-02-03 2020-11-13 歌尔股份有限公司 一种人脸跟踪方法、装置和智能终端
GB2550344B (en) * 2016-05-13 2020-06-03 Holition Ltd Locating and augmenting object features in images
US11741639B2 (en) 2016-03-02 2023-08-29 Holition Limited Locating and augmenting object features in images
JP6743894B2 (ja) * 2016-08-10 2020-08-19 ソニー株式会社 画像処理装置および画像処理方法
JP7207396B2 (ja) * 2018-03-06 2023-01-18 ソニーグループ株式会社 情報処理装置、情報処理方法、およびプログラム
CN112183173B (zh) * 2019-07-05 2024-04-09 北京字节跳动网络技术有限公司 一种图像处理方法、装置及存储介质
CN112489192B (zh) * 2020-09-11 2022-12-16 清华大学 用于温度成像的数据处理方法、装置以及设备
CN112465886A (zh) * 2020-12-09 2021-03-09 苍穹数码技术股份有限公司 模型生成方法、装置、设备和可读存储介质
US20240055220A1 (en) * 2020-12-23 2024-02-15 Hitachi High-Tech Corporation Charged Particle Beam Device
US20230154101A1 (en) * 2021-11-16 2023-05-18 Disney Enterprises, Inc. Techniques for multi-view neural object modeling

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4379491B2 (ja) * 2007-04-04 2009-12-09 ソニー株式会社 顔データ記録装置、再生装置、撮像装置、画像再生システム、顔データ記録方法およびプログラム
JP2010182150A (ja) * 2009-02-06 2010-08-19 Seiko Epson Corp 顔の特徴部位の座標位置を検出する画像処理装置
US8649555B1 (en) * 2009-02-18 2014-02-11 Lucasfilm Entertainment Company Ltd. Visual tracking framework
JP2010244318A (ja) 2009-04-07 2010-10-28 Seiko Epson Corp 顔画像における特徴部位の位置を特定する画像処理
JP2010244321A (ja) 2009-04-07 2010-10-28 Seiko Epson Corp 顔画像を表す顔モデルを設定する画像処理
JP5455798B2 (ja) * 2009-07-16 2014-03-26 キヤノン株式会社 画像処理装置
CA2769583A1 (en) * 2009-08-04 2011-02-10 Vesalis Image-processing method for correcting a target image with respect to a reference image, and corresponding image-processing device
JP2011039918A (ja) * 2009-08-17 2011-02-24 Sony Corp 画像処理装置、および画像処理方法、並びにプログラム
JP2011060038A (ja) * 2009-09-10 2011-03-24 Seiko Epson Corp 画像処理装置
JP2011232845A (ja) * 2010-04-26 2011-11-17 Panasonic Corp 特徴点抽出装置および方法
WO2011148596A1 (ja) * 2010-05-26 2011-12-01 日本電気株式会社 顔特徴点位置補正装置、顔特徴点位置補正方法および顔特徴点位置補正プログラム

Also Published As

Publication number Publication date
CN103425964B (zh) 2018-01-12
US20130314437A1 (en) 2013-11-28
US9443325B2 (en) 2016-09-13
JP2013242757A (ja) 2013-12-05
CN103425964A (zh) 2013-12-04

Similar Documents

Publication Publication Date Title
JP5895703B2 (ja) 画像処理装置及び画像処理方法、並びにコンピューター・プログラム
CN110532984B (zh) 关键点检测方法、手势识别方法、装置及系统
JP4950787B2 (ja) 画像処理装置及びその方法
CN107251096B (zh) 图像捕获装置和方法
US11158121B1 (en) Systems and methods for generating accurate and realistic clothing models with wrinkles
WO2017152794A1 (en) Method and device for target tracking
US20200184651A1 (en) Image processing system, image processing method, and program
JP6798183B2 (ja) 画像解析装置、画像解析方法およびプログラム
JP2021503662A (ja) ニューラルネットワークのモデルの訓練
CN111243050B (zh) 肖像简笔画生成方法、系统及绘画机器人
JP6207210B2 (ja) 情報処理装置およびその方法
CN104123749A (zh) 一种图像处理方法及系统
US8854376B1 (en) Generating animation from actor performance
US11282257B2 (en) Pose selection and animation of characters using video data and training techniques
JP2007072620A (ja) 画像認識装置及びその方法
JP2024501986A (ja) 3次元顔再構築の方法、3次元顔再構築の装置、デバイスおよび記憶媒体
Morshidi et al. Gravity optimised particle filter for hand tracking
CN112270747A (zh) 一种人脸识别方法、装置及电子设备
Jin et al. Emotion information visualization through learning of 3D morphable face model
CN109376618B (zh) 图像处理方法、装置及电子设备
CN106558042A (zh) 一种对图像进行关键点定位的方法和装置
JP2017033556A (ja) 画像処理方法及び電子機器
US11361467B2 (en) Pose selection and animation of characters using video data and training techniques
Purps et al. Reconstructing facial expressions of hmd users for avatars in vr
US10656722B2 (en) Sensor system for collecting gestural data in two-dimensional animation

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150116

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150116

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150904

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151027

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151028

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160202

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160215

R151 Written notification of patent or utility model registration

Ref document number: 5895703

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees