JP2005339288A - 画像処理装置及びその方法 - Google Patents

画像処理装置及びその方法 Download PDF

Info

Publication number
JP2005339288A
JP2005339288A JP2004158352A JP2004158352A JP2005339288A JP 2005339288 A JP2005339288 A JP 2005339288A JP 2004158352 A JP2004158352 A JP 2004158352A JP 2004158352 A JP2004158352 A JP 2004158352A JP 2005339288 A JP2005339288 A JP 2005339288A
Authority
JP
Japan
Prior art keywords
contour
image
initial parameter
feature points
initial
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004158352A
Other languages
English (en)
Inventor
Mayumi Yuasa
真由美 湯浅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2004158352A priority Critical patent/JP2005339288A/ja
Priority to US11/137,520 priority patent/US7486825B2/en
Publication of JP2005339288A publication Critical patent/JP2005339288A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/755Deformable models or variational models, e.g. snakes or active contours
    • G06V10/7553Deformable models or variational models, e.g. snakes or active contours based on shape, e.g. active shape models [ASM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Medical Informatics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Ophthalmology & Optometry (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

【課題】顔を撮影した画像から目や唇の輪郭を精度よく検出する画像処理装置を提供する。
【解決手段】画像が入力する画像入力部12と、前記入力した画像中から前記対象物の複数の特徴点を検出する特徴点検出部14と、前記検出し複数の特徴点から顔向き表す回転角を推定する顔向き推定部16と、前記検出した複数の特徴点から前記目や唇の輪郭を検出するための初期パラメータを推定し、前記推定した初期パラメータを前記推定された回転角によって修正する初期パラメータ修正部22と、前記修正した初期パラメータを用いて前記対象物の輪郭を初期輪郭を生成する初期輪郭部24と、この初期輪郭部から最終的な輪郭を生成する輪郭生成部26とを有する。
【選択図】 図1

Description

本発明は、画像から対象物の輪郭を抽出する画像処理装置及びその方法に関する。
対象物の輪郭を抽出する方法としては、例えば、非特許文献1にあるように、動的輪郭モデルを用いる方法がある。動的輪郭モデルは輪郭モデルに対してエネルギーを設定して、それを最小化することにより輪郭を抽出するものである。対象物の輪郭エッジが途切れていても抽出できるといった利点があるが、収束計算をするため、処理時間がかかる、初期パラメータが離れている場合には失敗するといった問題点がある。
また、最近では非特許文献2にあるように、アフィン変換を使った輪郭抽出方法もある。この輪郭抽出方法はモデルに対して変動することを許しているだけで、その変換パラメータを積極的に得るものではない。
さらに、人物の顔画像中から目などの特徴点を検出する方法も開示されている(例えば、特許文献1、非特許文献3参照)。しかし、この輪郭抽出方法は、顔向きの変動は特に考慮されていなかったため、パターン照合の際に学習データが大量に必要であるという問題点がある。
特許第3279913号公報 M. Kass, A. Witkin, and D. Terzopoulos, "Snakes: Active Contour Models,"International Journal of Computer Vision, Vol. 1, No. 4, pp.321-331, 1988. H. H. S. Ip, D. Shen, "An affine-invariant active contour model (AI-snake) for model-based segmentation," Image and Vision Computing, Vol. 16, p.125-146, 1998. 福井和広、山口修: "形状抽出とパターン照合の組合せによる顔特徴点抽出",信学論(D-II), vol. J80-D-II, no. 9, pp. 2170-2177, Aug. 1997
ところで、最近は、顔画像を入力して、その顔画像にデジタル的にメイクを施すデジタルメイクが提案されている(非特許文献6:湯浅他「瞳輪郭の高精度抽出とデジタルメイクへの応用」, PRMU2002-62, pp.37-42, July 2002.)。
このデジタルメイクは、顔画像の目の回りにアイシャドーをデジタル的に施したり、また、唇に口紅を施すものである。このようなデジタルメイクを行う場合に、顔が正面から撮影された顔画像であれば、目の回りなどの目的の範囲にメイクを施すことができる。しかし、顔が正面でなく、向きが正面から回転していると、入力した顔画像にうまくメイクが施されず、目的の範囲からはみ出たりするという問題点がある。
この問題点が発生する理由は、顔が傾いているために目や唇などの輪郭が正確に抽出されていないことに起因する。すなわち、輪郭を抽出する際に必要な初期パラメータが、その顔向きの変動に対応した初期パラメータに変更されていないからである。そして、上記のような従来の輪郭抽出方法では、この顔向きの変動を考慮して初期パラメータを変更して、正確に、かつ、迅速に輪郭を抽出することは困難である。
そこで、本発明は上記の問題を解決するために、顔などの対象物の姿勢によって、特徴点もしくは輪郭を検出の際に用いる初期パラメータを変換することにより、特徴点もしくは輪郭の検出を容易に行なうことができる画像処理装置及びその方法を提供する。
請求項1に係る発明は、対象物が撮影された画像から前記対象物の輪郭を抽出する画像処理装置において、前記画像が入力する画像入力手段と、前記入力した画像中から前記対象物の複数の特徴点を検出する特徴点検出手段と、前記検出し複数の特徴点から前記対象物の姿勢を表す回転角を推定する姿勢推定手段と、前記検出した複数の特徴点から前記対象物の輪郭を検出するための初期パラメータを推定する初期パラメータ推定手段と、前記推定した初期パラメータを、前記推定された回転角によって修正する初期パラメータ修正手段と、前記修正した初期パラメータを用いて前記対象物の輪郭を生成する輪郭生成手段と、を有することを特徴とする画像処理装置である。
請求項2に係る発明は、前記画像入力手段には、前記対象物が撮影された動画像が入力し、前記特徴点検出手段は、前記入力した動画像の各フレーム毎に前記対象物の複数の特徴点を求め、前記姿勢推定手段は、前記求めた各フレーム毎の複数の特徴点から因数分解法に基づいて前記各特徴点の三次元座標を求め、前記求めた各特徴点の三次元座標を要素に持つ形状行列を求め、前記入力した動画像の中で輪郭を求めたい対象物が撮影された画像から検出した複数の特徴点の二次元座標を要素にもつ計測行列を求め、前記求めた計測行列と前記求めた形状行列から前記対象物の姿勢を表す運動行列を求め、前記運動行列から前記対象物の回転角を求めることを特徴とする請求項1記載の画像処理装置である。
請求項3に係る発明は、前記初期パラメータ推定手段は、前記検出した複数の特徴点から輪郭を抽出するのに必要な基準点を推定し、この推定した基準点を初期パラメータとすることを特徴とする請求項1記載の画像処理装置である。
請求項4に係る発明は、前記初期パラメータ修正手段は、予め記憶されたサンプル主成分ベクトルから正規化輪郭ベクトルを計算し、前記計算した正規化輪郭ベクトルと前記推定した基準点を、前記推定した対象物の回転角に基づいて修正して、修正基準点と修正正規化輪郭ベクトルを計算することを特徴とする請求項3記載の画像処理装置である。
請求項5に係る発明は、前記輪郭生成手段は、前記修正した初期パラメータから初期輪郭を求め、前記求めた初期輪郭から最終的な輪郭を求めることを特徴とする請求項1記載の画像処理装置である。
請求項6に係る発明は、前記求めたい対象物の輪郭が、人物の目の輪郭、または、唇の輪郭であって、前記姿勢は前記人物の顔向きであることを特徴とする請求項1から5のうち少なくとも一項に記載の画像処理装置である。
請求項7に係る発明は、対象物が撮影された画像から前記対象物の輪郭を抽出する画像処理方法において、前記画像が入力する画像入力ステップと、前記入力した画像中から前記対象物の複数の特徴点を検出する特徴点検出ステップと、前記検出し複数の特徴点から前記対象物の姿勢を表す回転角を推定する姿勢推定ステップと、前記検出した複数の特徴点から前記対象物の輪郭を検出するための初期パラメータを推定する初期パラメータ推定ステップと、前記推定した初期パラメータを、前記推定された回転角によって修正する初期パラメータ修正ステップと、前記修正した初期パラメータを用いて前記対象物の輪郭を生成する輪郭生成ステップと、を有することを特徴とする画像処理方法である。
請求項8に係る発明は、対象物が撮影された画像から前記対象物の輪郭を抽出する画像処理方法をコンピュータによって実現するプログラムにおいて、前記画像が入力する画像入力機能と、前記入力した画像中から前記対象物の複数の特徴点を検出する特徴点検出機能と、前記検出し複数の特徴点から前記対象物の姿勢を表す回転角を推定する姿勢推定機能と、前記検出した複数の特徴点から前記対象物の輪郭を検出するための初期パラメータを推定する初期パラメータ推定機能と、前記推定した初期パラメータを、前記推定された回転角によって修正する初期パラメータ修正機能と、前記修正した初期パラメータを用いて前記対象物の輪郭を生成する輪郭生成機能と、を実現することを特徴とする画像処理方法のプログラムである。
本発明によれば、顔などの対象物の姿勢によって、輪郭を抽出の際に用いる初期パラメータを変換することにより、輪郭の抽出を容易に行なうことができる。
以下に本発明の各実施形態を詳細に説明する。
(第1の実施形態)
本発明に関わる第1の実施形態について述べる。本実施形態は人物の顔を含む画像から目の輪郭を抽出する画像処理装置10である。
(1)画像処理装置10の構成
図1は本実施形態の画像処理装置10の構成を表わす図である。
画像入力部12は、カメラから動画像を入力する。
特徴点検出部14は、画像中から必要な特徴点を検出する。
顔向き推定部16は、検出された特徴点から顔向きを推定する。
基準点推定部18は、検出された特徴点を利用して推定基準点の位置を求める。
輪郭モデルデータ20は、予め作成された輪郭を表現するために必要なデータである。
初期パラメータ修正部22では、基準点推定部18で推定された推定基準点の位置座標と、輪郭モデルデータ20から構成される初期パラメータを、推定された顔向きを利用して修正する。
初期輪郭生成部24では、初期パラメータ修正部22で修正されたパラメータを利用して初期輪郭を生成する。
輪郭抽出部26では、初期輪郭生成部24で生成された初期輪郭を利用して、対象物の正確な輪郭を抽出する。
各構成部12〜26の構成について以下で詳細に述べるが、これら各構成部12〜26の機能は、コンピュータに記憶されたプログラムによって実現される。
(2)画像入力部12
画像入力部12においては、ビデオカメラから顔が撮影された動画像を入力する。この入力された顔画像は逐次、特徴点検出部14に送られる。
(3)特徴点検出部14
特徴点検出部14では、特許文献1に示された方法で特徴点を検出する。ここで検出する特徴点は図2で示す両目、鼻孔、口端の6点である。ここでは6点の場合について説明するが、本実施形態では少なくとも両目2点とそれ以外に2点以上が必要である。
以下、その検出方法を説明する。
第1に、画像全体に対して円形分離度フィルタにより、分離度マップを作成する。分離度は2領域間の分離度合を正規化された値で表わすことができるもので、エッジ強度として利用する。
第2に、上記分離度マップにおいて、分離度の値のピークを検出し、それらのピーク位置を特徴点の候補とする。
第3に、得られた特徴点候補に対してパターン類似度を求める前に、左右瞳、鼻孔、口端の6点組の候補を絶対及び相対位置関係を用いて絞り込む。
第4に、それらの組に対してそれぞれ局所画像パターン照合による検証を行ない、最終的な特徴点を検出する。
(4)顔向き推定部16
顔向き推定部16においては、特徴点検出部14で検出された特徴点から幾何学に顔向きを推定する。
ここでは特許文献2(特開2003−141552)で提案された特徴点の位置座標から顔の向きを計算する方法について説明する。
第1に、予め顔の映っている画像(互いに異なる顔向きの画像が3フレーム以上)から、目、鼻、口端などの特徴点(4点以上)を検出する。
第2に、その特徴点位置座標から、因子分解法(例えば、非特許文献4(C. Tomasi and T. Kanade: Technical Report CMU-CS-91172, CMU (1991))と非特許文献5(International Journal of Computer Vision, 9:2, 137-154 (1992))参照)を用いて特徴点の三次元座標を求める。この特徴点の三次元座標を要素にもつ行列を形状行列Sとして保持する。
第3に、向きを求めたい顔の映っている画像が入力されたら、その画像から特徴点を検出する。
第4に、その特徴点の二次元座標を要素にもつ計測行列Wnewに形状行列Sの一般化逆行列Sを掛ければ、顔の向きを表す運動行列Mnewが求まり、ロール、ピッチ、ヨーなどの回転角がわかる。
運動行列Mnewを計算する様子を図3に示す.この図3では,カメラを固定して顔を動かす様子を相対的に、顔を固定してカメラ向きが変化するとみなしている。特徴点座標は特徴検出部14で検出されたものを利用すればよく、向き自体は行列の掛け算を一度するだけで求まるため、非常に高速な手法であり、フレーム毎に独立に計算できるため誤差が蓄積することもない。
(5)基準点推定部18
基準点推定部18では特徴点検出部14で推定された目尻、目頭点の候補位置を仮の基準点(以下、推定基準点という)とする。本実施形態は目の輪郭を抽出するため、図4の401の×で表わされる点である。このような基準点を求めるのは、輪郭抽出に必要な初期パラメータだからである。
ここでは、図4に基づいて両瞳位置から目頭目尻の候補位置を所定の方法で決定する。
第1に、求めた特徴点である両瞳中心を結ぶ直線上で、両瞳間の距離Rを計算する。
第2に、求めた両瞳間の距離Rに所定の係数を掛けてdi及びd0を求める。このdi及びd0は、瞳中心から内側及び外側に離れた距離を示し、これらの位置をそれぞれ目頭目尻の候補位置とした推定基準点A、Bとする。
(6)輪郭モデルデータ20
輪郭モデルデータ20について述べる。このデータはコンピュータのハードディスクなどに記憶されている。
本実施形態で扱う輪郭は、目頭、目尻の候補位置を基準として、輪郭生成用のサンプル主成分ベクトルを元に初期輪郭を生成する。その際に用いるサンプル主成分ベクトルが輪郭モデルデータ20に予め計算されて記憶されている。
(6−1)サンプル主成分ベクトルの計算方法
まず、このサンプル主成分ベクトルの計算方法について、左目(向かって右)の場合について説明する。目頭及び目尻点の候補点をサンプル基準点A0(a,a),B0(b,b)とする。サンプル主成分ベクトルの次元をNとするとき、j番目の主成分ベクトルp=(p ,・・・p )を求めることになる。
第1に、サンプル基準点A0、B0を決める。
第2に、サンプル基準点A0、B0の間の距離D0を求める(図5参照)。
第3に、サンプル基準点A0、B0を結ぶ線分を所定の分割数n−1で分割する。
第4に、分割したそれぞれの分割点s(i=1,・・・,2n)において、サンプル基準点A0、B0を結ぶ線分に垂直に図6に示す向きに伸ばした直線が輪郭と交わる点をそれぞれt(i=1,・・・,2n)とする(図6参照)。
第5に、sとtの間の符号付距離をA0、B0間の距離D0で正規化したものをサンプルベクトルのi番目の成分piとする(図7参照)。このときA0からB0の間(上側)についてがi=0,・・・nに、B0からA0の間(下側)i=n+1,・・・N、(但し、s=2n)に対応させる。
第5に、このようなサンプルベクトルに対して、主成分分析を行なう。得られたサンプル主成分ベクトルが先に述べたp=(p ,・・・p )となる。
(6−2)正規化輪郭qの計算方法
この記憶されているサンプル主成分ベクトルから正規化輪郭qを、数1を用いて計算する。正規化輪郭qを計算するのは、初期輪郭を計算するのに必要だからである。
Figure 2005339288
但し、Cは任意に決めた係数である。ここではk番目までの主成分を用いることとする。
(7)初期パラメータ修正部22
初期パラメータ修正部22では、顔向き推定の結果を用いて、基準点推定部18で推定した推定基準点A、Bと、輪郭モデルデータ20に記憶されたデータ(ここではサンプル主成分ベクトルから計算した正規化輪郭ベクトルqを用いる)を初期パラメータとして、この初期パラメータを顔向きに応じて修正して、修正した初期パラメータ(修正基準点A’、B’と正規化輪郭ベクトルq’)を求める。
顔の正面に対する回転角を(θ、φ、ψ)とする。それぞれロール、ヨー、ピッチを表わす。それぞれの角度は顔の場合、ロールは画面内の回転(首を倒す角度)、ヨーは左右の顔向き、ピッチは上下の顔向きである。正規化輪郭は以下の変換によって修正される。但し、ロールに関してはすでに輪郭生成の際に正規化されているため、ここでは用いない。
(7−1)修正正規化輪郭ベクトルq’の計算方法
修正正規化輪郭ベクトルq’の計算方法について説明する。
顔向きに応じて修正すると、修正正規化輪郭ベクトルq’は正規化輪郭qから数2を用いて計算できる。
Figure 2005339288
Fは対象物の3Dモデルによって異なり、一般的に求めるのは難しいが、目の輪郭の場合には以下の近似でも十分である。
ここでFii(φ,ψ)は数3で表わされる。なお、Fは対角行列とする。
Figure 2005339288
(7−2)修正基準点A’、B’の計算方法
推定基準点A’、B’の計算方法について説明する。
推定基準点A=(a,a)の場合について、a=(a,aとする。また、推定基準点Aを顔向きに応じて修正した修正基準点A’=(a’,a’)とし、a’=(a’,a’とする。すると、修正基準点A’のa’は数4によって求まる。
Figure 2005339288
(8)初期輪郭生成部24
初期輪郭生成部24では、初期パラメータ修正部22で修正された修正基準点A’、B’と修正正規化輪郭ベクトルq’を用いて初期輪郭を生成する。
生成方法は、修正基準点A’,B’と、修正正規化輪郭q’を利用して、輪郭モデルデータ20のところで述べた方法と同様に初期輪郭を生成する。
具体的には、次のように行う。
第1に、修正基準点A’、B’に対してその間の距離D’を算出する。
第2に、修正基準点A’、B’をn−1等分した点s’を求める。
第3に、点s’から修正基準点A’、B’に垂直な方向D’q’だけの距離にある点t’を求める。
第4に、点t’を結んだものが初期輪郭となる。
ここでは簡単のために、正規化輪郭ベクトルq’は数1においてk=1、すなわち、サンプル主成分ベクトルのうちの、第一主成分のみから構成されるものを用いることにする。
(9)輪郭抽出部26
輪郭抽出部26では修正された初期輪郭の初期パラメータを用いて正確な輪郭を抽出する。
正確な輪郭を抽出する方法はさまざまな方法が考えられるが、例えば、非特許文献1に表される動的輪郭モデルを用いて、エネルギー最小化により輪郭抽出を行なう。
ここでは初期パラメータの修正基準点A、Bの座標と数1で用いた主成分の係数Cを用いて、初期輪郭が表現される。このように限定されたパラメータの基では、非特許文献6で提案されている瞳輪郭抽出方法を応用することが有効である。この非特許文献6では楕円モデルが用いられているが、その代わりに特徴点座標と主成分係数もしくはそれらの組み合わせを用いれば同様に輪郭が検出可能である。
この方式について簡単に述べる。
第1に、初期パラメータを用いてパターンの正規化を行ない、特徴ベクトルを生成する。正規化方法については例えば、輪郭に沿って周辺を帯状に画素を取り出すといった方法が考えられる。また、予め記憶されているサンプルパラメータに基づいてパターン正規化を行なった特徴量に関して部分空間を生成しておく。この部分空間を「正解部分空間」と呼ぶ。
第2に、サンプルパラメータを所定量変化させたパラメータに関して同様にパターン正規化を行なった特徴量に関して部分空間を生成する。これを「ガイド部分空間」と呼ぶ。
第3に、正解部分空間及びガイド部分空間との類似度を部分空間法によって求める。
第4に、最も類似度が高くなる部分空間について、それが正解であればそこで停止し、次のステップに進む。
第5に、それがガイド部分空間であれば、そのガイド部分空間のパラメータに応じてパラメータ空間内で適切な方向にパラメータを変化させる。
第6に、正解部分空間との類似度が最も高くなるか、もしくは所定の回数繰り返した後、次の処理に移る。
第7に、輪郭に沿ったエッジ強度を求める。エッジ強度に関しては通常の微分フィルタでもよいし、先に述べた分離度を用いるとさらに頑健である。
第8に、そのようにして求めたエッジ強度と正解部分空間との類似度の和が最も高くなるように、パラメータ空間内でさらに探索を行なう。そのようにして求められたパラメータから生成される輪郭が本実施形態で求める輪郭抽出結果である。
(第2の実施形態)
次に、画像処理装置10の第2の実施形態について説明する。本実施形態では唇を検出する。
唇輪郭の場合にも目の輪郭と同様の方法で輪郭抽出を行なう。
特徴点は両口端の2点とする。但し、唇輪郭は目の輪郭に比較して変形度合いが大きいため、パラメータ数は許す変形の度合いによって増加させなければならない。
また、対角行列Fに関しても、回転角の一次変数で表わすのは困難である場合もある。
しかしながら、それは最後に輪郭を抽出する場合のことであり、初期パラメータ修正の段階では、そこまで正確さを求める必要性は少ない。
そこで、ここでは、初期輪郭は目の輪郭と同様、第一主成分のみを用い、実際に輪郭を抽出する際にはパラメータを増やして輪郭抽出を行なう。
(変形例)
本発明は上記各実施形態に限らず、その主旨を逸脱しない限り種々に変更することができる。
(1)変形例1
第1及び第2の実施形態では輪郭を検出する例について述べたが、検出するものは輪郭ではなく、複数個の特徴点の組でもよい。
(2)変形例2
第1及び第2の実施形態で、輪郭モデルは主成分輪郭を用いたが、これに限らず、任意のパラメトリックなモデルを使うことができる。例えばスプライン曲線を用いてもよい。
(3)変形例3
回転角から求められる行列Fとしてここでは対角行列を用いたが、これに限るものではない。
(4)変形例4
回転角から変形する際に、正面からの回転角を用いたが、これに限らず、動画であることを利用して、前フレームからの回転量を基に変換してもよい。こうすることでより正確な初期パラメータ設定が可能となる。
(5)変形例5
サンプル輪郭から輪郭モデルを作成する際に、距離Dでのみ正規化を行なったが、数2で示した変換の逆変換を加えることで、サンプル収集時の顔向きによるデータのばらつきを抑えると、より効果的である。
(6)変形例6
上記実施形態では、顔向きに関して説明したが、他の対象物の場合には、その姿勢に基づいて初期パラメータを修正すればよい。
本発明は、画像から対象物の輪郭を検出する場合に有効であり、例えば、画像中の顔にデジタルメイクを行う場合に、メイクの対象となる顔の輪郭抽出に用いれば、目的の位置にメイクを施すことができる。
第1の実施形態の構成図である。 特徴点位置を表わす図である。 顔向き推定の説明図である。 目輪郭パラメータの説明図である。 目輪郭モデルの説明図1である。 目輪郭モデルの説明図2である。 目輪郭モデルの説明図3である。
符号の説明
12 画像入力部
14 特徴点検出部
16 顔向き推定部
18 基準点推定部
20 輪郭モデルデータ
22 初期パラメータ修正部
24 初期輪郭生成部
26 輪郭抽出部

Claims (8)

  1. 対象物が撮影された画像から前記対象物の輪郭を抽出する画像処理装置において、
    前記画像が入力する画像入力手段と、
    前記入力した画像中から前記対象物の複数の特徴点を検出する特徴点検出手段と、
    前記検出し複数の特徴点から前記対象物の姿勢を表す回転角を推定する姿勢推定手段と、
    前記検出した複数の特徴点から前記対象物の輪郭を検出するための初期パラメータを推定する初期パラメータ推定手段と、
    前記推定した初期パラメータを、前記推定された回転角によって修正する初期パラメータ修正手段と、
    前記修正した初期パラメータを用いて前記対象物の輪郭を生成する輪郭生成手段と、
    を有する
    ことを特徴とする画像処理装置。
  2. 前記画像入力手段には、前記対象物が撮影された動画像が入力し、
    前記特徴点検出手段は、前記入力した動画像の各フレーム毎に前記対象物の複数の特徴点を求め、
    前記姿勢推定手段は、
    前記求めた各フレーム毎の複数の特徴点から因数分解法に基づいて前記各特徴点の三次元座標を求め、
    前記求めた各特徴点の三次元座標を要素に持つ形状行列を求め、
    前記入力した動画像の中で輪郭を求めたい対象物が撮影された画像から検出した複数の特徴点の二次元座標を要素にもつ計測行列を求め、
    前記求めた計測行列と前記求めた形状行列から前記対象物の姿勢を表す運動行列を求め、
    前記運動行列から前記対象物の回転角を求める
    ことを特徴とする請求項1記載の画像処理装置。
  3. 前記初期パラメータ推定手段は、
    前記検出した複数の特徴点から輪郭を抽出するのに必要な基準点を推定し、この推定した基準点を初期パラメータとする
    ことを特徴とする請求項1記載の画像処理装置。
  4. 前記初期パラメータ修正手段は、
    予め記憶されたサンプル主成分ベクトルから正規化輪郭ベクトルを計算し、
    前記計算した正規化輪郭ベクトルと前記推定した基準点を、前記推定した対象物の回転角に基づいて修正して、修正基準点と修正正規化輪郭ベクトルを計算する
    ことを特徴とする請求項3記載の画像処理装置。
  5. 前記輪郭生成手段は、
    前記修正した初期パラメータから初期輪郭を求め、
    前記求めた初期輪郭から最終的な輪郭を求める
    ことを特徴とする請求項1記載の画像処理装置。
  6. 前記求めたい対象物の輪郭が、人物の目の輪郭、または、唇の輪郭であって、前記姿勢は前記人物の顔向きである
    ことを特徴とする請求項1から5のうち少なくとも一項に記載の画像処理装置。
  7. 対象物が撮影された画像から前記対象物の輪郭を抽出する画像処理方法において、
    前記画像が入力する画像入力ステップと、
    前記入力した画像中から前記対象物の複数の特徴点を検出する特徴点検出ステップと、
    前記検出し複数の特徴点から前記対象物の姿勢を表す回転角を推定する姿勢推定ステップと、
    前記検出した複数の特徴点から前記対象物の輪郭を検出するための初期パラメータを推定する初期パラメータ推定ステップと、
    前記推定した初期パラメータを、前記推定された回転角によって修正する初期パラメータ修正ステップと、
    前記修正した初期パラメータを用いて前記対象物の輪郭を生成する輪郭生成ステップと、
    を有する
    ことを特徴とする画像処理方法。
  8. 対象物が撮影された画像から前記対象物の輪郭を抽出する画像処理方法をコンピュータによって実現するプログラムにおいて、
    前記画像が入力する画像入力機能と、
    前記入力した画像中から前記対象物の複数の特徴点を検出する特徴点検出機能と、
    前記検出し複数の特徴点から前記対象物の姿勢を表す回転角を推定する姿勢推定機能と、
    前記検出した複数の特徴点から前記対象物の輪郭を検出するための初期パラメータを推定する初期パラメータ推定機能と、
    前記推定した初期パラメータを、前記推定された回転角によって修正する初期パラメータ修正機能と、
    前記修正した初期パラメータを用いて前記対象物の輪郭を生成する輪郭生成機能と、
    を実現する
    ことを特徴とする画像処理方法のプログラム。
JP2004158352A 2004-05-27 2004-05-27 画像処理装置及びその方法 Pending JP2005339288A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2004158352A JP2005339288A (ja) 2004-05-27 2004-05-27 画像処理装置及びその方法
US11/137,520 US7486825B2 (en) 2004-05-27 2005-05-26 Image processing apparatus and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004158352A JP2005339288A (ja) 2004-05-27 2004-05-27 画像処理装置及びその方法

Publications (1)

Publication Number Publication Date
JP2005339288A true JP2005339288A (ja) 2005-12-08

Family

ID=35425317

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004158352A Pending JP2005339288A (ja) 2004-05-27 2004-05-27 画像処理装置及びその方法

Country Status (2)

Country Link
US (1) US7486825B2 (ja)
JP (1) JP2005339288A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009123101A (ja) * 2007-11-16 2009-06-04 Seiko Epson Corp 顔の画像の向きの推定
US7925105B2 (en) 2006-03-14 2011-04-12 Seiko Epson Corporation Image transfer and motion picture clipping process using outline of image
WO2012169251A1 (ja) 2011-06-07 2012-12-13 オムロン株式会社 画像処理装置、情報生成装置、画像処理方法、情報生成方法、制御プログラムおよび記録媒体
WO2020095529A1 (ja) * 2018-11-09 2020-05-14 株式会社Jvcケンウッド 映像検出装置、映像検出方法および映像検出プログラム
JP2020525953A (ja) * 2018-01-19 2020-08-27 北京市商▲湯▼科技▲開▼▲発▼有限公司Beijing Sensetime Technology Development Co., Ltd. 人体輪郭キーポイントの検出方法、画像処理方法、装置及び機器

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4653606B2 (ja) * 2005-05-23 2011-03-16 株式会社東芝 画像認識装置、方法およびプログラム
US20070183665A1 (en) * 2006-02-06 2007-08-09 Mayumi Yuasa Face feature point detecting device and method
JP4991317B2 (ja) * 2006-02-06 2012-08-01 株式会社東芝 顔特徴点検出装置及びその方法
JP4585471B2 (ja) * 2006-03-07 2010-11-24 株式会社東芝 特徴点検出装置及びその方法
US7848592B2 (en) * 2006-07-31 2010-12-07 Carestream Health, Inc. Image fusion for radiation therapy
US20080187213A1 (en) * 2007-02-06 2008-08-07 Microsoft Corporation Fast Landmark Detection Using Regression Methods
JP4289415B2 (ja) * 2007-03-27 2009-07-01 セイコーエプソン株式会社 画像変形のための画像処理
GB2447976B (en) * 2007-03-30 2011-04-27 Sony Uk Ltd Apparatus and method of image capture
US7940962B2 (en) * 2007-08-03 2011-05-10 Delphi Technologies, Inc. System and method of awareness detection
JP4946730B2 (ja) * 2007-08-27 2012-06-06 ソニー株式会社 顔画像処理装置及び顔画像処理方法、並びにコンピュータ・プログラム
JP2009129165A (ja) * 2007-11-22 2009-06-11 Toshiba Corp 画像処理装置及びその方法
JP5432532B2 (ja) * 2008-01-22 2014-03-05 株式会社 資生堂 化粧方法、化粧シミュレーション装置、及び化粧シミュレーションプログラム
PT106430B (pt) 2012-07-03 2018-08-07 Cesar Augusto Dos Santos Silva Sistema para medição da distância interpupilar usando um dispositivo equipado com um ecrã e uma câmara
US9881203B2 (en) * 2013-08-29 2018-01-30 Nec Corporation Image processing device, image processing method, and program
CN109426767A (zh) * 2017-08-24 2019-03-05 丽宝大数据股份有限公司 眼线描绘指引装置及其方法
JP7039991B2 (ja) * 2017-12-22 2022-03-23 カシオ計算機株式会社 輪郭検出装置、描画装置、輪郭検出方法及び輪郭検出プログラム
CN108985257A (zh) * 2018-08-03 2018-12-11 北京字节跳动网络技术有限公司 用于生成信息的方法和装置

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1992002000A1 (en) * 1990-07-17 1992-02-06 British Telecommunications Public Limited Company A method of processing an image
JP3279913B2 (ja) * 1996-03-18 2002-04-30 株式会社東芝 人物認証装置、特徴点抽出装置及び特徴点抽出方法
US6807290B2 (en) * 2000-03-09 2004-10-19 Microsoft Corporation Rapid computer modeling of faces for animation
AUPQ896000A0 (en) * 2000-07-24 2000-08-17 Seeing Machines Pty Ltd Facial image processing system
JP4564634B2 (ja) * 2000-08-14 2010-10-20 キヤノン株式会社 画像処理方法及び装置並びに記憶媒体
KR100474352B1 (ko) * 2001-05-14 2005-03-08 주식회사 페이스쓰리디 2차원 영상으로부터 3차원 얼굴형상의 획득 시스템 및 방법
JP3822483B2 (ja) 2001-10-31 2006-09-20 株式会社東芝 物体向き計算装置及びその方法
US7239726B2 (en) * 2001-12-12 2007-07-03 Sony Corporation System and method for effectively extracting facial feature information
US7221809B2 (en) * 2001-12-17 2007-05-22 Genex Technologies, Inc. Face recognition system and method
US7286692B2 (en) * 2001-12-27 2007-10-23 Amnart Kanarat Automatic celebrity face matching and attractiveness rating machine
KR100438841B1 (ko) * 2002-04-23 2004-07-05 삼성전자주식회사 이용자 검증 및 데이터 베이스 자동 갱신 방법, 및 이를이용한 얼굴 인식 시스템

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7925105B2 (en) 2006-03-14 2011-04-12 Seiko Epson Corporation Image transfer and motion picture clipping process using outline of image
JP2009123101A (ja) * 2007-11-16 2009-06-04 Seiko Epson Corp 顔の画像の向きの推定
WO2012169251A1 (ja) 2011-06-07 2012-12-13 オムロン株式会社 画像処理装置、情報生成装置、画像処理方法、情報生成方法、制御プログラムおよび記録媒体
US9607209B2 (en) 2011-06-07 2017-03-28 Omron Corporation Image processing device, information generation device, image processing method, information generation method, control program, and recording medium for identifying facial features of an image based on another image
JP2020525953A (ja) * 2018-01-19 2020-08-27 北京市商▲湯▼科技▲開▼▲発▼有限公司Beijing Sensetime Technology Development Co., Ltd. 人体輪郭キーポイントの検出方法、画像処理方法、装置及び機器
US11113560B2 (en) 2018-01-19 2021-09-07 Beijing Sensetime Technology Development Co., Ltd. Body contour key point detection methods, apparatuses, and devices
WO2020095529A1 (ja) * 2018-11-09 2020-05-14 株式会社Jvcケンウッド 映像検出装置、映像検出方法および映像検出プログラム
JP2020077338A (ja) * 2018-11-09 2020-05-21 株式会社Jvcケンウッド 映像検出装置、映像検出方法および映像検出プログラム
JP7107178B2 (ja) 2018-11-09 2022-07-27 株式会社Jvcケンウッド 映像検出装置、映像検出方法および映像検出プログラム

Also Published As

Publication number Publication date
US20050265604A1 (en) 2005-12-01
US7486825B2 (en) 2009-02-03

Similar Documents

Publication Publication Date Title
JP2005339288A (ja) 画像処理装置及びその方法
JP4950787B2 (ja) 画像処理装置及びその方法
EP1677250B9 (en) Image collation system and image collation method
JP7094702B2 (ja) 画像処理装置及びその方法、プログラム
EP2710557B1 (en) Fast articulated motion tracking
US20130051626A1 (en) Method And Apparatus For Object Pose Estimation
US20110091115A1 (en) Feature point positioning apparatus, image recognition apparatus, processing method thereof and computer-readable storage medium
CN110674744A (zh) 一种年龄识别方法、装置及电子设备
JP5791373B2 (ja) 特徴点位置決定装置、特徴点位置決定方法及びプログラム
WO2022018811A1 (ja) 被写体の3次元姿勢推定装置、3次元姿勢推定方法、及びプログラム
JP2000268161A (ja) 実時間表情検出装置
CN110826495A (zh) 基于面部朝向的身体左右肢体一致性跟踪判别方法及系统
CN108694348B (zh) 一种基于自然特征的跟踪注册方法及装置
JP7464512B2 (ja) 三次元人物姿勢推定装置、方法およびプログラム
KR101732807B1 (ko) 3차원 얼굴 비대칭 분석 장치 및 방법
Oka et al. Real-time modeling of face deformation for 3D head pose estimation
JP7326965B2 (ja) 画像処理装置、画像処理プログラム、及び画像処理方法
Lefevre et al. Structure and appearance features for robust 3d facial actions tracking
KR101844367B1 (ko) 부분 포즈 추정에 의하여 개략적인 전체 초기설정을 사용하는 머리 포즈 추정 방법 및 장치
JP5688514B2 (ja) 視線計測システム、方法およびプログラム
Nguyen et al. Non-planar infrared-visible registration for uncalibrated stereo pairs
CN111160208A (zh) 基于多帧点云融合与可变模型的三维人脸超分辨率方法
KR20090042558A (ko) Aam을 이용한 얼굴검출 방법 및 장치
Martins et al. Single view head pose estimation
Yang et al. VR-Face: An Operator Assisted Real-Time Face Tracking System

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050902

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080822

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080902

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081104

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090106