JP2015522200A - 人顔特徴点の位置決め方法、装置及び記憶媒体 - Google Patents
人顔特徴点の位置決め方法、装置及び記憶媒体 Download PDFInfo
- Publication number
- JP2015522200A JP2015522200A JP2015521969A JP2015521969A JP2015522200A JP 2015522200 A JP2015522200 A JP 2015522200A JP 2015521969 A JP2015521969 A JP 2015521969A JP 2015521969 A JP2015521969 A JP 2015521969A JP 2015522200 A JP2015522200 A JP 2015522200A
- Authority
- JP
- Japan
- Prior art keywords
- human face
- human
- positioning
- fitting
- feature point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/165—Detection; Localisation; Normalisation using facial parts and geometric relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/243—Classification techniques relating to the number of classes
- G06F18/2431—Multiple classes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/193—Preprocessing; Feature extraction
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Geometry (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Ophthalmology & Optometry (AREA)
- Image Analysis (AREA)
Abstract
Description
人顔検出と人眼のマッチングを組み合わせて人顔位置の予備位置決めをし、且つ予備位置決め情報を取得するステップと、
予備位置決め情報に基づいて人顔特徴点のフィッティングを行うステップと、
フィッティング結果に基づいて人顔特徴点の位置決めを完成するステップと、を含む人顔特徴点の位置決め方法。
人顔検出と人眼のマッチングを組み合わせて人顔位置を予備位置決めし、且つ予備位置決め情報を取得するステップと、
予備位置決め情報に基づいて人顔特徴点のフィッティングを行うステップと、
フィッティング結果に基づいて人顔特徴点の位置決めを完成するステップと、を含む。
S100は人顔検出と人眼のマッチングを組み合わせて人顔位置を予備位置決めするステップであり、
S100において、本発明実施形態はカスケード型Harr特徴分類器を用いて人顔を検出し、人顔の初期位置情報と初期の人顔の大きさの情報sを取得すると共に、人眼のマッチングアルゴリズムを用いて双眼の位置情報をマッチングするため、人顔検出方法のみを使用するのよりも位置決めがより精確である。
S110において、AAM(アクティブアピアランスモデル)の特徴がグレイスケール、勾配、エッジ及び角点等の特徴を含み、本発明実施形態はAAM手法と、グレイスケール値、x、y軸方向の勾配値、エッジ及び角点等の複数の特徴とを組み合わせて、AAMモデルのアピアランスモデルとすることにより、人顔特徴点のフィッティング位置をより精確にし、本発明実施形態において、Inverse Compositional(逆合成)アルゴリズムを使用して人顔特徴点のフィッティングを行う。
roi_height=α・eye_height、
roi_width=β・eye_width、
α、βがROI領域の大きさ制御係数であり、本技術方案ではα=3、β=2である。
S200はビデオを入力し、前記ビデオにおいて対応する人顔画像情報を取得するステップであり、
S210は、1つ前のフレーム画像において人眼を検出したか否かを判断し、YESであれば、S220を実行し、NOであれば、S240を実行するステップであり、
S210において、本発明実施形態が人顔検出すると共に、人眼のマッチングアルゴリズムを使用して人眼のマッチングを行い、人顔検出方法のみを使用するよりも位置決めがより精確である。
S220において、ROI領域の確定方法としては、ROI領域の中心と人眼の中心が重なり、eye_height、eye_widthがそれぞれ人眼の高さと幅であり、roi_height、roi_widthがそれぞれ人眼探索ROI領域の高さと幅であり、詳細は図3を併せて参照し、図3は本発明の人眼探索ROI領域の模式図である。中間にある比較的小さなフレーム内が左眼のピクチャであり、外部の比較的大きなフレーム内が左眼探索ROI領域であり、その中で、
roi_height=α・eye_height、
roi_width=β・eye_width、
α、βはROI領域の大きさ制御係数であり、本発明実施形態ではα=3、β=2であり、人眼のマッチングアルゴリズムは具体的に、下記の通りであり、T(x,y)を人眼画像とし、I(x,y)を探索ROI領域とし、R(x,y)をマッチング結果画像とし、
であり、
その中で、マッチング結果画像R(x,y)は、最大値である時、ROI領域I(x,y)と人眼画像T(x,y)においてベストマッチを取った位置である。
S240は人顔検出を行い、且つ人顔を検出したか否かを判断し、YESであれば、S250を実行し、NOであれば、改めてS200を実行するステップであり、
S240において、本発明実施形態はカスケード型Harr特徴分類器を使用して人顔を検出し、人顔の初期位置情報と初期の人顔の大きさの情報を取得する。
S250において、初期位置と大きさの情報を取得した後、グレイスケール値、人顔の初期位置x、y軸方向の勾配値、エッジ及び角点等の特徴を組み合わせてAAMのアピアランスモデルとし、人顔特徴点をフィッティングし、人顔特徴点のフィッティング位置をもっと精確的にする。アピアランスモデルはパラメータ化されたモデルであり、主成分分析により可変性対象の形状とテクスチャに統一モデリングを行い、且つ2ノルム最小化戦略を使用して未知対象をマッチングする。その中、人顔特徴点のASM(Active Shape Model、動的形状モデル)がベクトルS={x1,y1…xn,yn}によって表示されることができ、xi、yiが第i個の点の位置座標であり、本発明実施形態において、82個の人顔ラベルポイントを用い、詳細は図4を参照し、図4は本発明の人顔特徴点のラベルポイントの模式図である。AAMモデルをトレーニングして、一定量の人顔の表情画像を収集し、図4に示すように82個の人顔の特徴点の位置座標を手動的にラベルして、人顔特徴点の座標ベクトルS=(x1,y1,x2,y2…x82,y82)を得て、人顔特徴点の座標ベクトルにプロクラステス・アルゴリズムに基づいて幾何アライメントを行い、次にトレーニングデータにPCA(principle components analysis、主成分分析)学習を行って、
を得て、
その中で、S0は平均形状であり、Siは形状のPCAベースであり、piはPCAベースの係数であり、フィッティング過程で異なったpiが計算されると相応なASM形状モデルのベクトルSを得ることができる。、詳細は図5を併せて参照。図5は本発明の人顔特徴点形状モデルのモデリング方法のフローチャートである。本発明の人顔特徴点形状モデルのモデリング方法は下記ステップS251〜S258を含み、
S251において、すべての人顔特徴点の座標ベクトルに対し、平均値を除去し、重心座標系に移し、
S252において、1つのサンプルを初期の平均形状として選定し、且つ寸法を
であるように校正し、
S253において、初期推定の平均形状を
と表記し、且つこれを参照座標系とし、
S254において、すべてのトレーニングサンプルの特徴点座標ベクトルをアフィン変換によってカレントの平均形状に校正し、
S255において、校正されたすべてのサンプルに対して平均形状を改めて計算し、
S256において、カレントの平均形状を
に校正し、且つ
であるようにさせ、
S257において、校正した後の平均形状が所定閾値より大きいか否かを判断し、YESであれば、改めてS254を実行し、NOであれば、S258を実行し、
S258において、PCA方法によって位置を合わせたサンプルに対し、統計形状モデリングを行って、
を得て、
ASM形状モデルが囲む領域内の点を平均形状にマッピングし、AAMアピアランスモデルAを得、マッピングアルゴリズムは区分的アフィンマッピングアルゴリズムを用いてもよい。同様に、AAMアピアランスモデルにPCA学習を行って、
を得ることができ、
その中で、A0は平均アピアランスであり、AiはAAMアピアランスモデルのPCAベースであり、λiはPCAベースの係数である。
Agray(x,y)=I(x,y)であることであり、
x軸y軸勾配値の計算方法は、sobel演算子(Sobel operator/ソーベル演算子、画像処理中の演算子の1種であり、主にエッジ検出に用いられる)を使用してx軸y軸勾配値を計算することであり、
x軸y軸勾配値のアピアランスモデル値Adx及びAdyは以下の公式で取得され、
Adx(x,y)=Gx(x,y)2、
Ady(x,y)=Gy(x,y)2、
エッジ角点特徴Aedge_and_cornerの計算方法は、x軸y軸方向の勾配値を得た後、
Edgexx(x,y)=Gx(x,y)・Gx(x,y)、
Edgeyy(x,y)=Gy(x,y)・Gy(x,y)、
Edgexy(x,y)=Gx(x,y)・Gy(x,y)とし、
次に3x3のガウシアン窓を用いてそれぞれEdgexx(x,y)、Edgeyy(x,y) 、Edgexy(x,y)にフィルタリングを行って、
を得て、
以下の公式によってエッジと角点特徴を算出することができる、
グレイスケール値、x軸y軸方向の勾配値、エッジ及び角点等の特徴は同一スケールで表すものではないため、計算された3種の特徴値を同一スケールに正規化する必要があり、本発明の実施形態において、シグモイド方法を用いて特徴値正規化を行い、具体的には、
であり、
正規化した後、3種類の特徴がすべて同一スケールにあり、各トレーニングサンプルが3種類の特徴及び4つの特徴値に対応し、4つの特徴値のAAMアピアランスモデルを得た後、PCAによって学習し、
を得て、
本発明の実施形態において、Inverse Compositional(逆合成アルゴリズム、本分野において常用されるアルゴリズムである)アルゴリズムを使用して人顔の特徴点にフィッティングを行い、具体的には、人顔検出又は人眼のマッチングアルゴリズムに基づいて得られた初期の4つのグローバルアフィン変換パラメータqを得て、入力画像I(x,y)を変換し、I(N(W(x|p)|q))を得、Wは基本形状S0からカレント形状Sまでの区分的アフィンマッピングと定義され、Nは2次元相似変換であり、qは相似変換パラメータであり、そうすると、
となり、その中、q=(a,b,tx,ty)は、人眼のマッチングアルゴリズムによって算出されることができ、変換された後の画像に3種類の特徴アピアランスモデルを計算してA(I(N(W(x|p))|q))を得て、アピアランスモデル差値A(I(N(W(x|p))|q))−A0(x))を計算し、
を計算し、
その中で、HはHessian行列(ヘッセ行列は、自変数がベクトルである実数値関数の二階偏導関数からなる正方行列である)であり、SDは最急降下図であり、モデルをトレーニングした時予め計算されており、以下の公式によって算出するものであり、
形状パラメータである
を
になるまで更新することを含む。
S270において、フィッティング結果に基づいて人顔特徴点の位置決めを完成させ、且つ人顔特徴点に基づいて人眼画像を取得し、1つ前のフレーム画像内の人眼画像をテンプレートとして人眼ROI領域内で1つ後のフレーム画像内の双眼の位置をマッチングする。
人眼検出ユニットは1つ前のフレーム画像が人眼を検出したか否かを判断することに用いられ、YESであれば、人眼ROI(Region Of Interestの略、画像処理用語の「注目領域」である)領域内で探索を行って人眼の位置情報をマッチングし、NOであれば、人顔検出ユニットによって人顔検出を行い、本発明実施形態において人顔検出すると共に、人眼のマッチングアルゴリズムを使用して人眼のマッチングを行い、人顔検出方法のみを使用するよりも位置決めがより精確であり、ROI領域確定方法としては、ROI領域の中心と人眼の中心が重なり、eye_height、eye_widthがそれぞれ人眼の高さと幅であり、roi_height、roi_widthがそれぞれ人眼探索ROI領域の高さと幅であり、詳細は図3を併せて参照し、図3は本発明の人眼探索ROI領域の模式図である。中間にある比較的小さなフレーム内が左眼のピクチャであり、外部の比較的大きなフレーム内が左眼探索ROI領域であり、そのうち、
roi_height=α・eye_height、
roi_width=β・eye_width、
α、βはROI領域の大きさ制御係数であり、本発明の実施形態ではα=3、β=2であり、人眼のマッチングアルゴリズムは具体的に下記の通りであり、T(x,y)を人眼画像とし、I(x,y)を探索ROI領域とし、R(x,y)をマッチング結果画像とし、
であり、
その中で、マッチング結果画像R(x,y)は、最大値である時、ROI領域I(x,y)と人眼画像T(x,y)が最もマッチングする位置である。
人眼フィッティングユニットは人眼の初期位置情報に基づいてAAM人顔特徴点のフィッティングを行い、且つフィッティング判断ユニットによってフィッティングが成功したか否かを判断することに用いられ、
人顔フィッティングユニットは人顔の初期位置と大きさの情報に基づいてグレイスケール値、人顔の初期位置x、y軸方向の勾配値、エッジ及び角点等の特徴を組み合わせてAAM人顔特徴点のフィッティングを行い、且つフィッティング判断ユニットによってフィッティングが成功したか否かを判断することに用いられ、その中で、初期位置と大きさの情報を取得した後、グレイスケール値、人顔の初期位置x、y軸方向の勾配値、エッジ及び角点等の特徴を組み合わせてAAMのアピアランスモデルとし、人顔特徴点をフィッティングし、人顔特徴点のフィッティング位置をさらに精確にする。その中で、人顔特徴点のASM(Active Shape Model、動的形状モデル)はベクトルS={x1,y1…xn,yn}によって表示されることができ、xi、yiは第i個の点の位置座標であり、本発明実施形態において、82個の人顔のラベルポイントを用いる。詳細は図4を参照ください。図4は本発明の人顔特徴点のラベルポイントの模式図である。ΑΑΜモデルをトレーニングして、一定量の人顔の表情画像を収集し、図4に示すように82個の人顔特徴点の位置座標を手動でラベルして、人顔特徴点の座標ベクトルS=(x1,y1,x2,y2…x82,y82)を得て、人顔特徴点の座標ベクトルにプロクラステスアルゴリズムを行って幾何アライメントし、次にトレーニングデータにPCA(principle components analysis、主成分分析)学習を行い、
を得て、
その中で、S0は平均形状であり、Siは形状のPCAベースであり、piはPCAベースの係数であり、フィッティング過程において、異なったpiが算出されると相応な形状モデルのベクトルSが得られ、本発明の人顔特徴点形状モデルのモデリングは具体的に、すべての人顔特徴点の座標ベクトルに対し、平均値を除去し、重心座標系下に移すことと、1つのサンプルを初期の平均形状として選択し、且つ寸法を
であるように校正することと、初期推定の平均形状を
と表記し、且つそれを参照座標系とすることと、すべてのトレーニングサンプルの特徴点座標ベクトルをアフィン変換によってカレントの平均形状に校正することと、校正されたすべてのサンプルに対して平均形状を改めて計算することと、カレントの平均形状を
に校正し、且つ
であるようにさせることと、校正した後の平均形状が所定閾値より大きいか否かを判断し、YESであれば、すべてのトレーニングサンプルの特徴点座標ベクトルを改めて変換校正し、NOであれば、PCA方法によってアライメントした後のサンプルに統計形状モデリングを行って、
を得て、
形状モデルが囲む領域内の点を平均形状にマッピングし、アピアランスモデルAを得、その中、マッピングアルゴリズムは区分的アフィンマッピングアルゴリズムを用いてもよいことと、同様に、アピアランスモデルにPCA学習を行うことができ、
を得て、
その中、A0は平均アピアランスであり、AiはアピアランスモデルのPCAベースであり、λiはPCAベースの係数であることとを含む。
Agray(x,y)=I(x,y)であることであり、
x軸y軸勾配値の計算方法としては、sobel演算子(Sobel operator/ソーベル演算子、画像処理中の演算子の1種であり、主にエッジ検出に用いられる)を使用してx軸y軸勾配値を計算することであり、
x軸y軸勾配値のアピアランスモデル値Adx及びAdyは以下の公式で取得され、
Adx(x,y)=Gx(x,y)2、
Ady(x,y)=Gy(x,y)2、
エッジ角点特徴Aedge_and_cornerの計算方法としては、x軸y軸方向の勾配値を得た後、
Edgexx(x,y)=Gx(x,y)・Gx(x,y)
Edgeyy(x,y)=Gy(x,y)・Gy(x,y)、
Edgexy(x,y)=Gx(x,y)・Gy(x,y)と設置し、
次に3x3のガウシアン窓を用いてそれぞれEdgexx(x,y)、Edgeyy(x,y)、Edgexy(x,y)にフィルタリングを行って、
を得て、
以下の公式によってエッジと角点特徴を算出し、
グレイスケール値、x軸y軸方向の勾配値、エッジ及び角点等の特徴が同一スケールでないため、計算された後、3つの特徴値を同一スケールに正規化する必要があり、本発明実施形態において、シグモイド方法を用いて特徴値正規化を行い、具体的には、
であり、
正規化された後、3種類の特徴がすべて同一スケールにあり、各トレーニングサンプルは3種類の特徴及び4つの特徴値に対応し、4つの特徴値のアピアランスモデルを得た後、PCAによって学習し、
を得、
本発明実施形態において、Inverse Compositional(すなわち逆合成アルゴリズム、本分野において多用されるアルゴリズムである)アルゴリズムを使用して人顔特徴点にフィッティングを行い、具体的には、人顔検出又は人眼のマッチングアルゴリズムに基づいて初期の4つのグローバルアフィン変換パラメータqが得られ、入力画像I(x,y)を変換し、I(N(W(x|p)|q))を得て、Wは基本形状S0からカレント形状Sまでの区分的アフィンマッピングと定義され、Nは2次元相似変換であり、qは相似変換パラメータであり、
であり、その中、q=(a,b,tx,ty)は人眼のマッチングアルゴリズムによって算出されることができ、変換された後の画像に3種類の特徴アピアランスモデルを計算してA(I(N(W(x|p))|q))を得て、アピアランスモデル差値A(I(N(W(x|p))|q))−A0(x)を計算し、
を計算し、その中で、HはHessian行列(ヘッセ行列は、自変数がベクトルである実数値関数の二階偏導関数からなる正方行列である)、SDは最急降下図であり、モデルをトレーニングした時予め計算されており、以下の公式によって算出し、
形状パラメータの
を
になるまで更新することを含む。
特徴点位置決めモジュールはフィッティング結果に基づいて人顔特徴点の位置決めを完成させ、且つ人顔特徴点に基づいて人眼画像を取得し、人眼検出ユニットによって1つ前のフレーム画像内の人眼画像をテンプレートとして人眼ROI領域内で1つ後のフレーム画像中の双眼の位置をマッチングすることに用いられ、その中、人顔特徴点の位置に基づいて双眼の画像を得ることができ、1つ後のフレーム画像において、1つ後のフレーム画像の人眼探索ROI領域を確定し、且つROI領域内で1つ前のフレーム画像内の人眼画像をテンプレートとして、画像マッチングアルゴリズムを使用して、現フレーム中の双眼の位置を得る。
Claims (14)
- 人顔特徴点の位置決め方法であって、
人顔検出と人眼のマッチングを組み合わせて人顔の位置の予備位置決めをし、且つ予備位置決め情報を取得するステップと、
予備位置決め情報に基づいて人顔特徴点のフィッティングを行うステップと、
フィッティング結果に基づいて人顔特徴点の位置決めを完成するステップと、を含むことを特徴とする人顔特徴点の位置決め方法。 - 人顔検出と人眼のマッチングを組み合わせて人顔の位置の予備位置決めをし、且つ予備位置決め情報を取得するステップは具体的に、カスケード型特徴分類器によって人顔を検出し、人顔の初期位置情報と初期の人顔の大きさの情報を取得することであることを特徴とする請求項1に記載の人顔特徴点の位置決め方法。
- 人顔検出技術と人眼のマッチング技術を組み合わせて人顔の位置を予備位置決めをし、且つ予備位置決め情報を取得する前記ステップの前に、ビデオを入力し、前記ビデオにおける対応の人顔画像情報を取得することをさらに含み、前記予備位置決めは双眼の初期位置、人顔の初期位置及び人顔の初期大きさを取得することを含むことを特徴とする請求項1又は2に記載の人顔特徴点の位置決め方法。
- 前記の人顔検出と人眼のマッチングを組み合わせて人顔の位置を位置決めすることは、1つ前のフレーム画像で人眼を検出したか否かを判断し、YESであれば、人眼のマッチング技術によって予備位置決めを行い、NOであれば、人顔検出位置決めを行うことを含むことを特徴とする請求項1に記載の人顔特徴点の位置決め方法。
- 前記の人眼のマッチングによって人顔の位置の予備位置決めをすることは、人眼の注目領域ROI内で探索し、人眼の初期位置情報をマッチングし、人眼の初期位置情報に基づいて人顔特徴点のフィッティングを行うことを含むことを特徴とする請求項1又は4に記載の人顔特徴点の位置決め方法。
- 前記の人顔検出位置決めを行うことは、人顔検出を行い、且つ人顔を検出したか否かを判断し、YESであれば、人顔の初期位置情報と初期の人顔の大きさの情報を取得し、且つ人顔の初期位置情報と大きさの情報に基づいてグレイスケール値、人顔の初期位置x、y軸方向の勾配値、エッジ及び角点特徴を組み合わせて人顔特徴点のフィッティングを行い、NOであれば、ビデオを改めて入力することを含むことを特徴とする請求項4に記載の人顔特徴点の位置決め方法。
- 前記人顔特徴点のフィッティングを行った後で、人顔特徴点のフィッティングが成功したか否かを判断し、YESであれば、フィッティング結果に基づいて人顔特徴点の位置決めを完成し、且つ人顔特徴点に基づいて人眼画像を取得し、1つ前のフレーム画像内の人眼画像をテンプレートとして人眼の注目領域内で1つ後のフレーム画像内の双眼の位置をマッチングし、NOであれば、ビデオを改めて入力することをさらに含むことを特徴とする請求項3に記載の人顔特徴点の位置決め方法。
- 人顔特徴点の位置決め装置であって、人顔検出モジュール、特徴点フィッティングモジュール及び特徴点位置決めモジュールを備え、前記人顔検出モジュールは人顔検出技術と人眼のマッチング技術によって人顔位置を予備位置決めすることに用いられ、前記特徴点フィッティングモジュールは予備位置決め情報に基づいて人顔特徴点のフィッティングを行うことに用いられ、前記特徴点位置決めモジュールはフィッティング結果に基づいて人顔特徴点の位置決めを完成することを特徴とする人顔特徴点の位置決め装置。
- 前記人顔検出モジュールが人顔検出技術によって人顔位置を予備位置決めすることは、カスケード型特徴分類器によって人顔を検出し、人顔の初期位置情報と初期の人顔の大きさの情報を取得することであることを特徴とする請求項8に記載の人顔特徴点の位置決め装置。
- 前記人顔検出モジュールは人眼検出ユニットと人顔検出ユニットを備え、
前記人眼検出ユニットは1つ前のフレーム画像で人眼を検出したか否かを判断することに用いられ、YESであれば、人眼の注目領域内で探索を行って、人眼の位置情報をマッチングし、NOであれば、人顔検出ユニットによって人顔検出を行い、
前記人顔検出ユニットは人顔検出を行い、且つ人顔を検出したか否かを判断することに用いられ、YESであれば、人顔の初期位置情報と初期の人顔の大きさの情報を取得し、NOであれば、ビデオを改めて入力することを特徴とする請求項8又は9に記載の人顔特徴点の位置決め装置。 - 前記特徴点フィッティングモジュールは人眼フィッティングユニット及び人顔フィッティングユニットを備え、
前記人眼フィッティングユニットは人眼の初期位置情報に基づいて人顔特徴点のフィッティングを行い、且つフィッティング判断ユニットによってフィッティングが成功したか否かを判断することに用いられ、
前記人顔フィッティングユニットは人顔の初期位置と大きさの情報に基づいてグレイスケール値、人顔の初期位置x、y軸方向の勾配値、エッジ及び角点特徴を組み合わせて人顔特徴点のフィッティングを行い、且つフィッティング判断ユニットによってフィッティングが成功したか否かを判断することに用いられることを特徴とする請求項8又は9に記載の人顔特徴点の位置決め装置。 - 前記特徴点フィッティングモジュールは、フィッティング判断ユニットをさらに備え、
前記フィッティング判断ユニットは人顔特徴点のフィッティングが成功したか否かを判断することに用いられ、YESであれば、特徴点位置決めモジュールによって人顔特徴点を位置決めし、NOであれば、ビデオを改めて入力することを特徴とする請求項11に記載の人顔特徴点の位置決め装置。 - 前記特徴点位置決めモジュールはフィッティング結果に基づいて人顔特徴点の位置決めを完成させ、且つ人顔特徴点に基づいて人眼画像を取得し、人眼検出ユニットによって1つ前のフレーム画像中の人眼画像をテンプレートとして人眼の注目領域内で1つ後のフレーム画像中の双眼の位置をマッチングすることに用いられることを特徴とする請求項11に記載の人顔特徴点の位置決め装置。
- 人顔特徴点の位置決め方法を実行することに用いられるコンピュータ実行可能な指令を含む1つ又は複数個の記憶媒体であって、該人顔特徴点の位置決め方法は、
人顔検出と人眼のマッチングを組み合わせて人顔位置を予備位置決めし、且つ予備位置決め情報を取得するステップと、
予備位置決め情報に基づいて人顔特徴点のフィッティングを行うステップと、
フィッティング結果に基づいて人顔特徴点の位置決めを完成するステップと、を含むことを特徴とするコンピュータ実行可能な指令を含む1つ又は複数個の記憶媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210309313.6 | 2012-08-28 | ||
CN201210309313.6A CN103632129A (zh) | 2012-08-28 | 2012-08-28 | 一种人脸特征点定位方法及装置 |
PCT/CN2013/080526 WO2014032496A1 (zh) | 2012-08-28 | 2013-07-31 | 一种人脸特征点定位方法、装置及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015522200A true JP2015522200A (ja) | 2015-08-03 |
Family
ID=50182463
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015521969A Pending JP2015522200A (ja) | 2012-08-28 | 2013-07-31 | 人顔特徴点の位置決め方法、装置及び記憶媒体 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20150302240A1 (ja) |
EP (1) | EP2863335A4 (ja) |
JP (1) | JP2015522200A (ja) |
CN (1) | CN103632129A (ja) |
WO (1) | WO2014032496A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101923405B1 (ko) * | 2018-01-09 | 2018-11-29 | 전남대학교산학협력단 | 기하학적 변환이 적용된 aam을 이용한 사람의 얼굴 검출 및 모델링시스템 |
Families Citing this family (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9396539B2 (en) * | 2010-04-02 | 2016-07-19 | Nokia Technologies Oy | Methods and apparatuses for face detection |
CN103888680B (zh) * | 2014-03-28 | 2017-07-11 | 中国科学技术大学 | 一种摄像头曝光时间的调节方法 |
FR3021443B1 (fr) * | 2014-05-20 | 2017-10-13 | Essilor Int | Procede de construction d'un modele du visage d'un individu, procede et dispositif d'analyse de posture utilisant un tel modele |
CN104318264B (zh) * | 2014-10-14 | 2018-02-02 | 武汉科技大学 | 一种基于人眼优先拟合的人脸特征点跟踪方法 |
CN105868767B (zh) * | 2015-01-19 | 2020-02-18 | 阿里巴巴集团控股有限公司 | 人脸特征点定位方法和装置 |
CN104966046B (zh) * | 2015-05-20 | 2017-07-21 | 腾讯科技(深圳)有限公司 | 一种人脸关键点位定位结果的评估方法,及评估装置 |
CN105354531B (zh) * | 2015-09-22 | 2019-05-21 | 成都通甲优博科技有限责任公司 | 一种面部关键点的标注方法 |
CN105718885B (zh) * | 2016-01-20 | 2018-11-09 | 南京邮电大学 | 一种人脸特征点跟踪方法 |
CN105718913B (zh) * | 2016-01-26 | 2018-11-02 | 浙江捷尚视觉科技股份有限公司 | 一种鲁棒的人脸特征点定位方法 |
CN105938551A (zh) * | 2016-06-28 | 2016-09-14 | 深圳市唯特视科技有限公司 | 一种基于视频数据的人脸特定区域提取方法 |
CN106228113A (zh) * | 2016-07-12 | 2016-12-14 | 电子科技大学 | 基于aam的人脸特征点快速对齐方法 |
CN106446766A (zh) * | 2016-07-25 | 2017-02-22 | 浙江工业大学 | 一种视频中人脸特征点的稳定检测方法 |
CN106125941B (zh) * | 2016-08-12 | 2023-03-10 | 东南大学 | 多设备切换控制装置及多设备控制系统 |
US10521892B2 (en) * | 2016-08-31 | 2019-12-31 | Adobe Inc. | Image lighting transfer via multi-dimensional histogram matching |
CN106548521A (zh) * | 2016-11-24 | 2017-03-29 | 北京三体高创科技有限公司 | 一种联合2d+3d主动外观模型的人脸对齐方法及系统 |
US10860841B2 (en) | 2016-12-29 | 2020-12-08 | Samsung Electronics Co., Ltd. | Facial expression image processing method and apparatus |
CN108961149B (zh) * | 2017-05-27 | 2022-01-07 | 北京旷视科技有限公司 | 图像处理方法、装置和系统及存储介质 |
CN107403145B (zh) * | 2017-07-14 | 2021-03-09 | 北京小米移动软件有限公司 | 图像特征点定位方法及装置 |
CN107578000B (zh) * | 2017-08-25 | 2023-10-31 | 百度在线网络技术(北京)有限公司 | 用于处理图像的方法及装置 |
KR101977174B1 (ko) | 2017-09-13 | 2019-05-10 | 이재준 | 영상 분석 방법, 장치 및 컴퓨터 프로그램 |
CN108765551B (zh) * | 2018-05-15 | 2022-02-01 | 福建省天奕网络科技有限公司 | 一种实现3d模型捏脸的方法及终端 |
CN110738082B (zh) * | 2018-07-20 | 2023-01-24 | 北京陌陌信息技术有限公司 | 人脸关键点的定位方法、装置、设备及介质 |
CN111259711A (zh) * | 2018-12-03 | 2020-06-09 | 北京嘀嘀无限科技发展有限公司 | 一种识别唇动的方法和系统 |
CN109919081A (zh) * | 2019-03-04 | 2019-06-21 | 司法鉴定科学研究院 | 一种自动化辅助人像特征标识方法 |
CN109902635A (zh) * | 2019-03-04 | 2019-06-18 | 司法鉴定科学研究院 | 一种基于示例图形的人像特征标识方法 |
CN110070083A (zh) * | 2019-04-24 | 2019-07-30 | 深圳市微埃智能科技有限公司 | 图像处理方法、装置、电子设备和计算机可读存储介质 |
CN110472674B (zh) * | 2019-07-31 | 2023-07-18 | 苏州中科全象智能科技有限公司 | 一种基于边缘和梯度特征的模板匹配算法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2006051607A1 (ja) * | 2004-11-12 | 2008-05-29 | オムロン株式会社 | 顔特徴点検出装置、特徴点検出装置 |
JP2010186288A (ja) * | 2009-02-12 | 2010-08-26 | Seiko Epson Corp | 顔画像の所定のテクスチャー特徴量を変更する画像処理 |
US20110007174A1 (en) * | 2009-05-20 | 2011-01-13 | Fotonation Ireland Limited | Identifying Facial Expressions in Acquired Digital Images |
JP2011086051A (ja) * | 2009-10-14 | 2011-04-28 | Fujitsu Ltd | 眼位置認識装置 |
JP2012022412A (ja) * | 2010-07-12 | 2012-02-02 | Canon Inc | 画像処理装置、画像処理方法、及びプログラム |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5774591A (en) * | 1995-12-15 | 1998-06-30 | Xerox Corporation | Apparatus and method for recognizing facial expressions and facial gestures in a sequence of images |
US7599549B2 (en) * | 2004-12-22 | 2009-10-06 | Fujifilm Corporation | Image processing method, image processing apparatus, and computer readable medium, in which an image processing program is recorded |
CN1687957A (zh) * | 2005-06-02 | 2005-10-26 | 上海交通大学 | 结合局部搜索和活动外观模型的人脸特征点定位方法 |
CN1731416A (zh) * | 2005-08-04 | 2006-02-08 | 上海交通大学 | 快速且精确的人脸特征点定位方法 |
US7643659B2 (en) * | 2005-12-31 | 2010-01-05 | Arcsoft, Inc. | Facial feature detection on mobile devices |
CN100397410C (zh) * | 2005-12-31 | 2008-06-25 | 北京中星微电子有限公司 | 基于视频的面部表情识别方法及装置 |
CN100561503C (zh) * | 2007-12-28 | 2009-11-18 | 北京中星微电子有限公司 | 一种人脸眼角与嘴角定位与跟踪的方法及装置 |
CN101339606B (zh) * | 2008-08-14 | 2011-10-12 | 北京中星微电子有限公司 | 一种人脸关键器官外轮廓特征点定位与跟踪的方法及装置 |
-
2012
- 2012-08-28 CN CN201210309313.6A patent/CN103632129A/zh active Pending
-
2013
- 2013-07-31 JP JP2015521969A patent/JP2015522200A/ja active Pending
- 2013-07-31 US US14/417,909 patent/US20150302240A1/en not_active Abandoned
- 2013-07-31 WO PCT/CN2013/080526 patent/WO2014032496A1/zh active Application Filing
- 2013-07-31 EP EP13832559.2A patent/EP2863335A4/en not_active Ceased
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2006051607A1 (ja) * | 2004-11-12 | 2008-05-29 | オムロン株式会社 | 顔特徴点検出装置、特徴点検出装置 |
JP2010186288A (ja) * | 2009-02-12 | 2010-08-26 | Seiko Epson Corp | 顔画像の所定のテクスチャー特徴量を変更する画像処理 |
US20110007174A1 (en) * | 2009-05-20 | 2011-01-13 | Fotonation Ireland Limited | Identifying Facial Expressions in Acquired Digital Images |
JP2011086051A (ja) * | 2009-10-14 | 2011-04-28 | Fujitsu Ltd | 眼位置認識装置 |
JP2012022412A (ja) * | 2010-07-12 | 2012-02-02 | Canon Inc | 画像処理装置、画像処理方法、及びプログラム |
Non-Patent Citations (1)
Title |
---|
JPN6015050810; 梅川 俊宏: '顔器官位置推定に基づく任意姿勢顔生成' 情報処理学会研究報告 平成22年度 5 [CD-ROM] PRMU2010-203 , MVE2010-128, 20110215, P.1-6, 一般社団法人 情報処理学会 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101923405B1 (ko) * | 2018-01-09 | 2018-11-29 | 전남대학교산학협력단 | 기하학적 변환이 적용된 aam을 이용한 사람의 얼굴 검출 및 모델링시스템 |
Also Published As
Publication number | Publication date |
---|---|
EP2863335A4 (en) | 2016-03-30 |
WO2014032496A1 (zh) | 2014-03-06 |
CN103632129A (zh) | 2014-03-12 |
US20150302240A1 (en) | 2015-10-22 |
EP2863335A1 (en) | 2015-04-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2015522200A (ja) | 人顔特徴点の位置決め方法、装置及び記憶媒体 | |
US20210192758A1 (en) | Image processing method and apparatus, electronic device, and computer readable storage medium | |
CN111414798B (zh) | 基于rgb-d图像的头部姿态检测方法及系统 | |
CN110175558B (zh) | 一种人脸关键点的检测方法、装置、计算设备及存储介质 | |
CN110675487B (zh) | 基于多角度二维人脸的三维人脸建模、识别方法及装置 | |
Simo-Serra et al. | A joint model for 2d and 3d pose estimation from a single image | |
US9098740B2 (en) | Apparatus, method, and medium detecting object pose | |
CN109934847B (zh) | 弱纹理三维物体姿态估计的方法和装置 | |
CN109271914A (zh) | 检测视线落点的方法、装置、存储介质和终端设备 | |
CN106127145B (zh) | 瞳孔定位及跟踪方法 | |
CN103514432A (zh) | 人脸特征提取方法、设备和计算机程序产品 | |
CN103443826B (zh) | 网格动画 | |
KR20100094560A (ko) | 얼굴 자세 추정 장치, 얼굴 자세 추정 방법 및 얼굴 자세 추정 프로그램 | |
CN103430218A (zh) | 用3d脸部建模和地标对齐扩增造型的方法 | |
JP2008068086A (ja) | 3d心エコー図において心臓構造をリアルタイムでトラッキングするための方法 | |
CN109740537B (zh) | 人群视频图像中行人图像属性的精确标注方法及系统 | |
JP2009020761A (ja) | 画像処理装置及びその方法 | |
WO2019071976A1 (zh) | 基于区域增长和眼动模型的全景图像显著性检测方法 | |
US20190066311A1 (en) | Object tracking | |
JP6331761B2 (ja) | 判定装置、判定方法及び判定プログラム | |
WO2022217794A1 (zh) | 一种动态环境移动机器人的定位方法 | |
US11633235B2 (en) | Hybrid hardware and computer vision-based tracking system and method | |
KR20140024206A (ko) | 입술 검출 및 추적을 위한 방법 및 장치 | |
CN113436251B (zh) | 一种基于改进的yolo6d算法的位姿估计系统及方法 | |
CN112233161B (zh) | 手部图像深度确定方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150119 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20151209 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20151215 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160224 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20160329 |