JP2007272435A - 顔特徴抽出装置及び顔特徴抽出方法 - Google Patents
顔特徴抽出装置及び顔特徴抽出方法 Download PDFInfo
- Publication number
- JP2007272435A JP2007272435A JP2006095586A JP2006095586A JP2007272435A JP 2007272435 A JP2007272435 A JP 2007272435A JP 2006095586 A JP2006095586 A JP 2006095586A JP 2006095586 A JP2006095586 A JP 2006095586A JP 2007272435 A JP2007272435 A JP 2007272435A
- Authority
- JP
- Japan
- Prior art keywords
- contour
- unit
- image data
- data
- mouth
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
【課題】似顔絵を描写するには、その前提として各顔パーツの特徴を高い精度にて捉えることが求められる。従来技術では、この各顔パーツの特徴を高精度にて検出する技術について必ずしも十分に応えるものではなかった。
【解決手段】顔画像データから瞳の形状を特定する為に用いられる、演算量が膨大な円形分離度フィルタの処理の前に、コントラストフィルタを採用することによって、目の形状にほぼ等しい探索範囲を作成し、円形分離度フィルタの適用範囲を大幅に縮小する。
【選択図】図2
【解決手段】顔画像データから瞳の形状を特定する為に用いられる、演算量が膨大な円形分離度フィルタの処理の前に、コントラストフィルタを採用することによって、目の形状にほぼ等しい探索範囲を作成し、円形分離度フィルタの適用範囲を大幅に縮小する。
【選択図】図2
Description
本発明は、似顔絵作成装置等に適用される、人物の顔の特徴を点と線よりなる特徴データとして機械的に抽出する装置及び方法に適用して好適な技術に関する。
従来、似顔絵を機械的に作成する方法及び装置が種々提案されている。似顔絵を機械的に作成できれば、アミューズメント分野での利用や、通信の分野への応用が期待できる。
例えば、予め漫画家或はイラストレータが表現する個性的な「画風」の顔パーツをデータベース化しておき、対象人物の顔を撮影し、顔の特徴を機械的にデータ化した後、特徴が平均値からどのようにどれだけ離れているかを数値化し、これをデータベースと照合し、得られた顔パーツを組み合わせることにより、機械的に似顔絵を作成することができる(特許文献2参照のこと)。
また、カメラ付き携帯電話で所有者自身の顔を撮影した後、似顔絵を自動生成すれば、携帯電話同士の通信或は通話に高い付加価値を付与することが期待できる。
特許3139617号公報
特開2000−155836号公報
三宅哲夫,春田誠司,堀畑聡,"顔の向きに依存しない特徴量を用いた注視判定法",電子情報通信学会,D-II vol.J86-D-II No.12 pp.1737-1744(2003.12)
福井和広, 山口修, "形状抽出と照合の組み合わせによる顔特徴点抽出",電子情報通信学会,D-II vol.J80-D-II No.8 pp.2170-2177(1997.08)
若杉 智和,山口 修,福井 和広,"パターンエネルギーを導入した動的輪郭モデルによる唇輪郭抽出",電子情報通信学会 D-II,Vol.J88-D2 No.9 pp.1857 - 1865 (2005.09)
J.J.Atick and A.N.Redlich, "What does the retina know about natural scenes?" Neural Computation, Vol.4, pp.196-210 (1992).
福井 和広,"複数視点画像を用いた顔画像認識," 精密工学会 画像応用技術専門委員会研究報告 vol.19, No.3, pp.1-10, 2004
CANNY, J., 1986. A Computational Approach to Edge Detection. IEEE Transaction on Pattern Analysis and Machine Intelligence. Vol.PAMI-8, No.6, pp.679-697.
例えば、予め漫画家或はイラストレータが表現する個性的な「画風」の顔パーツをデータベース化しておき、対象人物の顔を撮影し、顔の特徴を機械的にデータ化した後、特徴が平均値からどのようにどれだけ離れているかを数値化し、これをデータベースと照合し、得られた顔パーツを組み合わせることにより、機械的に似顔絵を作成することができる(特許文献2参照のこと)。
また、カメラ付き携帯電話で所有者自身の顔を撮影した後、似顔絵を自動生成すれば、携帯電話同士の通信或は通話に高い付加価値を付与することが期待できる。
従来、顔特徴の輪郭抽出は、顔検出や視線の検出、人間とコンピュータのユーザインターフェースなどのアプリケーションを実現するため広く研究されている。黒目の位置による注視判定法(非特許文献1)や、パターン照合による顔特徴抽出(非特許文献2)、パターンエネルギーによる口輪郭抽出(非特許文献3)などが挙げられる。しかしこれらは位置や形状を抽出するのみで、似顔絵を描写する上で必要な情報や精度については不足している。
似顔絵を描写するには、その前提として各顔パーツの特徴を高い精度にて捉えることが求められる。従来技術では、この各顔パーツの特徴を高精度にて検出する技術について必ずしも十分に応えるものではなかった。
顔の特徴を正確に捉えられないと、結局は不正確な特徴から作成された似顔絵が本人と似ても似つかないものになってしまい、需要に応えられるものになり得ない。
人物の顔の特徴を捉えるには、写真画像データから得るのが通例だが、この写真画像データの質は千差万別である。特に一般需要に耐え得るには、例えば携帯電話に付属するカメラの画質程度で十分に機能を発揮する必要がある。これは画像データの輝度や顔に当る照明の具合等がまちまちになることを意味する。すなわち、顔特徴抽出装置は、画像データの品質のバラツキに対しても強く、確実に顔特徴を捉える性能が求められる。
似顔絵を描写するには、その前提として各顔パーツの特徴を高い精度にて捉えることが求められる。従来技術では、この各顔パーツの特徴を高精度にて検出する技術について必ずしも十分に応えるものではなかった。
顔の特徴を正確に捉えられないと、結局は不正確な特徴から作成された似顔絵が本人と似ても似つかないものになってしまい、需要に応えられるものになり得ない。
人物の顔の特徴を捉えるには、写真画像データから得るのが通例だが、この写真画像データの質は千差万別である。特に一般需要に耐え得るには、例えば携帯電話に付属するカメラの画質程度で十分に機能を発揮する必要がある。これは画像データの輝度や顔に当る照明の具合等がまちまちになることを意味する。すなわち、顔特徴抽出装置は、画像データの品質のバラツキに対しても強く、確実に顔特徴を捉える性能が求められる。
本発明はかかる点に鑑みてなされたものであり、千差万別ある人物の顔特徴に依存せず、照明条件などの制約をできるだけ排除し、手作業による調整作業なく自動処理を実現する、入力される顔画像データから自動的に顔器官の特徴点を正確且つ迅速に抽出する装置及び方法を提供することを目的とする。
上記課題を解決するための本発明は、
カラー顔画像データを得る画像入力部と、
前記画像入力部から得られるカラー顔画像データを白黒変換して白黒顔画像データを出力する白黒変換部と、
前記白黒顔画像データの低輝度部分を抜粋するコントラストフィルタと、
前記コントラストフィルタにて抜粋された前記白黒顔画像データの低輝度領域から瞳形状を探索して、瞳中心座標を含む瞳特徴データを出力する分離フィルタと
よりなることを特徴とする顔特徴抽出装置としたものである。
カラー顔画像データを得る画像入力部と、
前記画像入力部から得られるカラー顔画像データを白黒変換して白黒顔画像データを出力する白黒変換部と、
前記白黒顔画像データの低輝度部分を抜粋するコントラストフィルタと、
前記コントラストフィルタにて抜粋された前記白黒顔画像データの低輝度領域から瞳形状を探索して、瞳中心座標を含む瞳特徴データを出力する分離フィルタと
よりなることを特徴とする顔特徴抽出装置としたものである。
顔画像データから瞳の形状を特定する為に用いられる円形分離度フィルタは演算処理が膨大であり、処理速度の低下の大きな要因となっていた。そこで、コントラストフィルタを採用することによって、目の形状にほぼ等しい探索範囲を作成し、円形分離度フィルタの適用範囲を大幅に縮小させることができる。このことは処理速度の高速化に大きく寄与するものである。
目の特徴を探索するに当り、滑らかな曲線近似を実現するために、上まぶたを瞳中心から極座標展開する。これによりベジエ曲線等で近似し易くなり、少ない演算処理で容易に目の輪郭を抽出することができる。
眉は部分毎に輝度がまちまちで、一様な閾値でエッジ検出を試みても検出誤りを減らすことができない。そこで、眉の輪郭を短冊状に分割する処理と、格子状に分割する処理とをそれぞれ行い、短冊状に分割した領域からエッジを抽出した結果を格子状分割処理によって得た輝度平均を用いて補正することにより、眉全体の自然な輪郭抽出が可能になる。
口の色に特化した色情報変換式の係数を最適なものに定めることにより、口輪郭を高精度に抽出することができる。
鼻において最も捉え易い特徴である鼻の穴を先ず検出し、その重心を求めることにより、正確な特徴を捉えることができる。
顔の輪郭をトレースする起点を口の両端から得ることにより、首の存在等による検出誤りもなく、適切な輪郭抽出処理の起点を設定できる。
耳と思しき領域内に肌色が存在するか否かを検出することで、画像データ中の耳の存在の有無と輪郭抽出処理を迅速且つ的確に実施することができる。
本発明により、顔画像データから各顔パーツの特徴を正確に抽出するための基準である瞳の輪郭形状を、迅速且つ的確に捉えることができる。
以下、本発明の実施の形態を、図1〜図21を参照して説明する。
[目次]
本発明の実施の形態については、以下の順に説明を行う。
1.全体構成
2.瞳抽出部
3.目輪郭抽出部
4.眉輪郭抽出部
5.口輪郭抽出部
6.鼻輪郭抽出部
7.顔輪郭抽出部
7.1.口真横輪郭点抽出部
7.2.目真横輪郭点抽出部
7.3.顎輪郭データ抽出部
7.4.口目元間輪郭データ抽出部
8.耳輪郭抽出部
[目次]
本発明の実施の形態については、以下の順に説明を行う。
1.全体構成
2.瞳抽出部
3.目輪郭抽出部
4.眉輪郭抽出部
5.口輪郭抽出部
6.鼻輪郭抽出部
7.顔輪郭抽出部
7.1.口真横輪郭点抽出部
7.2.目真横輪郭点抽出部
7.3.顎輪郭データ抽出部
7.4.口目元間輪郭データ抽出部
8.耳輪郭抽出部
[1.全体構成]
図1は、本発明の第1の実施の形態に係る顔特徴抽出装置の機能ブロック図である。
顔特徴抽出装置100は、例えばパソコンとこれに読み込まれ実行されるプログラムである。勿論、パソコン用プログラムに留まらず、携帯電話のファームウェアとして組み込む、或は遊戯施設に設置される写真撮影機等に組み込むことも可能である。
本実施形態のプログラムは単一のプログラムとすることもできるが、ここでは説明を容易にするために、図1の各ブロックは単一の実行ファイルであるものとする。すなわち、顔特徴抽出装置100の実体は、複数のプログラムの集合体と、これを実行するパソコン等の情報処理装置である。
各プログラム同士は周知の名前付きソケット(FIFO)の技術を用いてデータの送受信を行う。勿論、プログラム同士のデータ送受信方法は名前付きソケットに限られず、TCP/IPのローカルIPアドレスを用いる通信方法など、プロセス間通信方法は多種多様存在し、本実施形態はそれらに限定されるものではない。
図1は、本発明の第1の実施の形態に係る顔特徴抽出装置の機能ブロック図である。
顔特徴抽出装置100は、例えばパソコンとこれに読み込まれ実行されるプログラムである。勿論、パソコン用プログラムに留まらず、携帯電話のファームウェアとして組み込む、或は遊戯施設に設置される写真撮影機等に組み込むことも可能である。
本実施形態のプログラムは単一のプログラムとすることもできるが、ここでは説明を容易にするために、図1の各ブロックは単一の実行ファイルであるものとする。すなわち、顔特徴抽出装置100の実体は、複数のプログラムの集合体と、これを実行するパソコン等の情報処理装置である。
各プログラム同士は周知の名前付きソケット(FIFO)の技術を用いてデータの送受信を行う。勿論、プログラム同士のデータ送受信方法は名前付きソケットに限られず、TCP/IPのローカルIPアドレスを用いる通信方法など、プロセス間通信方法は多種多様存在し、本実施形態はそれらに限定されるものではない。
画像入力部101は、所定の手法にて人物の顔のカラー画像データを取得する。カラー画像データを取得する手段は何でも良い。本実施形態においては、例えば周知のCCDカメラやCMOSカメラ、或は既に撮影済みの顔画像データそのものである。
但し、本実施形態において、幾つか制約がある。
一つは、顔画像データはカラーであることが必要である。これは後述の口輪郭抽出処理と耳輪郭抽出処理において色情報が必須だからである。
もう一つは、画像データの中心に大きく人物の顔が写っている、いわゆる顔写真であることが必要である。これは後述の瞳中心抽出処理において瞳を特定する領域を限定する際に必要だからである。
もっとも、本実施形態に係る装置は人物の顔から特徴を抽出するためにあるので、入力される顔画像データは特徴を抽出し易い状態の画像データであることが求められるので、以上の条件は自ずとクリアされることとなるであろう。
なお、本実施形態において画像入力部101は周知のRGB形式画像データを出力するものとする。
また、後述の各顔パーツの特徴抽出処理によって得られる「輪郭データ」は、顔パーツ上の複数の特徴点と、特徴点同士を結ぶ曲線よりなる。
但し、本実施形態において、幾つか制約がある。
一つは、顔画像データはカラーであることが必要である。これは後述の口輪郭抽出処理と耳輪郭抽出処理において色情報が必須だからである。
もう一つは、画像データの中心に大きく人物の顔が写っている、いわゆる顔写真であることが必要である。これは後述の瞳中心抽出処理において瞳を特定する領域を限定する際に必要だからである。
もっとも、本実施形態に係る装置は人物の顔から特徴を抽出するためにあるので、入力される顔画像データは特徴を抽出し易い状態の画像データであることが求められるので、以上の条件は自ずとクリアされることとなるであろう。
なお、本実施形態において画像入力部101は周知のRGB形式画像データを出力するものとする。
また、後述の各顔パーツの特徴抽出処理によって得られる「輪郭データ」は、顔パーツ上の複数の特徴点と、特徴点同士を結ぶ曲線よりなる。
白黒変換部102は画像入力部101からカラーの顔画像データを読み込み、白黒の顔画像データに変換する。後述する各顔パーツの輪郭抽出処理に利用するためである。
瞳抽出部103は瞳抽出プログラムである。画像入力部101から白黒変換部102を通じて白黒の顔画像データを読み込み、所定の処理にて入力画像データ中の瞳中心と輪郭の座標データを抽出する。
瞳抽出部103が瞳の座標データを得たら、プロセス間通信により、目輪郭抽出部104、眉輪郭抽出部105、口輪郭抽出部106、鼻輪郭抽出部107へ二つの瞳中心座標データを渡す。
瞳抽出部103は瞳抽出プログラムである。画像入力部101から白黒変換部102を通じて白黒の顔画像データを読み込み、所定の処理にて入力画像データ中の瞳中心と輪郭の座標データを抽出する。
瞳抽出部103が瞳の座標データを得たら、プロセス間通信により、目輪郭抽出部104、眉輪郭抽出部105、口輪郭抽出部106、鼻輪郭抽出部107へ二つの瞳中心座標データを渡す。
目輪郭抽出部104は目輪郭抽出プログラムである。
白黒変換部102から白黒画像データを受信し、瞳抽出部103から二つの瞳中心座標データを受信し、これらを基に所定の処理にて目輪郭データを抽出する。
目輪郭抽出部104が二つの目輪郭データを得たら、瞳中心座標データと目輪郭データを顔特徴データファイル110へ書き込むと共に、プロセス間通信により、顔輪郭抽出部108と耳輪郭抽出部109に目の両端座標データを渡す。
白黒変換部102から白黒画像データを受信し、瞳抽出部103から二つの瞳中心座標データを受信し、これらを基に所定の処理にて目輪郭データを抽出する。
目輪郭抽出部104が二つの目輪郭データを得たら、瞳中心座標データと目輪郭データを顔特徴データファイル110へ書き込むと共に、プロセス間通信により、顔輪郭抽出部108と耳輪郭抽出部109に目の両端座標データを渡す。
眉輪郭抽出部105は眉輪郭抽出プログラムである。白黒変換部102から白黒画像データを受信し、瞳抽出部103から二つの瞳中心座標データを受信し、これらを基に所定の処理にて眉輪郭データを抽出する。
眉輪郭抽出部105が二つの眉輪郭データを得たら、眉輪郭データを顔特徴データファイル110へ書き込む。
眉輪郭抽出部105が二つの眉輪郭データを得たら、眉輪郭データを顔特徴データファイル110へ書き込む。
口輪郭抽出部106は口輪郭抽出プログラムである。画像入力部101からカラー画像データを受信し、瞳抽出部103から二つの瞳中心座標データを受信し、これらを基に所定の処理にて口輪郭データを抽出する。
口輪郭抽出部106が口輪郭データを得たら、プロセス間通信により、顔輪郭抽出部108へ口輪郭データを渡すと共に、口輪郭データを顔特徴データファイル110へ書き込む。
口輪郭抽出部106が口輪郭データを得たら、プロセス間通信により、顔輪郭抽出部108へ口輪郭データを渡すと共に、口輪郭データを顔特徴データファイル110へ書き込む。
鼻輪郭抽出部107は鼻輪郭抽出プログラムである。白黒変換部102から白黒画像データを受信し、瞳抽出部103から二つの瞳中心座標データを受信し、これらを基に所定の処理にて鼻輪郭データを抽出する。
鼻輪郭抽出部107が鼻輪郭データを得たら、プロセス間通信により、耳輪郭抽出部109へ鼻輪郭データを渡すと共に、鼻輪郭データを顔特徴データファイル110へ書き込む。
鼻輪郭抽出部107が鼻輪郭データを得たら、プロセス間通信により、耳輪郭抽出部109へ鼻輪郭データを渡すと共に、鼻輪郭データを顔特徴データファイル110へ書き込む。
顔輪郭抽出部108は顔輪郭抽出プログラムである。白黒変換部102から白黒画像データを受信し、目輪郭抽出部104から二つの目の両端座標データを受信し、口輪郭抽出部106から口輪郭データを受信し、これらを基に所定の処理にて顔輪郭データを抽出する。
顔輪郭抽出部108が顔輪郭データを得たら、プロセス間通信により、耳輪郭抽出部109へ鼻輪郭データを渡すと共に、顔輪郭データを顔特徴データファイル110へ書き込む。
顔輪郭抽出部108は目輪郭抽出部104と口輪郭抽出部106の両方の処理が終わることにより、初めて実質的な演算処理が実行できるものである。
顔輪郭抽出部108が顔輪郭データを得たら、プロセス間通信により、耳輪郭抽出部109へ鼻輪郭データを渡すと共に、顔輪郭データを顔特徴データファイル110へ書き込む。
顔輪郭抽出部108は目輪郭抽出部104と口輪郭抽出部106の両方の処理が終わることにより、初めて実質的な演算処理が実行できるものである。
耳輪郭抽出部109は耳輪郭抽出プログラムである。画像入力部101からカラー画像データを受信し、目輪郭抽出部104から二つの目輪郭データを受信し、顔輪郭抽出部108から顔輪郭データを受信し、鼻輪郭抽出部107から鼻輪郭データを受信し、これらを基に所定の処理にて耳輪郭データを抽出する。
耳輪郭抽出部109が二つの耳輪郭データを得たら、耳輪郭データを顔特徴データファイル110へ書き込む。
耳輪郭抽出部109は目輪郭抽出部104と鼻輪郭抽出部107と顔輪郭抽出部108の三つの処理が終わることにより、初めて実質的な演算処理が実行できるものである。
耳輪郭抽出部109が二つの耳輪郭データを得たら、耳輪郭データを顔特徴データファイル110へ書き込む。
耳輪郭抽出部109は目輪郭抽出部104と鼻輪郭抽出部107と顔輪郭抽出部108の三つの処理が終わることにより、初めて実質的な演算処理が実行できるものである。
顔特徴データファイル110は例えばリレーショナルデータベースであっても良いし、カンマ区切り形式のテキストファイルであっても良い。
瞳輪郭データ、目輪郭データ、眉輪郭データ、口輪郭データ、鼻輪郭データ、顔輪郭データ、耳輪郭データが格納され、所定のアプリケーションにて利用可能になっていれば何でも良い。
瞳輪郭データ、目輪郭データ、眉輪郭データ、口輪郭データ、鼻輪郭データ、顔輪郭データ、耳輪郭データが格納され、所定のアプリケーションにて利用可能になっていれば何でも良い。
以上、各プログラムは処理を行うに必要なデータをプロセス間通信により得ると、直ちに実行を開始する。各プログラムは各々が独立して並列動作可能であり、処理の順番は必要なデータにのみ依存するものである。
[2.瞳抽出部]
図2は、瞳抽出部103の機能ブロック図である。
瞳抽出部103は、瞳探索ウインドウ設定部202、コントラストフィルタ203、改良円形分離度フィルタ204よりなる。
瞳探索ウインドウ設定部202は、白黒画像データ201の横幅w及び縦高さhのうち、
3/10w〜7/10w
4/10h〜6/10h
の範囲(ウインドウ)を瞳探索範囲に設定する。
入力される画像データはある程度正規化されている顔写真であることを想定した、処理速度及び精度向上のための探索範囲限定処理である。
図3(a)が瞳探索ウインドウ設定部202によって限定された白黒画像データのサンプル、図3(b)がコントラストフィルタ203によって二値化された白黒画像データのサンプルである。
なお、図3以降に示す画像のサンプル等は、実際には情報処理装置内部のメモリ上に展開されるデータを図示したものであることに注意されたい。
図2は、瞳抽出部103の機能ブロック図である。
瞳抽出部103は、瞳探索ウインドウ設定部202、コントラストフィルタ203、改良円形分離度フィルタ204よりなる。
瞳探索ウインドウ設定部202は、白黒画像データ201の横幅w及び縦高さhのうち、
3/10w〜7/10w
4/10h〜6/10h
の範囲(ウインドウ)を瞳探索範囲に設定する。
入力される画像データはある程度正規化されている顔写真であることを想定した、処理速度及び精度向上のための探索範囲限定処理である。
図3(a)が瞳探索ウインドウ設定部202によって限定された白黒画像データのサンプル、図3(b)がコントラストフィルタ203によって二値化された白黒画像データのサンプルである。
なお、図3以降に示す画像のサンプル等は、実際には情報処理装置内部のメモリ上に展開されるデータを図示したものであることに注意されたい。
コントラストフィルタ203は、上記処理にてウインドウ範囲内に限定された白黒画像データについて、輝度について二値化処理を施す。コントラストフィルタ203は例えば非特許文献4にて公知である。
顔の白黒画像データが取り得る値は0〜255であるが、単純に所定の輝度値、例えば50から切り分けてしまうと、ほくろ等の小さな暗部を検出してしまう。その結果は瞳探索処理の際のノイズとして演算処理の高速化を妨げるので、まとまった面積を持つ瞳の探索処理に適さない。そこで、まとまった面積を持つ輝度の領域を緩く検出する技術として、コントラストフィルタを用いる。0〜255の輝度をそのまま0Hz〜255Hzとみなし、数式1に示すコントラストフィルタのフーリエ変換の核関数に代入する。
顔の白黒画像データが取り得る値は0〜255であるが、単純に所定の輝度値、例えば50から切り分けてしまうと、ほくろ等の小さな暗部を検出してしまう。その結果は瞳探索処理の際のノイズとして演算処理の高速化を妨げるので、まとまった面積を持つ瞳の探索処理に適さない。そこで、まとまった面積を持つ輝度の領域を緩く検出する技術として、コントラストフィルタを用いる。0〜255の輝度をそのまま0Hz〜255Hzとみなし、数式1に示すコントラストフィルタのフーリエ変換の核関数に代入する。
閾値となる遮断周波数f0は実験等に基づいて所定の値を決める。本実施形態では50としている。コントラストフィルタを通過したデータは緩やかな特性のローパスフィルタと概ね等しい特性となり、暗い領域の中でもまとまった領域の画素データのみフィルタを通過する。
コントラストフィルタ203によって、白黒画像データは輝度の低い領域において二値化される。二値化された低輝度の範囲が、瞳探索範囲となる。このように瞳探索範囲を更に絞ることにより、後続の分離度フィルタの演算量が抑えられるので、処理速度の大幅な向上が期待できる。
コントラストフィルタ203によって、白黒画像データは輝度の低い領域において二値化される。二値化された低輝度の範囲が、瞳探索範囲となる。このように瞳探索範囲を更に絞ることにより、後続の分離度フィルタの演算量が抑えられるので、処理速度の大幅な向上が期待できる。
改良円形分離度フィルタ204は、コントラストフィルタ203によって探索範囲が限定された白黒画像データに対して、円形の強い分離度を備える形状を探索するフィルタである。本実施形態では更に、瞳にストロボが写り込んで瞳中心が光ってしまうことに起因する、円形分離度フィルタにおける誤認識を防ぐために、中心部分をフィルタの評価対象から外した、いわば中空形状の円形分離度フィルタを採用している。この技術に関しては非特許文献5を参照されたい。
図3(c)は基本的な円形分離度フィルタの一例であり、図3(d)は本実施形態において採用している、中空形状の改良円形分離度フィルタ204である。すなわち、改良円形分離度フィルタ204は、図3(d)のような形状のフィルタをメモリ上の画像データにかけるようなイメージで、領域内の画素データ群を選択して、選択した画素データ群に対して演算処理を行う処理である。
改良円形分離度フィルタ204によって瞳の中心と半径が判明し、図3(e)に示すような、中心を伴う特徴点を作成することができる。
改良円形分離度フィルタ204によって瞳の中心と半径が判明し、図3(e)に示すような、中心を伴う特徴点を作成することができる。
顔画像データから瞳の形状を特定する為に円形分離度フィルタを使用する技術は従来より公知であったが、分離度フィルタは演算処理が膨大であり、処理速度の低下の大きな要因となっていた。
本実施形態においては、限定した探索範囲から更にコントラストフィルタを採用することによって、円形分離度フィルタの適用範囲を大幅に縮小させることができる。このことは処理速度の高速化に大きく寄与するものである。
また、本実施形態では探索範囲の縮小処理にコントラストフィルタを採用したが、コントラストフィルタに限らず、種々の縮小処理が考えられる。
(1)人物の顔画像データから肌色を検出してガウス混合分布を求めた後、画素毎に肌色の尤度を求め、尤度を評価の対象とすることもできる。白黒画像データ201と異なり、画素データが肌であるか瞳を含む目であるかによって、画素毎にはっきり分けられるので、肌色尤度の低い領域だけを見ればコントラストフィルタ以上の精度が期待できる。
(2)瞳探索ウインドウ設定部202にて探索範囲を限定した白黒画像データ201を更に縦10横40程度の矩形領域に分割し、矩形領域毎の平均輝度を算出する。瞳に含まれる領域は平均輝度が低くなる。最も低い輝度を中心に、目と思しき大きさの矩形領域群を瞳探索範囲とする。演算量が少ないので、瞳が存在すると思しき領域を大まかに推定するには高速な処理となる。
以上に記したように、瞳の輝度或は色に関する情報からこれを含む領域へ探索範囲を狭める処理であれば何でも良い。
本実施形態においては、限定した探索範囲から更にコントラストフィルタを採用することによって、円形分離度フィルタの適用範囲を大幅に縮小させることができる。このことは処理速度の高速化に大きく寄与するものである。
また、本実施形態では探索範囲の縮小処理にコントラストフィルタを採用したが、コントラストフィルタに限らず、種々の縮小処理が考えられる。
(1)人物の顔画像データから肌色を検出してガウス混合分布を求めた後、画素毎に肌色の尤度を求め、尤度を評価の対象とすることもできる。白黒画像データ201と異なり、画素データが肌であるか瞳を含む目であるかによって、画素毎にはっきり分けられるので、肌色尤度の低い領域だけを見ればコントラストフィルタ以上の精度が期待できる。
(2)瞳探索ウインドウ設定部202にて探索範囲を限定した白黒画像データ201を更に縦10横40程度の矩形領域に分割し、矩形領域毎の平均輝度を算出する。瞳に含まれる領域は平均輝度が低くなる。最も低い輝度を中心に、目と思しき大きさの矩形領域群を瞳探索範囲とする。演算量が少ないので、瞳が存在すると思しき領域を大まかに推定するには高速な処理となる。
以上に記したように、瞳の輝度或は色に関する情報からこれを含む領域へ探索範囲を狭める処理であれば何でも良い。
[3.目輪郭抽出部]
図4は、目輪郭抽出部104の機能ブロック図である。
目探索ウインドウ設定部404は、白黒画像データ402と瞳中心座標401を受け、目を探索する範囲(ウインドウ)を設定する。前述の瞳探索ウインドウ設定部202と同様の、処理速度及び精度向上のための探索範囲限定処理である。
目探索ウインドウ設定部404によって限定された白黒画像データ402は、極座標展開部405に入力される。極座標展開部405は、瞳中心座標401から左右の目を回転してスキャンして、極座標展開を行う。極座標展開は、目の内側の−45°の地点から開始し、225°の地点まで行う。この処理は、目の上まぶたを極座標展開した画像データである。
一方、目探索ウインドウ設定部404によって限定された白黒画像データ402は、エッジ検出部406にも入力される。エッジ検出部406は、目周辺白黒画像データ402に対して、エッジ検出処理に基づく輪郭点候補を出力する。エッジ検出処理は、入力される画像データを輝度について微分し、微分値を閾値407と比較して、閾値407より大きな値を出力する。エッジ検出部406は閾値407を所定範囲内にて変化させつつ閾値407と微分値を比較して、閾値407毎に輪郭点候補データを出力する。
制御点決定部408は、閾値407毎の輪郭点候補データを読み込み、輪郭点の平均値を算出して得た輪郭点群を領域の左右から見て行き、両端位置を制御点として決定する。この制御点は目の両端に相当する。
ベジエ曲線設定部409は、極座標展開した白黒画像データ402を制御点を起点としてベジエ曲線を仮に設定する。
分離度計算部410は、仮に設定されたベジエ曲線の両脇の画素データ群の輝度平均を計算し、その比である分離度を算出する。
一時記憶部411はベジエ曲線設定部409のパラメータと算出された分離度との組を一時記憶する。
ベジエ曲線設定部409から一時記憶部411までの処理を、ベジエ曲線設定部409におけるパラメータを変えながら何度か行い、分離度が一番高かったベジエ曲線が最適ベジエ曲線である。最適ベジエ曲線決定部412は一時記憶部411内のベジエ曲線候補群の分離度を見て、最適ベジエ曲線を選択する。これが上まぶたの近似曲線となる。
一方、瞳輪郭座標403と制御点決定部408から得られる制御点は下まぶた配置部413に入力され、下まぶたを機械的に決定する。下まぶたは、以下のように決定する。
- 目尻の点をe0とする。
- 目頭の点をe6とする。
- e0とe6を結ぶ線分を設定する。
- 瞳の中心点から瞳の半径だけ下がった点をe3とする。
- e0とe3の間に、横方向に等間隔にてe1とe2を設定する。
- e0とe3の縦方向の距離の1/4を、e0とe6を結ぶ線分から下げた位置をe1の縦方向の位置として、e1を設定する。
- e0とe3の縦方向の中点をe2の縦方向の位置として、e2を設定する。
- e3とe6の間に、横方向に等間隔にてe4とe5を設定する。
- e3とe6の縦方向の距離を7:3に内分した位置をe4の縦方向の位置として、e4を設定する。
- e3とe6の縦方向の距離の1/4を、e0とe6を結ぶ線分から下げた位置をe5の縦方向の位置として、e5を設定する。
- e0、e1、e2、e3、e4、e5、e6を曲線近似する。
以上のようにして得られた上まぶたと下まぶたの特徴データが、目輪郭データ414となる。
図4は、目輪郭抽出部104の機能ブロック図である。
目探索ウインドウ設定部404は、白黒画像データ402と瞳中心座標401を受け、目を探索する範囲(ウインドウ)を設定する。前述の瞳探索ウインドウ設定部202と同様の、処理速度及び精度向上のための探索範囲限定処理である。
目探索ウインドウ設定部404によって限定された白黒画像データ402は、極座標展開部405に入力される。極座標展開部405は、瞳中心座標401から左右の目を回転してスキャンして、極座標展開を行う。極座標展開は、目の内側の−45°の地点から開始し、225°の地点まで行う。この処理は、目の上まぶたを極座標展開した画像データである。
一方、目探索ウインドウ設定部404によって限定された白黒画像データ402は、エッジ検出部406にも入力される。エッジ検出部406は、目周辺白黒画像データ402に対して、エッジ検出処理に基づく輪郭点候補を出力する。エッジ検出処理は、入力される画像データを輝度について微分し、微分値を閾値407と比較して、閾値407より大きな値を出力する。エッジ検出部406は閾値407を所定範囲内にて変化させつつ閾値407と微分値を比較して、閾値407毎に輪郭点候補データを出力する。
制御点決定部408は、閾値407毎の輪郭点候補データを読み込み、輪郭点の平均値を算出して得た輪郭点群を領域の左右から見て行き、両端位置を制御点として決定する。この制御点は目の両端に相当する。
ベジエ曲線設定部409は、極座標展開した白黒画像データ402を制御点を起点としてベジエ曲線を仮に設定する。
分離度計算部410は、仮に設定されたベジエ曲線の両脇の画素データ群の輝度平均を計算し、その比である分離度を算出する。
一時記憶部411はベジエ曲線設定部409のパラメータと算出された分離度との組を一時記憶する。
ベジエ曲線設定部409から一時記憶部411までの処理を、ベジエ曲線設定部409におけるパラメータを変えながら何度か行い、分離度が一番高かったベジエ曲線が最適ベジエ曲線である。最適ベジエ曲線決定部412は一時記憶部411内のベジエ曲線候補群の分離度を見て、最適ベジエ曲線を選択する。これが上まぶたの近似曲線となる。
一方、瞳輪郭座標403と制御点決定部408から得られる制御点は下まぶた配置部413に入力され、下まぶたを機械的に決定する。下まぶたは、以下のように決定する。
- 目尻の点をe0とする。
- 目頭の点をe6とする。
- e0とe6を結ぶ線分を設定する。
- 瞳の中心点から瞳の半径だけ下がった点をe3とする。
- e0とe3の間に、横方向に等間隔にてe1とe2を設定する。
- e0とe3の縦方向の距離の1/4を、e0とe6を結ぶ線分から下げた位置をe1の縦方向の位置として、e1を設定する。
- e0とe3の縦方向の中点をe2の縦方向の位置として、e2を設定する。
- e3とe6の間に、横方向に等間隔にてe4とe5を設定する。
- e3とe6の縦方向の距離を7:3に内分した位置をe4の縦方向の位置として、e4を設定する。
- e3とe6の縦方向の距離の1/4を、e0とe6を結ぶ線分から下げた位置をe5の縦方向の位置として、e5を設定する。
- e0、e1、e2、e3、e4、e5、e6を曲線近似する。
以上のようにして得られた上まぶたと下まぶたの特徴データが、目輪郭データ414となる。
目の輪郭は、まつ毛などにより輪郭がはっきりしている場合が多く、輝度による輪郭抽出は極めて有効である。しかし、入力画像によっては輝度の強弱や変化の幅が異なり、全ての顔画像に対して共通のパラメータによるエッジの抽出は難しい。特に目の上側と下側では差が大きい。よって、輝度の強弱の影響を受け難い抽出と、目らしい配置の評価が求められる。
画像の全体的な明るさ(絶対的な輝度)は一定でないとしても、輪郭を境にはっきりと輝度に差がある(相対的な輝度差)ことは確かである。よって、瞳抽出処理と同様に、輝度による分離度で評価するのが有効であると考える。そして目らしさを実現するために、ある特定の曲線を維持しながらの抽出を行うことにする。
目の輪郭において、個人の特徴が現れやすいのは上側であるといえる。よって、本実施形態においては上まぶたの特徴点を抽出した後に、下側の特徴点を機械的に配置する。
上まぶたは瞳を中心に極座標系で解析する。目の輪郭点は瞳を中心に放射状に存在しているので、極座標展開することで処理しやすくする。図5(a)で示すように、先に求めた瞳の中心から左側の目は反時計回り、右側の目は時計回りに展開する。このとき上まぶた全体が連続で表示されるように、目の内側方向を基準に−45°の地点からスタートさせる。
瞳を中心に極座標系として展開したときの結果が図5(b)となる。これを見て分かるように、上まぶたの輪郭は下に凸の曲線を成す。この輪郭を正確に抽出して直交座標に再変換することで、目の特徴点を抽出することができる。
画像の全体的な明るさ(絶対的な輝度)は一定でないとしても、輪郭を境にはっきりと輝度に差がある(相対的な輝度差)ことは確かである。よって、瞳抽出処理と同様に、輝度による分離度で評価するのが有効であると考える。そして目らしさを実現するために、ある特定の曲線を維持しながらの抽出を行うことにする。
目の輪郭において、個人の特徴が現れやすいのは上側であるといえる。よって、本実施形態においては上まぶたの特徴点を抽出した後に、下側の特徴点を機械的に配置する。
上まぶたは瞳を中心に極座標系で解析する。目の輪郭点は瞳を中心に放射状に存在しているので、極座標展開することで処理しやすくする。図5(a)で示すように、先に求めた瞳の中心から左側の目は反時計回り、右側の目は時計回りに展開する。このとき上まぶた全体が連続で表示されるように、目の内側方向を基準に−45°の地点からスタートさせる。
瞳を中心に極座標系として展開したときの結果が図5(b)となる。これを見て分かるように、上まぶたの輪郭は下に凸の曲線を成す。この輪郭を正確に抽出して直交座標に再変換することで、目の特徴点を抽出することができる。
滑らかな曲線近似を実現するために、極座標展開後の目の境界設定をベジエ曲線(Bezier curve)で行う。ベジエ曲線はパラメトリック曲線の一つで、 n次ベジエ曲線は、n+1個の制御点P0,...Pnから、数式1で表される式によって与えられる。
ここでBn i(t)は数式2で表され、tの定義域は0≦t≦1となる。
図5(c)は三次ベジエ曲線の例である。制御点P0とP3が本実施形態における目の両端である。制御点P1とP2を経験的な一定の法則にて変化させ、分離度を計算する。
なお、本実施形態では目輪郭近似曲線としてベジエ曲線を採用したが、本実施形態はこれに限られるものではなく、曲線近似の手法は種々のものが適用され得る。
なお、本実施形態では目輪郭近似曲線としてベジエ曲線を採用したが、本実施形態はこれに限られるものではなく、曲線近似の手法は種々のものが適用され得る。
最適解は、設定したベジエ曲線を境界とした上方と下方の領域において輝度を分析し、そのときの分離度で評価する。制御点P1及びP2を経験的な一定の法則で変化させ、分離度を計算する。一連の変化の中で、最も分離度が大きくなったときの曲線を目の輪郭が抽出できていると決定し、直交座標に再変換して目の上側の特徴点とする。図5(d)(e)にベジエ曲線により抽出した結果例を示す。
本実施形態では、目の特徴を探索するに当り、滑らかな曲線近似を実現するために、上まぶたを瞳中心から極座標展開する。これによりベジエ曲線等で近似し易くなり、少ない演算処理で容易に目の輪郭を抽出することができる。
[4.眉輪郭抽出部]
図6は、眉輪郭抽出部105の機能ブロック図である。
眉探索ウインドウ設定部603は、白黒画像データ602と瞳中心座標601を受け、眉を探索する範囲(ウインドウ)を設定する。前述の瞳探索ウインドウ設定部202及び目探索ウインドウ設定部404と同様の、処理速度及び精度向上のための探索範囲限定処理である。
設定された探索ウインドウ範囲内の白黒画像データ602は、短冊状分割部604と格子状分割部608にそれぞれ入力される。
短冊状分割部604は入力される画像データを縦方向の短冊状に12分割する。分割の数はこれに限られるものではなく、装置の処理速度と検出精度とのトレードオフで決定される。図7(a)は画像データが短冊状分割部604によって分割される有様を模式的に示すものである。
エッジ検出部605は短冊状分割部604にて分割された画像データを短冊状領域の境界線毎にエッジ検出を行う。エッジ検出処理の内容は、「Cannyエッジフィルタ」等と呼ばれる、非特許文献6の論文より公知の手法を用いる。このエッジ検出処理を、複数の閾値毎に行い、作成した二値の画素データの集合体よりなるエッジデータを出力する。図7(b)はエッジ検出部605にて閾値を変えつつエッジを検出する有様を模式的に示すものである。
エッジ候補点抽出部606は複数のエッジ候補点から輪郭部分に相当するものと思われる点、すなわち輪郭候補点を短冊領域の境界線毎に抽出する。図7(c)に一例を示す。先ず、短冊領域の境界線上に存在するエッジ点につき、下側から上側に向かってエッジ点を探索する。上側に向かって最初に見つかったエッジ点が、その短冊領域の境界線上における輪郭候補点となる。これを上側からも行う。そして、エッジ検出部605にて複数の閾値毎にエッジ検出したエッジデータ毎に処理を行う。図7(b)においては閾値の異なる7つのエッジデータを得ているので、7つのエッジデータを11本の境界線について上下に輪郭候補点を抽出する。
平均点抽出部607は境界線毎、また閾値毎の、複数の輪郭候補点から平均を取り(以下「平均輪郭候補点」)、これを出力する。図7(d)に平均点抽出部607に入力される輪郭候補点全ての一例を、図7(e)に平均点抽出部607によって出力される、境界線毎の輪郭候補点群の平均点の一例を示す。
図6は、眉輪郭抽出部105の機能ブロック図である。
眉探索ウインドウ設定部603は、白黒画像データ602と瞳中心座標601を受け、眉を探索する範囲(ウインドウ)を設定する。前述の瞳探索ウインドウ設定部202及び目探索ウインドウ設定部404と同様の、処理速度及び精度向上のための探索範囲限定処理である。
設定された探索ウインドウ範囲内の白黒画像データ602は、短冊状分割部604と格子状分割部608にそれぞれ入力される。
短冊状分割部604は入力される画像データを縦方向の短冊状に12分割する。分割の数はこれに限られるものではなく、装置の処理速度と検出精度とのトレードオフで決定される。図7(a)は画像データが短冊状分割部604によって分割される有様を模式的に示すものである。
エッジ検出部605は短冊状分割部604にて分割された画像データを短冊状領域の境界線毎にエッジ検出を行う。エッジ検出処理の内容は、「Cannyエッジフィルタ」等と呼ばれる、非特許文献6の論文より公知の手法を用いる。このエッジ検出処理を、複数の閾値毎に行い、作成した二値の画素データの集合体よりなるエッジデータを出力する。図7(b)はエッジ検出部605にて閾値を変えつつエッジを検出する有様を模式的に示すものである。
エッジ候補点抽出部606は複数のエッジ候補点から輪郭部分に相当するものと思われる点、すなわち輪郭候補点を短冊領域の境界線毎に抽出する。図7(c)に一例を示す。先ず、短冊領域の境界線上に存在するエッジ点につき、下側から上側に向かってエッジ点を探索する。上側に向かって最初に見つかったエッジ点が、その短冊領域の境界線上における輪郭候補点となる。これを上側からも行う。そして、エッジ検出部605にて複数の閾値毎にエッジ検出したエッジデータ毎に処理を行う。図7(b)においては閾値の異なる7つのエッジデータを得ているので、7つのエッジデータを11本の境界線について上下に輪郭候補点を抽出する。
平均点抽出部607は境界線毎、また閾値毎の、複数の輪郭候補点から平均を取り(以下「平均輪郭候補点」)、これを出力する。図7(d)に平均点抽出部607に入力される輪郭候補点全ての一例を、図7(e)に平均点抽出部607によって出力される、境界線毎の輪郭候補点群の平均点の一例を示す。
一方、格子状分割部608は入力される白黒画像データ602を縦4、横6の格子状に24分割する。分割する矩形ブロックの数はこれに限られるものではなく、装置の処理速度と検出精度とのトレードオフで決定される。次いで、分割された領域毎に輝度の平均を取る。図8(a)に元の白黒画像データ602の一例を、図8(b)に格子状分割部608によって処理された画像データの一例を示す。モザイク処理と呼ばれる周知の画像処理と同様のものである。実際の装置では情報処理装置のメモリ内に矩形ブロック毎の輝度平均値が格納されることとなる。
境界ブロック選定部609は、得られた矩形ブロック毎の輝度平均値と画像データを用いて、以下の経験的法則を用いて眉の境界部分を含む小ブロックを選定する。
境界ブロック選定部609は、得られた矩形ブロック毎の輝度平均値と画像データを用いて、以下の経験的法則を用いて眉の境界部分を含む小ブロックを選定する。
(1) 分割領域を相対的に分析するために、全体の平均輝度(AVE)と標準偏差(SD)を求め、AVE±SDの範囲以上の輝度を肌候補とし、以下を眉候補とする。
(2) 一番上の領域に眉候補があった場合、それは髪であるとする。また、髪候補に隣り合う眉候補も髪候補として排除する。
(3) (1)及び(2)で決定した髪・肌領域を除いた部分で再び平均と標準偏差を求め、(1)(2)と同様領域を決定していく。
(4) 未決定の領域において、そこと周囲との輝度差が、全体の眉と肌領域における輝度差の50%以上あった場合は、それぞれ眉と肌領域の境界であると決定する。
(2) 一番上の領域に眉候補があった場合、それは髪であるとする。また、髪候補に隣り合う眉候補も髪候補として排除する。
(3) (1)及び(2)で決定した髪・肌領域を除いた部分で再び平均と標準偏差を求め、(1)(2)と同様領域を決定していく。
(4) 未決定の領域において、そこと周囲との輝度差が、全体の眉と肌領域における輝度差の50%以上あった場合は、それぞれ眉と肌領域の境界であると決定する。
図8(c)にエッジ検出にて得られた全ての抽出点の一例を、図8(d)に平均値の一例を示す。
眉輪郭候補点仮決定部610は、平均点抽出部607から得られた平均輪郭候補点と、境界ブロック選定部609から得られた眉の境界部分を含む小ブロックを得て、平均輪郭候補点の修正を行う。すなわち、眉の境界部分でないと思しき座標に平均輪郭候補点が存在する場合は、これを破棄する。破棄した平均輪郭候補点は、再度エッジ検出部605から得たエッジから作成する。
眉輪郭内平均輝度算出部611は、仮決定した眉輪郭候補点によって囲まれる範囲の平均輝度を算出する。これは眉全体の平均輝度を意味する。
眉輪郭修正部612は、平均輝度以下の画素が仮決定した眉輪郭候補点によって囲まれる範囲の外にあったら、その画素も眉に含めるように輪郭形状を修正する処理を行う。
以上の手順を経て、最終的に眉輪郭データ613が作成される。
なお、眉探索ウインドウ設定部603にて設定したウインドウを、境界ブロック選定部609にて予め狭めておいてから短冊状分割部604以降の処理を行うと、平均点抽出部607から得たデータはそのまま眉輪郭データ613を作成する際の眉輪郭候補点として利用できる。
眉輪郭内平均輝度算出部611は、仮決定した眉輪郭候補点によって囲まれる範囲の平均輝度を算出する。これは眉全体の平均輝度を意味する。
眉輪郭修正部612は、平均輝度以下の画素が仮決定した眉輪郭候補点によって囲まれる範囲の外にあったら、その画素も眉に含めるように輪郭形状を修正する処理を行う。
以上の手順を経て、最終的に眉輪郭データ613が作成される。
なお、眉探索ウインドウ設定部603にて設定したウインドウを、境界ブロック選定部609にて予め狭めておいてから短冊状分割部604以降の処理を行うと、平均点抽出部607から得たデータはそのまま眉輪郭データ613を作成する際の眉輪郭候補点として利用できる。
図8(e)に各所の範囲内のみにて平均を求めて作成した眉輪郭点の一例を、図8(f)に複数平均を採用した眉輪郭点の一例を示す。
画像により眉や肌の輝度には大きく差があり、適切な値を推測するのは非常に困難である。眉は個人差が大きく、輪郭がはっきりしない場合や部分的に影ができているなどの要因から、1つの閾値では全体を完全に眉と肌を分離することは不可能である。よって肌と眉を輝度によって抽出するためには、局地的に分析することが重要であると考える。その閾値を定量的に求め、最適な特徴点を抽出する。
眉の輪郭が1つの閾値で二値化できない、またはエッジの抽出ができないのは、眉の輝度分布が一様ではないからである。同じ閾値の中で眉の輪郭が正確に現れているのは部分的であり、閾値の変化によってそれは変化していく。しかし逆に考えると、部分的であれ眉の輪郭が正確に現れる閾値を推測できれば、全体の輪郭抽出が可能になる。
同一画像内で眉の輪郭を一定のエッジの強さで抽出することは困難である。そこで、部分的に異なるエッジの強さを分析するために、図7(a)に示されるように、眉の探索領域を横方向に12分割する。そして、図7(b)のようにCannyのエッジ抽出法によりエッジの強さを何種類か変化させ、図7(c)のように分割したそれぞれの地点で輪郭点を拾っていく。エッジが抽出できた場合のみで座標の平均を計算し、この時点での輪郭点候補とする。図7(d)は抽出した輪郭点候補の一例であり、抽出した全ての輪郭点を表し、図7(e)はそれらの平均値である。
前述の短冊状分割に基づく輪郭候補点作成方法を眉探索領域の縦方向全体で探索してしまうと、ホクロや影などのノイズを抽出してしまう恐れがある。これを防ぐために、予め眉が存在するであろう範囲を推定しておき、探索開始位置を変化させることで、誤抽出を削減する手法をとる。
眉探索領域を6×4に分割し、それぞれの平均輝度を計算する。図8(b)に結果例を示しているが、ここから分かるように中央付近に低輝度群が存在しており、これを眉領域と推定できる。また周囲に存在する高輝度群は肌領域と推定することができ、こうしてエッジの探索開始位置を事前に変えることができる。輝度分析は経験的法則により行い、最終的に各地点での探索範囲、及び眉の横幅を推定する。このとき、髪領域として決定した部分が大部分を占めているなど抽出に支障が出る結果になった場合は、この時点で一旦抽出を保留し、片側の結果を参考にする。入力画像によっては片方の眉が隠れていたとして、もう片方ははっきり現れている場合がある。眉が現れていない部分はもう片方の状態を反映する。両側の眉が隠れていた場合は抽出不可能として平均眉の座標を配置する。
眉探索領域を6×4に分割し、それぞれの平均輝度を計算する。図8(b)に結果例を示しているが、ここから分かるように中央付近に低輝度群が存在しており、これを眉領域と推定できる。また周囲に存在する高輝度群は肌領域と推定することができ、こうしてエッジの探索開始位置を事前に変えることができる。輝度分析は経験的法則により行い、最終的に各地点での探索範囲、及び眉の横幅を推定する。このとき、髪領域として決定した部分が大部分を占めているなど抽出に支障が出る結果になった場合は、この時点で一旦抽出を保留し、片側の結果を参考にする。入力画像によっては片方の眉が隠れていたとして、もう片方ははっきり現れている場合がある。眉が現れていない部分はもう片方の状態を反映する。両側の眉が隠れていた場合は抽出不可能として平均眉の座標を配置する。
輪郭点候補を決定した後、上下の点に囲まれた範囲で平均輝度を求める。大まかではあるが平均点抽出部607で抽出した候補点の範囲における平均を求めることで、眉の輝度に対応することができると考える。具体的には平均(AVE)と標準偏差(SD)からAVE±SDの範囲内にある部分を、境界ブロック選定部609で決めた探索開始位置と同様に探索し眉領域とする。
ここでの問題点は、平均点抽出部607でエッジの強さを変化させたことによって、現れる輪郭点の座標位置が一定の範囲に収まるとは限らず、輪郭点からは外れた肌や眉の中央に設定されてしまう場合がある。そこで平均輝度を算出する際、隣り合う分割領域も計算に入れ、より眉領域らしい値を算出する。図8(f)が適応例であるが、その部分のみの計算結果である図8(e)より、両側を引き連れた結果の方が輪郭抽出精度が高いことが分かる。
ここでの問題点は、平均点抽出部607でエッジの強さを変化させたことによって、現れる輪郭点の座標位置が一定の範囲に収まるとは限らず、輪郭点からは外れた肌や眉の中央に設定されてしまう場合がある。そこで平均輝度を算出する際、隣り合う分割領域も計算に入れ、より眉領域らしい値を算出する。図8(f)が適応例であるが、その部分のみの計算結果である図8(e)より、両側を引き連れた結果の方が輪郭抽出精度が高いことが分かる。
以上に記したように、眉の輪郭を短冊状に分割する処理と、格子状に分割する処理とをそれぞれ行い、短冊状に分割した領域からエッジを抽出した結果を格子状分割処理によって得た輝度平均を用いて補正することにより、眉全体の自然な輪郭抽出が可能になる。
眉輪郭データの作成は上記に留まらず、以下のような応用例が可能である。
(1)上記実施形態は白黒画像データ602に対して評価を行ったが、人物の顔画像データから肌色を検出してこの尤度を求め、尤度を評価の対象とすることもできる。この場合、白黒画像データ602と異なり、画素データが肌であるか眉であるかによって、画素毎にはっきり分けられるので、エッジ抽出が正確になるメリットがある。
(1)上記実施形態は白黒画像データ602に対して評価を行ったが、人物の顔画像データから肌色を検出してこの尤度を求め、尤度を評価の対象とすることもできる。この場合、白黒画像データ602と異なり、画素データが肌であるか眉であるかによって、画素毎にはっきり分けられるので、エッジ抽出が正確になるメリットがある。
[5.口輪郭抽出部]
図9は、口輪郭抽出部106の機能ブロック図である。
口探索ウインドウ設定部903は、カラー画像データ902と瞳中心座標901を受け、口を探索する範囲(ウインドウ)を設定する。前述の瞳探索ウインドウ設定部202、目探索ウインドウ設定部404及び眉探索ウインドウ設定部603と同様の、処理速度及び精度向上のための探索範囲限定処理である。
Q'演算部はカラー画像データ902の各画素データに対し、以下の数式3にて演算処理を行い、Q'を算出する。
図9は、口輪郭抽出部106の機能ブロック図である。
口探索ウインドウ設定部903は、カラー画像データ902と瞳中心座標901を受け、口を探索する範囲(ウインドウ)を設定する。前述の瞳探索ウインドウ設定部202、目探索ウインドウ設定部404及び眉探索ウインドウ設定部603と同様の、処理速度及び精度向上のための探索範囲限定処理である。
Q'演算部はカラー画像データ902の各画素データに対し、以下の数式3にて演算処理を行い、Q'を算出する。
ここでQ'とは、RGBカラー画像データをYIQカラー画像データに変換する際の、Qを算出する式の、元のGに係数αを与えたものである。
算出されたQ'はほぼ両極化された値となるので、二値化部906にて閾値907と比較して二値化する。閾値907はQ'が0〜255の値をとることから、中間の128を設定する。
口ドット数総和演算部908は二値化部906にて口であると思しき画素データを数える。
定数更新部905はαを0.02だけ減じて再度Q'演算部に与え、繰り返し演算を行う。
こうして、αの変化に対する口画素データ数とそのときの二値化データが一時記憶部909に格納される。
二階微分部910は一時記憶部909内の口画素データ数の変化の変化を算出する。
α最適値判定部911は二階微分部910の演算結果を見て、最も口を適切に抽出したと思しきαを判定し、そのときの二値化データを口輪郭データの元として選択する。
選択された二値化データは収縮・膨張処理部912にて細かいノイズが除去され、口領域データとなる。
外形近似部913は口領域データの外形を曲線近似する。
曲線近似は図10に示すように、唇の両端L1及びL2と、鼻筋を通る唇の上側の中点L3と、下側の中点L4を基準に、唇を四つの領域に分割し、それぞれを三次関数曲線にて近似する。
内側輪郭近似部915は白黒画像データ914を口領域データにて切り抜くように選択し、得られたデータに対し、エッジ抽出にて低輝度輪郭部分を抽出する。
以上の手順にて、口領域データの外形と内側低輝度輪郭部分とを近似処理した結果が、口輪郭データ916となる。
算出されたQ'はほぼ両極化された値となるので、二値化部906にて閾値907と比較して二値化する。閾値907はQ'が0〜255の値をとることから、中間の128を設定する。
口ドット数総和演算部908は二値化部906にて口であると思しき画素データを数える。
定数更新部905はαを0.02だけ減じて再度Q'演算部に与え、繰り返し演算を行う。
こうして、αの変化に対する口画素データ数とそのときの二値化データが一時記憶部909に格納される。
二階微分部910は一時記憶部909内の口画素データ数の変化の変化を算出する。
α最適値判定部911は二階微分部910の演算結果を見て、最も口を適切に抽出したと思しきαを判定し、そのときの二値化データを口輪郭データの元として選択する。
選択された二値化データは収縮・膨張処理部912にて細かいノイズが除去され、口領域データとなる。
外形近似部913は口領域データの外形を曲線近似する。
曲線近似は図10に示すように、唇の両端L1及びL2と、鼻筋を通る唇の上側の中点L3と、下側の中点L4を基準に、唇を四つの領域に分割し、それぞれを三次関数曲線にて近似する。
内側輪郭近似部915は白黒画像データ914を口領域データにて切り抜くように選択し、得られたデータに対し、エッジ抽出にて低輝度輪郭部分を抽出する。
以上の手順にて、口領域データの外形と内側低輝度輪郭部分とを近似処理した結果が、口輪郭データ916となる。
口が含まれるおおよその領域候補を、先に求めてある瞳の中心位置から限定する。瞳中心距離を1としたときに、幅1.5、高さ1.0の矩形を両目の中央点から0.7下に移動した位置の範囲である。
本実施形態では、この領域におけるYIQ変換の際に、Q要素における緑(以下「G」と略す)の値を係数を用いて変化させる。これは係数αの値によって意図的に緑成分の強い画像にすることで、赤(以下「R」)および青(以下「B」)の弱い部分を削除し、雑音除去の効果がある。結果として顔領域内において赤色成分の強い唇領域のみが検出される。
幾つかの画像データのサンプルを対象に、試験的にαの変化と変換した画素データ数の数を比較すると、αが最適解の付近で画素データ数の変化量が大きくなっていることがわかった。
そこで、αを減少させながら画素データ数を計数し、変化量の変化量が探索領域画素数の1.0%を超える直前のαを最適解と決定する。
本実施形態では、この領域におけるYIQ変換の際に、Q要素における緑(以下「G」と略す)の値を係数を用いて変化させる。これは係数αの値によって意図的に緑成分の強い画像にすることで、赤(以下「R」)および青(以下「B」)の弱い部分を削除し、雑音除去の効果がある。結果として顔領域内において赤色成分の強い唇領域のみが検出される。
幾つかの画像データのサンプルを対象に、試験的にαの変化と変換した画素データ数の数を比較すると、αが最適解の付近で画素データ数の変化量が大きくなっていることがわかった。
そこで、αを減少させながら画素データ数を計数し、変化量の変化量が探索領域画素数の1.0%を超える直前のαを最適解と決定する。
以上に記したように、口の色に特化した色情報変換式の係数を最適なものに定めることにより、口輪郭を高精度に抽出することができる。
[6.鼻輪郭抽出部]
図11は、鼻輪郭抽出部107の機能ブロック図である。
鼻探索ウインドウ設定部1104は、白黒画像データ1103と瞳中心座標1102と口座標1101とを受け、鼻を探索する範囲(ウインドウ)を設定する。前述の瞳探索ウインドウ設定部202、目探索ウインドウ設定部404、眉探索ウインドウ設定部603及び口探索ウインドウ設定部903と同様の、処理速度及び精度向上のための探索範囲限定処理である。
具体的には、例えば
- 瞳の間隔を1として、
- 口の中心点から0.33上側をウインドウ下端、
- 瞳同士を結ぶ線分から0.25上側をウインドウ上端
と設定した後、設定したウインドウの下半分のみを輪郭抽出に用いる。
図12(a)に顔画像データに対するウインドウの設定を表す。
二値化部1105はウインドウ内の画素データの輝度を閾値1106と比較し、低輝度部分を抽出する。
重心検出部1107は得られた画像データから低輝度部分の重心を算出する。これは左右の鼻の穴の中心に該当する。
一時記憶部1108は重心を一時記憶すると共に、閾値1106を更新させる。
こうして閾値1106を所定範囲内にて振りながら画像データ中の低輝度部分の重心を検出し、それぞれ一時記憶部1108にて記憶する。
次に、重心平均算出部1109は得られた重心から平均値を算出する。こうして、左右の鼻の穴の間に位置する中心点を得る。この中心点を通る縦の線(以下「中心線」)を中心に、小鼻を検出する。小鼻エッジ検出・補正部1110はエッジ検出にて小鼻の輪郭データを検出した後、中心線を基準に平均して、左右対称の小鼻輪郭データを得る。その後、左右の小鼻輪郭の下端を結ぶ線分と中心線との交点を、鼻の最下点とする。こうして、鼻最下点と小鼻輪郭データ1111が得られる。
図12(b)にエッジ検出処理による小鼻輪郭データの抽出結果を表す。
鼻筋推定部1112は、鼻の最下点と小鼻輪郭データと瞳中心座標1102を基準に、鼻の上半分を含む鼻筋を適当な値にて推定する。
以上の処理にて得られた、鼻最下点と小鼻輪郭と鼻筋が、鼻輪郭データ1113となる。
図12(c)に鼻輪郭の抽出結果を表す。
図11は、鼻輪郭抽出部107の機能ブロック図である。
鼻探索ウインドウ設定部1104は、白黒画像データ1103と瞳中心座標1102と口座標1101とを受け、鼻を探索する範囲(ウインドウ)を設定する。前述の瞳探索ウインドウ設定部202、目探索ウインドウ設定部404、眉探索ウインドウ設定部603及び口探索ウインドウ設定部903と同様の、処理速度及び精度向上のための探索範囲限定処理である。
具体的には、例えば
- 瞳の間隔を1として、
- 口の中心点から0.33上側をウインドウ下端、
- 瞳同士を結ぶ線分から0.25上側をウインドウ上端
と設定した後、設定したウインドウの下半分のみを輪郭抽出に用いる。
図12(a)に顔画像データに対するウインドウの設定を表す。
二値化部1105はウインドウ内の画素データの輝度を閾値1106と比較し、低輝度部分を抽出する。
重心検出部1107は得られた画像データから低輝度部分の重心を算出する。これは左右の鼻の穴の中心に該当する。
一時記憶部1108は重心を一時記憶すると共に、閾値1106を更新させる。
こうして閾値1106を所定範囲内にて振りながら画像データ中の低輝度部分の重心を検出し、それぞれ一時記憶部1108にて記憶する。
次に、重心平均算出部1109は得られた重心から平均値を算出する。こうして、左右の鼻の穴の間に位置する中心点を得る。この中心点を通る縦の線(以下「中心線」)を中心に、小鼻を検出する。小鼻エッジ検出・補正部1110はエッジ検出にて小鼻の輪郭データを検出した後、中心線を基準に平均して、左右対称の小鼻輪郭データを得る。その後、左右の小鼻輪郭の下端を結ぶ線分と中心線との交点を、鼻の最下点とする。こうして、鼻最下点と小鼻輪郭データ1111が得られる。
図12(b)にエッジ検出処理による小鼻輪郭データの抽出結果を表す。
鼻筋推定部1112は、鼻の最下点と小鼻輪郭データと瞳中心座標1102を基準に、鼻の上半分を含む鼻筋を適当な値にて推定する。
以上の処理にて得られた、鼻最下点と小鼻輪郭と鼻筋が、鼻輪郭データ1113となる。
図12(c)に鼻輪郭の抽出結果を表す。
鼻の輪郭は他の器官に比べて輪郭がはっきりせず、エッジ検出にて完全な抽出を目指そうとすると誤抽出の可能性も高くなってしまう。何より、似顔絵ツールでの鼻の描写において必要な点は限られていると言ってよく、残りの点は機械的に配置することで十分な抽出となる。
似顔絵描写ツールにおける鼻の描写について必要な点は、鼻の最下点と、横の輪郭のみと言える。残りの点は眉の内側の特徴点から機械的に配置していく。
鼻の領域で輝度変化が一番大きいと言えるのは、鼻の穴を含めた下の部分である。ある閾値1106で二値化すると鼻の穴を中心に輝度分布が現れる。入力画像に依らない抽出をするために、何種類か閾値1106を変化させ、低輝度群の重心をそれぞれ計算していき、それらの平均を求めることで鼻の下側部分を求めることができる。二値化対象部分は、ウインドウ設定範囲において下半分の領域である。本実施形態では、0〜255迄の値を取る白黒画像データ1103に対して、閾値1106を50から150まで5ずつ変化させていき、閾値1106以下の重心平均を求め、鼻の最下点を設定する。
鼻の横側は、中心点に対して対称に現れていることを利用し、ウインドウ設定範囲において領域エッジの強さを変化させつつ、左右の座標を平均させる。エッジの検出は瞳抽出及び眉輪郭抽出にて説明した処理と同じである。
似顔絵描写ツールにおける鼻の描写について必要な点は、鼻の最下点と、横の輪郭のみと言える。残りの点は眉の内側の特徴点から機械的に配置していく。
鼻の領域で輝度変化が一番大きいと言えるのは、鼻の穴を含めた下の部分である。ある閾値1106で二値化すると鼻の穴を中心に輝度分布が現れる。入力画像に依らない抽出をするために、何種類か閾値1106を変化させ、低輝度群の重心をそれぞれ計算していき、それらの平均を求めることで鼻の下側部分を求めることができる。二値化対象部分は、ウインドウ設定範囲において下半分の領域である。本実施形態では、0〜255迄の値を取る白黒画像データ1103に対して、閾値1106を50から150まで5ずつ変化させていき、閾値1106以下の重心平均を求め、鼻の最下点を設定する。
鼻の横側は、中心点に対して対称に現れていることを利用し、ウインドウ設定範囲において領域エッジの強さを変化させつつ、左右の座標を平均させる。エッジの検出は瞳抽出及び眉輪郭抽出にて説明した処理と同じである。
以上に記したように、鼻において最も捉え易い特徴である鼻の穴を先ず検出し、その重心を求めることにより、正確な特徴を捉えることができる。
[7.顔輪郭抽出部]
図13は、顔輪郭抽出部108の機能ブロック図である。
顔輪郭データの抽出処理は、顔の両端の点を基準に、上下方向へ輪郭をなぞるような処理となる。
先ず、口座標データ1301から口重心特定部1304にて口の重心を特定し、口重心座標データを得る。なお、この際に鼻輪郭抽出処理の鼻探索ウインドウ設定部1104にて利用した口の中心を利用することもできる。
次に口両端走査線設定部1305にて、口重心座標を通過する真横の線を口両端走査線として設定する。
口真横輪郭点抽出部1306は、口両端走査線上の画素データに対してエッジ抽出と平均を取って、口両端走査線上の顔の輪郭との交点を見つける。この点が顎基準点となる。顎基準点は殆どの場合、首よりも上側に位置するので、顎輪郭抽出処理の起点として、また目両端迄の顔側面に沿った輪郭抽出処理の起点としても適切である。なお、平均処理の際は抽出した数種類の顎輪郭点の分布から大きく外れている点を取り除くことで、誤検出を防ぐ。口真横輪郭点抽出部1306の内部詳細は後述する。
顎探索ウインドウ設定部1307は顎基準点を用いて白黒画像データ1302に対して顎の輪郭を探索するためのウインドウを設定する。
顎探索ウインドウ設定部1307は、白黒画像データ1302と顎基準点を受け、顎を探索する範囲(ウインドウ)を設定する。前述の瞳探索ウインドウ設定部202、目探索ウインドウ設定部404、眉探索ウインドウ設定部603、口探索ウインドウ設定部903及び鼻探索ウインドウ設定部1104と同様の、処理速度及び精度向上のための探索範囲限定処理である。
顎輪郭データ抽出部1308は、ウインドウ内の画素データに対し、エッジ検出を行った後、放物線近似による平均処理にて顎輪郭データを抽出する。顎輪郭データ抽出部1308の内部詳細は後述する。
図13は、顔輪郭抽出部108の機能ブロック図である。
顔輪郭データの抽出処理は、顔の両端の点を基準に、上下方向へ輪郭をなぞるような処理となる。
先ず、口座標データ1301から口重心特定部1304にて口の重心を特定し、口重心座標データを得る。なお、この際に鼻輪郭抽出処理の鼻探索ウインドウ設定部1104にて利用した口の中心を利用することもできる。
次に口両端走査線設定部1305にて、口重心座標を通過する真横の線を口両端走査線として設定する。
口真横輪郭点抽出部1306は、口両端走査線上の画素データに対してエッジ抽出と平均を取って、口両端走査線上の顔の輪郭との交点を見つける。この点が顎基準点となる。顎基準点は殆どの場合、首よりも上側に位置するので、顎輪郭抽出処理の起点として、また目両端迄の顔側面に沿った輪郭抽出処理の起点としても適切である。なお、平均処理の際は抽出した数種類の顎輪郭点の分布から大きく外れている点を取り除くことで、誤検出を防ぐ。口真横輪郭点抽出部1306の内部詳細は後述する。
顎探索ウインドウ設定部1307は顎基準点を用いて白黒画像データ1302に対して顎の輪郭を探索するためのウインドウを設定する。
顎探索ウインドウ設定部1307は、白黒画像データ1302と顎基準点を受け、顎を探索する範囲(ウインドウ)を設定する。前述の瞳探索ウインドウ設定部202、目探索ウインドウ設定部404、眉探索ウインドウ設定部603、口探索ウインドウ設定部903及び鼻探索ウインドウ設定部1104と同様の、処理速度及び精度向上のための探索範囲限定処理である。
顎輪郭データ抽出部1308は、ウインドウ内の画素データに対し、エッジ検出を行った後、放物線近似による平均処理にて顎輪郭データを抽出する。顎輪郭データ抽出部1308の内部詳細は後述する。
一方、目両端座標データ1303と白黒画像データ1302から目両端走査線設定部1309にて目両端座標データ1303を通過する真横の線を目両端走査線として設定する。
目真横輪郭点抽出部1310は、目両端走査線上の画素データに対してエッジ抽出と平均を取って、目両端走査線上の顔の輪郭との交点を見つける。この点が目真横輪郭点となる。いわば「こめかみ」に相当する点である。目真横輪郭点は後述の額輪郭データ作成処理の起点として利用される。但し、頭髪にて本来の目真横輪郭点が隠れてしまう可能性が多々あるので、後述の補正処理によって補正する。
口目元間探索ウインドウ設定部1311は、白黒画像データ1302と顎基準点と目真横輪郭点を受け、顎基準点から目真横輪郭点迄の顔輪郭を探索する範囲(ウインドウ)を設定する。前述の瞳探索ウインドウ設定部202、目探索ウインドウ設定部404、眉探索ウインドウ設定部603、口探索ウインドウ設定部903、鼻探索ウインドウ設定部1104及び顎探索ウインドウ設定部1307と同様の、処理速度及び精度向上のための探索範囲限定処理である。
口目元間輪郭データ抽出部1312は、ウインドウ内の画素データに対し、エッジ検出を行った後、放物線近似による平均処理にて口目元間輪郭データを抽出する。口目元間輪郭データ抽出部1312の内部詳細は後述する。
目真横輪郭点補正部1313は、口目元間輪郭データに基づいて目真横輪郭点を補正する。具体的には、目両端走査線と口目元間輪郭データによる線との交点を、真の目真横輪郭点として採用し直す。
以上の手順にて、口目元間輪郭データ1314が得られる。
目真横輪郭点抽出部1310は、目両端走査線上の画素データに対してエッジ抽出と平均を取って、目両端走査線上の顔の輪郭との交点を見つける。この点が目真横輪郭点となる。いわば「こめかみ」に相当する点である。目真横輪郭点は後述の額輪郭データ作成処理の起点として利用される。但し、頭髪にて本来の目真横輪郭点が隠れてしまう可能性が多々あるので、後述の補正処理によって補正する。
口目元間探索ウインドウ設定部1311は、白黒画像データ1302と顎基準点と目真横輪郭点を受け、顎基準点から目真横輪郭点迄の顔輪郭を探索する範囲(ウインドウ)を設定する。前述の瞳探索ウインドウ設定部202、目探索ウインドウ設定部404、眉探索ウインドウ設定部603、口探索ウインドウ設定部903、鼻探索ウインドウ設定部1104及び顎探索ウインドウ設定部1307と同様の、処理速度及び精度向上のための探索範囲限定処理である。
口目元間輪郭データ抽出部1312は、ウインドウ内の画素データに対し、エッジ検出を行った後、放物線近似による平均処理にて口目元間輪郭データを抽出する。口目元間輪郭データ抽出部1312の内部詳細は後述する。
目真横輪郭点補正部1313は、口目元間輪郭データに基づいて目真横輪郭点を補正する。具体的には、目両端走査線と口目元間輪郭データによる線との交点を、真の目真横輪郭点として採用し直す。
以上の手順にて、口目元間輪郭データ1314が得られる。
機械的特徴点配置部1315は、口目元間輪郭データ1314のうちの補正された目真横輪郭点を起点に、額の推定処理を行う。すなわち、この処理はどのような顔特徴の人物の顔面画像データを与えても、一様に均一な額を作り上げる処理である。
図21に機械的特徴点配置部1315の動作の概略を記す。
- 瞳間距離をXとする。
- 瞳の中心を通過する線分の中心から上方へ伸びる縦線について、Y=1.5Xとし、その点を額の頂点とする。
- 目尻から水平に引いた直線と顔輪郭との交点をS1とする。
- 眉尻から水平に引いた直線と顔輪郭との交点をS2とする。
- S1とS2の垂直距離をUとする。
- S2から更に垂直距離がU離れている顔輪郭との交点をS3とする。
- S3を通る水平線とYとの交点よりなる垂直距離Tについて、T=Y−2Uとする。
- Tについて、上から1/20T、1/9T、1/9T、下から1/3T、1/3Tと区切る。
- 瞳の中心を通過する線分の中心からS1迄の距離をWとする。
- Wについて、目真横輪郭点から1/20W、1/20Wと区切り、額中心から1/4W、1/5W、1/5Wと区切る。
- WとTについて上記のように分割した線同士の交点の外枠を額輪郭特徴点として、これを通過する曲線によって輪郭形状を近似する。近似曲線としては、例えば三次式スプライン曲線等を用いる。
図21に機械的特徴点配置部1315の動作の概略を記す。
- 瞳間距離をXとする。
- 瞳の中心を通過する線分の中心から上方へ伸びる縦線について、Y=1.5Xとし、その点を額の頂点とする。
- 目尻から水平に引いた直線と顔輪郭との交点をS1とする。
- 眉尻から水平に引いた直線と顔輪郭との交点をS2とする。
- S1とS2の垂直距離をUとする。
- S2から更に垂直距離がU離れている顔輪郭との交点をS3とする。
- S3を通る水平線とYとの交点よりなる垂直距離Tについて、T=Y−2Uとする。
- Tについて、上から1/20T、1/9T、1/9T、下から1/3T、1/3Tと区切る。
- 瞳の中心を通過する線分の中心からS1迄の距離をWとする。
- Wについて、目真横輪郭点から1/20W、1/20Wと区切り、額中心から1/4W、1/5W、1/5Wと区切る。
- WとTについて上記のように分割した線同士の交点の外枠を額輪郭特徴点として、これを通過する曲線によって輪郭形状を近似する。近似曲線としては、例えば三次式スプライン曲線等を用いる。
以上の処理によって得られた顎輪郭データ、口目元間輪郭データ1314、額輪郭データ1316が、顔輪郭データ1317として出力される。
なお、顔輪郭抽出部108の処理は、抽出精度を上げるために、白黒データの代わりに、肌色を検出してその尤度をガウス混合モデルにて近似処理した肌色尤度マップを作成し、肌色領域を二値化した後、口真横輪郭点を肌色領域の輪郭部分から得ることもできる。
以上に記したように、顔の輪郭をトレースする起点を口の両端から得ることにより、首の存在等による検出誤りもなく、適切な輪郭抽出処理の起点を設定できる。
[7.1.口真横輪郭点抽出部]
図14は、口真横輪郭点抽出部1306の機能ブロック図である。
口両端走査線1401上の画素データは、エッジ検出処理部1402によって閾値1403を変えつつエッジ検出処理が行われる。
得られたエッジは、口真横輪郭候補点1404として一時記憶される。
一時記憶された口真横輪郭候補点1404は、ノイズ排除部1405によって大幅に平均値から外れている点を排除する。
ノイズ排除部1405によってフィルタリングされた口真横輪郭候補点1404は、平均値算出部1406によって平均値が算出される。
得られた点が、口真横輪郭点座標データ1407となる。
図14は、口真横輪郭点抽出部1306の機能ブロック図である。
口両端走査線1401上の画素データは、エッジ検出処理部1402によって閾値1403を変えつつエッジ検出処理が行われる。
得られたエッジは、口真横輪郭候補点1404として一時記憶される。
一時記憶された口真横輪郭候補点1404は、ノイズ排除部1405によって大幅に平均値から外れている点を排除する。
ノイズ排除部1405によってフィルタリングされた口真横輪郭候補点1404は、平均値算出部1406によって平均値が算出される。
得られた点が、口真横輪郭点座標データ1407となる。
[7.2.目真横輪郭点抽出部]
図15は、目真横輪郭点抽出部1310の機能ブロック図である。
目両端走査線1501上の画素データは、エッジ検出処理部1502によって閾値1503を変えつつエッジ検出処理が行われる。
得られたエッジは、目真横輪郭候補点1504として一時記憶される。
一時記憶された目真横輪郭候補点1504は、ノイズ排除部1505によって大幅に平均値から外れている点を排除する。
ノイズ排除部1505によってフィルタリングされた目真横輪郭候補点1504は、平均値算出部1506によって平均値が算出される。
得られた点が、目真横輪郭点座標データ1507となる。
図15は、目真横輪郭点抽出部1310の機能ブロック図である。
目両端走査線1501上の画素データは、エッジ検出処理部1502によって閾値1503を変えつつエッジ検出処理が行われる。
得られたエッジは、目真横輪郭候補点1504として一時記憶される。
一時記憶された目真横輪郭候補点1504は、ノイズ排除部1505によって大幅に平均値から外れている点を排除する。
ノイズ排除部1505によってフィルタリングされた目真横輪郭候補点1504は、平均値算出部1506によって平均値が算出される。
得られた点が、目真横輪郭点座標データ1507となる。
[7.3.顎輪郭データ抽出部]
図16は、顎輪郭データ抽出部1308の機能ブロック図である。
顎探索ウインドウ内の画素データ1601は、エッジ検出処理部1603によって閾値1604を変えつつエッジ検出処理が行われる。
得られたエッジは、顎輪郭候補点群1605として一時記憶される。
一方、口真横輪郭候補点1602は初期の矩形ウインドウ開始点1608として記憶され、矩形ウインドウ設定部1606に与えられる。
矩形ウインドウ設定部1606は矩形ウインドウ開始点1608から一時記憶されている顎輪郭候補点群1605に対して顎をトレースするように斜め下方向に矩形ウインドウを設定し、処理対象データである顎輪郭候補点群1605を限定する。
放物線近似部1607は矩形ウインドウ設定部1606によって限定された顎輪郭候補点群1605に対し、最小二乗法によって近似した放物線を設定する。そして、近似した放物線と矩形ウインドウとの交点を次の矩形ウインドウ開始点1608に設定する。
矩形ウインドウ設定部1606と放物線近似部1607の処理を左右の口真横輪郭候補点から開始して合計六箇所の近似処理を行うことで、最終的に顎輪郭データ1609を得る。
図17は、エッジ検出した顎探索ウインドウ内データに対し、矩形ウインドウを設定する様子を模式的に示す図である。顎探索ウインドウ1701内に、矩形ウインドウ1702が口真横輪郭候補点1703から設定される。
図16は、顎輪郭データ抽出部1308の機能ブロック図である。
顎探索ウインドウ内の画素データ1601は、エッジ検出処理部1603によって閾値1604を変えつつエッジ検出処理が行われる。
得られたエッジは、顎輪郭候補点群1605として一時記憶される。
一方、口真横輪郭候補点1602は初期の矩形ウインドウ開始点1608として記憶され、矩形ウインドウ設定部1606に与えられる。
矩形ウインドウ設定部1606は矩形ウインドウ開始点1608から一時記憶されている顎輪郭候補点群1605に対して顎をトレースするように斜め下方向に矩形ウインドウを設定し、処理対象データである顎輪郭候補点群1605を限定する。
放物線近似部1607は矩形ウインドウ設定部1606によって限定された顎輪郭候補点群1605に対し、最小二乗法によって近似した放物線を設定する。そして、近似した放物線と矩形ウインドウとの交点を次の矩形ウインドウ開始点1608に設定する。
矩形ウインドウ設定部1606と放物線近似部1607の処理を左右の口真横輪郭候補点から開始して合計六箇所の近似処理を行うことで、最終的に顎輪郭データ1609を得る。
図17は、エッジ検出した顎探索ウインドウ内データに対し、矩形ウインドウを設定する様子を模式的に示す図である。顎探索ウインドウ1701内に、矩形ウインドウ1702が口真横輪郭候補点1703から設定される。
[7.4.口目元間輪郭データ抽出部]
図18は、口目元間輪郭データ抽出部1312の機能ブロック図である。
口目元間探索ウインドウ内データ1801は、エッジ検出処理部1803によって閾値1804を変えつつエッジ検出処理が行われる。
得られたエッジは、口目元間輪郭候補点群1805として一時記憶される。
一方、口真横輪郭候補点1802は初期の矩形ウインドウ開始点1807として記憶され、矩形ウインドウ設定部1806に与えられる。
矩形ウインドウ設定部1806は矩形ウインドウ開始点1807から一時記憶されている口目元輪郭候補点群1805に対して口から目元迄をトレースするように上方向に矩形ウインドウを設定し、処理対象データである口目元間輪郭候補点群1805を限定する。
放物線近似部1808は矩形ウインドウ設定部1806によって限定された口目元間輪郭候補点群1805に対し、最小二乗法によって近似した放物線を設定する。そして、近似した放物線と矩形ウインドウとの交点を次の矩形ウインドウ開始点1807に設定する。
矩形ウインドウ設定部1806と放物線近似部1808の処理を左右の口真横輪郭候補点1802から開始して合計六箇所の近似処理を行うことで、最終的に口目元間輪郭データ1809を得る。
図19は、エッジ検出した口目元間探索ウインドウ内データに対し、矩形ウインドウを設定する様子を模式的に示す図である。
口目元間探索ウインドウ1901に対し、矩形ウインドウ1902が口真横輪郭候補点1903を起点に設定される。
図18は、口目元間輪郭データ抽出部1312の機能ブロック図である。
口目元間探索ウインドウ内データ1801は、エッジ検出処理部1803によって閾値1804を変えつつエッジ検出処理が行われる。
得られたエッジは、口目元間輪郭候補点群1805として一時記憶される。
一方、口真横輪郭候補点1802は初期の矩形ウインドウ開始点1807として記憶され、矩形ウインドウ設定部1806に与えられる。
矩形ウインドウ設定部1806は矩形ウインドウ開始点1807から一時記憶されている口目元輪郭候補点群1805に対して口から目元迄をトレースするように上方向に矩形ウインドウを設定し、処理対象データである口目元間輪郭候補点群1805を限定する。
放物線近似部1808は矩形ウインドウ設定部1806によって限定された口目元間輪郭候補点群1805に対し、最小二乗法によって近似した放物線を設定する。そして、近似した放物線と矩形ウインドウとの交点を次の矩形ウインドウ開始点1807に設定する。
矩形ウインドウ設定部1806と放物線近似部1808の処理を左右の口真横輪郭候補点1802から開始して合計六箇所の近似処理を行うことで、最終的に口目元間輪郭データ1809を得る。
図19は、エッジ検出した口目元間探索ウインドウ内データに対し、矩形ウインドウを設定する様子を模式的に示す図である。
口目元間探索ウインドウ1901に対し、矩形ウインドウ1902が口真横輪郭候補点1903を起点に設定される。
[8.耳輪郭抽出部]
図21は、耳輪郭抽出部109の機能ブロック図である。
耳探索ウインドウ設定部2105は、カラー画像データ2101と目両端座標2102と鼻最下点座標2103と顔輪郭データ3104を受け、耳を探索する範囲(ウインドウ)を設定する。このウインドウ設定は、前述の瞳探索ウインドウ設定部202、目探索ウインドウ設定部404、眉探索ウインドウ設定部603、口探索ウインドウ設定部903、鼻探索ウインドウ設定部1104、顎探索ウインドウ設定部1307及び口目元間探索ウインドウ設定部1311とは処理の意味が異なり、処理速度及び精度向上ではなく、画像内に耳が存在するか否かを判断し、あればその輪郭を耳として取り扱うための探索範囲設定処理である。
判定部2106はウインドウ範囲内に肌色の画素データがまとまった状態で存在するか否かを見る。なければ、それは頭髪によって耳が隠れており抽出不能であるので、これ以上何もせずに抽出処理を終了2107する。
ウインドウ範囲内に肌色領域があれば、肌色領域二値化部2108によって肌色領域を二値化する。これは肌色と思しきサンプルデータをカラー画像データから抽出した後、周知のHSV変換を施し、色相(Hue)及び彩度(Saturation)についてヒストグラムを生成し、ガウス混合モデル化して肌色モデルを作成した後、入力画素データについて肌色モデルと照合し、肌色の尤度を導き、得られた尤度を閾値と比較して肌色であるか否かを出力する処理である。
トレース処理部2109は、二値化された領域内データの輪郭を曲線近似にてトレースする。得られたデータは耳輪郭データ2110となる。
図21は、耳輪郭抽出部109の機能ブロック図である。
耳探索ウインドウ設定部2105は、カラー画像データ2101と目両端座標2102と鼻最下点座標2103と顔輪郭データ3104を受け、耳を探索する範囲(ウインドウ)を設定する。このウインドウ設定は、前述の瞳探索ウインドウ設定部202、目探索ウインドウ設定部404、眉探索ウインドウ設定部603、口探索ウインドウ設定部903、鼻探索ウインドウ設定部1104、顎探索ウインドウ設定部1307及び口目元間探索ウインドウ設定部1311とは処理の意味が異なり、処理速度及び精度向上ではなく、画像内に耳が存在するか否かを判断し、あればその輪郭を耳として取り扱うための探索範囲設定処理である。
判定部2106はウインドウ範囲内に肌色の画素データがまとまった状態で存在するか否かを見る。なければ、それは頭髪によって耳が隠れており抽出不能であるので、これ以上何もせずに抽出処理を終了2107する。
ウインドウ範囲内に肌色領域があれば、肌色領域二値化部2108によって肌色領域を二値化する。これは肌色と思しきサンプルデータをカラー画像データから抽出した後、周知のHSV変換を施し、色相(Hue)及び彩度(Saturation)についてヒストグラムを生成し、ガウス混合モデル化して肌色モデルを作成した後、入力画素データについて肌色モデルと照合し、肌色の尤度を導き、得られた尤度を閾値と比較して肌色であるか否かを出力する処理である。
トレース処理部2109は、二値化された領域内データの輪郭を曲線近似にてトレースする。得られたデータは耳輪郭データ2110となる。
以上に記したように、耳と思しき領域内に肌色が存在するか否かを検出することで、画像データ中の耳の存在の有無と輪郭抽出処理を迅速且つ的確に実施することができる。
100…顔特徴抽出装置、101…画像入力部、102…白黒変換部、103…瞳抽出部、104…目輪郭抽出部、105…眉輪郭抽出部、106…口輪郭抽出部、107…鼻輪郭抽出部、110…顔特徴データファイル、108…顔輪郭抽出部、109…耳輪郭抽出部
Claims (3)
- カラー顔画像データを得る画像入力部と、
前記画像入力部から得られるカラー顔画像データを白黒変換して白黒顔画像データを出力する白黒変換部と、
前記白黒顔画像データの低輝度部分を抜粋するコントラストフィルタと、
前記コントラストフィルタにて抜粋された前記白黒顔画像データの低輝度領域から瞳形状を探索して、瞳中心座標を含む瞳特徴データを出力する分離フィルタと
よりなることを特徴とする顔特徴抽出装置。 - 前記顔特徴抽出装置は更に、
前記白黒顔画像データを前記瞳中心座標から極座標展開して極座標画像データを得る極座標展開部と、
前記極座標画像データの輝度のエッジを曲線近似する曲線近似部と
よりなる目輪郭抽出部と、
前記白黒顔画像データを前記瞳中心座標を基準に眉の探索範囲を決定する眉探索範囲設定部と、
前記眉の探索範囲内の前記白黒顔画像データを縦方向に分割する短冊状分割部と、
前記眉の探索範囲内の前記白黒顔画像データを複数の矩形状ブロックに分割する格子状分割部と、
前記短冊状に分割された前記白黒顔画像データのエッジを前記矩形状ブロック毎の輝度平均にて補正するエッジ補正部と
よりなる眉輪郭抽出部と、
前記カラー顔画像データの色成分データを係数を変更しつつ変換する変換演算部と、
前記係数の変化と前記変換演算部の結果得られる画素データ群の数の変化を対比して、前記係数の最適値を求める最適係数判定部と
よりなる口輪郭抽出部と、
前記白黒顔画像データの低輝度領域の重心平均を算出する重心平均算出部と
よりなる鼻輪郭抽出部と、
前記口輪郭抽出部にて得られた口輪郭データから口の重心を特定する口重心特定部と、
前記口の重心を含む横方向の走査線を設定し、顔輪郭と交わる点を探索する口真横輪郭点探索部と
よりなる顔輪郭抽出部と、
耳が存在すると思しき領域を特定する耳探索ウインドウ設定部と、
前記耳探索ウインドウ設定部にて設定されたウインドウ内に肌色があるか否か検出する肌色検出部と、
前記肌色検出部の検出結果から輪郭を抽出する輪郭トレース部と
よりなる耳輪郭抽出部と
よりなることを特徴とする請求項1記載の顔特徴抽出装置。 - 白黒顔画像データの低輝度部分をコントラストフィルタにて抜粋した後、
前記抜粋された前記白黒顔画像データの低輝度領域から分離フィルタにて瞳形状を探索して、瞳中心座標を含む瞳特徴データを出力する
ことを特徴とする、顔特徴抽出方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006095586A JP2007272435A (ja) | 2006-03-30 | 2006-03-30 | 顔特徴抽出装置及び顔特徴抽出方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006095586A JP2007272435A (ja) | 2006-03-30 | 2006-03-30 | 顔特徴抽出装置及び顔特徴抽出方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007272435A true JP2007272435A (ja) | 2007-10-18 |
Family
ID=38675195
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006095586A Pending JP2007272435A (ja) | 2006-03-30 | 2006-03-30 | 顔特徴抽出装置及び顔特徴抽出方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007272435A (ja) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009193357A (ja) * | 2008-02-14 | 2009-08-27 | Seiko Epson Corp | 輪郭検出方法、輪郭検出装置および輪郭検出プログラム |
JP2010009234A (ja) * | 2008-06-25 | 2010-01-14 | Toyota Motor Corp | 眼画像処理装置 |
JP2010033220A (ja) * | 2008-07-28 | 2010-02-12 | Fujifilm Corp | 肌色モデル作成装置および方法並びにプログラム |
JP2010033221A (ja) * | 2008-07-28 | 2010-02-12 | Fujifilm Corp | 肌色検出装置および方法並びにプログラム |
JP2010066954A (ja) * | 2008-09-10 | 2010-03-25 | Fujifilm Corp | 顔イラスト画生成方法及び顔イラスト画生成装置 |
JP2010152871A (ja) * | 2008-11-28 | 2010-07-08 | Casio Computer Co Ltd | 画像処理装置、画像処理方法及びプログラム |
WO2018173352A1 (ja) * | 2017-03-24 | 2018-09-27 | 株式会社Screenホールディングス | 画像処理方法および画像処理装置 |
JP2018160216A (ja) * | 2017-03-24 | 2018-10-11 | 株式会社Screenホールディングス | 画像処理方法および画像処理装置 |
CN110399812A (zh) * | 2019-07-08 | 2019-11-01 | 中国平安财产保险股份有限公司 | 人脸特征智能提取方法、装置及计算机可读存储介质 |
CN111027517A (zh) * | 2019-12-26 | 2020-04-17 | 陈欣然 | 一种基于视觉的坐姿矫正提醒系统及方法、应用 |
WO2020108041A1 (zh) * | 2018-11-28 | 2020-06-04 | 北京达佳互联信息技术有限公司 | 耳部关键点检测方法、装置及存储介质 |
CN111241870A (zh) * | 2018-11-28 | 2020-06-05 | 深圳市帝迈生物技术有限公司 | 一种终端设备及其脸部图像的识别方法、识别系统 |
Citations (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH02196381A (ja) * | 1989-01-26 | 1990-08-02 | Mitsubishi Electric Corp | 画像目標検出装置 |
JPH06309457A (ja) * | 1993-04-26 | 1994-11-04 | Fuji Photo Film Co Ltd | 画像判別方法 |
JPH11306372A (ja) * | 1998-04-17 | 1999-11-05 | Sharp Corp | 画像加工装置、画像加工方法およびその方法を記憶した記憶媒体 |
JP2000011143A (ja) * | 1998-06-18 | 2000-01-14 | Shiseido Co Ltd | 顔立ち認識システム |
JP2000259833A (ja) * | 1999-03-08 | 2000-09-22 | Toshiba Corp | 顔画像処理装置及びその処理方法 |
JP2000311248A (ja) * | 1999-04-28 | 2000-11-07 | Sharp Corp | 画像処理装置 |
JP2000322588A (ja) * | 1999-05-06 | 2000-11-24 | Toshiba Corp | 画像処理装置及びその方法 |
JP2001126075A (ja) * | 1999-08-17 | 2001-05-11 | Fuji Photo Film Co Ltd | 画像処理方法および装置並びに記録媒体 |
JP2002119477A (ja) * | 2000-10-16 | 2002-04-23 | Oki Electric Ind Co Ltd | 虹彩円検出装置とこれを用いた虹彩パターン符号化装置 |
JP2002170104A (ja) * | 2000-11-30 | 2002-06-14 | Canon Inc | 個人認識システム、装置、方法、及びコンピュータ読み取り可能な記憶媒体 |
JP2004005167A (ja) * | 2002-05-31 | 2004-01-08 | Matsushita Electric Ind Co Ltd | 目位置特定方法および装置 |
JP2004030006A (ja) * | 2002-06-24 | 2004-01-29 | Digital Fashion Ltd | 眼検出装置、眼検出プログラム、そのプログラムを記録する記録媒体及び眼検出方法 |
JP2004246476A (ja) * | 2003-02-12 | 2004-09-02 | Fuji Xerox Co Ltd | 画像探索装置 |
JP2004336230A (ja) * | 2003-05-02 | 2004-11-25 | Fuji Photo Film Co Ltd | 画像処理装置および画像処理方法、画像形成装置ならびにプログラム |
JP2005081101A (ja) * | 2003-09-11 | 2005-03-31 | Nissan Diesel Motor Co Ltd | 視線方向検出装置及び視線方向検出方法 |
WO2005031612A1 (ja) * | 2003-09-26 | 2005-04-07 | Nikon Corporation | 電子画像蓄積方法、電子画像蓄積装置、及び電子画像蓄積システム |
JP2005190400A (ja) * | 2003-12-26 | 2005-07-14 | Seiko Epson Corp | 顔画像検出方法及び顔画像検出システム並びに顔画像検出プログラム |
JP2005196241A (ja) * | 2003-12-26 | 2005-07-21 | Konica Minolta Photo Imaging Inc | 顔領域抽出方法、顔領域抽出装置及び顔領域抽出プログラム |
JP2005242566A (ja) * | 2004-02-25 | 2005-09-08 | Canon Inc | 画像合成装置及び方法 |
JP2005311888A (ja) * | 2004-04-23 | 2005-11-04 | Omron Corp | 拡大表示装置及び拡大画像制御装置 |
JP2006025970A (ja) * | 2004-07-14 | 2006-02-02 | Matsushita Electric Ind Co Ltd | 瞳孔検出装置および虹彩認証装置 |
JP2006031388A (ja) * | 2004-07-15 | 2006-02-02 | Yamaha Motor Co Ltd | 画像類似度演算装置およびそれを利用した画像認識装置、画像類似度演算方法およびそれを利用した画像認識方法、ならびに画像照合用コンピュータプログラムおよびそれを記録した記録媒体 |
JP2006040231A (ja) * | 2004-07-30 | 2006-02-09 | Canon Inc | 画像処理装置及びその方法、撮像装置、プログラム |
-
2006
- 2006-03-30 JP JP2006095586A patent/JP2007272435A/ja active Pending
Patent Citations (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH02196381A (ja) * | 1989-01-26 | 1990-08-02 | Mitsubishi Electric Corp | 画像目標検出装置 |
JPH06309457A (ja) * | 1993-04-26 | 1994-11-04 | Fuji Photo Film Co Ltd | 画像判別方法 |
JPH11306372A (ja) * | 1998-04-17 | 1999-11-05 | Sharp Corp | 画像加工装置、画像加工方法およびその方法を記憶した記憶媒体 |
JP2000011143A (ja) * | 1998-06-18 | 2000-01-14 | Shiseido Co Ltd | 顔立ち認識システム |
JP2000259833A (ja) * | 1999-03-08 | 2000-09-22 | Toshiba Corp | 顔画像処理装置及びその処理方法 |
JP2000311248A (ja) * | 1999-04-28 | 2000-11-07 | Sharp Corp | 画像処理装置 |
JP2000322588A (ja) * | 1999-05-06 | 2000-11-24 | Toshiba Corp | 画像処理装置及びその方法 |
JP2001126075A (ja) * | 1999-08-17 | 2001-05-11 | Fuji Photo Film Co Ltd | 画像処理方法および装置並びに記録媒体 |
JP2002119477A (ja) * | 2000-10-16 | 2002-04-23 | Oki Electric Ind Co Ltd | 虹彩円検出装置とこれを用いた虹彩パターン符号化装置 |
JP2002170104A (ja) * | 2000-11-30 | 2002-06-14 | Canon Inc | 個人認識システム、装置、方法、及びコンピュータ読み取り可能な記憶媒体 |
JP2004005167A (ja) * | 2002-05-31 | 2004-01-08 | Matsushita Electric Ind Co Ltd | 目位置特定方法および装置 |
JP2004030006A (ja) * | 2002-06-24 | 2004-01-29 | Digital Fashion Ltd | 眼検出装置、眼検出プログラム、そのプログラムを記録する記録媒体及び眼検出方法 |
JP2004246476A (ja) * | 2003-02-12 | 2004-09-02 | Fuji Xerox Co Ltd | 画像探索装置 |
JP2004336230A (ja) * | 2003-05-02 | 2004-11-25 | Fuji Photo Film Co Ltd | 画像処理装置および画像処理方法、画像形成装置ならびにプログラム |
JP2005081101A (ja) * | 2003-09-11 | 2005-03-31 | Nissan Diesel Motor Co Ltd | 視線方向検出装置及び視線方向検出方法 |
WO2005031612A1 (ja) * | 2003-09-26 | 2005-04-07 | Nikon Corporation | 電子画像蓄積方法、電子画像蓄積装置、及び電子画像蓄積システム |
JP2005190400A (ja) * | 2003-12-26 | 2005-07-14 | Seiko Epson Corp | 顔画像検出方法及び顔画像検出システム並びに顔画像検出プログラム |
JP2005196241A (ja) * | 2003-12-26 | 2005-07-21 | Konica Minolta Photo Imaging Inc | 顔領域抽出方法、顔領域抽出装置及び顔領域抽出プログラム |
JP2005242566A (ja) * | 2004-02-25 | 2005-09-08 | Canon Inc | 画像合成装置及び方法 |
JP2005311888A (ja) * | 2004-04-23 | 2005-11-04 | Omron Corp | 拡大表示装置及び拡大画像制御装置 |
JP2006025970A (ja) * | 2004-07-14 | 2006-02-02 | Matsushita Electric Ind Co Ltd | 瞳孔検出装置および虹彩認証装置 |
JP2006031388A (ja) * | 2004-07-15 | 2006-02-02 | Yamaha Motor Co Ltd | 画像類似度演算装置およびそれを利用した画像認識装置、画像類似度演算方法およびそれを利用した画像認識方法、ならびに画像照合用コンピュータプログラムおよびそれを記録した記録媒体 |
JP2006040231A (ja) * | 2004-07-30 | 2006-02-09 | Canon Inc | 画像処理装置及びその方法、撮像装置、プログラム |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009193357A (ja) * | 2008-02-14 | 2009-08-27 | Seiko Epson Corp | 輪郭検出方法、輪郭検出装置および輪郭検出プログラム |
JP2010009234A (ja) * | 2008-06-25 | 2010-01-14 | Toyota Motor Corp | 眼画像処理装置 |
JP2010033220A (ja) * | 2008-07-28 | 2010-02-12 | Fujifilm Corp | 肌色モデル作成装置および方法並びにプログラム |
JP2010033221A (ja) * | 2008-07-28 | 2010-02-12 | Fujifilm Corp | 肌色検出装置および方法並びにプログラム |
JP2010066954A (ja) * | 2008-09-10 | 2010-03-25 | Fujifilm Corp | 顔イラスト画生成方法及び顔イラスト画生成装置 |
JP2010152871A (ja) * | 2008-11-28 | 2010-07-08 | Casio Computer Co Ltd | 画像処理装置、画像処理方法及びプログラム |
US8411911B2 (en) | 2008-11-28 | 2013-04-02 | Casio Computer Co., Ltd. | Image processing apparatus, image processing method, and storage medium for storing program |
JP2018160216A (ja) * | 2017-03-24 | 2018-10-11 | 株式会社Screenホールディングス | 画像処理方法および画像処理装置 |
WO2018173352A1 (ja) * | 2017-03-24 | 2018-09-27 | 株式会社Screenホールディングス | 画像処理方法および画像処理装置 |
TWI657411B (zh) * | 2017-03-24 | 2019-04-21 | SCREEN Holdings Co., Ltd. | 圖像處理方法及圖像處理裝置 |
US11094068B2 (en) | 2017-03-24 | 2021-08-17 | SCREEN Holdings Co., Ltd. | Image processing method and image processor |
JP7025124B2 (ja) | 2017-03-24 | 2022-02-24 | 株式会社Screenホールディングス | 画像処理方法および画像処理装置 |
WO2020108041A1 (zh) * | 2018-11-28 | 2020-06-04 | 北京达佳互联信息技术有限公司 | 耳部关键点检测方法、装置及存储介质 |
CN111241870A (zh) * | 2018-11-28 | 2020-06-05 | 深圳市帝迈生物技术有限公司 | 一种终端设备及其脸部图像的识别方法、识别系统 |
CN110399812A (zh) * | 2019-07-08 | 2019-11-01 | 中国平安财产保险股份有限公司 | 人脸特征智能提取方法、装置及计算机可读存储介质 |
CN110399812B (zh) * | 2019-07-08 | 2023-05-30 | 中国平安财产保险股份有限公司 | 人脸特征智能提取方法、装置及计算机可读存储介质 |
CN111027517A (zh) * | 2019-12-26 | 2020-04-17 | 陈欣然 | 一种基于视觉的坐姿矫正提醒系统及方法、应用 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2007272435A (ja) | 顔特徴抽出装置及び顔特徴抽出方法 | |
JP4307496B2 (ja) | 顔部位検出装置及びプログラム | |
CN104834898B (zh) | 一种人物摄影图像的质量分类方法 | |
KR101390756B1 (ko) | 안면 특징 검출 방법 및 장치 | |
JP4723834B2 (ja) | 映像に基づいたフォトリアリスティックな3次元の顔モデリング方法及び装置 | |
KR100682889B1 (ko) | 영상에 기반한 사실감 있는 3차원 얼굴 모델링 방법 및 장치 | |
JP3549013B2 (ja) | 目の位置検出方法、目の位置検出装置および目の位置検出プログラムを記録した記録媒体 | |
US7907752B2 (en) | Face center position detecting device, face center position detecting method, and computer-readable medium | |
US8154591B2 (en) | Eyelid opening level determination device and computer readable medium storing computer program thereof | |
KR101853006B1 (ko) | 깊이영상에서 코 검출을 이용한 얼굴 인식 | |
JP4597391B2 (ja) | 顔領域検出装置およびその方法並びにコンピュータ読み取り可能な記録媒体 | |
JPH0877334A (ja) | 顔画像の特徴点自動抽出方法 | |
WO2013143390A1 (zh) | 人脸标定方法和系统、计算机存储介质 | |
KR20160115663A (ko) | 화상 처리 장치 및 화상 처리 방법 | |
JP2005293539A (ja) | 表情認識装置 | |
JP2000105819A (ja) | 顔領域検出装置 | |
JP2007188407A (ja) | 画像処理装置及び画像処理プログラム | |
KR20020085669A (ko) | 3차원 영상의 생성을 위한 2차원 영상의 특징 추출 장치및 그 방법과 그를 이용한 3차원 영상의 생성 장치 및 그방법 | |
JP2003256834A (ja) | 顔領域抽出及び顔構成要素位置判定装置 | |
JPH08138024A (ja) | 画像の向き判定方法 | |
CN108491820B (zh) | 图像中肢体表示信息的识别方法、装置及设备、存储介质 | |
RU2329535C2 (ru) | Способ автоматического кадрирования фотографий | |
JP2005165983A (ja) | 人物顔のあご検出方法及びあご検出システム並びにあご検出プログラム | |
JP4996943B2 (ja) | 顔特徴点検出装置、顔特徴点検出方法及びプログラム | |
JP2008084109A (ja) | 目開閉判定装置及び目開閉判定方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090312 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110302 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110524 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20110927 |