JP2009193357A - 輪郭検出方法、輪郭検出装置および輪郭検出プログラム - Google Patents
輪郭検出方法、輪郭検出装置および輪郭検出プログラム Download PDFInfo
- Publication number
- JP2009193357A JP2009193357A JP2008033604A JP2008033604A JP2009193357A JP 2009193357 A JP2009193357 A JP 2009193357A JP 2008033604 A JP2008033604 A JP 2008033604A JP 2008033604 A JP2008033604 A JP 2008033604A JP 2009193357 A JP2009193357 A JP 2009193357A
- Authority
- JP
- Japan
- Prior art keywords
- contour
- image data
- inflection point
- point
- eye
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
【課題】顔器官の輪郭検出を高効率かつ高精度に行う。
【解決手段】輪郭パラメータL,R,T,Bを、左目の輪郭における目尻と目頭と上頂点と下頂点に対応させるように初期設定する。輪郭パラメータL,R,T,Bに基づいて左目を近似するための輪郭線Oを生成する。輪郭線Oの上部分は、輪郭パラメータTを共通の変曲点として有し輪郭パラメータLを終端点として有する曲線O1と、輪郭パラメータRを終端点として有する曲線O2によって構成される。輪郭線Oの下部分は、輪郭パラメータBを共通の変曲点として有し輪郭パラメータLを終端点として有する曲線O3と、輪郭パラメータRを終端点として有する曲線O4によって構成される。
【選択図】図15
【解決手段】輪郭パラメータL,R,T,Bを、左目の輪郭における目尻と目頭と上頂点と下頂点に対応させるように初期設定する。輪郭パラメータL,R,T,Bに基づいて左目を近似するための輪郭線Oを生成する。輪郭線Oの上部分は、輪郭パラメータTを共通の変曲点として有し輪郭パラメータLを終端点として有する曲線O1と、輪郭パラメータRを終端点として有する曲線O2によって構成される。輪郭線Oの下部分は、輪郭パラメータBを共通の変曲点として有し輪郭パラメータLを終端点として有する曲線O3と、輪郭パラメータRを終端点として有する曲線O4によって構成される。
【選択図】図15
Description
本発明は、輪郭検出方法、輪郭検出装置および輪郭検出プログラムに関し、特に顔器官の輪郭を検出する輪郭検出方法、輪郭検出装置および輪郭検出プログラムに関する。
画像データに含まれる人物の目の特徴点を検出する手法として、まず目頭と目尻を検出し、目頭と目尻を結ぶ直線の垂直二等分線上の領域からまぶたの頂点を検出する手法が提案されている(特許文献1、参照)。一方、断片的な多項式で表される複数の曲線からなる動的輪郭線モデル(スネーク)を画像データにおけるエッジに追従させる手法が提案されている。
特開2007−213377号公報
特表平5−508951号公報
前者の構成においては、目頭と目尻が精度よく検出されることがまぶたの頂点の検出の条件となるため、目頭と目尻の部分に髪の毛などがかかっていたりした場合には、目頭と目尻のみならずまぶたの頂点も検出することができなくなるという問題がある。また、目の輪郭の形状が、上下のまぶたの頂点を結んだ直線に関して線対称であることを前提としており、実際には非対称の顔器官の輪郭を精度よく近似することはできないという問題もあった。一方、後者の構成によれば、どのような形状の輪郭にも追従することが可能であるが、動的輪郭線モデルを構成する曲線の個数が多くなりすぎた場合、輪郭を検出するための演算処理負担が増大し、また検出した輪郭を特定するパラメータのデータ量も増大するという問題があった。
本発明は、前記課題にかんがみてなされたもので、顔器官の輪郭検出を高効率かつ高精度に行う輪郭検出方法、輪郭検出装置および輪郭検出プログラムを提供する。
前記課題を解決するために、前記画像データの異なる位置に3点を配置する。そして、当該3点のうち水平方向の両外側に位置する2点をそれぞれ終端点とする一対の2次曲線によって前記顔器官の輪郭の少なくとも一部を近似する。この一対の2次曲線は、前記3点のうち残る1点を共通の変曲点としており、当該変曲点にて互いに接続する。さらに、前記2次曲線の前記輪郭への近似性を評価する評価値を算出し、当該評価値に基づいて前記近似性を向上させる前記変曲点と前記終端点の位置を探索する。これにより、前記2次曲線を前記輪郭に近似させることができる。前記3点の位置によって前記輪郭に近似する曲線を表現することができ、効率よく前記輪郭を検出することができる。また、前記3点の位置は特に制限されないため、非対称形状の前記輪郭にも近似させることができる。
さらに、前記終端点を共通とし、前記変曲点が異なるもう一対の前記2次曲線を合わせた二対の前記2次曲線によって前記顔器官の全体の輪郭を近似することにより、前記顔器官の閉じた前記輪郭を近似することができる。また、二対の前記2次曲線のうち、一対を上に凸とし、もう一対を下に凸とすることにより、目や口の前記輪郭の検出に適した曲線形状を形成することができる。
さらに、前記近似性が向上するようにまず前記終端点を移動させ、その後、前記近似性が向上するように前記変曲点を移動させるようにしてもよい。このようにすることにより、前記輪郭における前記変曲点に対応する部分よりも前記終端点に対応する部分の位置が安定的な前記輪郭の検出を効率よく行うことができる。口や目の水平方向両外側の位置は比較的安定しているため、口や目の前記輪郭の検出を効率よく行うことができる。さらに、探索方法の好適な例として、まず前記終端点および前記変曲点を所定距離移動させたときに前記近似性を最も向上させる前記終端点および前記変曲点の位置を探索する。そして、当該位置を中心として前記終端点および前記変曲点を前記所定距離よりも少ない距離移動させたときに前記近似性を最も向上させる前記終端点および前記変曲点の位置を探索する。これにより、前記終端点および前記変曲点の好適な位置を徐々に絞り込んでいくことができる。
さらに、探索方法の好適な例として、まず前記終端点および前記変曲点を所定方向に移動させたときに前記近似性を最も向上させる前記終端点および前記変曲点の位置を探索し、その後、当該位置を中心として前記終端点および前記変曲点を前記所定方向とは異なる方向に移動させたときに前記近似性を最も向上させる前記終端点および前記変曲点の位置を探索するようにしてもよい。このようにすることにより、種々の方向に前記終端点および前記変曲点を移動させることができ、探索が冗長となることが防止できる。
さらに、本発明の技術的思想は、具体的な輪郭検出方法にて具現化されるのみならず、当該方法を輪郭検出装置において具現化することもできる。すなわち、上述した輪郭検出方法が行う各工程に対応する手段を有する輪郭検出装置としても本発明を特定することができる。むろん、上述した輪郭検出装置がプログラムを読み込んで上述した各手段を実現する場合には、当該各手段に対応する機能を実行させるプログラムや当該プログラムを記録した各種記録媒体においても本発明の技術的思想が具現化できることは言うまでもない。なお、本発明の輪郭検出装置は、単一の装置のみならず、複数の装置によって分散して存在可能であることはいうまでもない。例えば、輪郭検出装置が有する各手段が、パーソナルコンピュータ上で実行されるプリンタドライバと、プリンタの双方において分散することも可能である。また、プリンタ等の印刷装置に本発明の輪郭検出装置の各手段を包含させることも可能である。
以下、下記の順序に従って本発明の実施形態を説明する。
1.輪郭検出装置の構成:
2.輪郭検出処理の流れ:
2−1.左目の輪郭検出:
2−2.右目の輪郭検出:
3.変形例:
3−1.変形例1:
3−2.変形例2:
3−3.変形例3:
3−4.変形例4:
3−5.変形例5:
1.輪郭検出装置の構成:
2.輪郭検出処理の流れ:
2−1.左目の輪郭検出:
2−2.右目の輪郭検出:
3.変形例:
3−1.変形例1:
3−2.変形例2:
3−3.変形例3:
3−4.変形例4:
3−5.変形例5:
1.輪郭検出装置の構成
図1は、本発明の一実施形態にかかる輪郭検出装置を具体的に実現するコンピュータの構成を示している。同図において、コンピュータ10はCPU11とRAM12とROM13とハードディスクドライブ(HDD)14と汎用インターフェイス(GIF)15とビデオインターフェイス(VIF)16と入力インターフェイス(IIF)17とバス18とから構成されている。バス18は、コンピュータ10を構成する各要素11〜17の間でのデータ通信を実現するものであり、図示しないチップセット等によって通信が制御されている。HDD14には、オペレーティングシステム(OS)を含む各種プログラムを実行するためのプログラムデータ14aが記憶されており、当該プログラムデータ14aをRAM12に展開しながらCPU11が当該プログラムデータ14aに準じた演算を実行する。
図1は、本発明の一実施形態にかかる輪郭検出装置を具体的に実現するコンピュータの構成を示している。同図において、コンピュータ10はCPU11とRAM12とROM13とハードディスクドライブ(HDD)14と汎用インターフェイス(GIF)15とビデオインターフェイス(VIF)16と入力インターフェイス(IIF)17とバス18とから構成されている。バス18は、コンピュータ10を構成する各要素11〜17の間でのデータ通信を実現するものであり、図示しないチップセット等によって通信が制御されている。HDD14には、オペレーティングシステム(OS)を含む各種プログラムを実行するためのプログラムデータ14aが記憶されており、当該プログラムデータ14aをRAM12に展開しながらCPU11が当該プログラムデータ14aに準じた演算を実行する。
また、HDD14には、デジタルスチルカメラやスキャナによって画像入力された画像データ14eと、後述するパターンマッチングにおいて使用する多数の顔テンプレート14bと目テンプレート14cと口テンプレート14dが記憶されている。GIF15は、例えばUSB規格に準じたインターフェイスを提供するものであり、外部のプリンタ20をコンピュータ10に接続させている。VIF16はコンピュータ10を外部のディスプレイ40に接続し、ディスプレイ40に画像を表示するためのインターフェイスを提供する。IIF17はコンピュータ10を外部のキーボード50aとマウス50bに接続し、キーボード50aとマウス50bからの入力信号をコンピュータ10が取得するためのインターフェイスを提供する。
図2は、コンピュータ10において実行されるプログラムのソフトウェア構成を示している。同図において、オペレーティングシステム(OS)P1と輪郭検出アプリケーションP2とプリンタドライバP3が実行されている。OS P1は各プログラム間のインターフェイスを提供し、プリンタドライバP3はプリンタ20を制御するための処理を実行する。輪郭検出アプリケーションP2は、顔検出部P2aと顔器官検出部P2bと輪郭検出部P2cとから構成されている。さらに、輪郭検出部P2cは傾き補正部P2c1とサンプリング部P2c2とスカラー変換部P2c3と変換関数設定部P2c4とパラメータ探索部P2c5と評価値算出部P2c6とから構成されている。輪郭検出アプリケーションP2を構成する各モジュールP2a〜P2cが実行する処理の詳細については後述する輪郭検出処理の流れとともに説明する。
2.輪郭検出処理の流れ
図3は、輪郭検出処理の流れを示している。ステップS100においては、顔検出部P2aが輪郭検出の対象とする画像データ14eをHDD14から取得する。本実施形態において輪郭検出の対象とする画像データ14eは、各画素が示す色がRGB各チャネルの階調値の組み合わせ(RGB色空間におけるベクトル)で表現されたビットマップデータである。後述する図面において、便宜的に2値の画像が示される場合があるが、実際には多階調のカラー画像データが処理の対象となる。なお、画像データ14eは、HDD14に記憶されている段階で圧縮されていてもよいし、他の色空間で各画素の色が表現されていてもよい。これらの場合、画像データ14eの展開や色空間の変換を実行して、顔検出部P2aがRGBビットマップデータの画像データ14eを取得する。なお、画像データ14eはHDD14に記憶されているものに限らず、例えばデジタルスチルカメラやメモリカード等に記憶されているものであってもよい。ディスプレイ40に表示されたUI画面を参照してキーボード50aやマウス50bを操作することにより、輪郭検出処理の対象とする画像データ14eが指定される。ステップS110においては、顔検出部P2aが画像データ14eに含まれる顔を検出する。
図3は、輪郭検出処理の流れを示している。ステップS100においては、顔検出部P2aが輪郭検出の対象とする画像データ14eをHDD14から取得する。本実施形態において輪郭検出の対象とする画像データ14eは、各画素が示す色がRGB各チャネルの階調値の組み合わせ(RGB色空間におけるベクトル)で表現されたビットマップデータである。後述する図面において、便宜的に2値の画像が示される場合があるが、実際には多階調のカラー画像データが処理の対象となる。なお、画像データ14eは、HDD14に記憶されている段階で圧縮されていてもよいし、他の色空間で各画素の色が表現されていてもよい。これらの場合、画像データ14eの展開や色空間の変換を実行して、顔検出部P2aがRGBビットマップデータの画像データ14eを取得する。なお、画像データ14eはHDD14に記憶されているものに限らず、例えばデジタルスチルカメラやメモリカード等に記憶されているものであってもよい。ディスプレイ40に表示されたUI画面を参照してキーボード50aやマウス50bを操作することにより、輪郭検出処理の対象とする画像データ14eが指定される。ステップS110においては、顔検出部P2aが画像データ14eに含まれる顔を検出する。
図4は、ステップS110において行われる顔検出の様子を模式的に示している。同図において、顔検出部P2aがHDD14から取得した複数の顔テンプレート14bが示されている。本実施形態においては、画像データ14eと各顔テンプレート14bとのパターンマッチングを行うことにより、画像データ14eから顔を検出する。各顔テンプレート14bは一定の大きさ画像データであり、それぞれ顔が含まれている。各顔テンプレート14bに含まれる顔の大きさおよび位置(中央)は、ほぼ一定となるように規格化されている。また、多様な顔が検出できるように、種々の顔が各顔テンプレート14bに含まれている。顔テンプレート14bとのパターンマッチングを行うにあたっては、画像データ14eにおいて矩形状の比較領域CAを生成し、当該比較領域CAの位置と大きさと回転角度を変えながら、比較領域CAの内側の画像と各顔テンプレート14bの画像との類似性を評価する。
そして、類似性が一定の基準を満足するとき、顔が存在すると判定し、そのときの比較領域CAの位置と大きさと回転角度を取得する。なお、本実施形態において、比較領域CAは30度ずつ回転されるものとする。画像データ14eにおいて回転している顔は、対応する角度だけ比較領域CAを回転させたときにマッチングすることとなる。画像データ14eの全体に比較領域CAを移動させることにより、画像データ14eの不特定の位置に存在する単数または複数の顔が存在する比較領域CAの位置と大きさと回転角度を取得することができる。なお、本実施形態では、単一の顔が検出されたものとして以下説明する。
ステップS120において、顔検出部P2aは、顔テンプレート14bとマッチングする比較領域CAの位置と大きさと回転角度に基づいて、当該比較領域CAに含まれる領域の画像を画像データ14eから顔画像データFDとして抽出する。このとき、顔画像データFDの大きさが一定の大きさとなるように解像度変換が行われる。本実施形態においては、100×100画素の大きさとなるように、顔画像データFDの画素が内挿または間引きされる。また、画像データ14eにおける顔の回転角に対応して比較領域CAが回転されている場合には、この回転を解消するように顔画像データFDを回転させる。ただし、比較領域CAの回転角は30度ずつであるため、顔画像データFDにおいて、±15度の範囲で顔の回転角が残存し得ることとなる。また、各顔テンプレート14bに含まれる顔の大きさおよび位置が規格化されているため、これとマッチングする顔画像データFDにおける顔の位置や大きさもほぼ一定となる。以上のようにして、顔画像データFDが得られると、ステップS130において顔器官検出部P2bが顔器官としての目および口を検出する。
図5は、ステップS130において顔器官を検出する様子を模式的に示している。顔器官検出部P2bは、HDD14から多数の目テンプレート14cと口テンプレート14dを取得し、これらと顔画像データFDとのパターンマッチングを行う。ここでも顔画像データFDにおいて矩形状の比較領域CAを生成し、比較領域CAの位置を変更していきながら比較領域CAの内側の画像と各目テンプレート14cや各口テンプレート14dとの類似性を比較していく。ただし、顔画像データFDにおける顔の位置や大きさもほぼ一定であり、顔の回転角も30度単位で補正されているため、当該顔に含まれる目や口の大きさや回転角には大きなずれはないと考えることができる。従って、ここでは比較領域CAの大きさや回転角を変更することなく、パターンマッチングを行うことができる。なお、本実施形態において目テンプレート14cの大きさは25×25画素の大きさに規格化されており、目を検出す際の比較領域CAの大きさも25×25画素に固定される。また、各目テンプレート14cに含まれる目の位置(中央)および大きさも規格化されているため、各目テンプレート14cとマッチングする比較領域CAにおける目の大きさや位置もほぼ一定となると考えることができる。正面から撮影した顔の場合、通常、左右の目と口が存在する比較領域CAの位置が検出されることとなる。本明細書および図面において、左右(LR)とは図面を正面から見たときの左右を意味するものとする。従って、現実の顔における左右とは反対となる。なお、左右の目が検出できるように、目テンプレート14cには左目のものと右目のものが多数含まれている。
図6は、左右の目と口が存在する比較領域CAが検出された顔画像データFDの様子を示している。同図において、左右の目を中央に含む矩形状の比較領域CA1,CA2と、口を含む比較領域CA3が検出されている。以上のようにして、各顔器官の検出が完了すると、ステップS140において、輪郭検出部2cの傾き補正部P2c1が左右の目を中央に含む比較領域CA1,CA2の重心の座標を算出し、当該重心同士を結んだ直線の水平線に対する傾きSを算出する。上述したように、顔検出の段階で30度単位の回転角補正がなされているため、ここでは基本的に±15度以内の角度に対応した傾きSが算出されることとなる。ステップS150においては、傾き補正部P2c1が顔画像データFDから比較領域CA1,CA2に属する領域をそれぞれ左目画像データLEと右目画像データREとして抽出する。このとき、左目画像データLEと右目画像データREに対してステップS140にて算出した傾きSに応じた傾き補正を行う。
図7は、ステップS150において傾き補正部P2c1が実行する傾き補正の様子を概念的に示している。同図において、矩形状の比較領域CAの上辺と下辺を傾きSに応じて傾斜させ、傾斜後の比較領域CA(破線で図示)に属する画素を抽出する。比較領域CAの上辺と下辺が傾きSに応じて傾斜しているため、抽出された各画素列の位置がずれることとなる。そして、抽出した各画素列の上端・下端位置を揃えることにより、矩形状とし、左目画像データLEと右目画像データREを得る。これにより、左目画像データLEと右目画像データREに含まれる目の傾きを解消することができ、左目画像データLEと右目画像データREにおいて目をほぼ水平とすることができる。なお、本来の画像から画素の位置をずらしているため、輪郭の滑らかさが不正確になったり、目の形状がいびつとなることも考えられるが、±15度以内に対応する量の傾きを調整するに過ぎないため、問題とはならない。以上のようにして左目画像データLEと右目画像データREが得られると、左目画像データLEと右目画像データREをスカラー量Zの画像データに変換する処理をステップS200にて実行する。なお、左目画像データLEと右目画像データREにおける鉛直方向の位置をyと表し、水平方向の位置をxと表すとともに、それぞれ左上隅をx=y=0とする。
図8は、ステップS200にて実行するスカラー変換処理(スカラー量マップ取得手段)の流れを示している。左目画像データLEと右目画像データREは各画素がRGB階調(RGBベクトル)を有する画像データであるが、スカラー変換処理では、左目画像データLEと右目画像データREを各画素がスカラー量Zの情報を有する画像データに変換する処理を実行する。まず、ステップS210において、サンプリング部P2c2が顔画像データFDの一部の画素をサンプリングする。
図9は、ステップS210におけるサンプリングの様子を示している。顔画像データFDにおいて左右の目を含む比較領域CAの左下隅と右下隅を結ぶ線分L1と、左右の比較領域CAの間において線分L1を2等分する鉛直方向の線分L2が示されている。線分L2の長さは比較領域CAの幅と同じとされている。線分L1,L2は所定の幅を有しており、線分L1,L2に対応する位置の画素を本実施形態のサンプリングの対象とする。線分L1,L2は、目の下の略一定の高さの位置と、左右の目の間の位置に対応している。このような位置からサンプリングすることにより、顔の輪郭外や目や眉毛や鼻の穴や口などの色の画素はサンプリングされなくなり、基本的に肌色の画素のみをサンプリングすることができる。また、線分L1,L2の双方からサンプリングを行うようにしているため、仮に線分L1,L2の一部に眼鏡のフレームや前髪などの肌色以外の画素が含まれたとしても、後述する統計指標への影響を抑えることができる。むろん、ある程度、肌色のみに絞り込むことができればよく、例えば頬や額等の他の領域からサンプリングを行うようにしてもよい。
サンプリング部P2c2は、サンプリング対象の画素のRGB階調を取得し、RGB階調の平均μ(μR,μG,μB)と分散・共分散行列Sを統計指標として算出する(平均値算出手段)。平均μは、RGB各チャネルごとに階調の相加平均を算出することによって得ることができる。また、分散・共分散行列Sは下記の(1)式によって定義される。
前記の(1)式において、SR,SG,SBはRGB各チャネルについての分散を示しており、SRG,SGB,SRBはR−G,G−B,R−B間の共分散を示している。
前記の(1)式において、SR,SG,SBはRGB各チャネルについての分散を示しており、SRG,SGB,SRBはR−G,G−B,R−B間の共分散を示している。
図10は、ステップS210におけるサンプリングによって得られる平均μ(μR,μG,μB)と分散SR,SG,SBをグラフによって示している。本発明において、サンプリングされた画素が示す色の3次元のRGB色空間における分布は正規分布N(μ,S)であると仮定しており、RGB階調分布がそれぞれ平均μ(μR,μG,μB)を中心とした正規分布NR(μR,SR),NG(μG,SG),NB(μB,SB)と仮定されている様子が図示されている。平均μ(μR,μG,μB)は、検出された顔において最も標準的な肌色を示し、分散SR,SG,SBは肌色を示す各チャネルの階調のばらつきの程度を示している。通常、分散SR,SG,SBはそれぞれ異なる大きさとなるが、平均μ(μR,μG,μB)に各分散SR,SG,SBの平方根(標準偏差)を加減算した値で囲まれた範囲の確率は68.2%となる。
なお、本明細書において”肌色”とは、絶対的な色彩値が特定される特定色を意味するのではなく、平均μ(μR,μG,μB)の付近に分布する色を意味する。従って、処理対象の顔に応じて”肌色”が意味する絶対色が変動することとなる。平均μと分散行列Sが得られると、ステップS220において、スカラー変換部P2c3は、各画素がRGB階調を有する左目画像データLEと右目画像データREを取得する。なお、以降の処理は左目画像データLEと右目画像データREのそれぞれについて行われるが、左目画像データLEに対する処理を例に挙げて説明する。
ステップS230において、スカラー変換部P2c3は、左目画像データLEから一つの画素を順次選択し、選択した画素のRGB階調(r,g,b)を下記の(2)式に代入することよってマハラノビス平方距離DM 2に変換する。
なお、前記の(2)式において、Δrは(r−μR)であり、Δgは(g−μG)であり、Δbは(b−μB)である。マハラノビス平方距離DM 2は、上述した肌色のサンプリングによって得られた標準的な肌色を示す平均μ(μR,μG,μB)と、選択した画素のRGB階調(r,g,b)とのRGB色空間における平方距離(RGB階調値のずれ量)に対応する指標値であり、その大きさはRGB色空間における色のずれ方向に依存しない。すなわち、マハラノビス平方距離DM 2が同じであれば、平均μ(μR,μG,μB)からの色ずれ方向が異なっていても、確率的には同程度の差を有していると考えることができ、以下においてRGB色空間における色ずれ方向を無視した処理を行うことができる。
図11は、RGB色空間(RG平面)におけるマハラノビス平方距離DM 2の等値線を示している。同図において、横軸はR階調(r)を示し、縦軸はG階調(g)を示している。等値線は、RGB各チャネルの分散SR,SG,SBの相違に起因して、略楕円状となっている。平均μ(μR,μG)においてマハラノビス平方距離DM 2が0となり、RG平面において平均μ(μR,μG)から離れるほどマハラノビス平方距離DM 2が大きくなっている。そのため、左目画像データLEに含まれる肌色とは異なる白目や黒目の画素は、肌色の画素よりもマハラノビス平方距離DM 2が大きくなる。このように、画素の色を示すベクトルとしてのRGB階調(r,g,b)が、標準的な肌色とのRGB階調値のずれ量を示すスカラーとしてのマハラノビス平方距離DM 2に変換することができる。左目画像データLEのすべての画素についてマハラノビス平方距離DM 2への変換が完了すると、左目画像データLEはマハラノビス平方距離DM 2の画像データDM 2(x,y)に変換されたこととなる。
ステップS240において、スカラー変換部P2c3は、左目画像データLEの画素を順次選択し、選択した画素のマハラノビス平方距離DM 2を下記の(3)式で示す変換関数に代入することによりスカラー量Zに変換していく。
前記の(3)式においてα、uは前記変換関数の変換特性を決定付けるパラメータである。本実施形態では、α=1に固定し、uの初期値を3とする。
前記の(3)式においてα、uは前記変換関数の変換特性を決定付けるパラメータである。本実施形態では、α=1に固定し、uの初期値を3とする。
図12は、前記変換関数の変換特性を示している。同図において、横軸は変換前のマハラノビス平方距離DM 2を示し、縦軸は変換後のスカラー量Zを示している。また、ある左目画像データLEの変換前のマハラノビス平方距離DM 2の分布と、変換後のスカラー量Zの分布も示している。スカラー量Zは、マハラノビス平方距離DM 2が0のとき−1となり、マハラノビス平方距離DM 2がパラメータuのとき0となる非線形関数によって表される。ここで、横軸のマハラノビス平方距離DM 2において、パラメータu=3を中心とした領域を第2領域A2と表し、第2領域A2よりもマハラノビス平方距離DM 2の値が大きくなる領域を第1領域A1と表すものとする。この第2領域A2においては、変換関数の傾きが他の領域よりも急となっており、マハラノビス平方距離DM 2の単位変動に応じたスカラー量Zの変動量が他の領域よりも大きくなっている。第2領域A2よりもマハラノビス平方距離DM 2が大きくなる第1領域A1においては、変換後のスカラー量Zが次第に1に飽和していくような変換特性を有している。第2領域A2は、肌色に対応したマハラノビス平方距離DM 2の領域と、非肌色に対応したマハラノビス平方距離DM 2の領域との間に設定されるのが望ましい。この第2領域A2の位置は、パラメータuによって設定されるが、初期のパラメータu=3は以下の根拠に基づいて設定されている。
図13は、マハラノビス平方距離DM 2と確率分布の関係をグラフによって示している。同図において、横軸はマハラノビス平方距離DM 2を示している。一方、縦軸は、ステップS210にてサンプリングした肌色の画素のRGB階調の平均μ(μR,μG,μB)と分散・共分散行列Sによって定義される正規分布N(μ,S)における確率分布(下側確率)を示している。同図に示すようにマハラノビス平方距離DM 2は、n次元カイ二乗分布に従う。本実施形態では、RGBの階調値で表されるカラー画像を処理の対象としており、3次元カイ二乗分布(実線で図示)によって各マハラノビス平方距離DM 2に対応する確率を推定することができる。マハラノビス平方距離DM 2=3のとき、下側確率が約60%となっている。すなわち、肌色を示す画素のうち約60%が、マハラノビス平方距離DM 2が3以下となるということが分かる。マハラノビス平方距離DM 2が3を超えてくると、その画素が肌色を示すことが疑わしくなっていくということが推測できる。すなわち、マハラノビス平方距離DM 2が3を超えてくる付近の領域が、肌色に対応したマハラノビス平方距離DM 2の領域と、非肌色に対応したマハラノビス平方距離DM 2の領域との間の領域であると推定できる。そのため、本実施形態では、パラメータuの初期値を3とし、マハラノビス平方距離DM 2が3となる付近の領域を第2領域A2と設定している。なお、モノクロ画像の場合には、マハラノビス平方距離DM 2が1次元カイ二乗分布(破線で図示)に従う。
図12において示した前記変換関数による変換前のマハラノビス平方距離DM 2の分布においては、マハラノビス平方距離DM 2=0を中心とした肌色の分布G1と左目画像データLEに含まれる白(白目)の分布G2と黒(黒目、眉等)の分布G3が存在する。これに対して変換後のスカラー量Zの分布においては、肌色の分布G1はスカラー量Z=−1を中心として分布し、左目画像データLEに含まれる白の分布G2と黒の分布G3は分布全体が1にほぼ飽和した値に変換されている。また、平均μ(μR,μG,μB)が示す標準的な肌色と比較して明るめの肌色や暗めの肌色は、パラメータuの初期値である3付近に位置しており、傾きが急な第2領域A2に存在することとなる。
以上説明した変換関数によって、左目画像データLEのすべての画素のマハラノビス平方距離DM 2をスカラー量Zに変換することにより、左目画像データLEをスカラー量Zの画像データZ(x,y)に変換することができる。以下、スカラー量Zの画像データZ(x,y)に変換された左目画像データLE,右目画像データREをZマップとも表記するものとする。なお、Zマップはスカラー量マップに相当する。なお、マハラノビス平方距離DM 2も肌色らしさを示す指標として使用することが可能であるが、上述した変換関数による変換したスカラー量Zによれば、肌色らしいか否かをより明瞭に判別することができる。
ステップS250において、変換関数設定部P2c4は、スカラー量Zが所定の閾値Th1を超える画素を計数し、当該閾値Th1を超える画素の個数比率(面積比率)が所定の閾値Th2を超えているか否かを判定する。本実施形態では、閾値Th1=0.6とし、閾値Th2=33%とする。図12において、閾値Th1=0.6を破線で示しており、閾値Th1=0.6を超える画素は、飽和しているとみなし、肌色らしくない色であると判断する。また、白の分布G2と黒の分布G3も、閾値Th1=0.6を超える画素に該当することとなる。すなわち、閾値Th1による閾値判定によって左目画像データLEの各画素が肌色らしいか肌色らしくないかを判定することができる。閾値Th1を超える画素の比率が大きいほど、肌色らしくない画素の左目画像データLEにおける面積比率が大きくなるということが言える。
ここで、左目画像データLEは、左目とその周辺の領域の画像を示すものであり、左目画像データLEにおいて左目が占める面積は、左目画像データLEとマッチングする目テンプレート14cと同様となる。上述したとおり目テンプレート14cにおいては目の大きさが規格化されているため、左目画像データLEにおける目の大きさも目テンプレート14cにて規格化された目の大きさと同様となると考えることができる。従って、Zマップにおいて、肌色らしくない画素が占める面積比率も一定の傾向を有すると考えることができる。本実施形態では、肌色らしくない画素が占める面積比率が閾値Th2=33%を超えることが妥当であると仮定し、肌色らしくない画素が占める面積比率が閾値Th2=33%以下である場合には、変換関数設定部P2c4がステップS260において上述した変換関数のパラメータuを変更する。パラメータuは、正規分布N(μ,S)を仮定した場合の推測値であるため、本実施形態のように実際の面積比率に基づく妥当性によって調整するのが望ましい。なお、本実施形態における閾値Th1,閾値Th2は一例であり、異なる値を採用してもよい。また、面積比率の妥当な範囲を閾値Th2だけでなく、上限値と下限値によって規定するようにしてもよい。
ステップS260においては、パラメータuをもとの値の4倍に変更し、ステップS240に戻る。そして、ステップS250において、変更したパラメータuを前記の(3)式に適用し、再度、左目画像データLEのマハラノビス平方距離DM 2をスカラー量Zに変換して、再度、Zマップを得る。ステップS250においては、同様にZマップにおいて肌色らしくない画素の面積比率の妥当性を判定し、妥当でなければ再度パラメータuを4倍する。以上の処理を繰り返して実行することにより、肌色らしくない画素の面積比率の妥当となるまで、変換関数を最適化してくことができる。
本実施形態では、パラメータuを順次大きくしていくため、変換関数による変換特性が図12において破線で示すように推移していく。すなわち、傾きが急となる第2領域A2をマハラノビス平方距離DM 2が大きくなる方向にシフトさせていくことができる。これにともなって、第1領域A1の幅が狭められることとなる。このようにすることにより、肌色のばらつきが顔についても、適切な変換関数を設定することができる。ステップS250において、スカラー量Zが閾値Th1を超える画素の比率が所定の閾値Th2を超えていると判定した場合には、パラメータuの変更を行うことなくスカラー変換処理を終了させ、各画素のRGB階調がスカラー量Zの階調値に変換された左目画像データLE(Zマップ)をパラメータ探索部P2c5に出力する。なお、本実施形態では、パラメータuを変更するようにしたが、第1領域A1と第2領域A2の範囲を調整するためにパラメータαも変更してもよい。第1領域A1を広くするためにはパラメータαを大きくし、第2領域A2を広くするためにはパラメータαを小さくすればよい。むろん、パラメータuを大きめに設定し、徐々に小さく変更していってもよい。
図14は、各画素がスカラー量Z(x,y)で表されるZマップの一例を示している。同図において、左目画像データLEの鉛直断面と水平断面におけるスカラー量Z(x,y)を示している。鉛直断面において、黒目に対応する部分はスカラー量Z(x,y)が1に近い値となっており、それ以外の肌色に対応する部分は−1〜0付近の間の値となっている。目の輪郭を構成する黒目と肌色との境界においては、鉛直方向の勾配が大きい値となっている。一方、水平断面において、黒目と白目に対応する部分はともにスカラー量Zが1に近い値となっており、それ以外の肌色に対応する部分は−1に近い値となっている。目の輪郭を構成する白目と肌色との境界における水平方向の勾配が大きい値となっているが、黒目と白目の境界においては勾配が極めて小さくなっている。以上においては、左目画像データLEをZマップに変換する処理を例に挙げて説明したが、同様の処理を右目画像データREについても実行し、右目画像データREもZマップに変換されている。
2−1.左目の輪郭検出
ここまでは、左目画像データLEと右目画像データREに対して共通する処理を実行するが、次のステップS160(図3)から左目画像データLEに対して特有の処理を実行する。ステップS160において、パラメータ探索部P2c5は、左目画像データLEを変換したZマップを取得する。ステップS170において、パラメータ探索部P2c5は、Zマップにおいて目の輪郭パラメータL,R,T,Bを初期設定する。
ここまでは、左目画像データLEと右目画像データREに対して共通する処理を実行するが、次のステップS160(図3)から左目画像データLEに対して特有の処理を実行する。ステップS160において、パラメータ探索部P2c5は、左目画像データLEを変換したZマップを取得する。ステップS170において、パラメータ探索部P2c5は、Zマップにおいて目の輪郭パラメータL,R,T,Bを初期設定する。
図15は、左目のZマップにおける輪郭パラメータL,R,T,Bを示している。輪郭パラメータL,R,T,Bは、左目の輪郭における目尻と目頭と上頂点と下頂点に対応しており、それぞれ水平方向と鉛直方向の座標によってL(xL,yL),R(xR,yR),T(xT,yT),B(xB,yB)と表される。輪郭パラメータL,R,T,Bの初期値が設定できると、左目を近似するための輪郭線O(第1近似曲線)を生成することができる(第1近似手段)。本実施形態において、輪郭線Oは、左上部分の曲線O1と、右上部分の曲線O2と、左下部分の曲線O3と、左下部分の曲線O4によって近似される。各曲線O1〜O4は下記の(4)式で表される。
前記の(4)式において、曲線O1は輪郭パラメータTの座標を変曲点とし、輪郭パラメータLの座標を通過する上に凸の2次曲線で表される。a1,a2は正であり、a3,a4は負とする。曲線O2は輪郭パラメータTの座標を変曲点とし、輪郭パラメータRの座標を通過する上に凸の2次曲線で表される。一方、曲線O3は輪郭パラメータBの座標を変曲点とし、輪郭パラメータLの座標を通過する下に凸の2次曲線で表される。曲線O4は輪郭パラメータBの座標を変曲点とし、輪郭パラメータRの座標を通過する下に凸の2次曲線で表される。輪郭パラメータL,R,T,Bの座標を定めると、曲線O1〜O4が一意に定まるため、輪郭パラメータL,R,T,Bの座標を初期設定することにより、輪郭線Oの位置および形状が初期設定されることとなる。なお、輪郭パラメータL,R,Tおよび輪郭パラメータL,R,Bのそれぞれ3点の組み合わせの位置関係に注目すると、輪郭パラメータL,Rの座標が水平方向の両外側に位置する終端点に相当し、輪郭パラメータT,Bの座標が共通の変曲点に相当する。以上のような輪郭線Oを配置するために、輪郭パラメータL,R,T,Bの初期値は、少なくともxL<xT<xR,xL<xB<xR,yT<yL<yB,yT<yR<yBが満足されていればよい。本実施形態では、図15に図示するように左目画像データLEの中央鉛直線に対して左右対称、かつ、中央よりやや下の水平線に対して上下対称に設定する。また、目テンプレート14cにて規格化された目の輪郭(破線で図示)よりもやや外側に輪郭パラメータL,R,T,Bの座標の初期値を設定する。
以上のようにZマップにて輪郭パラメータL,R,T,Bの座標の初期値が設定されると、ステップS180においてパラメータ探索部P2c5と評価値算出部P2c6が最適な輪郭パラメータL,R,T,Bの探索処理を行う。パラメータ探索部P2c5が輪郭パラメータL,R,T,Bを更新し、当該更新した輪郭パラメータL,R,T,Bを評価値算出部P2c6に出力すると、評価値算出部P2c6は下記の評価値Vを算出し、当該評価値Vをパラメータ探索部P2c5に返す。そして、パラメータ探索部P2c5は評価値Vを最大とする輪郭パラメータL,R,T,Bの座標を探索する。
図16は、評価値Vの概念を模式的に説明している。図16において、輪郭線O上において長さdlを有する微小線要素と、当該微小線要素の法線単位ベクトルpが示されている。曲線O1〜O4が前記の(4)式によって特定できるため、任意の微小線要素についての法線単位ベクトルpを求めることができる。なお、法線単位ベクトルpは内側方向が正となるようにする。すなわち、曲線O1,O2上の微小線要素の法線単位ベクトルpのy成分は下方向を正とし、反対に曲線O3,O4上の微小線要素の法線単位ベクトルpのy成分は上方向を正とする。また、曲線O1,O3上の微小線要素の法線単位ベクトルpのx成分は右方向を正とし、反対に曲線O2,O4上の微小線要素の法線単位ベクトルpのx成分は左方向を正とする。勾配ベクトルgは下記の(5)式で表される。
前記の(5)式において、勾配ベクトルgは、水平方向の勾配と鉛直方向の勾配によって与えられ、肌色らしさを示すスカラー量Z(x,y)の変動が激しい領域ほど大きくなる。評価値算出部P2c6は、以上説明した法線単位ベクトルpと勾配ベクトルgを使用し、下記の(6)式によって輪郭線Oの輪郭への近似性を評価する評価値Vを算出する。
前記の(6)式において、評価値Vは微小線要素に関する法線単位ベクトルpと勾配ベクトルgの内積(微少評価値)を輪郭線Oに沿って線積分(合計)することにより求められる。ただし、輪郭線Oの下側部分の曲線O3,O4に関する積分値に対して、輪郭線Oの上側部分の曲線O1,O2に関する積分値を2倍に重み付けしている。法線単位ベクトルpと勾配ベクトルgの内積は、法線単位ベクトルpと勾配ベクトルgが同じ方向であり、かつ、勾配ベクトルgが大きいほど大きい値となる。従って、輪郭線Oを構成する各微小線要素がスカラー量Z(x,y)の勾配方向に直交し、かつ、勾配が大きいほど評価値Vが大きい値となる。
スカラー量Z(x,y)の勾配は、肌色らしさが変動する程度であると考えることができるため、評価値Vが大きいと、輪郭線Oが肌色らしさの変動が大きい領域を通過していると評価することができる。すなわち、評価値Vが大きいと、輪郭線Oが肌色らしさの変動が大きくなる目の輪郭を通過していると考えることができる。特に、スカラー量Z(x,y)は、肌色であることが疑わしい第2領域A2において変動が激しくなるように変換されているため、肌色でない目の輪郭付近では、勾配が極端に大きくなる。一方、図12で示したように白の分布G2と黒の分布G3は、双方とも1に近い値に飽和しており、白目と黒目の境界であってもスカラー量Z(x,y)の勾配は小さいものとなる。すなわち、マハラノビス平方距離DM 2において白の分布G2と黒の分布G3が異なる値を示していても、変換関数によってスカラー量Zに変換することにより、白の分布G2と黒の分布G3のマハラノビス平方距離DM 2の差を微少なものに変換することができ、これらの間でスカラー量Zの勾配を生じなくさせることができる。従って、白目と黒目の境界について評価値Vが大きくなることが防止でき、白目と黒目の境界と目の輪郭を明確に区別することができる。なお、概念的な理解を容易とするために、連続的な画像平面上において評価値Vや勾配ベクトルgや法線ベクトルnが算出されるように説明したが、現実には離散的な画像平面において等価な演算が行われることとなる。以下に説明する探索処理(探索手段、輪郭検出手段)においては、評価値Vを大きくさせる輪郭パラメータL,R,T,Bの座標を探索していく。
図17は、探索処理における探索の手順を模式的に説明している。同図において、輪郭パラメータL,R,T,Bの移動パターンが示されており、当該移動パターンが第1〜4フェーズから構成されている。第1フェーズにおいては、現在の輪郭パラメータL,R,T,Bの座標(a)から対角4方向に2画素分ずれた4座標(b,c,d,e)に輪郭パラメータL,R,T,Bを移動させる。第2フェーズにおいては、現在の輪郭パラメータL,R,T,Bの座標(a)から鉛直水平方向に2画素分ずれた4座標(b,c,d,e)に輪郭パラメータL,R,T,Bを移動させる。第3フェーズにおいては、現在の輪郭パラメータL,R,T,Bの座標(a)から対角4方向に1画素分ずれた4座標(b,c,d,e)に輪郭パラメータL,R,T,Bを移動させる。第4フェーズにおいては、現在の輪郭パラメータL,R,T,Bの座標(a)から鉛直水平方向に1画素分ずれた4座標(b,c,d,e)に輪郭パラメータL,R,T,Bを移動させる。第4フェーズが完了した時点で探索処理を終了する。
図18は、各フェーズにおける詳細な探索手順を示している。まず直前のフェーズ(第1フェーズにおいては初期値)によって決定された現在の輪郭パラメータL,R,T,Bの座標(a)を中心として、図17に示す移動パターンにしたがって輪郭パラメータL,R,T,Bを移動させる。輪郭パラメータL,R,T,Bを同時に移動させるのではなく、L→R→T→Bの順で移動させる。まず現在の輪郭パラメータL,R,T,Bを評価値算出部P2c6に出力し、評価値Vaを算出する。次に輪郭パラメータR,T,Bを固定し、輪郭パラメータLを現在の座標(a)のまわりの4座標(b,c,d,e)に順次移動させる。このとき輪郭パラメータLが移動するごとに、輪郭パラメータL,R,T,Bを評価値算出部P2c6に出力し、評価値Va,Vb,Vc,Vd,Veを算出する。なお、4座標(b,c,d,e)への移動順序はどのようなものであってもよい。以上のようにして4座標(a,b,c,d,e)の輪郭パラメータLについての評価値Va,Vb,Vc,Vd,Veが得られると、評価値Va,Vb,Vc,Vd,Veに基づいて評価値Vを極大化させる輪郭パラメータLの座標(h)を予測する。
まず、現在の輪郭パラメータLの座標(a)を通過する線分b−a−cに関する評価値Va,Vb,Vcを通る2次曲線を算出し、当該2次曲線を極大化させる座標を算出する。なお、当該2次曲線が上に凸であり、かつ、変曲点が線分b−a−cの間にある場合のみ、前記2次曲線を極大化させる座標が算出できる。前記2次曲線を極大化させる座標(f)が算出できない場合には、端の評価値Vb,Vcのうち大きい方の座標(b)または座標(c)を座標(f)とする。そして、線分b−a−cに平行かつ座標(f)を通過する直線l1を生成する。次に、現在の輪郭パラメータLの座標(a)を通過し、線分b−a−cに直交する線分d−a−eに関する評価値Va,Vd,Veを通る2次曲線を算出し、当該2次曲線を極大化させる座標(g)を同様の手順で算出する。そして、線分d−a−eに平行かつ座標(g)を通過する直線l2を生成する。
以上のようにして直線l1,l2が生成できると、これらの交点の座標を輪郭パラメータLの座標(h)として算出する。この座標(h)が算出できると、輪郭パラメータLを座標(h)に移動させ、そのときの評価値Vhを算出する。以上のようにして、6個の評価値Va,Vb,Vc,Vd,Ve,Vhが算出できると、これらのうち最も大きいものに対応する座標を当該フェーズにおける最適な輪郭パラメータLの座標として決定する。輪郭パラメータLについて最適な座標が決定すると、次に輪郭パラメータRについて同様の処理を行って最適な座標を決定する。さらに、輪郭パラメータT,Bについて順に同様の処理を行って最適な座標を決定し、当該フェーズを終了させ、次のフェーズに移行する。第4フェーズが完了した段階で、最終的に輪郭パラメータL,R,T,Bを確定させる。
以上説明したように、探索の初期の第1,2フェーズにおいては広範囲に輪郭パラメータL,R,T,Bを移動させるため、輪郭パラメータL,R,T,Bの座標をおおまかに目尻、目頭、上頂点、下頂点に近づけさせることができる。さらに、探索の後期の第3,4フェーズにおいては狭い範囲で局所的に輪郭パラメータL,R,T,Bを移動させるため、より目尻、目頭、上頂点、下頂点に収束するように輪郭パラメータL,R,T,Bの座標を微調整することできる。ただし、第1〜4フェーズにおける探索距離は、左目画像データLEの大きさに応じて設定されるべきであり、左目画像データLEが大きくなるのに応じて探索距離も大きくするのが望ましい。徐々に探索距離を短くすればよく、4フェーズ以上の探索を行うようにしてもよい。また、輪郭パラメータL,R,T,Bの初期値を中央からやや下よりに設定しているため、眉の黒と肌色との輪郭を誤検出することが防止できる。また、初期の輪郭パラメータL,R,T,Bの座標によって妥当な形状の輪郭線Oを設定し、各フェーズにおいて少しずつ輪郭パラメータL,R,T,Bの座標を全体的に移動させるようにしているため、輪郭線Oの形状が極端に異常な形状となることもない。例えば、輪郭パラメータLのみを集中的に移動させることにより、輪郭パラメータLが黒目と白目の境界等に収束するようなことが防止できる。また、評価値Vは、勾配ベクトルgに対する直交性を輪郭線Oの全体について評価するため、輪郭パラメータL,R,T,Bの一点が異常な点に収束することが防止できる。
さらに、輪郭パラメータL,R,T,Bの初期値を目テンプレート14cにて規格化された目の輪郭よりもやや外側に設定しているため、基本的にはフェーズの進行とともに輪郭パラメータL,R,T,Bが内側に移動し、最適な座標に収束することとなる。従って、探索の際に輪郭パラメータL,R,T,Bの位置関係が逆転することが防止できる。輪郭パラメータL,R,T,Bはそれぞれ独立して移動するため、左目の輪郭が上下非対称、左右非対称であっても、4個の2次曲線O1〜O4によって精度よくフィッティングすることができる。さらに、輪郭パラメータL,R,T,BをL→R→T→Bの順で移動させることにより、まぶたの状態によって大きく位置が変動しがちな輪郭パラメータT,Bよりも先に、位置が安定する輪郭パラメータL,Rを探索することができ、全体の探索精度や探索効率を向上させることができる。また、探索の過程で、輪郭パラメータL,R,T,Bの位置関係がxL<xT<xR,xL<xB<xRを満足しなくなった場合や、目の縦横比(LR間とTB間の距離の比)が明らかに異常となった場合には探索をエラー終了させてもよい。なお、目の表情によっては、yB<yR,yB<yLとなることも考えられ、その場合はa3,a4の符号が探索の途中で正に反転することとなる。なお、一定の評価値Vに到達した時点で探索を終了させ、そのときの輪郭パラメータL,R,T,Bを出力してもよい。
なお、図14に示すように目の輪郭線に対応する領域においては、常に、輪郭の内側に向かってスカラー量Z(x,y)が増加する。すなわち、輪郭線上の微少線要素においては勾配ベクトルgが常に内側を向くこととなる。一方、法線ベクトルnの符号も、常に曲線O1〜O4の内側方向が正となるように定義されているため、スカラー量Z(x,y)の勾配方向と曲線O1〜O4の対応関係を一定に保つことができる。すなわち、輪郭パラメータTの座標が目の下側の輪郭線上に収束したり、輪郭パラメータBの座標が目の上側の輪郭線上に収束することが防止できる。また、下側の輪郭線は上側の輪郭線と比較して曖昧となりがちであるため、評価値Vにおいて下側の輪郭線よりも上側の輪郭線を重視することにより、曖昧な下側の輪郭線の影響によって全体の検出精度が低下することが防止できる。また、スカラー量Z(x,y)は、目の付近からサンプリングした肌色画素の平均μ(μR,μG,μB)を基準として算出されるため、撮影条件や被写体の(絶対的な意味での)肌色に依存することなく輪郭を検出することができる。
2−2.右目の輪郭検出
以上のようにして、左目の輪郭が検出できると、最終的に探索された輪郭パラメータL,R,T,BをRAM12に記憶し、引き続き右目の輪郭検出を実行する。ステップS190(図3)において、パラメータ探索部P2c5は、右目画像データREを変換したZマップを取得する。ステップS192において、パラメータ探索部P2c5は、右目のZマップにおいて目の輪郭パラメータL,R,T,Bを初期設定する。ここでは、RAM12から左目の輪郭を示す輪郭パラメータL,R,T,Bの座標を読み出し、輪郭パラメータL,R,T,Bの座標に基づいて、右目の近似するための輪郭パラメータL,R,T,Bの初期設定を行う。
以上のようにして、左目の輪郭が検出できると、最終的に探索された輪郭パラメータL,R,T,BをRAM12に記憶し、引き続き右目の輪郭検出を実行する。ステップS190(図3)において、パラメータ探索部P2c5は、右目画像データREを変換したZマップを取得する。ステップS192において、パラメータ探索部P2c5は、右目のZマップにおいて目の輪郭パラメータL,R,T,Bを初期設定する。ここでは、RAM12から左目の輪郭を示す輪郭パラメータL,R,T,Bの座標を読み出し、輪郭パラメータL,R,T,Bの座標に基づいて、右目の近似するための輪郭パラメータL,R,T,Bの初期設定を行う。
図19Aは、ステップS180で探索された左目についての輪郭パラメータL,R,T,Bを示している。左目のZマップにおいて輪郭パラメータL,R,T,Bの座標が特定されることによって、左目の輪郭への近似性の高い第1近似曲線としての輪郭線Oを一意に特定することができる。図19Bでは、ステップS192にて右目のZマップに初期設定される輪郭パラメータL,R,T,B、および、当該輪郭パラメータL,R,T,Bによって一意に特定される第2近似曲線としての輪郭線Oを示している。同図に示すように、右目の輪郭線Oが左目の輪郭線Oに対して、中央の鉛直線に関し左右対称となるように右目の輪郭パラメータL,R,T,Bが初期設定されている。なお、探索後の左目の輪郭パラメータL,R,T,Bの座標をL(xL,yL),R(xR,yR),T(xT,yT),B(xB,yB)で表すと、初期設定される右目の輪郭パラメータL,R,T,Bの座標はL(25−xR,yR),R(25−xL,yL),T(25−xT,yT),B(25−xB,yB)で表すことができる。すなわち、xの座標を左右反転した値(25−x)に置き換えるとともに、輪郭パラメータL,Rの左右の位置関係を交換する。
以上のようにして、右目の輪郭パラメータL,R,T,Bが初期設定できると、ステップS194にて、(第2)探索処理を実行する。ここでは、ステップS180において行った左目についての処理と同様の処理を行うため、説明を省略する。ステップS194における探索処理においては、ステップS180にて探索された左目の輪郭に左右対称となる輪郭線Oから探索を開始することができる。同一人物の左右の目は対称に近い輪郭形状を有していると推定することができるため、現実に近い形状から探索を開始させることができる。また、表情の変化に伴う左右の目の状態も似ていると考えることができる。すなわち、特に意識しない限り、左右のまぶたは同時に開閉されることとなる。この点からも、現実に近い形状から探索を開始させることができるということができる。現実に近い形状から探索を開始させることができるため、探索において右目の輪郭パラメータL,R,T,Bが移動すべき距離を短くすることができ、例えば第3フェーズから探索処理を開始しても、適切な位置に輪郭パラメータL,R,T,Bが移動させることができる。そのため、輪郭検出における処理負荷を軽減させることも可能である。
以上のように右目の輪郭パラメータL,R,T,Bの探索が完了すると、ステップS196において、左右の目の最終的な輪郭パラメータL,R,T,Bによって規定された輪郭線Oを左右の目の輪郭として出力する。以上のようにして検出された輪郭線Oは、例えば顔の表情判定やピント判定に利用することができる。また、輪郭線Oの形状に応じた画像処理を実行し、プリンタドライバP3およびプリンタ20によって印刷を実行させるようにしてもよい。また、画像データ14eに輪郭線Oを対応付けて記憶し、画像データ14eを管理するようにしてもよい。
3.変形例
3−1.変形例1
図20は、変形例にかかる輪郭検出処理の流れを模式的に示している。本変形例においては、輝度階調で各画素が表されたモノクロ画像データ14eが輪郭検出の対象となっている。本変形例においては、上述した実施形態と同様に肌色の輝度を有する画素をサンプリングし、その正規分布N(μ,S)を得ておく。そして、左目画像データLEの各画素の輝度階調についてマハラノビス平方距離DM 2を算出することにより、マハラノビス平方距離DM 2に変換する。本変形例では、1次元の正規分布N(μ,S)を考えればよいため、マハラノビス平方距離DM 2は各画素の輝度階調と平均輝度階調μとの偏差の絶対値を分散Sで割った値がマハラノビス平方距離DM 2となる。さらに、各画素の偏差Dを前記の(3)式によって表される変換関数に代入することにより、スカラーZ(x,y)の画像データ(Zマップ)に変換する。このときのパラメータuは1とする。以上のようにしてZマップが得られると、前実施形態と同様に評価値Vを算出することが可能となり、同様の探索を行うことが可能となる。本変形例において、輝度階調のみに関する1次元正規分布N(μ,S)を仮定しており、図13において破線で示すようにパラメータu=1は68.2%のパーセント点に相当する。
3−1.変形例1
図20は、変形例にかかる輪郭検出処理の流れを模式的に示している。本変形例においては、輝度階調で各画素が表されたモノクロ画像データ14eが輪郭検出の対象となっている。本変形例においては、上述した実施形態と同様に肌色の輝度を有する画素をサンプリングし、その正規分布N(μ,S)を得ておく。そして、左目画像データLEの各画素の輝度階調についてマハラノビス平方距離DM 2を算出することにより、マハラノビス平方距離DM 2に変換する。本変形例では、1次元の正規分布N(μ,S)を考えればよいため、マハラノビス平方距離DM 2は各画素の輝度階調と平均輝度階調μとの偏差の絶対値を分散Sで割った値がマハラノビス平方距離DM 2となる。さらに、各画素の偏差Dを前記の(3)式によって表される変換関数に代入することにより、スカラーZ(x,y)の画像データ(Zマップ)に変換する。このときのパラメータuは1とする。以上のようにしてZマップが得られると、前実施形態と同様に評価値Vを算出することが可能となり、同様の探索を行うことが可能となる。本変形例において、輝度階調のみに関する1次元正規分布N(μ,S)を仮定しており、図13において破線で示すようにパラメータu=1は68.2%のパーセント点に相当する。
3−2.変形例2
本変形例においては、評価値Vを下記の(7)式によって定義する。
すなわち、輪郭線Oの全体について均等な重み付けを行って、評価値Vを算出することとしている。このようにすることにより、上輪郭と下輪郭を同等に評価することができる。さらに、評価値Vを下記の(8)式によって定義するようにしてもよい。
前記の(8)式においては、輪郭線Oに関する積分をするにあたり、水平方向の位置xに応じた重みw(x)が積算される。
本変形例においては、評価値Vを下記の(7)式によって定義する。
すなわち、輪郭線Oの全体について均等な重み付けを行って、評価値Vを算出することとしている。このようにすることにより、上輪郭と下輪郭を同等に評価することができる。さらに、評価値Vを下記の(8)式によって定義するようにしてもよい。
前記の(8)式においては、輪郭線Oに関する積分をするにあたり、水平方向の位置xに応じた重みw(x)が積算される。
図21は、重みw(x)の一例を示している。同図において、重みw(x)は水平方向の中央において、他の部分よりも重みを大きくしている。このようにすることにより、目の輪郭のうち水平方向中央の部分については、輪郭線Oの近似精度を向上させることができる。正面から顔を撮影した場合、目の輪郭のうち水平方向中央の部分がはっきりと撮影されるため、確実に目の上下の頂点の位置を検出することができる。
3−3.変形例3
本変形例においては、評価値Vを下記の(9)式によって定義する。
前記の(9)式において、Ouは上側輪郭線(曲線O1,O2)を示し、Olは下側輪郭線(曲線O3,O4)を示し、kは任意の定数を示し、Qは多数の目テンプレート14cに含まれる目の平均面積を示している。前記の(9)式の第2項は、上側輪郭線Ouと下側輪郭線Olによって囲まれた面積が、目テンプレート14cに含まれる目の平均面積に等しいか否かを評価する項となっている。予め目テンプレート14cとのパターンマッチングを行っているため、上側輪郭線Ouと下側輪郭線Olによって囲まれた面積は、目テンプレート14cに含まれる目の平均面積に近くなるのが妥当である。前記の(9)式の第2項によれば、上側輪郭線Ouと下側輪郭線Olによって囲まれた面積の妥当性を評価することができ、輪郭検出の精度を向上させることができる。
本変形例においては、評価値Vを下記の(9)式によって定義する。
前記の(9)式において、Ouは上側輪郭線(曲線O1,O2)を示し、Olは下側輪郭線(曲線O3,O4)を示し、kは任意の定数を示し、Qは多数の目テンプレート14cに含まれる目の平均面積を示している。前記の(9)式の第2項は、上側輪郭線Ouと下側輪郭線Olによって囲まれた面積が、目テンプレート14cに含まれる目の平均面積に等しいか否かを評価する項となっている。予め目テンプレート14cとのパターンマッチングを行っているため、上側輪郭線Ouと下側輪郭線Olによって囲まれた面積は、目テンプレート14cに含まれる目の平均面積に近くなるのが妥当である。前記の(9)式の第2項によれば、上側輪郭線Ouと下側輪郭線Olによって囲まれた面積の妥当性を評価することができ、輪郭検出の精度を向上させることができる。
3−3.変形例3
以上においては、目の輪郭検出を例示したが、他の顔器官の輪郭を同様の手法によって検出することも可能である。例えば、口の輪郭を検出する場合も、同様の手法で肌色の分布を調査し、スカラー量Zを算出することができる。この場合、唇を示す赤めの画素や歯を示す白い画素に対応するスカラー量Zが1に収束させられるとともに、肌色と非肌色の境界付近の傾きが急となるスカラー量Zへの変換が行われることとなる。従って、唇と歯の境界を輪郭として誤検出することなく、口の輪郭を精度よく検出することができる。また、口の輪郭も4本の2次曲線O1〜O4によって正確に近似することができる。
以上においては、目の輪郭検出を例示したが、他の顔器官の輪郭を同様の手法によって検出することも可能である。例えば、口の輪郭を検出する場合も、同様の手法で肌色の分布を調査し、スカラー量Zを算出することができる。この場合、唇を示す赤めの画素や歯を示す白い画素に対応するスカラー量Zが1に収束させられるとともに、肌色と非肌色の境界付近の傾きが急となるスカラー量Zへの変換が行われることとなる。従って、唇と歯の境界を輪郭として誤検出することなく、口の輪郭を精度よく検出することができる。また、口の輪郭も4本の2次曲線O1〜O4によって正確に近似することができる。
3−4.変形例4
図22は、ステップS192(図3)にて右目のZマップに初期設定される輪郭パラメータL,R,T,B、および、当該輪郭パラメータL,R,T,Bによって一意に特定される輪郭線Oの変形例を示している。同図に示すように、左目の輪郭線Oに対して左右対称となる輪郭線(破線で図示)よりもわずかに大きくなるように右目の輪郭パラメータL,R,T,Bが初期設定されている。探索後の左目の輪郭パラメータL,R,T,Bの座標をL(xL,yL),R(xR,yR),T(xT,yT),B(xB,yB)で表すと、本変形例で初期設定される右目の輪郭パラメータL,R,T,Bの座標はL(25−xR−2,yR),R(25−xL+2,yL),T(25−xT,yT+2),B(25−xB,yB−2)で表される。このようにすることにより、左右対称となる輪郭線に対して2画素ずつ外側の位置から探索を開始するように輪郭パラメータL,R,T,Bの初期設定を設定することができる。ステップS130における顔器官の検出によって検出される左右の目の位置がばらつくことも考えられるため、当該ばらつきが吸収できるように右目の輪郭線Oを大きめに設定するようにしてもよい。右目の輪郭線Oを大きめに設定しておけば、輪郭パラメータL,R,T,Bを内側に向かって移動させる間に最適な座標に収束させることができ、探索の際に輪郭パラメータL,R,T,Bの位置関係が逆転することが防止できる。
図22は、ステップS192(図3)にて右目のZマップに初期設定される輪郭パラメータL,R,T,B、および、当該輪郭パラメータL,R,T,Bによって一意に特定される輪郭線Oの変形例を示している。同図に示すように、左目の輪郭線Oに対して左右対称となる輪郭線(破線で図示)よりもわずかに大きくなるように右目の輪郭パラメータL,R,T,Bが初期設定されている。探索後の左目の輪郭パラメータL,R,T,Bの座標をL(xL,yL),R(xR,yR),T(xT,yT),B(xB,yB)で表すと、本変形例で初期設定される右目の輪郭パラメータL,R,T,Bの座標はL(25−xR−2,yR),R(25−xL+2,yL),T(25−xT,yT+2),B(25−xB,yB−2)で表される。このようにすることにより、左右対称となる輪郭線に対して2画素ずつ外側の位置から探索を開始するように輪郭パラメータL,R,T,Bの初期設定を設定することができる。ステップS130における顔器官の検出によって検出される左右の目の位置がばらつくことも考えられるため、当該ばらつきが吸収できるように右目の輪郭線Oを大きめに設定するようにしてもよい。右目の輪郭線Oを大きめに設定しておけば、輪郭パラメータL,R,T,Bを内側に向かって移動させる間に最適な座標に収束させることができ、探索の際に輪郭パラメータL,R,T,Bの位置関係が逆転することが防止できる。
3−5.変形例5
上述した実施形態では左目の輪郭検出を先に行うようにしたが、信頼性の高い方の目の輪郭を先に探索し、当該探索結果に基づいて、他方の目の輪郭の輪郭パラメータL,R,T,Bを初期設定するのが望ましい。例えば、顔が正面を向いていない場合、一方の目の方がデジタルスチルカメラに近い位置に位置することとなるため、大きく撮影されることとなる。この場合、大きく撮影された目の輪郭検出を行う方が、もう一方の小さく撮影された目の輪郭検出を行うよりも、信頼性の高い輪郭を検出することができる。従って、ステップS130の顔器官検出において比較領域CA1,CA2(本変形例では、比較領域CA1,CA2の大きさを固定せず、変更しながらパターンマッチングを行うものとする。)が大きくなった方の目を先に輪郭検出するのが望ましい。さらに、ステップS110の顔検出において、顔向きも検出し、当該顔向きにおいて正面に近い側の目を先に輪郭検出するようにしてもよい。
上述した実施形態では左目の輪郭検出を先に行うようにしたが、信頼性の高い方の目の輪郭を先に探索し、当該探索結果に基づいて、他方の目の輪郭の輪郭パラメータL,R,T,Bを初期設定するのが望ましい。例えば、顔が正面を向いていない場合、一方の目の方がデジタルスチルカメラに近い位置に位置することとなるため、大きく撮影されることとなる。この場合、大きく撮影された目の輪郭検出を行う方が、もう一方の小さく撮影された目の輪郭検出を行うよりも、信頼性の高い輪郭を検出することができる。従って、ステップS130の顔器官検出において比較領域CA1,CA2(本変形例では、比較領域CA1,CA2の大きさを固定せず、変更しながらパターンマッチングを行うものとする。)が大きくなった方の目を先に輪郭検出するのが望ましい。さらに、ステップS110の顔検出において、顔向きも検出し、当該顔向きにおいて正面に近い側の目を先に輪郭検出するようにしてもよい。
図23は、信頼性の高い方の目の輪郭を先に探索する場合に、信頼性の高い方の目を判定する様子を模式的に示している。同図において、顔器官の検出(ステップS130)が完了した状態の顔画像データFDの一例を示している。同図の例では、顔が左方向を向いており、左目の比較領域CA1よりも右目の比較領域CA2の方が大きく検出されている。この場合、大きい方の右目の比較領域CA2の方が目の輪郭が鮮明に表れていると考えることができる。従って、右目について信頼性の高い輪郭検出を先に行い、その結果に基づいて、左目の輪郭パラメータL,R,T,Bを初期設定することができる。
なお、以上においては左右両目の輪郭検出を行うものを例示したが、いずれか一方の目の輪郭を検出するのに本発明の輪郭検出方法を適用できることはいうまでもない。また、本発明の輪郭検出方法は、コンピュータ上で実行されるものに限られず、例えばプリンタやデジタルスチルカメラやスキャナ等の画像機器にて実行されてもよい。プリンタにて本発明の輪郭検出方法を行えば、印刷の際に輪郭に応じた画像処理を実行することができる。また、デジタルスチルカメラにて本発明の輪郭検出方法を行えば、各種撮影制御を輪郭に応じて行うことができる。
10…コンピュータ、11…CPU、12…RAM、13…ROM、14…HDD、14a…プログラムデータ、14b…顔テンプレート、14c…目テンプレート、14d…口テンプレート、14e…画像データ、15…GIF、16…VIF、17…IIF、18…バス、20…プリンタ、40…ディスプレイ、50a…キーボード、50b…マウス、P1…OS、P2…輪郭検出アプリケーション、P2a…顔検出部、P2b…顔器官検出部、P2c…輪郭検出部、P2c1…傾き補正部、P2c2…サンプリング部、P2c3…スカラー変換部、P2c4…変換関数設定部、P2c5…パラメータ探索部、P2c6…評価値算出部、P3…プリンタドライバ。
Claims (8)
- 画像データに含まれる顔器官の輪郭を検出する輪郭検出方法であって、
前記画像データの異なる位置に配置された3点のうち水平方向の両外側に位置する2点をそれぞれ終端点とし、残る1点を共通の変曲点とし、当該変曲点にて互いに接続する一対の2次曲線によって前記顔器官の輪郭の少なくとも一部を近似し、
前記2次曲線の前記輪郭への近似性を評価する評価値を算出し、当該評価値に基づいて前記近似性を向上させる前記変曲点と前記終端点の位置を探索することを特徴とする輪郭検出方法。 - 前記終端点を共通とし、前記変曲点が異なるもう一対の前記2次曲線を合わせた二対の前記2次曲線によって前記顔器官の前記輪郭の全体を近似することを特徴とする請求項1に記載の輪郭検出方法。
- 一対の前記2次曲線が上に凸であり、もう一対の前記2次曲線が下に凸であることを特徴とする請求項2に記載の輪郭検出方法。
- 前記近似性が向上するように前記終端点を移動させ、その後、前記近似性が向上するように前記変曲点を移動させることを特徴とする請求項1から請求項3のいずれか一項に記載の輪郭検出方法。
- 前記終端点および前記変曲点を所定距離移動させたときに前記近似性を最も向上させる前記終端点および前記変曲点の位置を探索し、その後、当該位置を中心として前記終端点および前記変曲点を前記所定距離よりも少ない距離移動させたときに前記近似性を最も向上させる前記終端点および前記変曲点の位置を探索することを特徴とする請求項1から請求項4のいずれか一項に記載の輪郭検出方法。
- 前記終端点および前記変曲点を所定方向に移動させたときに前記近似性を最も向上させる前記終端点および前記変曲点の位置を探索し、その後、当該位置を中心として前記終端点および前記変曲点を前記所定方向とは異なる方向に移動させたときに前記近似性を最も向上させる前記終端点および前記変曲点の位置を探索することを特徴とする請求項1から請求項5のいずれか一項に記載の輪郭検出方法。
- 画像データに含まれる顔器官の輪郭を検出する輪郭検出装置であって、
前記画像データの異なる位置に配置された3点のうち水平方向の両外側に位置する2点をそれぞれ終端点とし、残る1点を共通の変曲点とし、当該変曲点にて互いに接続する一対の2次曲線によって前記顔器官の輪郭の少なくとも一部を近似する近似手段と、
前記2次曲線の前記輪郭への近似性を評価する評価値を算出し、当該評価値を向上させる前記変曲点と前記終端点の位置を探索する探索手段とを具備することを特徴とする輪郭検出装置。 - 画像データに含まれる顔器官の輪郭を検出する機能をコンピュータに実行させるコンピュータ読み取り可能な輪郭検出プログラムであって、
前記画像データの異なる位置に配置された3点のうち水平方向の両外側に位置する2点をそれぞれ終端点とし、残る1点を共通の変曲点とし、当該変曲点にて互いに接続する一対の2次曲線によって前記顔器官の輪郭の少なくとも一部を近似する近似機能と、
前記2次曲線の前記輪郭への近似性を評価する評価値を算出し、当該評価値を向上させる前記変曲点と前記終端点の位置を探索する探索機能とをコンピュータに実行させることを特徴とするコンピュータ読み取り可能な輪郭検出プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008033604A JP2009193357A (ja) | 2008-02-14 | 2008-02-14 | 輪郭検出方法、輪郭検出装置および輪郭検出プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008033604A JP2009193357A (ja) | 2008-02-14 | 2008-02-14 | 輪郭検出方法、輪郭検出装置および輪郭検出プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009193357A true JP2009193357A (ja) | 2009-08-27 |
Family
ID=41075307
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008033604A Withdrawn JP2009193357A (ja) | 2008-02-14 | 2008-02-14 | 輪郭検出方法、輪郭検出装置および輪郭検出プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2009193357A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090324129A1 (en) * | 2008-06-25 | 2009-12-31 | Canon Kabushiki Kaisha | Image processing apparatus, image processing method, and computer program |
CN111984678A (zh) * | 2020-08-24 | 2020-11-24 | 安徽新华博信息技术股份有限公司 | 一种基于Elasticsearch的SQL使用方法 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007272435A (ja) * | 2006-03-30 | 2007-10-18 | Univ Of Electro-Communications | 顔特徴抽出装置及び顔特徴抽出方法 |
-
2008
- 2008-02-14 JP JP2008033604A patent/JP2009193357A/ja not_active Withdrawn
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007272435A (ja) * | 2006-03-30 | 2007-10-18 | Univ Of Electro-Communications | 顔特徴抽出装置及び顔特徴抽出方法 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090324129A1 (en) * | 2008-06-25 | 2009-12-31 | Canon Kabushiki Kaisha | Image processing apparatus, image processing method, and computer program |
US8630503B2 (en) * | 2008-06-25 | 2014-01-14 | Canon Kabushiki Kaisha | Image processing apparatus, image processing method, and computer program |
CN111984678A (zh) * | 2020-08-24 | 2020-11-24 | 安徽新华博信息技术股份有限公司 | 一种基于Elasticsearch的SQL使用方法 |
CN111984678B (zh) * | 2020-08-24 | 2022-06-14 | 安徽新华博信息技术股份有限公司 | 一种基于Elasticsearch的SQL使用方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108229278B (zh) | 人脸图像处理方法、装置和电子设备 | |
US10304164B2 (en) | Image processing apparatus, image processing method, and storage medium for performing lighting processing for image data | |
CN110619628B (zh) | 一种人脸图像质量评估方法 | |
US7835568B2 (en) | Method and apparatus for image-based photorealistic 3D face modeling | |
US9245330B2 (en) | Image processing device, image processing method, and computer readable medium | |
JP4708909B2 (ja) | デジタル画像の対象物検出方法および装置並びにプログラム | |
JP5777507B2 (ja) | 情報処理装置、情報処理方法、及びそのプログラム | |
JP5836095B2 (ja) | 画像処理装置、画像処理方法 | |
JP4414401B2 (ja) | 顔特徴点検出方法および装置並びにプログラム | |
EP1510973A2 (en) | Method and apparatus for image-based photorealistic 3D face modeling | |
JP5505410B2 (ja) | データ処理装置、画像照合方法、プログラムおよび画像照合システム | |
US20100034465A1 (en) | Method and apparatus for calculating pixel features of image data | |
US11232585B2 (en) | Line-of-sight estimation device, line-of-sight estimation method, and program recording medium | |
CN109102559A (zh) | 三维模型处理方法和装置 | |
JP2008282377A (ja) | 画像処理方法および装置 | |
JP2019139618A (ja) | 情報処理装置、被写体の判別方法及びコンピュータプログラム | |
JP2009205283A (ja) | 画像処理装置、画像処理方法及び画像処理プログラム | |
JP2009237627A (ja) | 画像処理方法、画像処理装置、画像処理プログラムおよび印刷装置 | |
JP2009217799A (ja) | 輪郭検出方法、輪郭検出装置および輪郭検出プログラム | |
JP2009217798A (ja) | 輪郭検出方法、輪郭検出装置および輪郭検出プログラム | |
US9323981B2 (en) | Face component extraction apparatus, face component extraction method and recording medium in which program for face component extraction method is stored | |
JP7107380B2 (ja) | 推定装置、推定方法、およびプログラム | |
JP2009193357A (ja) | 輪郭検出方法、輪郭検出装置および輪郭検出プログラム | |
JP2012048326A (ja) | 画像処理装置及びプログラム | |
JP4888412B2 (ja) | 輪郭検出方法、輪郭検出装置および輪郭検出プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110201 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120308 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120313 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20120330 |