JP4888412B2 - Outline detection method, outline detection apparatus, and outline detection program - Google Patents
Outline detection method, outline detection apparatus, and outline detection program Download PDFInfo
- Publication number
- JP4888412B2 JP4888412B2 JP2008033622A JP2008033622A JP4888412B2 JP 4888412 B2 JP4888412 B2 JP 4888412B2 JP 2008033622 A JP2008033622 A JP 2008033622A JP 2008033622 A JP2008033622 A JP 2008033622A JP 4888412 B2 JP4888412 B2 JP 4888412B2
- Authority
- JP
- Japan
- Prior art keywords
- contour
- eye
- approximate curve
- image data
- evaluation value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Description
本発明は、輪郭検出方法、輪郭検出装置および輪郭検出プログラムに関し、特に顔器官の輪郭を検出する輪郭検出方法、輪郭検出装置および輪郭検出プログラムに関する。 The present invention relates to a contour detection method, a contour detection device, and a contour detection program, and more particularly to a contour detection method, a contour detection device, and a contour detection program for detecting the contour of a facial organ.
画像データに含まれる人物の目の輪郭を検出する手法として、輪郭を表す初期パラメータを顔の回転角に基づいて修正するものが提案されている(特許文献1、参照。)。かかる構成において、輪郭を表す初期パラメータを顔の回転角に基づいて修正されるため、回の回転角の影響を抑えた輪郭検出を行うことが可能となる。
しかしながら、目の輪郭の位置や形状は個人ごとに異なっており、回転角のみの修正では適正な初期パラメータを設定することができないという問題があった。さらに、同一の人物の目であっても、目の輪郭はそのときの表情によって異なっており、適正な初期パラメータを設定するのが困難であるという問題があった。初期パラメータがあまりにも現実の輪郭とかけ離れていると、輪郭抽出に要する処理負荷や処理時間が増大することとなる。 However, the position and shape of the eye contour varies from person to person, and there is a problem that it is not possible to set appropriate initial parameters by correcting only the rotation angle. Furthermore, even for the eyes of the same person, the contours of the eyes differ depending on the expression at that time, and there is a problem that it is difficult to set appropriate initial parameters. If the initial parameter is too far from the actual contour, the processing load and processing time required for contour extraction will increase.
本発明は、前記課題にかんがみてなされたもので、高精度かつ処理負荷の少ない輪郭検出方法、輪郭検出装置および輪郭検出プログラムを提供する。 The present invention has been made in view of the above problems, and provides a contour detection method, a contour detection apparatus, and a contour detection program with high accuracy and low processing load.
前記課題を解決するために、まず、左右いずれか一方の目の輪郭に近似させる第1近似曲線を初期設定し、当該第1近似曲線の前記一方の目の輪郭への近似性を評価する評価値を算出し、当該評価値に基づいて当該近似性を向上させる前記第1近似曲線を探索する。これにより、左右いずれか一方の目の輪郭を前記第1近似曲線によって検出することができる。次に、探索された前記第1近似曲線の位置および形状に基づいて他方の目に近似させる第2近似曲線を初期設定する。すなわち、同一人物において、一方の目の輪郭は他方の目の輪郭に似ていると推定することができるため、すでに探索され近似性の高い前記第1近似曲線に基づいて他方の目に近似させる第2近似曲線を適切に初期設定することができる。前記第2近似曲線を初期設定すると、同様に前記第2近似曲線の前記他方の目の輪郭への近似性を評価する評価値を算出し、当該評価値に基づいて当該近似性を向上させる前記第2近似曲線を探索する。なお、左目の輪郭を前記第1近似曲線によって近似してもよいし、逆に右目の輪郭を前記第1近似曲線によって近似してもよい。 In order to solve the above-mentioned problem, first, a first approximation curve to be approximated to the contour of either the left or right eye is initially set, and evaluation for evaluating the closeness of the first approximation curve to the contour of the one eye A value is calculated, and the first approximate curve that improves the closeness based on the evaluation value is searched for. As a result, the contour of either the left or right eye can be detected by the first approximate curve. Next, a second approximate curve to be approximated to the other eye is initialized based on the searched position and shape of the first approximate curve. That is, in the same person, it can be estimated that the contour of one eye resembles the contour of the other eye, so that the first eye approximates the other eye based on the already-searched first approximate curve. The second approximate curve can be appropriately initialized. When the second approximate curve is initially set, similarly, an evaluation value for evaluating the closeness of the second approximate curve to the contour of the other eye is calculated, and the closeness is improved based on the evaluation value. The second approximate curve is searched. Note that the contour of the left eye may be approximated by the first approximate curve, and conversely, the contour of the right eye may be approximated by the first approximate curve.
また、探索された前記第1近似曲線に基づいて他方の目に近似させる第2近似曲線を初期設定するにあたり、探索後の前記第1近似曲線と左右対称形状となるように前記第2近似曲線を設定してもよい。同一人物の目の形状は、左右対称に近いと推定することができるため、前記第2近似曲線の形状を適切に初期設定することができる。また、探索後の前記第1近似曲線より所定量大きくなるように前記第2近似曲線の形状を初期設定するようにしてもよい。このようにすることにより、前記第2近似曲線を縮小する方向に探索を行わせることができる。 In addition, when initializing a second approximate curve to be approximated to the other eye based on the searched first approximate curve, the second approximate curve is formed so as to be symmetrical with the first approximate curve after the search. May be set. Since the eye shape of the same person can be estimated to be nearly symmetrical, the shape of the second approximate curve can be appropriately initialized. In addition, the shape of the second approximate curve may be initially set so as to be a predetermined amount larger than the first approximate curve after the search. In this way, the search can be performed in the direction of reducing the second approximate curve.
また、前記第1近似曲線と前記第2近似曲線の具体的な例として、前記画像データの異なる位置に配置された3点のうち水平方向の両外側に位置する2点をそれぞれ終端点とし、残る1点を共通の変曲点とし、当該変曲点にて互いに接続する一対の2次曲線によって表すようにしてもよい。このようにすることにより、前記第1近似曲線と前記第2近似曲線によって目の輪郭を正確に表現することができる。また、予め左右の目をそれぞれ含む矩形領域の位置および大きさを検出しておき、各矩形領域内において前記第1近似曲線と前記第2近似曲線を初期設定するようにしてもよい。予め検出した前記矩形領域内で前記第1近似曲線と前記第2近似曲線を探索することによって、広範な前記画像データにおいて前記第1近似曲線と前記第2近似曲線を探索するよりも探索効率を向上させることができる。 Further, as specific examples of the first approximate curve and the second approximate curve, two points located on both outer sides in the horizontal direction among the three points arranged at different positions of the image data are respectively set as end points, The remaining one point may be a common inflection point and may be represented by a pair of quadratic curves connected to each other at the inflection point. By doing so, the contour of the eye can be accurately expressed by the first approximate curve and the second approximate curve. Alternatively, the position and size of a rectangular area including the left and right eyes may be detected in advance, and the first approximate curve and the second approximate curve may be initially set in each rectangular area. By searching the first approximate curve and the second approximate curve in the rectangular area detected in advance, the search efficiency is higher than when searching the first approximate curve and the second approximate curve in a wide range of the image data. Can be improved.
さらに、前記第1近似曲線による輪郭検出結果が、前記第2近似曲線の初期設定に反映されるため、前記第1近似曲線による輪郭検出が正確であるのが望ましい。まず輪郭検出が正確な方の目を予測し、当該予測された方の目を前記第1近似曲線によって近似させるようにしてもよい。このようにすれば、正確に検出された前記第1近似曲線に基づいて、前記第2近似曲線の初期設定を正確に行うことができる。 Furthermore, since the contour detection result by the first approximate curve is reflected in the initial setting of the second approximate curve, it is desirable that the contour detection by the first approximate curve is accurate. First, the eye with the more accurate contour detection may be predicted, and the predicted eye may be approximated by the first approximate curve. In this way, the initial setting of the second approximate curve can be accurately performed based on the accurately detected first approximate curve.
さらに、本発明の技術的思想は、具体的な輪郭検出方法にて具現化されるのみならず、当該方法を輪郭検出装置において具現化することもできる。すなわち、上述した輪郭検出方法が行う各工程に対応する手段を有する輪郭検出装置としても本発明を特定することができる。むろん、上述した輪郭検出装置がプログラムを読み込んで上述した各手段を実現する場合には、当該各手段に対応する機能を実行させるプログラムや当該プログラムを記録した各種記録媒体においても本発明の技術的思想が具現化できることは言うまでもない。なお、本発明の輪郭検出装置は、単一の装置のみならず、複数の装置によって分散して存在可能であることはいうまでもない。例えば、輪郭検出装置が有する各手段が、パーソナルコンピュータ上で実行されるプリンタドライバと、プリンタの双方において分散することも可能である。また、プリンタ等の印刷装置に本発明の輪郭検出装置の各手段を包含させることも可能である。 Furthermore, the technical idea of the present invention can be implemented not only by a specific contour detection method but also by a contour detection apparatus. That is, the present invention can be specified as a contour detection apparatus having means corresponding to each step performed by the contour detection method described above. Of course, when the above-described contour detection apparatus reads a program to realize each of the above-described means, the technical features of the present invention can be applied to a program for executing a function corresponding to each of the means and various recording media on which the program is recorded. It goes without saying that the idea can be embodied. In addition, it cannot be overemphasized that the outline detection apparatus of this invention can be disperse | distributed not only by a single apparatus but by several apparatuses. For example, each unit included in the contour detection apparatus can be distributed in both the printer driver executed on the personal computer and the printer. Further, each means of the contour detection device of the present invention can be included in a printing apparatus such as a printer.
以下、下記の順序に従って本発明の実施形態を説明する。
1.輪郭検出装置の構成:
2.輪郭検出処理の流れ:
2−1.左目の輪郭検出:
2−2.右目の輪郭検出:
3.変形例:
3−1.変形例1:
3−2.変形例2:
3−3.変形例3:
3−4.変形例4:
3−5.変形例5:
Hereinafter, embodiments of the present invention will be described in the following order.
1. Contour detection device configuration:
2. Outline detection process flow:
2-1. Left eye contour detection:
2-2. Right eye contour detection:
3. Variations:
3-1. Modification 1:
3-2. Modification 2:
3-3. Modification 3:
3-4. Modification 4:
3-5. Modification 5:
1.輪郭検出装置の構成
図1は、本発明の一実施形態にかかる輪郭検出装置を具体的に実現するコンピュータの構成を示している。同図において、コンピュータ10はCPU11とRAM12とROM13とハードディスクドライブ(HDD)14と汎用インターフェイス(GIF)15とビデオインターフェイス(VIF)16と入力インターフェイス(IIF)17とバス18とから構成されている。バス18は、コンピュータ10を構成する各要素11〜17の間でのデータ通信を実現するものであり、図示しないチップセット等によって通信が制御されている。HDD14には、オペレーティングシステム(OS)を含む各種プログラムを実行するためのプログラムデータ14aが記憶されており、当該プログラムデータ14aをRAM12に展開しながらCPU11が当該プログラムデータ14aに準じた演算を実行する。
1. Configuration of Contour Detection Device FIG. 1 shows a configuration of a computer that specifically realizes a contour detection device according to an embodiment of the present invention. In FIG. 1, a
また、HDD14には、デジタルスチルカメラやスキャナによって画像入力された画像データ14eと、後述するパターンマッチングにおいて使用する多数の顔テンプレート14bと目テンプレート14cと口テンプレート14dが記憶されている。GIF15は、例えばUSB規格に準じたインターフェイスを提供するものであり、外部のプリンタ20をコンピュータ10に接続させている。VIF16はコンピュータ10を外部のディスプレイ40に接続し、ディスプレイ40に画像を表示するためのインターフェイスを提供する。IIF17はコンピュータ10を外部のキーボード50aとマウス50bに接続し、キーボード50aとマウス50bからの入力信号をコンピュータ10が取得するためのインターフェイスを提供する。
The
図2は、コンピュータ10において実行されるプログラムのソフトウェア構成を示している。同図において、オペレーティングシステム(OS)P1と輪郭検出アプリケーションP2とプリンタドライバP3が実行されている。OS P1は各プログラム間のインターフェイスを提供し、プリンタドライバP3はプリンタ20を制御するための処理を実行する。輪郭検出アプリケーションP2は、顔検出部P2aと顔器官検出部P2bと輪郭検出部P2cとから構成されている。さらに、輪郭検出部P2cは傾き補正部P2c1とサンプリング部P2c2とスカラー変換部P2c3と変換関数設定部P2c4とパラメータ探索部P2c5と評価値算出部P2c6とから構成されている。輪郭検出アプリケーションP2を構成する各モジュールP2a〜P2cが実行する処理の詳細については後述する輪郭検出処理の流れとともに説明する。
FIG. 2 shows a software configuration of a program executed in the
2.輪郭検出処理の流れ
図3は、輪郭検出処理の流れを示している。ステップS100においては、顔検出部P2aが輪郭検出の対象とする画像データ14eをHDD14から取得する。本実施形態において輪郭検出の対象とする画像データ14eは、各画素が示す色がRGB各チャネルの階調値の組み合わせ(RGB色空間におけるベクトル)で表現されたビットマップデータである。後述する図面において、便宜的に2値の画像が示される場合があるが、実際には多階調のカラー画像データが処理の対象となる。なお、画像データ14eは、HDD14に記憶されている段階で圧縮されていてもよいし、他の色空間で各画素の色が表現されていてもよい。これらの場合、画像データ14eの展開や色空間の変換を実行して、顔検出部P2aがRGBビットマップデータの画像データ14eを取得する。なお、画像データ14eはHDD14に記憶されているものに限らず、例えばデジタルスチルカメラやメモリカード等に記憶されているものであってもよい。ディスプレイ40に表示されたUI画面を参照してキーボード50aやマウス50bを操作することにより、輪郭検出処理の対象とする画像データ14eが指定される。ステップS110においては、顔検出部P2aが画像データ14eに含まれる顔を検出する。
2. Flow of contour detection processing FIG. 3 shows a flow of contour detection processing. In step S <b> 100, the face detection unit P <b> 2 a acquires from the
図4は、ステップS110において行われる顔検出の様子を模式的に示している。同図において、顔検出部P2aがHDD14から取得した複数の顔テンプレート14bが示されている。本実施形態においては、画像データ14eと各顔テンプレート14bとのパターンマッチングを行うことにより、画像データ14eから顔を検出する。各顔テンプレート14bは一定の大きさ画像データであり、それぞれ顔が含まれている。各顔テンプレート14bに含まれる顔の大きさおよび位置(中央)は、ほぼ一定となるように規格化されている。また、多様な顔が検出できるように、種々の顔が各顔テンプレート14bに含まれている。顔テンプレート14bとのパターンマッチングを行うにあたっては、画像データ14eにおいて矩形状の比較領域CAを生成し、当該比較領域CAの位置と大きさと回転角度を変えながら、比較領域CAの内側の画像と各顔テンプレート14bの画像との類似性を評価する。
FIG. 4 schematically shows the face detection performed in step S110. In the figure, a plurality of
そして、類似性が一定の基準を満足するとき、顔が存在すると判定し、そのときの比較領域CAの位置と大きさと回転角度を取得する。なお、本実施形態において、比較領域CAは30度ずつ回転されるものとする。画像データ14eにおいて回転している顔は、対応する角度だけ比較領域CAを回転させたときにマッチングすることとなる。画像データ14eの全体に比較領域CAを移動させることにより、画像データ14eの不特定の位置に存在する単数または複数の顔が存在する比較領域CAの位置と大きさと回転角度を取得することができる。なお、本実施形態では、単一の顔が検出されたものとして以下説明する。
When the similarity satisfies a certain standard, it is determined that a face exists, and the position, size, and rotation angle of the comparison area CA at that time are acquired. In the present embodiment, the comparison area CA is rotated by 30 degrees. The face rotated in the
ステップS120において、顔検出部P2aは、顔テンプレート14bとマッチングする比較領域CAの位置と大きさと回転角度に基づいて、当該比較領域CAに含まれる領域の画像を画像データ14eから顔画像データFDとして抽出する。このとき、顔画像データFDの大きさが一定の大きさとなるように解像度変換が行われる。本実施形態においては、100×100画素の大きさとなるように、顔画像データFDの画素が内挿または間引きされる。また、画像データ14eにおける顔の回転角に対応して比較領域CAが回転されている場合には、この回転を解消するように顔画像データFDを回転させる。ただし、比較領域CAの回転角は30度ずつであるため、顔画像データFDにおいて、±15度の範囲で顔の回転角が残存し得ることとなる。また、各顔テンプレート14bに含まれる顔の大きさおよび位置が規格化されているため、これとマッチングする顔画像データFDにおける顔の位置や大きさもほぼ一定となる。以上のようにして、顔画像データFDが得られると、ステップS130において顔器官検出部P2bが顔器官としての目および口を検出する。
In step S120, the face detection unit P2a converts the image of the area included in the comparison area CA from the
図5は、ステップS130において顔器官を検出する様子を模式的に示している。顔器官検出部P2bは、HDD14から多数の目テンプレート14cと口テンプレート14dを取得し、これらと顔画像データFDとのパターンマッチングを行う。ここでも顔画像データFDにおいて矩形状の比較領域CAを生成し、比較領域CAの位置を変更していきながら比較領域CAの内側の画像と各目テンプレート14cや各口テンプレート14dとの類似性を比較していく。ただし、顔画像データFDにおける顔の位置や大きさもほぼ一定であり、顔の回転角も30度単位で補正されているため、当該顔に含まれる目や口の大きさや回転角には大きなずれはないと考えることができる。従って、ここでは比較領域CAの大きさや回転角を変更することなく、パターンマッチングを行うことができる。なお、本実施形態において目テンプレート14cの大きさは25×25画素の大きさに規格化されており、目を検出す際の比較領域CAの大きさも25×25画素に固定される。また、各目テンプレート14cに含まれる目の位置(中央)および大きさも規格化されているため、各目テンプレート14cとマッチングする比較領域CAにおける目の大きさや位置もほぼ一定となると考えることができる。正面から撮影した顔の場合、通常、左右の目と口が存在する比較領域CAの位置が検出されることとなる。本明細書および図面において、左右(LR)とは図面を正面から見たときの左右を意味するものとする。従って、現実の顔における左右とは反対となる。なお、左右の目が検出できるように、目テンプレート14cには左目のものと右目のものが多数含まれている。
FIG. 5 schematically shows how a facial organ is detected in step S130. The face organ detection unit P2b acquires a large number of
図6は、左右の目と口が存在する比較領域CAが検出された顔画像データFDの様子を示している。同図において、左右の目を中央に含む矩形状の比較領域CA1,CA2と、口を含む比較領域CA3が検出されている。以上のようにして、各顔器官の検出が完了すると、ステップS140において、輪郭検出部2cの傾き補正部P2c1が左右の目を中央に含む比較領域CA1,CA2の重心の座標を算出し、当該重心同士を結んだ直線の水平線に対する傾きSを算出する。上述したように、顔検出の段階で30度単位の回転角補正がなされているため、ここでは基本的に±15度以内の角度に対応した傾きSが算出されることとなる。ステップS150においては、傾き補正部P2c1が顔画像データFDから比較領域CA1,CA2に属する領域をそれぞれ左目画像データLEと右目画像データREとして抽出する。このとき、左目画像データLEと右目画像データREに対してステップS140にて算出した傾きSに応じた傾き補正を行う。 FIG. 6 shows the face image data FD in which the comparison area CA where the left and right eyes and mouth exist is detected. In the figure, rectangular comparison areas CA1 and CA2 including the left and right eyes in the center and a comparison area CA3 including the mouth are detected. When the detection of each facial organ is completed as described above, in step S140, the inclination correction unit P2c1 of the contour detection unit 2c calculates the coordinates of the center of gravity of the comparison areas CA1 and CA2 including the left and right eyes in the center. The inclination S of the straight line connecting the centroids with respect to the horizontal line is calculated. As described above, since the rotation angle is corrected in units of 30 degrees at the face detection stage, the inclination S corresponding to an angle within ± 15 degrees is basically calculated here. In step S150, the inclination correction unit P2c1 extracts areas belonging to the comparison areas CA1 and CA2 from the face image data FD as the left eye image data LE and the right eye image data RE, respectively. At this time, the inclination correction according to the inclination S calculated in step S140 is performed on the left eye image data LE and the right eye image data RE.
図7は、ステップS150において傾き補正部P2c1が実行する傾き補正の様子を概念的に示している。同図において、矩形状の比較領域CAの上辺と下辺を傾きSに応じて傾斜させ、傾斜後の比較領域CA(破線で図示)に属する画素を抽出する。比較領域CAの上辺と下辺が傾きSに応じて傾斜しているため、抽出された各画素列の位置がずれることとなる。そして、抽出した各画素列の上端・下端位置を揃えることにより、矩形状とし、左目画像データLEと右目画像データREを得る。これにより、左目画像データLEと右目画像データREに含まれる目の傾きを解消することができ、左目画像データLEと右目画像データREにおいて目をほぼ水平とすることができる。なお、本来の画像から画素の位置をずらしているため、輪郭の滑らかさが不正確になったり、目の形状がいびつとなることも考えられるが、±15度以内に対応する量の傾きを調整するに過ぎないため、問題とはならない。以上のようにして左目画像データLEと右目画像データREが得られると、左目画像データLEと右目画像データREをスカラー量Zの画像データに変換する処理をステップS200にて実行する。なお、左目画像データLEと右目画像データREにおける鉛直方向の位置をyと表し、水平方向の位置をxと表すとともに、それぞれ左上隅をx=y=0とする。 FIG. 7 conceptually shows the state of inclination correction executed by the inclination correction unit P2c1 in step S150. In the figure, the upper side and the lower side of the rectangular comparison area CA are inclined according to the inclination S, and pixels belonging to the comparison area CA (shown by broken lines) after the inclination are extracted. Since the upper side and the lower side of the comparison area CA are inclined according to the inclination S, the positions of the extracted pixel columns are shifted. Then, by aligning the upper end / lower end positions of the extracted pixel columns, the left eye image data LE and the right eye image data RE are obtained. Thereby, the inclination of the eyes included in the left eye image data LE and the right eye image data RE can be eliminated, and the eyes can be made almost horizontal in the left eye image data LE and the right eye image data RE. In addition, since the pixel position is shifted from the original image, the smoothness of the contour may be inaccurate or the shape of the eye may be distorted, but the corresponding amount of inclination is within ± 15 degrees. It is not a problem because it is just an adjustment. When the left-eye image data LE and the right-eye image data RE are obtained as described above, a process of converting the left-eye image data LE and the right-eye image data RE into image data having a scalar quantity Z is executed in step S200. Note that the vertical position in the left eye image data LE and the right eye image data RE is represented as y, the horizontal position is represented as x, and the upper left corner is x = y = 0.
図8は、ステップS200にて実行するスカラー変換処理(スカラー量マップ取得手段)の流れを示している。左目画像データLEと右目画像データREは各画素がRGB階調(RGBベクトル)を有する画像データであるが、スカラー変換処理では、左目画像データLEと右目画像データREを各画素がスカラー量Zの情報を有する画像データに変換する処理を実行する。まず、ステップS210において、サンプリング部P2c2が顔画像データFDの一部の画素をサンプリングする。 FIG. 8 shows the flow of scalar conversion processing (scalar amount map acquisition means) executed in step S200. The left-eye image data LE and the right-eye image data RE are image data in which each pixel has RGB gradation (RGB vector). In the scalar conversion process, the left-eye image data LE and the right-eye image data RE each have a scalar amount Z. A process of converting into image data having information is executed. First, in step S210, the sampling unit P2c2 samples some pixels of the face image data FD.
図9は、ステップS210におけるサンプリングの様子を示している。顔画像データFDにおいて左右の目を含む比較領域CAの左下隅と右下隅を結ぶ線分L1と、左右の比較領域CAの間において線分L1を2等分する鉛直方向の線分L2が示されている。線分L2の長さは比較領域CAの幅と同じとされている。線分L1,L2は所定の幅を有しており、線分L1,L2に対応する位置の画素を本実施形態のサンプリングの対象とする。線分L1,L2は、目の下の略一定の高さの位置と、左右の目の間の位置に対応している。このような位置からサンプリングすることにより、顔の輪郭外や目や眉毛や鼻の穴や口などの色の画素はサンプリングされなくなり、基本的に肌色の画素のみをサンプリングすることができる。また、線分L1,L2の双方からサンプリングを行うようにしているため、仮に線分L1,L2の一部に眼鏡のフレームや前髪などの肌色以外の画素が含まれたとしても、後述する統計指標への影響を抑えることができる。むろん、ある程度、肌色のみに絞り込むことができればよく、例えば頬や額等の他の領域からサンプリングを行うようにしてもよい。 FIG. 9 shows the state of sampling in step S210. In the face image data FD, a line segment L1 connecting the lower left corner and the lower right corner of the comparison area CA including the left and right eyes, and a vertical line segment L2 that bisects the line segment L1 between the left and right comparison areas CA are shown. Has been. The length of the line segment L2 is the same as the width of the comparison area CA. The line segments L1 and L2 have a predetermined width, and pixels at positions corresponding to the line segments L1 and L2 are set as sampling targets in the present embodiment. The line segments L1 and L2 correspond to a position at a substantially constant height below the eyes and a position between the left and right eyes. By sampling from such a position, pixels of colors such as outside the outline of the face, eyes, eyebrows, nostrils and mouth are not sampled, and basically only the skin-colored pixels can be sampled. Further, since sampling is performed from both the line segments L1 and L2, even if pixels other than skin color such as a frame of eyeglasses or bangs are included in a part of the line segments L1 and L2, the statistics described later are used. The influence on the indicator can be suppressed. Of course, it is only necessary to narrow the skin color to some extent. For example, sampling may be performed from another region such as a cheek or forehead.
サンプリング部P2c2は、サンプリング対象の画素のRGB階調を取得し、RGB階調の平均μ(μR,μG,μB)と分散・共分散行列Sを統計指標として算出する(平均値算出手段)。平均μは、RGB各チャネルごとに階調の相加平均を算出することによって得ることができる。また、分散・共分散行列Sは下記の(1)式によって定義される。
前記の(1)式において、SR,SG,SBはRGB各チャネルについての分散を示しており、SRG,SGB,SRBはR−G,G−B,R−B間の共分散を示している。
The sampling unit P2c2 acquires the RGB gradation of the pixel to be sampled, and calculates the average μ (μ R , μ G , μ B ) of the RGB gradation and the variance / covariance matrix S as a statistical index (average calculation) means). The average μ can be obtained by calculating an arithmetic average of gradations for each RGB channel. The variance / covariance matrix S is defined by the following equation (1).
In the above equation (1), S R , S G , and S B indicate dispersion for each RGB channel, and S RG , S GB , and S RB are between RG , GB , and RB . Covariance is shown.
図10は、ステップS210におけるサンプリングによって得られる平均μ(μR,μG,μB)と分散SR,SG,SBをグラフによって示している。本発明において、サンプリングされた画素が示す色の3次元のRGB色空間における分布は正規分布N(μ,S)であると仮定しており、RGB階調分布がそれぞれ平均μ(μR,μG,μB)を中心とした正規分布NR(μR,SR),NG(μG,SG),NB(μB,SB)と仮定されている様子が図示されている。平均μ(μR,μG,μB)は、検出された顔において最も標準的な肌色を示し、分散SR,SG,SBは肌色を示す各チャネルの階調のばらつきの程度を示している。通常、分散SR,SG,SBはそれぞれ異なる大きさとなるが、平均μ(μR,μG,μB)に各分散SR,SG,SBの平方根(標準偏差)を加減算した値で囲まれた範囲の確率は68.2%となる。 FIG. 10 is a graph showing the average μ (μ R , μ G , μ B ) obtained by sampling in step S210 and the variances S R , S G , S B. In the present invention, it is assumed that the distribution of the color indicated by the sampled pixels in the three-dimensional RGB color space is a normal distribution N (μ, S), and the RGB gradation distributions are average μ (μ R , μ The state assumed to be a normal distribution N R (μ R , S R ), N G (μ G , S G ), N B (μ B , S B ) centered on G , μ B ) is illustrated. Yes. The average μ (μ R , μ G , μ B ) indicates the most standard skin color in the detected face, and the variances S R , S G , S B indicate the degree of gradation variation of each channel indicating the skin color. Show. Usually, the variances S R , S G , and S B have different sizes, but the mean μ (μ R , μ G , μ B ) is added to or subtracted from the square root (standard deviation) of each variance S R , S G , S B. The probability of the range surrounded by the values is 68.2%.
なお、本明細書において”肌色”とは、絶対的な色彩値が特定される特定色を意味するのではなく、平均μ(μR,μG,μB)の付近に分布する色を意味する。従って、処理対象の顔に応じて”肌色”が意味する絶対色が変動することとなる。平均μと分散行列Sが得られると、ステップS220において、スカラー変換部P2c3は、各画素がRGB階調を有する左目画像データLEと右目画像データREを取得する。なお、以降の処理は左目画像データLEと右目画像データREのそれぞれについて行われるが、左目画像データLEに対する処理を例に挙げて説明する。 In this specification, “skin color” does not mean a specific color whose absolute color value is specified, but a color distributed in the vicinity of an average μ (μ R , μ G , μ B ). To do. Therefore, the absolute color meaning “skin color” varies depending on the face to be processed. When the average μ and the dispersion matrix S are obtained, in step S220, the scalar conversion unit P2c3 acquires left-eye image data LE and right-eye image data RE in which each pixel has RGB gradation. The subsequent processing is performed for each of the left-eye image data LE and the right-eye image data RE. The processing for the left-eye image data LE will be described as an example.
ステップS230において、スカラー変換部P2c3は、左目画像データLEから一つの画素を順次選択し、選択した画素のRGB階調(r,g,b)を下記の(2)式に代入することよってマハラノビス平方距離DM 2に変換する。
なお、前記の(2)式において、Δrは(r−μR)であり、Δgは(g−μG)であり、Δbは(b−μB)である。マハラノビス平方距離DM 2は、上述した肌色のサンプリングによって得られた標準的な肌色を示す平均μ(μR,μG,μB)と、選択した画素のRGB階調(r,g,b)とのRGB色空間における平方距離(RGB階調値のずれ量)に対応する指標値であり、その大きさはRGB色空間における色のずれ方向に依存しない。すなわち、マハラノビス平方距離DM 2が同じであれば、平均μ(μR,μG,μB)からの色ずれ方向が異なっていても、確率的には同程度の差を有していると考えることができ、以下においてRGB色空間における色ずれ方向を無視した処理を行うことができる。 In the above equation (2), Δr is (r−μ R ), Δg is (g−μ G ), and Δb is (b−μ B ). The Mahalanobis square distance D M 2 is the average μ (μ R , μ G , μ B ) indicating the standard skin color obtained by the above-described skin color sampling, and the RGB gradation (r, g, b) of the selected pixel. The index value corresponding to the square distance in the RGB color space (the shift amount of the RGB gradation values), and the magnitude thereof does not depend on the color shift direction in the RGB color space. That is, if the Mahalanobis square distance D M 2 is the same, even if the color shift directions from the average μ (μ R , μ G , μ B ) are different, there is a difference of the same degree in terms of probability. In the following, it is possible to perform processing ignoring the color misregistration direction in the RGB color space.
図11は、RGB色空間(RG平面)におけるマハラノビス平方距離DM 2の等値線を示している。同図において、横軸はR階調(r)を示し、縦軸はG階調(g)を示している。等値線は、RGB各チャネルの分散SR,SG,SBの相違に起因して、略楕円状となっている。平均μ(μR,μG)においてマハラノビス平方距離DM 2が0となり、RG平面において平均μ(μR,μG)から離れるほどマハラノビス平方距離DM 2が大きくなっている。そのため、左目画像データLEに含まれる肌色とは異なる白目や黒目の画素は、肌色の画素よりもマハラノビス平方距離DM 2が大きくなる。このように、画素の色を示すベクトルとしてのRGB階調(r,g,b)が、標準的な肌色とのRGB階調値のずれ量を示すスカラーとしてのマハラノビス平方距離DM 2に変換することができる。左目画像データLEのすべての画素についてマハラノビス平方距離DM 2への変換が完了すると、左目画像データLEはマハラノビス平方距離DM 2の画像データDM 2(x,y)に変換されたこととなる。 FIG. 11 shows isolines of Mahalanobis square distance D M 2 in the RGB color space (RG plane). In the figure, the horizontal axis indicates the R gradation (r), and the vertical axis indicates the G gradation (g). The isolines are substantially elliptical due to differences in the variances S R , S G , and S B of the RGB channels. Mean μ (μ R, μ G) Mahalanobis square distance D M 2 in the zero, the average in the RG plane μ (μ R, μ G) Mahalanobis square distance D M 2 as the distance from is large. For this reason, white-eye and black-eye pixels different from the skin color included in the left-eye image data LE have a larger Mahalanobis square distance D M 2 than the skin-colored pixels. As described above, the RGB gradation (r, g, b) as a vector indicating the pixel color is converted into the Mahalanobis square distance D M 2 as a scalar indicating the deviation amount of the RGB gradation value from the standard skin color. can do. When the conversion to the Mahalanobis square distance D M 2 is completed for all the pixels of the left eye image data LE, the left eye image data LE has been converted to the image data D M 2 (x, y) of the Mahalanobis square distance D M 2. Become.
ステップS240において、スカラー変換部P2c3は、左目画像データLEの画素を順次選択し、選択した画素のマハラノビス平方距離DM 2を下記の(3)式で示す変換関数に代入することによりスカラー量Zに変換していく。
前記の(3)式においてα、uは前記変換関数の変換特性を決定付けるパラメータである。本実施形態では、α=1に固定し、uの初期値を3とする。
In step S240, the scalar conversion unit P2c3 sequentially selects the pixels of the left-eye image data LE, and substitutes the Mahalanobis square distance D M 2 of the selected pixels into the conversion function expressed by the following equation (3), thereby obtaining the scalar quantity Z. It will be converted to.
In the above equation (3), α and u are parameters that determine the conversion characteristics of the conversion function. In the present embodiment, α = 1 is fixed, and the initial value of u is 3.
図12は、前記変換関数の変換特性を示している。同図において、横軸は変換前のマハラノビス平方距離DM 2を示し、縦軸は変換後のスカラー量Zを示している。また、ある左目画像データLEの変換前のマハラノビス平方距離DM 2の分布と、変換後のスカラー量Zの分布も示している。スカラー量Zは、マハラノビス平方距離DM 2が0のとき−1となり、マハラノビス平方距離DM 2がパラメータuのとき0となる非線形関数によって表される。ここで、横軸のマハラノビス平方距離DM 2において、パラメータu=3を中心とした領域を第2領域A2と表し、第2領域A2よりもマハラノビス平方距離DM 2の値が大きくなる領域を第1領域A1と表すものとする。この第2領域A2においては、変換関数の傾きが他の領域よりも急となっており、マハラノビス平方距離DM 2の単位変動に応じたスカラー量Zの変動量が他の領域よりも大きくなっている。第2領域A2よりもマハラノビス平方距離DM 2が大きくなる第1領域A1においては、変換後のスカラー量Zが次第に1に飽和していくような変換特性を有している。第2領域A2は、肌色に対応したマハラノビス平方距離DM 2の領域と、非肌色に対応したマハラノビス平方距離DM 2の領域との間に設定されるのが望ましい。この第2領域A2の位置は、パラメータuによって設定されるが、初期のパラメータu=3は以下の根拠に基づいて設定されている。 FIG. 12 shows the conversion characteristics of the conversion function. In the figure, the horizontal axis indicates the Mahalanobis square distance D M 2 before conversion, and the vertical axis indicates the scalar quantity Z after conversion. Further, the distribution of Mahalanobis square distance D M 2 before conversion of certain left-eye image data LE and the distribution of scalar quantity Z after conversion are also shown. Scalar quantity Z is -1 next time Mahalanobis square distance D M 2 is 0, the Mahalanobis square distance D M 2 represented by a nonlinear function becomes 0 when parameter u. Here, in the Mahalanobis square distance D M 2 on the horizontal axis, a region centered on the parameter u = 3 is represented as a second region A2, and a region in which the value of the Mahalanobis square distance D M 2 is larger than the second region A2 is represented. It shall represent with 1st area | region A1. In the second area A2, the slope of the conversion function is steeper than in the other areas, and the amount of variation of the scalar amount Z corresponding to the unit variation of the Mahalanobis square distance D M 2 is larger than in the other regions. ing. In the first region A1 where the Mahalanobis square distance D M 2 is larger than the second region A2, the scalar amount Z after conversion has a characteristics such as going to saturate gradually 1. The second region A2 includes the Mahalanobis square distance D M 2 in the region corresponding to the skin color, is preferably set between the non Mahalanobis squared distance flesh color corresponding to D M 2 area. The position of the second area A2 is set by the parameter u, but the initial parameter u = 3 is set based on the following grounds.
図13は、マハラノビス平方距離DM 2と確率分布の関係をグラフによって示している。同図において、横軸はマハラノビス平方距離DM 2を示している。一方、縦軸は、ステップS210にてサンプリングした肌色の画素のRGB階調の平均μ(μR,μG,μB)と分散・共分散行列Sによって定義される正規分布N(μ,S)における確率分布(下側確率)を示している。同図に示すようにマハラノビス平方距離DM 2は、n次元カイ二乗分布に従う。本実施形態では、RGBの階調値で表されるカラー画像を処理の対象としており、3次元カイ二乗分布(実線で図示)によって各マハラノビス平方距離DM 2に対応する確率を推定することができる。マハラノビス平方距離DM 2=3のとき、下側確率が約60%となっている。すなわち、肌色を示す画素のうち約60%が、マハラノビス平方距離DM 2が3以下となるということが分かる。マハラノビス平方距離DM 2が3を超えてくると、その画素が肌色を示すことが疑わしくなっていくということが推測できる。すなわち、マハラノビス平方距離DM 2が3を超えてくる付近の領域が、肌色に対応したマハラノビス平方距離DM 2の領域と、非肌色に対応したマハラノビス平方距離DM 2の領域との間の領域であると推定できる。そのため、本実施形態では、パラメータuの初期値を3とし、マハラノビス平方距離DM 2が3となる付近の領域を第2領域A2と設定している。なお、モノクロ画像の場合には、マハラノビス平方距離DM 2が1次元カイ二乗分布(破線で図示)に従う。 FIG. 13 is a graph showing the relationship between the Mahalanobis square distance D M 2 and the probability distribution. In the figure, the horizontal axis indicates the Mahalanobis square distance D M 2 . On the other hand, the vertical axis represents the normal distribution N (μ, S defined by the mean μ (μ R , μ G , μ B ) of the RGB gradation of the skin color pixels sampled in step S210 and the variance / covariance matrix S. ) Shows a probability distribution (lower probability). As shown in the figure, the Mahalanobis square distance D M 2 follows an n-dimensional chi-square distribution. In the present embodiment, a color image represented by RGB gradation values is a processing target, and the probability corresponding to each Mahalanobis square distance D M 2 is estimated by a three-dimensional chi-square distribution (shown by a solid line). it can. When the Mahalanobis square distance D M 2 = 3, the lower probability is about 60%. That is, about 60% of the pixel indicating the flesh color, it can be seen that the Mahalanobis square distance D M 2 is 3 or less. If the Mahalanobis square distance D M 2 exceeds 3, it can be inferred that the pixel becomes suspicious to show skin color. That is, the Mahalanobis area nearby square distance D M 2 comes beyond 3, the Mahalanobis square distance D M 2 in the region corresponding to the skin color, Mahalanobis squared distance between the D M 2 in the region corresponding to the non-skin-color It can be estimated that this is a region. For this reason, in the present embodiment, the initial value of the parameter u is set to 3, and an area in the vicinity where the Mahalanobis square distance D M 2 is 3 is set as the second area A2. In the case of a monochrome image, the Mahalanobis square distance D M 2 follows a one-dimensional chi-square distribution (shown by a broken line).
図12において示した前記変換関数による変換前のマハラノビス平方距離DM 2の分布においては、マハラノビス平方距離DM 2=0を中心とした肌色の分布G1と左目画像データLEに含まれる白(白目)の分布G2と黒(黒目、眉等)の分布G3が存在する。これに対して変換後のスカラー量Zの分布においては、肌色の分布G1はスカラー量Z=−1を中心として分布し、左目画像データLEに含まれる白の分布G2と黒の分布G3は分布全体が1にほぼ飽和した値に変換されている。また、平均μ(μR,μG,μB)が示す標準的な肌色と比較して明るめの肌色や暗めの肌色は、パラメータuの初期値である3付近に位置しており、傾きが急な第2領域A2に存在することとなる。
In the distribution of the Mahalanobis square distance D M 2 before conversion by the conversion function shown in FIG. 12, the skin color distribution G1 centered on the Mahalanobis square distance D M 2 = 0 and the white (white eye) included in the left-eye image data LE. ) Distribution G2 and black (black eyes, eyebrows, etc.) distribution G3. On the other hand, in the distribution of the scalar quantity Z after conversion, the skin color distribution G1 is distributed around the scalar quantity Z = −1, and the white distribution G2 and the black distribution G3 included in the left-eye image data LE are distributions. The whole is converted to a value almost saturated to 1. In addition, the bright skin color and the dark skin color compared to the standard skin color indicated by the average μ (μ R , μ G , μ B ) are located near the
以上説明した変換関数によって、左目画像データLEのすべての画素のマハラノビス平方距離DM 2をスカラー量Zに変換することにより、左目画像データLEをスカラー量Zの画像データZ(x,y)に変換することができる。以下、スカラー量Zの画像データZ(x,y)に変換された左目画像データLE,右目画像データREをZマップとも表記するものとする。なお、Zマップはスカラー量マップに相当する。なお、マハラノビス平方距離DM 2も肌色らしさを示す指標として使用することが可能であるが、上述した変換関数による変換したスカラー量Zによれば、肌色らしいか否かをより明瞭に判別することができる。 By converting the Mahalanobis square distance D M 2 of all the pixels of the left eye image data LE into the scalar quantity Z by the conversion function described above, the left eye image data LE is converted into the image data Z (x, y) of the scalar quantity Z. Can be converted. Hereinafter, the left-eye image data LE and the right-eye image data RE converted into the image data Z (x, y) of the scalar quantity Z are also expressed as a Z map. The Z map corresponds to a scalar quantity map. The Mahalanobis square distance D M 2 can also be used as an indicator of skin color, but according to the scalar amount Z converted by the above-described conversion function, it is possible to more clearly determine whether or not it is likely to be skin color. Can do.
ステップS250において、変換関数設定部P2c4は、スカラー量Zが所定の閾値Th1を超える画素を計数し、当該閾値Th1を超える画素の個数比率(面積比率)が所定の閾値Th2を超えているか否かを判定する。本実施形態では、閾値Th1=0.6とし、閾値Th2=33%とする。図12において、閾値Th1=0.6を破線で示しており、閾値Th1=0.6を超える画素は、飽和しているとみなし、肌色らしくない色であると判断する。また、白の分布G2と黒の分布G3も、閾値Th1=0.6を超える画素に該当することとなる。すなわち、閾値Th1による閾値判定によって左目画像データLEの各画素が肌色らしいか肌色らしくないかを判定することができる。閾値Th1を超える画素の比率が大きいほど、肌色らしくない画素の左目画像データLEにおける面積比率が大きくなるということが言える。 In step S250, the conversion function setting unit P2c4 counts pixels in which the scalar amount Z exceeds the predetermined threshold Th1, and whether or not the number ratio (area ratio) of the pixels exceeding the threshold Th1 exceeds the predetermined threshold Th2. Determine. In this embodiment, the threshold value Th1 = 0.6 and the threshold value Th2 = 33%. In FIG. 12, the threshold value Th1 = 0.6 is indicated by a broken line, and a pixel exceeding the threshold value Th1 = 0.6 is regarded as saturated, and is determined not to be a skin color. Also, the white distribution G2 and the black distribution G3 correspond to pixels exceeding the threshold Th1 = 0.6. That is, it is possible to determine whether each pixel of the left eye image data LE is a skin color or not a skin color by threshold determination based on the threshold Th1. It can be said that the larger the ratio of the pixels exceeding the threshold Th1, the larger the area ratio in the left-eye image data LE of the pixels that do not look like skin color.
ここで、左目画像データLEは、左目とその周辺の領域の画像を示すものであり、左目画像データLEにおいて左目が占める面積は、左目画像データLEとマッチングする目テンプレート14cと同様となる。上述したとおり目テンプレート14cにおいては目の大きさが規格化されているため、左目画像データLEにおける目の大きさも目テンプレート14cにて規格化された目の大きさと同様となると考えることができる。従って、Zマップにおいて、肌色らしくない画素が占める面積比率も一定の傾向を有すると考えることができる。本実施形態では、肌色らしくない画素が占める面積比率が閾値Th2=33%を超えることが妥当であると仮定し、肌色らしくない画素が占める面積比率が閾値Th2=33%以下である場合には、変換関数設定部P2c4がステップS260において上述した変換関数のパラメータuを変更する。パラメータuは、正規分布N(μ,S)を仮定した場合の推測値であるため、本実施形態のように実際の面積比率に基づく妥当性によって調整するのが望ましい。なお、本実施形態における閾値Th1,閾値Th2は一例であり、異なる値を採用してもよい。また、面積比率の妥当な範囲を閾値Th2だけでなく、上限値と下限値によって規定するようにしてもよい。
Here, the left eye image data LE represents an image of the left eye and its surrounding area, and the area occupied by the left eye in the left eye image data LE is the same as that of the
ステップS260においては、パラメータuをもとの値の4倍に変更し、ステップS240に戻る。そして、ステップS250において、変更したパラメータuを前記の(3)式に適用し、再度、左目画像データLEのマハラノビス平方距離DM 2をスカラー量Zに変換して、再度、Zマップを得る。ステップS250においては、同様にZマップにおいて肌色らしくない画素の面積比率の妥当性を判定し、妥当でなければ再度パラメータuを4倍する。以上の処理を繰り返して実行することにより、肌色らしくない画素の面積比率の妥当となるまで、変換関数を最適化してくことができる。 In step S260, the parameter u is changed to four times the original value, and the process returns to step S240. Then, in step S250, to apply the changed parameter u in the equation (3), again, by converting the Mahalanobis square distance D M 2 of the left eye image data LE scalar quantity Z, again, to obtain a Z map. In step S250, the validity of the area ratio of pixels that are not likely to be skin-colored in the Z map is similarly determined, and if not valid, the parameter u is again multiplied by four. By repeatedly executing the above processing, the conversion function can be optimized until the area ratio of pixels that do not look like a skin color is appropriate.
本実施形態では、パラメータuを順次大きくしていくため、変換関数による変換特性が図12において破線で示すように推移していく。すなわち、傾きが急となる第2領域A2をマハラノビス平方距離DM 2が大きくなる方向にシフトさせていくことができる。これにともなって、第1領域A1の幅が狭められることとなる。このようにすることにより、肌色のばらつきが顔についても、適切な変換関数を設定することができる。ステップS250において、スカラー量Zが閾値Th1を超える画素の比率が所定の閾値Th2を超えていると判定した場合には、パラメータuの変更を行うことなくスカラー変換処理を終了させ、各画素のRGB階調がスカラー量Zの階調値に変換された左目画像データLE(Zマップ)をパラメータ探索部P2c5に出力する。なお、本実施形態では、パラメータuを変更するようにしたが、第1領域A1と第2領域A2の範囲を調整するためにパラメータαも変更してもよい。第1領域A1を広くするためにはパラメータαを大きくし、第2領域A2を広くするためにはパラメータαを小さくすればよい。むろん、パラメータuを大きめに設定し、徐々に小さく変更していってもよい。 In the present embodiment, since the parameter u is sequentially increased, the conversion characteristic by the conversion function changes as indicated by a broken line in FIG. That is, it is possible to gradually shifting the second region A2 where the slope is steeper in the Mahalanobis square distance D M 2 increases direction. Along with this, the width of the first region A1 is narrowed. By doing so, it is possible to set an appropriate conversion function even for a face with a skin color variation. If it is determined in step S250 that the ratio of the pixels whose scalar amount Z exceeds the threshold value Th1 exceeds the predetermined threshold value Th2, the scalar conversion process is terminated without changing the parameter u, and the RGB of each pixel is determined. The left eye image data LE (Z map) in which the gradation is converted into the gradation value of the scalar quantity Z is output to the parameter search unit P2c5. In the present embodiment, the parameter u is changed. However, the parameter α may be changed in order to adjust the range of the first area A1 and the second area A2. In order to widen the first area A1, the parameter α should be increased, and in order to widen the second area A2, the parameter α should be decreased. Of course, the parameter u may be set larger and gradually changed to be smaller.
図14は、各画素がスカラー量Z(x,y)で表されるZマップの一例を示している。同図において、左目画像データLEの鉛直断面と水平断面におけるスカラー量Z(x,y)を示している。鉛直断面において、黒目に対応する部分はスカラー量Z(x,y)が1に近い値となっており、それ以外の肌色に対応する部分は−1〜0付近の間の値となっている。目の輪郭を構成する黒目と肌色との境界においては、鉛直方向の勾配が大きい値となっている。一方、水平断面において、黒目と白目に対応する部分はともにスカラー量Zが1に近い値となっており、それ以外の肌色に対応する部分は−1に近い値となっている。目の輪郭を構成する白目と肌色との境界における水平方向の勾配が大きい値となっているが、黒目と白目の境界においては勾配が極めて小さくなっている。以上においては、左目画像データLEをZマップに変換する処理を例に挙げて説明したが、同様の処理を右目画像データREについても実行し、右目画像データREもZマップに変換されている。 FIG. 14 shows an example of a Z map in which each pixel is represented by a scalar quantity Z (x, y). In the figure, the scalar quantity Z (x, y) in the vertical section and the horizontal section of the left-eye image data LE is shown. In the vertical section, the portion corresponding to the black eye has a scalar amount Z (x, y) close to 1, and the portion corresponding to the other skin color has a value between −1 and 0. . At the boundary between the black eye and the skin color constituting the outline of the eye, the vertical gradient is large. On the other hand, in the horizontal cross section, the portions corresponding to the black eyes and the white eyes both have a scalar amount Z close to 1, and the other portions corresponding to the skin color have values close to -1. The gradient in the horizontal direction at the boundary between the white eye and the skin color constituting the outline of the eye is a large value, but the gradient is extremely small at the boundary between the black eye and the white eye. In the above description, the processing for converting the left eye image data LE into the Z map has been described as an example. However, the same processing is executed for the right eye image data RE, and the right eye image data RE is also converted into the Z map.
2−1.左目の輪郭検出
ここまでは、左目画像データLEと右目画像データREに対して共通する処理を実行するが、次のステップS160(図3)から左目画像データLEに対して特有の処理を実行する。ステップS160において、パラメータ探索部P2c5は、左目画像データLEを変換したZマップを取得する。ステップS170において、パラメータ探索部P2c5は、Zマップにおいて目の輪郭パラメータL,R,T,Bを初期設定する。
2-1. Up to now, the left eye image data LE and the right eye image data RE are processed in common, but from the next step S160 (FIG. 3), a specific process is performed on the left eye image data LE. . In step S160, the parameter search unit P2c5 acquires a Z map obtained by converting the left eye image data LE. In step S170, the parameter search unit P2c5 initializes the eye contour parameters L, R, T, and B in the Z map.
図15は、左目のZマップにおける輪郭パラメータL,R,T,Bを示している。輪郭パラメータL,R,T,Bは、左目の輪郭における目尻と目頭と上頂点と下頂点に対応しており、それぞれ水平方向と鉛直方向の座標によってL(xL,yL),R(xR,yR),T(xT,yT),B(xB,yB)と表される。輪郭パラメータL,R,T,Bの初期値が設定できると、左目を近似するための輪郭線O(第1近似曲線)を生成することができる(第1近似手段)。本実施形態において、輪郭線Oは、左上部分の曲線O1と、右上部分の曲線O2と、左下部分の曲線O3と、左下部分の曲線O4によって近似される。各曲線O1〜O4は下記の(4)式で表される。
前記の(4)式において、曲線O1は輪郭パラメータTの座標を変曲点とし、輪郭パラメータLの座標を通過する上に凸の2次曲線で表される。a1,a2は正であり、a3,a4は負とする。曲線O2は輪郭パラメータTの座標を変曲点とし、輪郭パラメータRの座標を通過する上に凸の2次曲線で表される。一方、曲線O3は輪郭パラメータBの座標を変曲点とし、輪郭パラメータLの座標を通過する下に凸の2次曲線で表される。曲線O4は輪郭パラメータBの座標を変曲点とし、輪郭パラメータRの座標を通過する下に凸の2次曲線で表される。輪郭パラメータL,R,T,Bの座標を定めると、曲線O1〜O4が一意に定まるため、輪郭パラメータL,R,T,Bの座標を初期設定することにより、輪郭線Oの位置および形状が初期設定されることとなる。なお、輪郭パラメータL,R,Tおよび輪郭パラメータL,R,Bのそれぞれ3点の組み合わせの位置関係に注目すると、輪郭パラメータL,Rの座標が水平方向の両外側に位置する終端点に相当し、輪郭パラメータT,Bの座標が共通の変曲点に相当する。以上のような輪郭線Oを配置するために、輪郭パラメータL,R,T,Bの初期値は、少なくともxL<xT<xR,xL<xB<xR,yT<yL<yB,yT<yR<yBが満足されていればよい。本実施形態では、図15に図示するように左目画像データLEの中央鉛直線に対して左右対称、かつ、中央よりやや下の水平線に対して上下対称に設定する。また、目テンプレート14cにて規格化された目の輪郭(破線で図示)よりもやや外側に輪郭パラメータL,R,T,Bの座標の初期値を設定する。
In the above equation (4), the curve O1 is expressed by an upwardly convex quadratic curve passing through the coordinates of the contour parameter L with the coordinates of the contour parameter T as the inflection point. a 1 and a 2 are positive, and a 3 and a 4 are negative. The curve O2 is expressed by a quadratic curve that is convex upward and passes the coordinates of the contour parameter R with the coordinates of the contour parameter T as the inflection point. On the other hand, the curve O3 is represented by a quadratic convex curve that passes through the coordinates of the contour parameter L with the coordinates of the contour parameter B as inflection points. The curve O4 is represented by a downwardly convex quadratic curve passing through the coordinates of the contour parameter R with the coordinates of the contour parameter B as inflection points. When the coordinates of the contour parameters L, R, T, and B are determined, the curves O1 to O4 are uniquely determined. Therefore, by initializing the coordinates of the contour parameters L, R, T, and B, the position and shape of the contour line O Will be initialized. Note that the coordinates of the contour parameters L, R, T and the contour parameters L, R, B are equivalent to the end points where the coordinates of the contour parameters L, R are located on both outer sides in the horizontal direction. The coordinates of the contour parameters T and B correspond to a common inflection point. In order to arrange the contour line O as described above, the initial values of the contour parameters L, R, T, and B are at least x L <x T <x R , x L <x B <x R , y T <y It suffices if L <y B and y T <y R <y B are satisfied. In the present embodiment, as shown in FIG. 15, the left-eye image data LE is set to be symmetrical with respect to the central vertical line and symmetrical with respect to the horizontal line slightly below the center. In addition, initial values of the coordinates of the contour parameters L, R, T, and B are set slightly outside the contour of the eye standardized by the
以上のようにZマップにて輪郭パラメータL,R,T,Bの座標の初期値が設定されると、ステップS180においてパラメータ探索部P2c5と評価値算出部P2c6が最適な輪郭パラメータL,R,T,Bの探索処理を行う。パラメータ探索部P2c5が輪郭パラメータL,R,T,Bを更新し、当該更新した輪郭パラメータL,R,T,Bを評価値算出部P2c6に出力すると、評価値算出部P2c6は下記の評価値Vを算出し、当該評価値Vをパラメータ探索部P2c5に返す。そして、パラメータ探索部P2c5は評価値Vを最大とする輪郭パラメータL,R,T,Bの座標を探索する。 As described above, when the initial values of the coordinates of the contour parameters L, R, T, and B are set in the Z map, in step S180, the parameter search unit P2c5 and the evaluation value calculation unit P2c6 perform optimum contour parameters L, R, T and B search processing is performed. When the parameter search unit P2c5 updates the contour parameters L, R, T, and B and outputs the updated contour parameters L, R, T, and B to the evaluation value calculation unit P2c6, the evaluation value calculation unit P2c6 V is calculated, and the evaluation value V is returned to the parameter search unit P2c5. Then, the parameter search unit P2c5 searches for the coordinates of the contour parameters L, R, T, and B that maximize the evaluation value V.
図16は、評価値Vの概念を模式的に説明している。図16において、輪郭線O上において長さdlを有する微小線要素と、当該微小線要素の法線単位ベクトルpが示されている。曲線O1〜O4が前記の(4)式によって特定できるため、任意の微小線要素についての法線単位ベクトルpを求めることができる。なお、法線単位ベクトルpは内側方向が正となるようにする。すなわち、曲線O1,O2上の微小線要素の法線単位ベクトルpのy成分は下方向を正とし、反対に曲線O3,O4上の微小線要素の法線単位ベクトルpのy成分は上方向を正とする。また、曲線O1,O3上の微小線要素の法線単位ベクトルpのx成分は右方向を正とし、反対に曲線O2,O4上の微小線要素の法線単位ベクトルpのx成分は左方向を正とする。勾配ベクトルgは下記の(5)式で表される。
前記の(5)式において、勾配ベクトルgは、水平方向の勾配と鉛直方向の勾配によって与えられ、肌色らしさを示すスカラー量Z(x,y)の変動が激しい領域ほど大きくなる。評価値算出部P2c6は、以上説明した法線単位ベクトルpと勾配ベクトルgを使用し、下記の(6)式によって輪郭線Oの輪郭への近似性を評価する評価値Vを算出する。
前記の(6)式において、評価値Vは微小線要素に関する法線単位ベクトルpと勾配ベクトルgの内積(微少評価値)を輪郭線Oに沿って線積分(合計)することにより求められる。ただし、輪郭線Oの下側部分の曲線O3,O4に関する積分値に対して、輪郭線Oの上側部分の曲線O1,O2に関する積分値を2倍に重み付けしている。法線単位ベクトルpと勾配ベクトルgの内積は、法線単位ベクトルpと勾配ベクトルgが同じ方向であり、かつ、勾配ベクトルgが大きいほど大きい値となる。従って、輪郭線Oを構成する各微小線要素がスカラー量Z(x,y)の勾配方向に直交し、かつ、勾配が大きいほど評価値Vが大きい値となる。 In the above equation (6), the evaluation value V is obtained by performing line integration (total) along the contour O of the inner product (small evaluation value) of the normal unit vector p and the gradient vector g regarding the minute line element. However, the integral value relating to the curves O1 and O2 in the upper part of the contour line O is weighted twice as much as the integral value relating to the curves O3 and O4 in the lower part of the contour line O. The inner product of the normal unit vector p and the gradient vector g becomes larger as the normal unit vector p and the gradient vector g are in the same direction and the gradient vector g is larger. Accordingly, each microline element constituting the contour O is orthogonal to the gradient direction of the scalar quantity Z (x, y), and the evaluation value V increases as the gradient increases.
スカラー量Z(x,y)の勾配は、肌色らしさが変動する程度であると考えることができるため、評価値Vが大きいと、輪郭線Oが肌色らしさの変動が大きい領域を通過していると評価することができる。すなわち、評価値Vが大きいと、輪郭線Oが肌色らしさの変動が大きくなる目の輪郭を通過していると考えることができる。特に、スカラー量Z(x,y)は、肌色であることが疑わしい第2領域A2において変動が激しくなるように変換されているため、肌色でない目の輪郭付近では、勾配が極端に大きくなる。一方、図12で示したように白の分布G2と黒の分布G3は、双方とも1に近い値に飽和しており、白目と黒目の境界であってもスカラー量Z(x,y)の勾配は小さいものとなる。すなわち、マハラノビス平方距離DM 2において白の分布G2と黒の分布G3が異なる値を示していても、変換関数によってスカラー量Zに変換することにより、白の分布G2と黒の分布G3のマハラノビス平方距離DM 2の差を微少なものに変換することができ、これらの間でスカラー量Zの勾配を生じなくさせることができる。従って、白目と黒目の境界について評価値Vが大きくなることが防止でき、白目と黒目の境界と目の輪郭を明確に区別することができる。なお、概念的な理解を容易とするために、連続的な画像平面上において評価値Vや勾配ベクトルgや法線ベクトルnが算出されるように説明したが、現実には離散的な画像平面において等価な演算が行われることとなる。以下に説明する探索処理(探索手段、輪郭検出手段)においては、評価値Vを大きくさせる輪郭パラメータL,R,T,Bの座標を探索していく。 Since the gradient of the scalar quantity Z (x, y) can be considered to be a degree that the skin color-likeness fluctuates, when the evaluation value V is large, the contour line O passes through a region where the skin-color-likeness fluctuation is large. Can be evaluated. That is, when the evaluation value V is large, it can be considered that the contour line O passes through the contour of the eye where the variation in skin color is large. In particular, the scalar amount Z (x, y) is converted so as to fluctuate severely in the second region A2 suspected of being a skin color, so that the gradient becomes extremely large in the vicinity of the contour of the eye that is not a skin color. On the other hand, as shown in FIG. 12, the white distribution G2 and the black distribution G3 are both saturated to a value close to 1, and the scalar quantity Z (x, y) of the boundary between the white eye and the black eye is also obtained. The gradient will be small. That is, even if the white distribution G2 and the black distribution G3 show different values at the Mahalanobis square distance D M 2 , the Mahalanobis of the white distribution G2 and the black distribution G3 is converted by converting to a scalar quantity Z by a conversion function. The difference in the square distance D M 2 can be converted into a minute one, and the gradient of the scalar quantity Z can be prevented from occurring between them. Therefore, it is possible to prevent the evaluation value V from increasing at the boundary between the white eye and the black eye, and to clearly distinguish the boundary between the white eye and the black eye and the outline of the eye. In order to facilitate conceptual understanding, the evaluation value V, the gradient vector g, and the normal vector n have been described to be calculated on a continuous image plane. In this case, an equivalent operation is performed. In the search processing (search means, contour detection means) described below, the coordinates of contour parameters L, R, T, and B that increase the evaluation value V are searched.
図17は、探索処理における探索の手順を模式的に説明している。同図において、輪郭パラメータL,R,T,Bの移動パターンが示されており、当該移動パターンが第1〜4フェーズから構成されている。第1フェーズにおいては、現在の輪郭パラメータL,R,T,Bの座標(a)から対角4方向に2画素分ずれた4座標(b,c,d,e)に輪郭パラメータL,R,T,Bを移動させる。第2フェーズにおいては、現在の輪郭パラメータL,R,T,Bの座標(a)から鉛直水平方向に2画素分ずれた4座標(b,c,d,e)に輪郭パラメータL,R,T,Bを移動させる。第3フェーズにおいては、現在の輪郭パラメータL,R,T,Bの座標(a)から対角4方向に1画素分ずれた4座標(b,c,d,e)に輪郭パラメータL,R,T,Bを移動させる。第4フェーズにおいては、現在の輪郭パラメータL,R,T,Bの座標(a)から鉛直水平方向に1画素分ずれた4座標(b,c,d,e)に輪郭パラメータL,R,T,Bを移動させる。第4フェーズが完了した時点で探索処理を終了する。 FIG. 17 schematically illustrates a search procedure in the search process. In the figure, the movement patterns of the contour parameters L, R, T, and B are shown, and the movement pattern is composed of the first to fourth phases. In the first phase, the contour parameters L, R are changed to four coordinates (b, c, d, e) shifted by two pixels in the diagonal four directions from the coordinates (a) of the current contour parameters L, R, T, B. , T, B are moved. In the second phase, the contour parameters L, R, T, B are shifted from the coordinates (a) of the current contour parameters L, R, T, B by two pixels in the vertical and horizontal directions (b, c, d, e). Move T and B. In the third phase, the contour parameters L, R are changed to four coordinates (b, c, d, e) shifted by one pixel in the four diagonal directions from the coordinates (a) of the current contour parameters L, R, T, B. , T, B are moved. In the fourth phase, the outline parameters L, R, T, B are shifted to the four coordinates (b, c, d, e) which are shifted by one pixel in the vertical and horizontal directions from the coordinates (a) of the current outline parameters L, R, T, B. Move T and B. The search process is terminated when the fourth phase is completed.
図18は、各フェーズにおける詳細な探索手順を示している。まず直前のフェーズ(第1フェーズにおいては初期値)によって決定された現在の輪郭パラメータL,R,T,Bの座標(a)を中心として、図17に示す移動パターンにしたがって輪郭パラメータL,R,T,Bを移動させる。輪郭パラメータL,R,T,Bを同時に移動させるのではなく、L→R→T→Bの順で移動させる。まず現在の輪郭パラメータL,R,T,Bを評価値算出部P2c6に出力し、評価値Vaを算出する。次に輪郭パラメータR,T,Bを固定し、輪郭パラメータLを現在の座標(a)のまわりの4座標(b,c,d,e)に順次移動させる。このとき輪郭パラメータLが移動するごとに、輪郭パラメータL,R,T,Bを評価値算出部P2c6に出力し、評価値Va,Vb,Vc,Vd,Veを算出する。なお、4座標(b,c,d,e)への移動順序はどのようなものであってもよい。以上のようにして4座標(a,b,c,d,e)の輪郭パラメータLについての評価値Va,Vb,Vc,Vd,Veが得られると、評価値Va,Vb,Vc,Vd,Veに基づいて評価値Vを極大化させる輪郭パラメータLの座標(h)を予測する。 FIG. 18 shows a detailed search procedure in each phase. First, the contour parameters L, R are centered on the coordinates (a) of the current contour parameters L, R, T, B determined in the immediately preceding phase (initial values in the first phase) according to the movement pattern shown in FIG. , T, B are moved. The contour parameters L, R, T, and B are not moved simultaneously, but are moved in the order of L → R → T → B. First current contour parameter L, and outputs R, T, and B to the evaluation value calculation unit P2c6, calculates an evaluation value V a. Next, the contour parameters R, T, and B are fixed, and the contour parameter L is sequentially moved to four coordinates (b, c, d, e) around the current coordinate (a). At this time, every time the contour parameter L moves, the contour parameters L, R, T, and B are output to the evaluation value calculation unit P2c6, and the evaluation values V a , V b , V c , V d , and V e are calculated. The order of movement to the four coordinates (b, c, d, e) may be any. When the evaluation values V a , V b , V c , V d , and V e for the contour parameter L of the four coordinates (a, b, c, d, e) are obtained as described above, the evaluation values V a , Based on V b , V c , V d , and V e , the coordinate (h) of the contour parameter L that maximizes the evaluation value V is predicted.
まず、現在の輪郭パラメータLの座標(a)を通過する線分b−a−cに関する評価値Va,Vb,Vcを通る2次曲線を算出し、当該2次曲線を極大化させる座標を算出する。なお、当該2次曲線が上に凸であり、かつ、変曲点が線分b−a−cの間にある場合のみ、前記2次曲線を極大化させる座標が算出できる。前記2次曲線を極大化させる座標(f)が算出できない場合には、端の評価値Vb,Vcのうち大きい方の座標(b)または座標(c)を座標(f)とする。そして、線分b−a−cに平行かつ座標(f)を通過する直線l1を生成する。次に、現在の輪郭パラメータLの座標(a)を通過し、線分b−a−cに直交する線分d−a−eに関する評価値Va,Vd,Veを通る2次曲線を算出し、当該2次曲線を極大化させる座標(g)を同様の手順で算出する。そして、線分d−a−eに平行かつ座標(g)を通過する直線l2を生成する。 First, a quadratic curve passing through the evaluation values V a , V b , and V c regarding the line segment b-ac passing through the coordinates (a) of the current contour parameter L is calculated, and the quadratic curve is maximized. Calculate the coordinates. Only when the quadratic curve is convex upward and the inflection point is between the line segments b-a-c, the coordinates that maximize the quadratic curve can be calculated. When the coordinate (f) that maximizes the quadratic curve cannot be calculated, the larger coordinate (b) or coordinate (c) of the end evaluation values V b and V c is set as the coordinate (f). Then, a straight line l1 parallel to the line segment b-a-c and passing through the coordinate (f) is generated. Next, a quadratic curve that passes through the coordinates (a) of the current contour parameter L and passes through the evaluation values V a , V d , and V e regarding the line segment d-a-e orthogonal to the line segment b-a-c. And the coordinates (g) for maximizing the quadratic curve are calculated in the same procedure. Then, a straight line l2 parallel to the line segment dae and passing through the coordinates (g) is generated.
以上のようにして直線l1,l2が生成できると、これらの交点の座標を輪郭パラメータLの座標(h)として算出する。この座標(h)が算出できると、輪郭パラメータLを座標(h)に移動させ、そのときの評価値Vhを算出する。以上のようにして、6個の評価値Va,Vb,Vc,Vd,Ve,Vhが算出できると、これらのうち最も大きいものに対応する座標を当該フェーズにおける最適な輪郭パラメータLの座標として決定する。輪郭パラメータLについて最適な座標が決定すると、次に輪郭パラメータRについて同様の処理を行って最適な座標を決定する。さらに、輪郭パラメータT,Bについて順に同様の処理を行って最適な座標を決定し、当該フェーズを終了させ、次のフェーズに移行する。第4フェーズが完了した段階で、最終的に輪郭パラメータL,R,T,Bを確定させる。 When the straight lines l1 and l2 can be generated as described above, the coordinates of these intersections are calculated as the coordinates (h) of the contour parameter L. When this coordinate (h) can be calculated, the contour parameter L is moved to the coordinate (h), and the evaluation value V h at that time is calculated. When the six evaluation values V a , V b , V c , V d , V e , and V h can be calculated as described above, the coordinate corresponding to the largest one of these is obtained as the optimum contour in the phase. Determined as the coordinates of the parameter L. When the optimum coordinates for the contour parameter L are determined, the same processing is performed for the contour parameter R to determine the optimum coordinates. Further, the same processing is sequentially performed on the contour parameters T and B to determine the optimum coordinates, the phase is terminated, and the process proceeds to the next phase. When the fourth phase is completed, the contour parameters L, R, T, and B are finally determined.
以上説明したように、探索の初期の第1,2フェーズにおいては広範囲に輪郭パラメータL,R,T,Bを移動させるため、輪郭パラメータL,R,T,Bの座標をおおまかに目尻、目頭、上頂点、下頂点に近づけさせることができる。さらに、探索の後期の第3,4フェーズにおいては狭い範囲で局所的に輪郭パラメータL,R,T,Bを移動させるため、より目尻、目頭、上頂点、下頂点に収束するように輪郭パラメータL,R,T,Bの座標を微調整することできる。ただし、第1〜4フェーズにおける探索距離は、左目画像データLEの大きさに応じて設定されるべきであり、左目画像データLEが大きくなるのに応じて探索距離も大きくするのが望ましい。徐々に探索距離を短くすればよく、4フェーズ以上の探索を行うようにしてもよい。また、輪郭パラメータL,R,T,Bの初期値を中央からやや下よりに設定しているため、眉の黒と肌色との輪郭を誤検出することが防止できる。また、初期の輪郭パラメータL,R,T,Bの座標によって妥当な形状の輪郭線Oを設定し、各フェーズにおいて少しずつ輪郭パラメータL,R,T,Bの座標を全体的に移動させるようにしているため、輪郭線Oの形状が極端に異常な形状となることもない。例えば、輪郭パラメータLのみを集中的に移動させることにより、輪郭パラメータLが黒目と白目の境界等に収束するようなことが防止できる。また、評価値Vは、勾配ベクトルgに対する直交性を輪郭線Oの全体について評価するため、輪郭パラメータL,R,T,Bの一点が異常な点に収束することが防止できる。 As described above, in the first and second phases of the initial search, the contour parameters L, R, T, and B are moved over a wide range. , Close to the top and bottom vertices. Further, in the third and fourth phases in the latter half of the search, the contour parameters L, R, T, and B are locally moved within a narrow range, so that the contour parameters are converged so as to converge to the corner of the eye, the top of the eye, the upper vertex, and the lower vertex. The coordinates of L, R, T, and B can be finely adjusted. However, the search distance in the first to fourth phases should be set according to the size of the left eye image data LE, and it is desirable to increase the search distance as the left eye image data LE increases. The search distance may be gradually shortened, and a search of four phases or more may be performed. In addition, since the initial values of the contour parameters L, R, T, and B are set slightly below the center, it is possible to prevent erroneous detection of the contours of the black eyebrows and the skin color. Also, an appropriate contour line O is set according to the coordinates of the initial contour parameters L, R, T, and B, and the coordinates of the contour parameters L, R, T, and B are moved little by little in each phase. Therefore, the shape of the contour line O does not become extremely abnormal. For example, by moving only the contour parameter L in a concentrated manner, it is possible to prevent the contour parameter L from converging on the boundary between black eyes and white eyes. Moreover, since the evaluation value V evaluates the orthogonality with respect to the gradient vector g with respect to the entire contour line O, it is possible to prevent one point of the contour parameters L, R, T, and B from converging to an abnormal point.
さらに、輪郭パラメータL,R,T,Bの初期値を目テンプレート14cにて規格化された目の輪郭よりもやや外側に設定しているため、基本的にはフェーズの進行とともに輪郭パラメータL,R,T,Bが内側に移動し、最適な座標に収束することとなる。従って、探索の際に輪郭パラメータL,R,T,Bの位置関係が逆転することが防止できる。輪郭パラメータL,R,T,Bはそれぞれ独立して移動するため、左目の輪郭が上下非対称、左右非対称であっても、4個の2次曲線O1〜O4によって精度よくフィッティングすることができる。さらに、輪郭パラメータL,R,T,BをL→R→T→Bの順で移動させることにより、まぶたの状態によって大きく位置が変動しがちな輪郭パラメータT,Bよりも先に、位置が安定する輪郭パラメータL,Rを探索することができ、全体の探索精度や探索効率を向上させることができる。また、探索の過程で、輪郭パラメータL,R,T,Bの位置関係がxL<xT<xR,xL<xB<xRを満足しなくなった場合や、目の縦横比(LR間とTB間の距離の比)が明らかに異常となった場合には探索をエラー終了させてもよい。なお、目の表情によっては、yB<yR,yB<yLとなることも考えられ、その場合はa3,a4の符号が探索の途中で正に反転することとなる。なお、一定の評価値Vに到達した時点で探索を終了させ、そのときの輪郭パラメータL,R,T,Bを出力してもよい。
Furthermore, since the initial values of the contour parameters L, R, T, and B are set slightly outside the eye contour standardized by the
なお、図14に示すように目の輪郭線に対応する領域においては、常に、輪郭の内側に向かってスカラー量Z(x,y)が増加する。すなわち、輪郭線上の微少線要素においては勾配ベクトルgが常に内側を向くこととなる。一方、法線ベクトルnの符号も、常に曲線O1〜O4の内側方向が正となるように定義されているため、スカラー量Z(x,y)の勾配方向と曲線O1〜O4の対応関係を一定に保つことができる。すなわち、輪郭パラメータTの座標が目の下側の輪郭線上に収束したり、輪郭パラメータBの座標が目の上側の輪郭線上に収束することが防止できる。また、下側の輪郭線は上側の輪郭線と比較して曖昧となりがちであるため、評価値Vにおいて下側の輪郭線よりも上側の輪郭線を重視することにより、曖昧な下側の輪郭線の影響によって全体の検出精度が低下することが防止できる。また、スカラー量Z(x,y)は、目の付近からサンプリングした肌色画素の平均μ(μR,μG,μB)を基準として算出されるため、撮影条件や被写体の(絶対的な意味での)肌色に依存することなく輪郭を検出することができる。 As shown in FIG. 14, in the region corresponding to the eye outline, the scalar quantity Z (x, y) always increases toward the inside of the outline. That is, the gradient vector g always faces inward in the minute line element on the contour line. On the other hand, since the sign of the normal vector n is always defined so that the inner direction of the curves O1 to O4 is positive, the relationship between the gradient direction of the scalar quantity Z (x, y) and the curves O1 to O4 is given. Can be kept constant. That is, it is possible to prevent the coordinates of the contour parameter T from converging on the lower outline of the eye and the coordinates of the contour parameter B from being converged to the upper outline of the eye. Further, since the lower contour line tends to be ambiguous compared to the upper contour line, the emphasis is placed on the upper contour line with respect to the lower contour line in the evaluation value V, thereby making the ambiguous lower contour line. It can prevent that the whole detection accuracy falls by the influence of a line. Further, the scalar quantity Z (x, y) is calculated based on the average μ (μ R , μ G , μ B ) of the skin color pixels sampled from the vicinity of the eyes, so The contour can be detected without depending on the skin color (in the sense).
2−2.右目の輪郭検出
以上のようにして、左目の輪郭が検出できると、最終的に探索された輪郭パラメータL,R,T,BをRAM12に記憶し、引き続き右目の輪郭検出を実行する。ステップS190(図3)において、パラメータ探索部P2c5は、右目画像データREを変換したZマップを取得する。ステップS192において、パラメータ探索部P2c5は、右目のZマップにおいて目の輪郭パラメータL,R,T,Bを初期設定する。ここでは、RAM12から左目の輪郭を示す輪郭パラメータL,R,T,Bの座標を読み出し、輪郭パラメータL,R,T,Bの座標に基づいて、右目の近似するための輪郭パラメータL,R,T,Bの初期設定を行う。
2-2. Right Eye Contour Detection When the left eye contour can be detected as described above, the finally searched contour parameters L, R, T, and B are stored in the
図19Aは、ステップS180で探索された左目についての輪郭パラメータL,R,T,Bを示している。左目のZマップにおいて輪郭パラメータL,R,T,Bの座標が特定されることによって、左目の輪郭への近似性の高い第1近似曲線としての輪郭線Oを一意に特定することができる。図19Bでは、ステップS192にて右目のZマップに初期設定される輪郭パラメータL,R,T,B、および、当該輪郭パラメータL,R,T,Bによって一意に特定される第2近似曲線としての輪郭線Oを示している。同図に示すように、右目の輪郭線Oが左目の輪郭線Oに対して、中央の鉛直線に関し左右対称となるように右目の輪郭パラメータL,R,T,Bが初期設定されている。なお、探索後の左目の輪郭パラメータL,R,T,Bの座標をL(xL,yL),R(xR,yR),T(xT,yT),B(xB,yB)で表すと、初期設定される右目の輪郭パラメータL,R,T,Bの座標はL(25−xR,yR),R(25−xL,yL),T(25−xT,yT),B(25−xB,yB)で表すことができる。すなわち、xの座標を左右反転した値(25−x)に置き換えるとともに、輪郭パラメータL,Rの左右の位置関係を交換する。 FIG. 19A shows contour parameters L, R, T, and B for the left eye searched in step S180. By specifying the coordinates of the contour parameters L, R, T, and B in the left-eye Z map, the contour line O as the first approximate curve having high closeness to the contour of the left eye can be uniquely specified. In FIG. 19B, the contour parameters L, R, T, and B that are initially set in the right-eye Z map in step S192 and the second approximate curve that is uniquely specified by the contour parameters L, R, T, and B are shown. The outline O is shown. As shown in the figure, the right eye contour parameters L, R, T, and B are initially set so that the right eye contour O is symmetrical with respect to the left eye contour O with respect to the central vertical line. . Note that the coordinates of the contour parameters L, R, T, and B of the left eye after the search are L (x L , y L ), R (x R , y R ), T (x T , y T ), and B (x B , Y B ), the coordinates of the default right eye contour parameters L, R, T, B are L (25−x R , y R ), R (25−x L , y L ), T ( 25-x T , y T ), B (25-x B , y B ). That is, the coordinate of x is replaced with a value (25−x) obtained by horizontally inverting, and the positional relationship between the left and right contour parameters L and R is exchanged.
以上のようにして、右目の輪郭パラメータL,R,T,Bが初期設定できると、ステップS194にて、(第2)探索処理を実行する。ここでは、ステップS180において行った左目についての処理と同様の処理を行うため、説明を省略する。ステップS194における探索処理においては、ステップS180にて探索された左目の輪郭に左右対称となる輪郭線Oから探索を開始することができる。同一人物の左右の目は対称に近い輪郭形状を有していると推定することができるため、現実に近い形状から探索を開始させることができる。また、表情の変化に伴う左右の目の状態も似ていると考えることができる。すなわち、特に意識しない限り、左右のまぶたは同時に開閉されることとなる。この点からも、現実に近い形状から探索を開始させることができるということができる。現実に近い形状から探索を開始させることができるため、探索において右目の輪郭パラメータL,R,T,Bが移動すべき距離を短くすることができ、例えば第3フェーズから探索処理を開始しても、適切な位置に輪郭パラメータL,R,T,Bが移動させることができる。そのため、輪郭検出における処理負荷を軽減させることも可能である。 When the right eye contour parameters L, R, T, and B can be initialized as described above, the (second) search process is executed in step S194. Here, since the same processing as the processing for the left eye performed in step S180 is performed, description thereof is omitted. In the search process in step S194, the search can be started from an outline O that is symmetrical to the outline of the left eye searched in step S180. Since it can be estimated that the left and right eyes of the same person have a nearly symmetrical contour shape, the search can be started from a shape close to reality. It can also be considered that the state of the left and right eyes accompanying the change in facial expression is similar. That is, the left and right eyelids are simultaneously opened and closed unless otherwise noted. Also from this point, it can be said that the search can be started from a shape close to reality. Since the search can be started from a shape that is close to reality, the distance that the contour parameters L, R, T, and B of the right eye should move in the search can be shortened. For example, the search process is started from the third phase. The contour parameters L, R, T, and B can be moved to appropriate positions. Therefore, it is possible to reduce the processing load in contour detection.
以上のように右目の輪郭パラメータL,R,T,Bの探索が完了すると、ステップS196において、左右の目の最終的な輪郭パラメータL,R,T,Bによって規定された輪郭線Oを左右の目の輪郭として出力する。以上のようにして検出された輪郭線Oは、例えば顔の表情判定やピント判定に利用することができる。また、輪郭線Oの形状に応じた画像処理を実行し、プリンタドライバP3およびプリンタ20によって印刷を実行させるようにしてもよい。また、画像データ14eに輪郭線Oを対応付けて記憶し、画像データ14eを管理するようにしてもよい。
When the search for the contour parameters L, R, T, and B for the right eye is completed as described above, the contour line O defined by the final contour parameters L, R, T, and B for the left and right eyes is moved to the left and right in step S196. Output as the outline of the eyes. The contour line O detected as described above can be used for facial expression determination and focus determination, for example. Alternatively, image processing according to the shape of the contour line O may be executed, and printing may be executed by the printer driver P3 and the
3.変形例
3−1.変形例1
図20は、変形例にかかる輪郭検出処理の流れを模式的に示している。本変形例においては、輝度階調で各画素が表されたモノクロ画像データ14eが輪郭検出の対象となっている。本変形例においては、上述した実施形態と同様に肌色の輝度を有する画素をサンプリングし、その正規分布N(μ,S)を得ておく。そして、左目画像データLEの各画素の輝度階調についてマハラノビス平方距離DM 2を算出することにより、マハラノビス平方距離DM 2に変換する。本変形例では、1次元の正規分布N(μ,S)を考えればよいため、マハラノビス平方距離DM 2は各画素の輝度階調と平均輝度階調μとの偏差の絶対値を分散Sで割った値がマハラノビス平方距離DM 2となる。さらに、各画素の偏差Dを前記の(3)式によって表される変換関数に代入することにより、スカラーZ(x,y)の画像データ(Zマップ)に変換する。このときのパラメータuは1とする。以上のようにしてZマップが得られると、前実施形態と同様に評価値Vを算出することが可能となり、同様の探索を行うことが可能となる。本変形例において、輝度階調のみに関する1次元正規分布N(μ,S)を仮定しており、図13において破線で示すようにパラメータu=1は68.2%のパーセント点に相当する。
3. Modification 3-1.
FIG. 20 schematically shows the flow of contour detection processing according to the modification. In this modification,
3−2.変形例2
本変形例においては、評価値Vを下記の(7)式によって定義する。
すなわち、輪郭線Oの全体について均等な重み付けを行って、評価値Vを算出することとしている。このようにすることにより、上輪郭と下輪郭を同等に評価することができる。さらに、評価値Vを下記の(8)式によって定義するようにしてもよい。
前記の(8)式においては、輪郭線Oに関する積分をするにあたり、水平方向の位置xに応じた重みw(x)が積算される。
3-2.
In this modification, the evaluation value V is defined by the following equation (7).
That is, the evaluation value V is calculated by equally weighting the entire contour line O. By doing in this way, an upper outline and a lower outline can be evaluated equally. Furthermore, the evaluation value V may be defined by the following equation (8).
In the equation (8), the weight w (x) corresponding to the position x in the horizontal direction is integrated when integrating the contour line O.
図21は、重みw(x)の一例を示している。同図において、重みw(x)は水平方向の中央において、他の部分よりも重みを大きくしている。このようにすることにより、目の輪郭のうち水平方向中央の部分については、輪郭線Oの近似精度を向上させることができる。正面から顔を撮影した場合、目の輪郭のうち水平方向中央の部分がはっきりと撮影されるため、確実に目の上下の頂点の位置を検出することができる。 FIG. 21 shows an example of the weight w (x). In the figure, the weight w (x) is larger than the other parts at the center in the horizontal direction. By doing in this way, the approximation accuracy of the outline O can be improved about the center part of a horizontal direction among the outlines of eyes. When a face is photographed from the front, the horizontal center portion of the eye contour is clearly photographed, so that the positions of the top and bottom vertices of the eyes can be detected reliably.
3−3.変形例3
本変形例においては、評価値Vを下記の(9)式によって定義する。
前記の(9)式において、Ouは上側輪郭線(曲線O1,O2)を示し、Olは下側輪郭線(曲線O3,O4)を示し、kは任意の定数を示し、Qは多数の目テンプレート14cに含まれる目の平均面積を示している。前記の(9)式の第2項は、上側輪郭線Ouと下側輪郭線Olによって囲まれた面積が、目テンプレート14cに含まれる目の平均面積に等しいか否かを評価する項となっている。予め目テンプレート14cとのパターンマッチングを行っているため、上側輪郭線Ouと下側輪郭線Olによって囲まれた面積は、目テンプレート14cに含まれる目の平均面積に近くなるのが妥当である。前記の(9)式の第2項によれば、上側輪郭線Ouと下側輪郭線Olによって囲まれた面積の妥当性を評価することができ、輪郭検出の精度を向上させることができる。
3-3.
In this modification, the evaluation value V is defined by the following equation (9).
In the above equation (9), O u represents the upper contour line (curves O1, O2), O l represents the lower contour line (curves O3, O4), k represents an arbitrary constant, and Q is a large number. The average area of the eyes included in the
3−3.変形例3
以上においては、目の輪郭検出を例示したが、他の顔器官の輪郭を同様の手法によって検出することも可能である。例えば、口の輪郭を検出する場合も、同様の手法で肌色の分布を調査し、スカラー量Zを算出することができる。この場合、唇を示す赤めの画素や歯を示す白い画素に対応するスカラー量Zが1に収束させられるとともに、肌色と非肌色の境界付近の傾きが急となるスカラー量Zへの変換が行われることとなる。従って、唇と歯の境界を輪郭として誤検出することなく、口の輪郭を精度よく検出することができる。また、口の輪郭も4本の2次曲線O1〜O4によって正確に近似することができる。
3-3.
In the above description, the contour detection of the eyes is exemplified, but the contours of other facial organs can be detected by the same method. For example, when detecting the outline of the mouth, the skin amount distribution can be investigated by the same method, and the scalar amount Z can be calculated. In this case, the scalar amount Z corresponding to the red pixel indicating the lips and the white pixel indicating the teeth is converged to 1, and the conversion to the scalar amount Z in which the inclination near the boundary between the skin color and the non-skin color is steep is performed. Will be. Accordingly, the contour of the mouth can be accurately detected without erroneously detecting the boundary between the lips and the teeth as the contour. Further, the contour of the mouth can be accurately approximated by the four quadratic curves O1 to O4.
3−4.変形例4
図22は、ステップS192(図3)にて右目のZマップに初期設定される輪郭パラメータL,R,T,B、および、当該輪郭パラメータL,R,T,Bによって一意に特定される輪郭線Oの変形例を示している。同図に示すように、左目の輪郭線Oに対して左右対称となる輪郭線(破線で図示)よりもわずかに大きくなるように右目の輪郭パラメータL,R,T,Bが初期設定されている。探索後の左目の輪郭パラメータL,R,T,Bの座標をL(xL,yL),R(xR,yR),T(xT,yT),B(xB,yB)で表すと、本変形例で初期設定される右目の輪郭パラメータL,R,T,Bの座標はL(25−xR−2,yR),R(25−xL+2,yL),T(25−xT,yT+2),B(25−xB,yB−2)で表される。このようにすることにより、左右対称となる輪郭線に対して2画素ずつ外側の位置から探索を開始するように輪郭パラメータL,R,T,Bの初期設定を設定することができる。ステップS130における顔器官の検出によって検出される左右の目の位置がばらつくことも考えられるため、当該ばらつきが吸収できるように右目の輪郭線Oを大きめに設定するようにしてもよい。右目の輪郭線Oを大きめに設定しておけば、輪郭パラメータL,R,T,Bを内側に向かって移動させる間に最適な座標に収束させることができ、探索の際に輪郭パラメータL,R,T,Bの位置関係が逆転することが防止できる。
3-4. Modification 4
FIG. 22 shows contour parameters L, R, T, and B that are initially set in the right-eye Z map in step S192 (FIG. 3), and contours that are uniquely specified by the contour parameters L, R, T, and B. A modification of line O is shown. As shown in the figure, the right eye contour parameters L, R, T, and B are initialized so as to be slightly larger than a contour line (shown by a broken line) that is symmetrical with respect to the left eye contour line O. Yes. The coordinates of the contour parameters L, R, T, and B of the left eye after the search are expressed as L (x L , y L ), R (x R , y R ), T (x T , y T ), B (x B , y B ), the coordinates of the contour parameters L, R, T, and B of the right eye that are initially set in this modification are L (25−x R −2, y R ), R (25−x L +2, y). L ), T (25−x T , y T +2), and B (25−x B , y B −2). By doing in this way, the initial setting of the contour parameters L, R, T, and B can be set so that the search is started from a position outside by two pixels with respect to the contour line that is symmetric. Since it is conceivable that the positions of the left and right eyes detected by the detection of the facial organ in step S130 may vary, the contour line O of the right eye may be set larger so that the variation can be absorbed. If the contour line O of the right eye is set larger, the contour parameters L, R, T, and B can be converged to optimum coordinates while moving inward, and the contour parameters L, R, It is possible to prevent the positional relationship between R, T, and B from being reversed.
3−5.変形例5
上述した実施形態では左目の輪郭検出を先に行うようにしたが、信頼性の高い方の目の輪郭を先に探索し、当該探索結果に基づいて、他方の目の輪郭の輪郭パラメータL,R,T,Bを初期設定するのが望ましい。例えば、顔が正面を向いていない場合、一方の目の方がデジタルスチルカメラに近い位置に位置することとなるため、大きく撮影されることとなる。この場合、大きく撮影された目の輪郭検出を行う方が、もう一方の小さく撮影された目の輪郭検出を行うよりも、信頼性の高い輪郭を検出することができる。従って、ステップS130の顔器官検出において比較領域CA1,CA2(本変形例では、比較領域CA1,CA2の大きさを固定せず、変更しながらパターンマッチングを行うものとする。)が大きくなった方の目を先に輪郭検出するのが望ましい。さらに、ステップS110の顔検出において、顔向きも検出し、当該顔向きにおいて正面に近い側の目を先に輪郭検出するようにしてもよい。
3-5. Modification 5
In the embodiment described above, the contour detection of the left eye is performed first, but the contour of the eye with higher reliability is searched first, and based on the search result, the contour parameters L, It is desirable to initially set R, T, and B. For example, when the face is not facing the front, one eye is positioned closer to the digital still camera, and thus a large image is taken. In this case, it is possible to detect a contour with high reliability by detecting the contour of an eye that has been photographed larger than when detecting the contour of an eye that has been photographed smaller. Therefore, in the face organ detection in step S130, the comparison areas CA1 and CA2 (in this modification, the sizes of the comparison areas CA1 and CA2 are not fixed, but pattern matching is performed while changing) are increased. It is desirable to detect the contour of the eye first. Furthermore, in the face detection in step S110, the face orientation may also be detected, and the contour of the eye closer to the front in the face orientation may be detected first.
図23は、信頼性の高い方の目の輪郭を先に探索する場合に、信頼性の高い方の目を判定する様子を模式的に示している。同図において、顔器官の検出(ステップS130)が完了した状態の顔画像データFDの一例を示している。同図の例では、顔が左方向を向いており、左目の比較領域CA1よりも右目の比較領域CA2の方が大きく検出されている。この場合、大きい方の右目の比較領域CA2の方が目の輪郭が鮮明に表れていると考えることができる。従って、右目について信頼性の高い輪郭検出を先に行い、その結果に基づいて、左目の輪郭パラメータL,R,T,Bを初期設定することができる。 FIG. 23 schematically shows how the eye with higher reliability is determined when the contour of the eye with higher reliability is searched first. In the figure, an example of face image data FD in a state where the detection of the facial organ (step S130) is completed is shown. In the example of the figure, the face is directed leftward, and the right eye comparison area CA2 is detected larger than the left eye comparison area CA1. In this case, it can be considered that the larger right eye comparison area CA2 has a sharper eye contour. Therefore, it is possible to detect the contour of the right eye with high reliability first, and to initialize the contour parameters L, R, T, and B of the left eye based on the result.
なお、以上においては左右両目の輪郭検出を行うものを例示したが、いずれか一方の目の輪郭を検出するのに本発明の輪郭検出方法を適用できることはいうまでもない。また、本発明の輪郭検出方法は、コンピュータ上で実行されるものに限られず、例えばプリンタやデジタルスチルカメラやスキャナ等の画像機器にて実行されてもよい。プリンタにて本発明の輪郭検出方法を行えば、印刷の際に輪郭に応じた画像処理を実行することができる。また、デジタルスチルカメラにて本発明の輪郭検出方法を行えば、各種撮影制御を輪郭に応じて行うことができる。 In addition, although what performed the outline detection of both right-and-left eyes was illustrated above, it cannot be overemphasized that the outline detection method of this invention is applicable to detecting the outline of any one eye. The contour detection method of the present invention is not limited to the one executed on the computer, and may be executed by an image device such as a printer, a digital still camera, or a scanner. If the contour detection method of the present invention is performed by a printer, image processing corresponding to the contour can be executed during printing. If the contour detection method of the present invention is performed with a digital still camera, various shooting controls can be performed according to the contour.
10…コンピュータ、11…CPU、12…RAM、13…ROM、14…HDD、14a…プログラムデータ、14b…顔テンプレート、14c…目テンプレート、14d…口テンプレート、14e…画像データ、15…GIF、16…VIF、17…IIF、18…バス、20…プリンタ、40…ディスプレイ、50a…キーボード、50b…マウス、P1…OS、P2…輪郭検出アプリケーション、P2a…顔検出部、P2b…顔器官検出部、P2c…輪郭検出部、P2c1…傾き補正部、P2c2…サンプリング部、P2c3…スカラー変換部、P2c4…変換関数設定部、P2c5…パラメータ探索部、P2c6…評価値算出部、P3…プリンタドライバ。
DESCRIPTION OF
Claims (8)
左右いずれか一方の目の輪郭に近似させる第1近似曲線を初期設定し、
前記第1近似曲線の前記一方の目の輪郭への近似性を評価する評価値を算出し、当該評価値に基づいて当該近似性を向上させる前記第1近似曲線を探索し、
探索された前記第1近似曲線に基づいて他方の目に近似させる第2近似曲線を初期設定し、
前記第2近似曲線の前記他方の目の輪郭への近似性を評価する評価値を算出し、当該評価値に基づいて当該近似性を向上させる前記第2近似曲線を探索することを特徴とする輪郭検出方法。 A contour detection method for detecting the contours of left and right eyes of a face included in image data,
Initializing a first approximate curve that approximates the contour of either the left or right eye,
Calculating an evaluation value for evaluating the closeness of the first approximate curve to the contour of the one eye, and searching for the first approximate curve for improving the closeness based on the evaluation value;
Initializing a second approximate curve to be approximated to the other eye based on the searched first approximate curve;
An evaluation value for evaluating the closeness of the second approximate curve to the contour of the other eye is calculated, and the second approximate curve for improving the closeness is searched based on the evaluation value. Contour detection method.
左右いずれか一方の目の輪郭に近似させる第1近似曲線を初期設定する第1近似手段と、
前記第1近似曲線の前記一方の目の輪郭への近似性を評価する評価値を算出し、当該評価値に基づいて当該近似性を向上させる前記第1近似曲線を探索する第1探索手段と、
探索された前記第1近似曲線の位置または形状に基づいて他方の目に近似させる第2近似曲線を初期設定する第2近似手段と、
前記第2近似曲線の前記他方の目の輪郭への近似性を評価する評価値を算出し、当該評価値に基づいて当該近似性を向上させる前記第2近似曲線を探索する第2探索手段とを具備することを特徴とする輪郭検出装置。 A contour detection device for detecting a contour of a facial organ included in image data,
First approximating means for initially setting a first approximating curve that approximates the contour of one of the left and right eyes;
First search means for calculating an evaluation value for evaluating the closeness of the first approximate curve to the contour of the one eye and searching for the first approximate curve for improving the closeness based on the evaluation value; ,
Second approximating means for initially setting a second approximate curve to be approximated to the other eye based on the position or shape of the searched first approximate curve;
Second search means for calculating an evaluation value for evaluating the closeness of the second approximate curve to the contour of the other eye and searching for the second approximate curve for improving the closeness based on the evaluation value; A contour detection apparatus comprising:
左右いずれか一方の目の輪郭に近似させる第1近似曲線を初期設定する第1近似機能と、
前記第1近似曲線の前記一方の目の輪郭への近似性を評価する評価値を算出し、当該評価値に基づいて当該近似性を向上させる前記第1近似曲線を探索する第1探索機能と、
探索された前記第1近似曲線に基づいて他方の目に近似させる第2近似曲線を初期設定する第2近似機能と、
前記第2近似曲線の前記他方の目の輪郭への近似性を評価する評価値を算出し、当該評価値に基づいて当該近似性を向上させる前記第2近似曲線を探索する第2探索機能とをコンピュータに実行させることを特徴とするコンピュータ読み取り可能な輪郭検出プログラム。 A computer-readable contour detection program for causing a computer to execute a function of detecting a contour of a facial organ included in image data,
A first approximation function that initially sets a first approximation curve that approximates the contour of either the left or right eye;
A first search function for calculating an evaluation value for evaluating the closeness of the first approximate curve to the contour of the one eye, and searching for the first approximate curve for improving the closeness based on the evaluation value; ,
A second approximation function for initially setting a second approximation curve to be approximated to the other eye based on the searched first approximation curve;
A second search function for calculating an evaluation value for evaluating the closeness of the second approximate curve to the contour of the other eye and searching for the second approximate curve for improving the closeness based on the evaluation value; A computer-readable contour detection program for causing a computer to execute.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008033622A JP4888412B2 (en) | 2008-02-14 | 2008-02-14 | Outline detection method, outline detection apparatus, and outline detection program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008033622A JP4888412B2 (en) | 2008-02-14 | 2008-02-14 | Outline detection method, outline detection apparatus, and outline detection program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009193360A JP2009193360A (en) | 2009-08-27 |
JP4888412B2 true JP4888412B2 (en) | 2012-02-29 |
Family
ID=41075310
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008033622A Expired - Fee Related JP4888412B2 (en) | 2008-02-14 | 2008-02-14 | Outline detection method, outline detection apparatus, and outline detection program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4888412B2 (en) |
-
2008
- 2008-02-14 JP JP2008033622A patent/JP4888412B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2009193360A (en) | 2009-08-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10304164B2 (en) | Image processing apparatus, image processing method, and storage medium for performing lighting processing for image data | |
CN110619628B (en) | Face image quality assessment method | |
JP6088792B2 (en) | Image detection apparatus, control program, and image detection method | |
US9245330B2 (en) | Image processing device, image processing method, and computer readable medium | |
US8447114B2 (en) | Method and apparatus for calculating pixel features of image data | |
JP5505410B2 (en) | Data processing apparatus, image collation method, program, and image collation system | |
JP4624889B2 (en) | Face detection method, apparatus and program | |
US11232585B2 (en) | Line-of-sight estimation device, line-of-sight estimation method, and program recording medium | |
RU2004126185A (en) | METHOD AND DEVICE FOR PHOTO-REALISTIC THREE-DIMENSIONAL MODELING OF FACE ON THE BASIS OF THE IMAGE | |
JP2008282377A (en) | Image processing method and apparatus | |
JP2007047965A (en) | Method and device for detecting object of digital image, and program | |
JP4795864B2 (en) | Feature point detection apparatus and method, and program | |
JP2019139618A (en) | Information processing device, method for discriminating subject and computer program | |
JP4625949B2 (en) | Object tracking method, object tracking apparatus, and program | |
US20090213241A1 (en) | Image processing apparatus, image processing method, and recording medium | |
JP2009217798A (en) | Contour detection method, contour detection device, and contour detection program | |
JP2009217799A (en) | Contour detection method, contour detection device, and contour detection program | |
JP2009237627A (en) | Image processing method, image processor, image processing program, and printer | |
JP2009193357A (en) | Contour detection method, contour detection device, and contour detection program | |
JP4888412B2 (en) | Outline detection method, outline detection apparatus, and outline detection program | |
JPWO2020065790A1 (en) | Estimator, estimation method, and program | |
JP4530173B2 (en) | Method and system for detecting the position of a facial part | |
JP2009237623A (en) | Face state evaluation method, face state evaluation device and face state evaluation program | |
JP2009237624A (en) | Expression evaluation method, print controller, expression evaluation device and expression evaluation program | |
JP6276504B2 (en) | Image detection apparatus, control program, and image detection method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110201 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20111109 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20111115 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20111128 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20141222 Year of fee payment: 3 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |