JP4831344B2 - Eye position detection method - Google Patents

Eye position detection method Download PDF

Info

Publication number
JP4831344B2
JP4831344B2 JP2006340420A JP2006340420A JP4831344B2 JP 4831344 B2 JP4831344 B2 JP 4831344B2 JP 2006340420 A JP2006340420 A JP 2006340420A JP 2006340420 A JP2006340420 A JP 2006340420A JP 4831344 B2 JP4831344 B2 JP 4831344B2
Authority
JP
Japan
Prior art keywords
eye position
eye
image
candidate
ranking
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2006340420A
Other languages
Japanese (ja)
Other versions
JP2007200289A (en
Inventor
浩 池田
圭一 森谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kao Corp
Original Assignee
Kao Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kao Corp filed Critical Kao Corp
Priority to JP2006340420A priority Critical patent/JP4831344B2/en
Publication of JP2007200289A publication Critical patent/JP2007200289A/en
Application granted granted Critical
Publication of JP4831344B2 publication Critical patent/JP4831344B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To automatically detect positions of eyes from a face image highly reliably by a convenient method. <P>SOLUTION: A plurality of gray-scale images having their lightness sequentially varied are formed from a face image, and block areas of pixels are detected which sequentially appear in the faded-out face area as the gray-scale images fade in from a fade-out state of a high lightness to a low lightness, and block areas appearing as pairs out of the detected block areas of pixels are selected as position candidates of eyes, and the positions of eyes are specified on the basis of frequencies in appearance of respective position candidates of eyes in all the gray-scale images. <P>COPYRIGHT: (C)2007,JPO&amp;INPIT

Description

本発明は、顔画像から目の位置を自動的に検出する方法に関する。   The present invention relates to a method for automatically detecting an eye position from a face image.

顔画像における目の位置は、被験者の顔画像に髪型のモデル画像を重ねて髪型シミュレーション画像を形成する場合や、被験者の顔画像に唇、眉等の化粧画像を重ねてメイクアップシミュレーション画像を形成する場合に、画像の大きさの調整や位置合わせのために検出されている。また、目の位置の検出は、顔画像の目隠し処理、顔画像のフレーム処理、個人認証用画像の作成等においてもなされている。   The position of the eye in the face image can be obtained by overlaying a hairstyle model image on the subject's face image to form a hairstyle simulation image, or by overlaying a makeup image such as lips or eyebrows on the subject's face image. In this case, the image is detected for adjusting the size of the image or aligning the image. Detection of the eye position is also performed in face image blindfolding processing, face image frame processing, creation of an image for personal authentication, and the like.

従来、顔画像から目の位置を検出する方法としては、肌色領域の抽出により顔を検出し、さらにパターンマッチング等により目を検出する方法等が使用されている(非特許文献1、特許文献1)。   Conventionally, as a method for detecting an eye position from a face image, a method of detecting a face by extracting a skin color region and further detecting an eye by pattern matching or the like has been used (Non-Patent Document 1, Patent Document 1). ).

2005年第5回LSI IPデザインアワード受賞論文「高速・高信頼な顔検出を可能とする顔候補点検出法」(日経BP社)2005 5th LSI IP Design Award Winning Paper “Face candidate point detection method that enables fast and reliable face detection” (Nikkei Business Publications) 特開2004−94917JP 2004-94917 A

しかしながら、肌色領域の抽出は照明環境の影響を受ける。そのため、種々の照明環境で撮られた不特定多数の顔画像を対象とする場合には信頼性が問題となる。また、パターンマッチングの手法は、計算量が莫大となるという問題がある。   However, the extraction of the skin color area is affected by the lighting environment. Therefore, reliability becomes a problem when an unspecified number of face images taken in various lighting environments are targeted. Further, the pattern matching method has a problem that the amount of calculation becomes enormous.

これに対し、本発明は、顔画像から目の位置を、簡便な手法で信頼性高く自動的に検出できるようにすることを目的とする。   In contrast, an object of the present invention is to enable automatic detection of a position of an eye from a face image with a simple method with high reliability.

本発明者らは、顔画像から、明度が逐次変化した複数のグレースケール画像を作成し、高明度側のフェードアウトした画像から順次フェードインした画像を観察した場合に、フェードアウトした顔領域に最初に現れる画素が瞳領域のものであること、この場合、瞳領域の画素は対になって現れること、対をなして現れた画素領域の全グレースケール画像にわたる出現度数を集積すると、その集積結果に基づいて目の位置を特定できること、この目の位置の特定方法は、静止画だけでなく動画にも適用できることを見出した。   When the present inventors create a plurality of grayscale images with successively changing brightness from the face image and observe the images that are faded in sequentially from the faded-out images on the high brightness side, If the appearing pixels belong to the pupil region, in this case, the pixels in the pupil region appear in pairs, and if the frequency of appearance over all grayscale images of the pixel regions that appear in pairs is accumulated, It was found that the eye position can be specified based on this, and that the eye position specifying method can be applied not only to still images but also to moving images.

即ち、本発明は、顔画像から、明度が逐次変化した複数のグレースケール画像を作成し、
グレースケール画像が高明度でフェードアウトした状態から低明度へフェードインするの
に伴い、フェードアウトした顔領域に漸次現れる画素の固まり領域を検出し、
検出した画素の固まり領域のうち対となって現れたものを目の位置候補として選択し、
各目の位置候補の全グレースケール画像にわたる出現度数に基づいて目の位置を特定する目の位置の検出方法を提供し、この場合に、顔画像が、静止画像又は動画像のフレームである態様を提供する。
That is, the present invention creates a plurality of grayscale images with lightness successively changing from a face image,
As the grayscale image fades in from a state that fades out at high brightness to a low brightness, it detects a cluster area of pixels that gradually appears in the faded-out face area,
Select the detected pixel cluster area that appeared as a pair as the eye position candidate,
Provided is an eye position detection method for specifying an eye position based on the frequency of appearance of all eye position candidates over all grayscale images. In this case, the face image is a frame of a still image or a moving image. I will provide a.

また、本発明は、顔画像の取得手段、並びに
顔画像から、明度が逐次変化した複数のグレースケール画像を作成する機能、グレースケール画像が高明度でフェードアウトした状態から低明度へフェードインするのに伴い、フェードアウトした顔領域に漸次現れる画素の固まり領域を検出する機能、検出した画素の固まり領域のうち対となって現れたものを目の位置候補として選択する機能、及び各目の位置候補の全グレースケール画像にわたる出現度数に基づいて目の位置を特定する機能を備えた演算手段を備えた目の位置の検出システムを提供し、この場合に、顔画像の取得手段が、静止画像又は動画像が撮影可能なカメラである態様を提供する。
Further, the present invention provides a face image acquisition means, a function of creating a plurality of gray scale images whose brightness has been changed sequentially from the face image, and the gray scale image is faded in from a state where the gray scale image has faded out to a low brightness. Accordingly, a function for detecting a pixel cluster area that gradually appears in a faded-out face area, a function for selecting a pair of detected pixel cluster areas that appear as a pair, and a position candidate for each eye The eye position detection system includes a calculation unit having a function of specifying the position of the eye based on the appearance frequency over all the gray scale images, and in this case, the face image acquisition unit includes a still image or An aspect is provided in which a moving image is a camera capable of shooting.

本発明の方法あるいはシステムによれば、顔画像から、明るさが逐次変化した複数のグレースケール画像を作成し、グレースケール画像が高明度でフェードアウトした状態から低明度へフェードインするのに伴い、フェードアウトした顔領域に漸次現れる画素の固まり領域を目の位置候補として検出し、目の位置候補の全グレースケール画像にわたる出現度数に基づいて目の位置を特定するので、照明環境、被験者の肌色、被験者の瞳の色、顔画像における顔の向き等にかかわらず、目の位置を信頼性高く、位置精度高く検出することができ、さらにパターンマッチングが不要であるため、高速の演算処理により目の位置を検出することができる。   According to the method or system of the present invention, a plurality of grayscale images whose brightness changes sequentially from the face image are created, and the grayscale image fades in from a state where the grayscale image fades out to a low brightness. Since the pixel cluster area that gradually appears in the faded face area is detected as an eye position candidate, and the eye position is specified based on the appearance frequency over all grayscale images of the eye position candidate, the lighting environment, the skin color of the subject, Regardless of the color of the subject's eyes, the orientation of the face in the face image, etc., the eye position can be detected with high reliability and position accuracy, and pattern matching is not required. The position can be detected.

したがって、目の位置を基準に用いて種々のヘアスタイル画像を任意の顔画像にフィッティングさせる髪型シミュレーション画像の形成や、目の位置を基準に用いて化粧後の顔の部分画像を任意の顔画像にフィッティングさせる化粧シミュレーション画像の形成等のように、目の位置を基準に用いて複数の画像情報をフィッティングさせることによりシミュレーション画像を形成する場合に、自然さのあるシミュレーション画像を形成することが可能となる。また、個人情報保護のための目隠し処理のように、目の位置を基準としてモザイク、塗りつぶし等の画像処理を行う場合にも、本発明の方法あるいはシステムを好適に用いることができる。さらに、これらの画像処理を高速で行えることから、これらの画像処理を静止画だけでなく動画においても行うことが可能となる。   Therefore, it is possible to form a hairstyle simulation image that fits various hairstyle images to an arbitrary face image using the eye position as a reference, or a partial facial image after makeup using an eye position as a reference It is possible to form a natural simulation image when a simulation image is formed by fitting a plurality of pieces of image information using the eye position as a reference, such as forming a makeup simulation image to be fitted to It becomes. In addition, the method or system of the present invention can also be suitably used when performing image processing such as mosaicing and filling with reference to the position of the eye, such as blindfolding processing for personal information protection. Furthermore, since these image processes can be performed at high speed, these image processes can be performed not only on still images but also on moving images.

以下、図面を参照しつつ本発明を詳細に説明する。   Hereinafter, the present invention will be described in detail with reference to the drawings.

図2は、この方法を実施する目の位置の検出システムのブロック図であり、図1Aは、本発明の目の位置の検出方法を静止画像で行う一実施例の示す流れ図であり、図1Bは、本発明の目の位置の検出方法を動画像で行う一実施例の流れ図である。   FIG. 2 is a block diagram of an eye position detection system for carrying out this method, and FIG. 1A is a flowchart showing an embodiment in which the eye position detection method of the present invention is performed on a still image. These are the flowcharts of one Example which performs the detection method of the eye position of this invention with a moving image.

このシステム10は、撮像装置1及びパソコン本体2からなっており、パソコン本体2には、ディスプレイ3、イメージスキャナ4、プリンタ5等が接続されている。   The system 10 includes an imaging apparatus 1 and a personal computer main body 2, and a display 3, an image scanner 4, a printer 5, and the like are connected to the personal computer main body 2.

撮像装置1は、被験者の顔画像の取得手段として設けられており、デジタルスチルカメラ、デジタルビデオカメラ、ウェブカメラ等の市販の静止画像又は動画像が撮影可能なカメラを使用することができる。動画像を目の位置の検出対象とする場合には、必要に応じて、撮像装置1とパソコン本体2の間にビデオキャプチャーを接続する。   The imaging device 1 is provided as means for acquiring a test subject's face image, and a commercially available still image or moving image camera such as a digital still camera, digital video camera, or web camera can be used. When a moving image is to be detected as an eye position, a video capture is connected between the imaging device 1 and the personal computer body 2 as necessary.

パソコン本体2は、明度が逐次変化した複数のグレースケール画像(例えば、256階調のグレースケール画像の階層において、画素値が2〜3階調ずつ変化したもの)を作成する画像処理機能を備えている。   The personal computer main body 2 has an image processing function for creating a plurality of gray scale images whose brightness has been changed successively (for example, one in which pixel values are changed by 2 to 3 gradations in a 256 gradation gray scale image layer). ing.

グレースケール画像の作成手法としては、各画素において、(1)R、G、Bの各値の最大値と最小値の平均を利用する方法、(2)R、G、Bの各値の平均を利用する方法、(3)R、G、Bの各値に所定の重み付け係数(NTSC等)を掛けた後、それらの平均をとる方法等があるが、本発明においては、(3)の手法において、例えば次式
Y(出力輝度)=0.298912×R+0.568811×G+0.114478×B
を利用し、階調を2〜3階調ずつ変化させることが好ましい。このようなグレースケール化の画像処理機能は、例えば、アドビシステム社製フォトショップ等の市販のイメージ処理ソフトをパソコン本体2に搭載することにより得ることができる。
Gray scale image creation methods include (1) a method using the average of the maximum and minimum values of R, G, and B for each pixel, and (2) the average of each value of R, G, and B. (3) There is a method in which each value of R, G, B is multiplied by a predetermined weighting coefficient (NTSC, etc.) and then averaged, etc. In the present invention, In the method, for example, the following equation Y (output luminance) = 0.298912 × R + 0.568811 × G + 0.114478 × B
It is preferable to change the gradation by 2 to 3 gradations using Such a gray scale image processing function can be obtained, for example, by installing in the personal computer main body 2 commercially available image processing software such as Adobe System Photoshop.

また、パソコン本体2は、明度の変化に伴ってコントラストを変化させる機能(例えば、明度を高くするにしたがいコントラストを下げ、また、明度を低くするにしたがいコントラストをあげる機能)、グレースケール画像の階層を明度の低い又は高い順にリスト番号を付けて管理する機能、グレースケール画像の階層において、明度が高明度でフェードアウトした状態から低明度へフェードインするのに伴い、フェードアウトした顔領域に漸次現れる画素の固まり領域を検出する機能、検出した画素の固まり領域のうち対となって現れたものを目の位置候補として選択する機能、及び各目の位置候補の全階層のグレースケール画像にわたる出現度数をカウントし、その値に基づいて目の位置を特定する機能などを有している。   Further, the personal computer main body 2 has a function of changing the contrast in accordance with the change in brightness (for example, a function of decreasing the contrast as the brightness is increased and increasing the contrast as the brightness is decreased), and the grayscale image hierarchy. A function that assigns list numbers in order of low or high brightness, and in the grayscale image hierarchy, pixels that gradually appear in the faded-out face area as the brightness fades from low fade to high brightness A function for detecting the cluster area of the detected pixel, a function for selecting the detected pixel cluster area as a pair of eye positions, and the frequency of appearance of each eye position candidate over the grayscale image of all layers. It has a function of counting and specifying the position of the eye based on the value.

さらに、パソコン本体2は、顔画像のサイズの調整機能、顔画像に目の位置の検出対象領域を設定する機能、顔画像のぼかし機能、検出する画素の固まり領域の縦方向及び横方向のサイズを予め所定範囲内に設定する機能、目の位置候補から特定の目の位置を特定する際の目の位置条件として目の位置候補相互の位置関係や目の位置候補の幅等を記憶する機能、目の位置候補から目の位置条件を満たすものを選択し、目の位置として特定する機能等を有している。   Further, the personal computer main body 2 has a function for adjusting the size of the face image, a function for setting a detection target region of the eye position in the face image, a blurring function for the face image, and a vertical and horizontal size of the cluster area of pixels to be detected. A function for preliminarily setting the eye position within a predetermined range, a function for storing a positional relationship between eye position candidates, a width of the eye position candidate, and the like as eye position conditions when specifying a specific eye position from the eye position candidates The eye position candidate satisfying the eye position condition is selected and specified as the eye position.

この他、動画像を目の位置の検出対象とする場合、パソコン本体2は、撮像装置1から所定のフレームレートで転送されるフレームを必要に応じて選択する機能、あるフレームについて目の位置が特定された場合に、その位置を記憶し、その位置の周辺を次フレームにおける目の位置の検出対象領域とする機能等を有している。   In addition, when a moving image is an eye position detection target, the personal computer main body 2 has a function of selecting a frame to be transferred from the imaging apparatus 1 at a predetermined frame rate as necessary. When specified, it has a function of storing the position and setting the vicinity of the position as a detection target area of the eye position in the next frame.

このシステム10を用いた静止画像における目の位置の検出方法では、図1Aに示すように、まず、目の位置の検出対象とする顔画像をパソコン本体2に取得する。顔画像は、例えば、撮像装置1で対象者の顔画像を撮り、それをパソコン本体2に取り込ませてもよく、イメージスキャナ4を用いて対象者の顔写真を読み取ることによってもよく、インターネット等の通信回線を利用して取得してもよい。   In the eye position detection method in the still image using this system 10, as shown in FIG. 1A, first, a face image as an eye position detection target is acquired in the personal computer main body 2. The face image may be obtained, for example, by taking a face image of the subject with the imaging device 1 and importing the face image into the personal computer main body 2 or reading the face photograph of the subject with the image scanner 4, such as the Internet. You may acquire using a communication line.

次に、必要に応じて、顔画像の画素数を目の位置の検出処理に適したサイズに調整する。より具体的には、顔画像の画素数が多すぎると検出処理に過度の負担が掛かり、少なすぎると目の位置の検出精度が低下するため、480×360〜320×240程度に画像サイズを変更する。   Next, as necessary, the number of pixels of the face image is adjusted to a size suitable for the eye position detection process. More specifically, if the number of pixels in the face image is too large, an excessive burden is placed on the detection process, and if it is too small, the detection accuracy of the eye position decreases, so the image size is reduced to about 480 × 360 to 320 × 240. change.

また、顔画像がシャープであると、後の画像処理で細かいエッジが多数現れ、目の位置候補の検出のノイズとなるので、必要に応じて顔画像にぼかし処理を行う。この場合、ぼかしの程度は、弱〜中とすることが好ましく、例えば、各画素について、注目点の画素とその周囲の25画素に対して1〜5の重み付ぼかしフィルタを使用して輝度の平均値を出力するぼかし処理を行う。このぼかし処理は、必要に応じて複数回行っても良い。   Further, if the face image is sharp, many fine edges appear in subsequent image processing, and noise for detecting eye position candidates is generated. Therefore, the face image is subjected to blurring processing as necessary. In this case, it is preferable that the degree of blurring is weak to medium. For example, for each pixel, the weighting blur filter of 1 to 5 is used for the pixel of interest and the surrounding 25 pixels. Performs blurring to output the average value. This blurring process may be performed a plurality of times as necessary.

さらに、本発明の目の位置の検出方法においては、顔画像にカラー情報は不要であるため、取得した画像がカラー画像の場合には、後の処理量を低減させるため、グレースケール画像に変換する。   Furthermore, in the eye position detection method of the present invention, since color information is not necessary for the face image, if the acquired image is a color image, it is converted to a grayscale image in order to reduce subsequent processing amount. To do.

次に、取得した顔画像において、目の位置の検出対象領域を予め設定しておくことが好ましい。例えば、図3のように、グレースケール顔画像20に対し、目の位置の検出対象領域として矩形枠21を設定する。この矩形枠21の設定方法としては、顔画像20について、縦辺の長さの1/8をAとした場合に、縦3A、横4Aの領域を、その領域の中心Oが、顔画像20の中心座標と重なるように形成すればよく、ここで、顔画像20の中心座標は、顔画像20の横幅の中心線上で顔画像20の上辺から3.5Aの位置とすればよい。このように目の位置の検出対象領域として矩形枠21を設定する方法は、上半身が写っている任意の画像に対して適用することができる。   Next, in the acquired face image, it is preferable to set a detection target region for the eye position in advance. For example, as shown in FIG. 3, a rectangular frame 21 is set as the eye position detection target region for the grayscale face image 20. As a method for setting the rectangular frame 21, regarding the face image 20, assuming that 1/8 of the length of the vertical side is A, the area 3 </ b> A and 4 </ b> A is the center O of the area, and the face image 20 The center coordinates of the face image 20 may be set at a position of 3.5 A from the upper side of the face image 20 on the center line of the width of the face image 20. Thus, the method of setting the rectangular frame 21 as the eye position detection target region can be applied to any image in which the upper body is shown.

次に、図4に示すように、明度が逐次変化した複数のグレースケール画像を形成する。より具体的には、例えば256階調のグレースケール画像において、完全にフェードアウトした画素値0の画像から漸次明度を低下させたフェードイン画像を30〜100階層程度作成する。この30〜100階層の画像の中に目の部分が必ず現れる。この場合、明度を上げるにつれてコントラストを下げ、明度を下げるにつれてコントラストをあげると、フェードイン画像中に目の部分がより鮮明に現れるので好ましい。   Next, as shown in FIG. 4, a plurality of grayscale images whose brightness has been sequentially changed are formed. More specifically, for example, in a grayscale image having 256 gradations, a fade-in image having about 30 to 100 layers in which the brightness is gradually decreased is created from an image having a pixel value of 0 that is completely faded out. The eye part always appears in the 30 to 100 layer image. In this case, it is preferable to lower the contrast as the brightness is increased and to increase the contrast as the brightness is decreased, because the eye part appears more clearly in the fade-in image.

図4からわかるように、グレースケール画像の明度をあげて完全にフェードアウトさせた画像から逐次明度を低下させてフェードイン画像の階層を形成していくと、通常、まず最初に瞳に画素の固まりが検出され、次に鼻や口に画素の固まりが検出される。また、瞳領域の画素の固まりは左右一対として現れるので、左右一対の画素の固まりを選択する。階層によっては、瞳の他に口元、眉、額等の領域にも、画素の固まり領域が対になって現れるが、この段階では、これらの画素の固まり領域も目の位置候補として選択する。   As can be seen from FIG. 4, when the brightness of a grayscale image is increased and the faded-in image layer is formed by successively reducing the brightness from an image that has been completely faded out, normally, the cluster of pixels is usually first in the pupil. Is detected, and then a block of pixels is detected in the nose and mouth. Further, since the cluster of pixels in the pupil region appears as a pair of left and right, the group of pixels of the pair of left and right is selected. Depending on the hierarchy, pixel cluster areas appear in pairs in areas such as the mouth, eyebrows, and forehead in addition to the pupils. At this stage, these pixel cluster areas are also selected as eye position candidates.

なお、画素の固まり領域の検出においては、画像処理を簡便に行えるようにする点から、逐次明度が変化したグレースケール画像の階調を、図5に示すように反転させることが好ましい。   In the detection of the cluster area of pixels, it is preferable to reverse the gradation of the grayscale image whose brightness has been sequentially changed as shown in FIG. 5 in order to facilitate image processing.

また、目の位置候補として検出する画素の固まりの条件として、前述のようにグレースケール顔画像20の縦辺の長さの1/8をAとした場合に、画素の固まりの領域の大きさを縦0.4A〜0.7A、好ましくは0.5A〜0.7A、横0.5A〜1.0A、好ましくは0.7〜1.0Aの範囲内に設定しておくことが好ましい。通常、目の位置にある画素の固まり領域の大きさは、この範囲内の大きさを有するので、このような大きさの条件を設定しておくことにより、目の位置の検出に要する後の処理量を軽減することができる。   In addition, as a condition for the cluster of pixels to be detected as eye position candidates, when 1/8 of the length of the vertical side of the grayscale face image 20 is A as described above, the size of the pixel cluster area is as follows. Is set within the range of 0.4A to 0.7A, preferably 0.5A to 0.7A, 0.5A to 1.0A, preferably 0.7 to 1.0A. Usually, the size of the cluster area of the pixel at the eye position has a size within this range. By setting such a size condition, the size of the subsequent area required for detection of the eye position is set. The amount of processing can be reduced.

図6は、ある階層のフェードイン画像において、顔領域中に現れた画素の固まり領域を矩形で示し、さらにこれらのうち対をなしているものを直線で結んだものである。   FIG. 6 shows a block area of pixels appearing in a face area in a fade-in image of a certain hierarchy as a rectangle, and a pair of these areas connected by a straight line.

対をなしている画素の固まり領域のうち、目の位置候補として選択するものの条件として、予め次の(1)〜(4)を設定しておくことが好ましい。
(1)左右一対の画素の固まり領域の横方向の距離が一定の範囲にあること
(2)左右一対の画素の固まり領域の縦方向の距離が一定の範囲にあること
(3)左右一対の画素の固まり領域のうち、左側の画素の固まり領域が、顔画像の矩形枠21の左半分の領域にあること
(4)左右一対の画素の固まり領域のうち、右側の画素の固まり領域が、顔画像の矩形枠21の右半分の領域にあること
It is preferable that the following (1) to (4) are set in advance as conditions for selecting a candidate eye position from among the clustered pixel regions.
(1) The lateral distance of the cluster area of a pair of left and right pixels is within a certain range.
(2) The vertical distance between the left and right pixel cluster areas is within a certain range.
(3) Of the paired left and right pixel cluster regions, the left pixel cluster region is in the left half region of the rectangular frame 21 of the face image.
(4) Of the paired left and right pixel cluster regions, the right pixel cluster region is in the right half region of the rectangular frame 21 of the face image.

次に、図7に示すように、各フェードイン画像毎に現れた一対の目の位置候補を、グレースケール画像の全階層にわたって集積し、その出現度数をカウントし、このカウント数の多い順にランキングリストを作成する。このカウントでは、フェードアウトした顔画像から段階的に明度を下げていった場合に最初に現れ、最終段階まで現れ続ける瞳領域の目の位置候補が通常、最大カウント(ランキング第1位)となる。そこで、原則的には、この最大カウントの目の位置候補の位置を目の位置と特定する。   Next, as shown in FIG. 7, a pair of eye position candidates appearing for each fade-in image is accumulated over all layers of the grayscale image, the frequency of appearance is counted, and ranking is performed in descending order of the count number. Create a list. In this count, the eye position candidate that appears first when the brightness is gradually reduced from the faded-out face image and continues to appear until the final stage is normally the maximum count (ranking first). Therefore, in principle, the position of the eye position candidate with the maximum count is specified as the eye position.

ただし、次の(a)〜(c)の条件を全て満たした場合、あるいは(d)の条件を満たした場合には、カウント数が2番目に多かった目の位置候補の位置を目の位置として特定する。
(a)ランキング第2位の目の位置候補が、ランキング第1位の目の位置候補より上方にある場合
(b)ランキング第2位の目の位置候補の目と目の中心間距離が、ランキング第1位の目の位置候補の中心間距離より長い場合
(c)ランキング第2位の目の位置候補の左右の瞳にあたる領域が、共にランキング第1位の目候補の左右の瞳にあたる位置よりも外側にある場合
(d)ランキング第1位の目の位置候補とランキング第2位の目の位置候補の縦方向の距離が、目と眉の距離程度に離れ、ランキング第1位の目の位置候補がランキング第2位の目の位置候補よりも上にある場合
However, if the following conditions (a) to (c) are all satisfied, or if the condition (d) is satisfied, the position of the eye position candidate with the second largest count is set as the eye position. As specified.
(a) When the second position candidate for the ranking is higher than the first position candidate for the ranking
(b) When the distance between the center of the eye position candidate of the 2nd ranked eye is longer than the distance between the centers of the position candidate of the 1st ranked eye
(c) When the left and right pupil regions of the second ranking eye position candidate are both outside the positions corresponding to the left and right pupils of the first ranking eye candidate
(d) The vertical distance between the first position candidate of the ranking and the second position candidate of the ranking is about the distance between the eyes and the eyebrows, and the first position candidate of the ranking is ranked first. When the position is above the second position candidate

このうち、(a)〜(c)は、ランキング第1位がまれに口領域になることがあるのに対し、口の位置を目の位置であると誤判定しないためのものであり、(d)は、目の周りの眉等を目の位置であると誤判定しないためのものである。   Of these, (a) to (c) are intended to prevent erroneous determination of the position of the mouth as the position of the eye, while the first ranking in the ranking may rarely be the mouth area. d) is for preventing erroneous determination that the eyebrows around the eyes are the positions of the eyes.

以上により、図8に示すように、顔画像(画像処理する前の元画像)において、目の位置(より正確には瞳の位置)を正確に検出することが可能となる。   As described above, as shown in FIG. 8, in the face image (original image before image processing), the eye position (more precisely, the position of the pupil) can be accurately detected.

一方、このシステム10を用いた動画像における目の位置の検出方法では、図1Bに示すように、まず、撮像装置1から転送された動画像のフレームを顔画像として取得し、このフレームにおける目の位置を検出する。目の位置の検出方法自体は、静止画像における目の位置の検出と同様に、グレースケール画像において明度を逐次変化させたフェードイン画像の階層の形成、フェードイン画像に現れる画素の固まりの検出、目の位置候補(左右一対になって現れた画素の固まり領域)の選択、グレースケール画像の全階層にわたる目の位置候補の集積とその出現度数のカウント、最大カウントによる目の位置の特定、目の位置候補の位置や目と目の中心間距離による特定の修正等を行う。   On the other hand, in the eye position detection method in the moving image using this system 10, as shown in FIG. 1B, first, the frame of the moving image transferred from the imaging device 1 is acquired as a face image, and the eye in this frame is acquired. The position of is detected. The eye position detection method itself is the same as the eye position detection in the still image, the formation of a hierarchy of fade-in images in which the brightness is sequentially changed in the grayscale image, the detection of the cluster of pixels appearing in the fade-in image, Selection of eye position candidates (a clustered area of pixels appearing in a pair on the left and right), accumulation of eye position candidates across all hierarchies of the grayscale image and counting their appearance frequency, eye position identification by maximum count, eye A specific correction is performed based on the position candidate position and the distance between the eyes and the center of the eyes.

ただし、撮像装置1から転送されたイニシャルフレームにおいては、目の位置の検出対象領域は、特定の領域に限定することなく、画像全体とすることが好ましい。   However, in the initial frame transferred from the imaging device 1, the detection target area of the eye position is preferably not limited to a specific area but the entire image.

次に、特定された目の位置の適否を判断する。この判断方法としては、例えば、画素値0から255の間で100階層のフェードイン画像を作成した場合、最大カウント数が5以下のときには目ではないと判断する。なお、この方法で目の位置の適否を判断する場合、フェードイン画像の階層数と、目の適否を判断する最大カウント数とは比例するように決めればよい。したがって、画素値0から255の間で作成するフェードイン画像を200階層にした場合は最大カウント数が10以下の場合に目でないと判断する。   Next, the suitability of the specified eye position is determined. As this determination method, for example, when a 100-level fade-in image is created between pixel values 0 to 255, it is determined that the eye is not visible when the maximum count number is 5 or less. When determining the suitability of the eye position by this method, the number of layers of the fade-in image and the maximum count number for judging the suitability of the eye may be determined to be proportional. Therefore, when the fade-in image created between pixel values 0 and 255 is 200 layers, it is determined that the maximum count number is 10 or less, which is not noticeable.

目の位置の適否の判断により、目の位置が適正に検出されたと判断された場合には、このフレームにおける目の位置として登録する。   When it is determined that the eye position is properly detected by determining whether the eye position is appropriate, the eye position in this frame is registered.

そして、撮像装置1からその後に転送されるフレーム(これをフレームNとする)を取得し、登録した目の位置周辺のみを目の位置の検出対象領域として、上述と同様に目の位置を検出する。このフレームNでも目の位置が適正に検出されたと判断された場合にはその位置を登録し、さらに次のフレームN+1 では、直近で登録した目の位置周辺を検出対象領域とする。このように目の位置の検出対象領域を限定することにより、処理速度を速めることができる。   Then, a frame (hereinafter referred to as “frame N”) transferred from the imaging device 1 is acquired, and the eye position is detected in the same manner as described above, using only the registered eye position periphery as the eye position detection target area. To do. If it is determined that the position of the eye has been properly detected in this frame N, the position is registered. In the next frame N + 1, the vicinity of the most recently registered eye position is set as the detection target area. By limiting the detection target area of the eye position in this way, the processing speed can be increased.

ここで目の位置が適正に検出された場合に、次のフレームで目の位置の検出対象領域とする目の位置周辺の設定は、例えば、目と目の中間点を中心とする矩形であって、横方向が目と目の中心間距離の1.5〜3倍、好ましくは1.8〜2.2倍、縦方向が目と目の中心間距離の0.5〜2倍、好ましくは0.8〜1.2倍の範囲とする。   Here, when the eye position is properly detected, the setting around the eye position as the eye position detection target area in the next frame is, for example, a rectangle centered on the middle point between the eyes. The lateral direction is 1.5 to 3 times, preferably 1.8 to 2.2 times the distance between the eyes and the center of the eye, and the longitudinal direction is 0.5 to 2 times, preferably the distance between the eyes and the center of the eyes. Is in the range of 0.8 to 1.2 times.

一方、イニシャルフレームにおいて、特定された目の位置が不適であると判断された場合には、このフレームでは目の位置をこれ以上検出することなく、次のフレームでの目の位置の検出に進む。   On the other hand, if it is determined that the specified eye position is inappropriate in the initial frame, the eye position is detected in the next frame without further detecting the eye position in this frame. .

また、前述のフレームNで検出された目の位置の適否の判断において、不適と判断された場合には、このフレームNの画像全体を検出対象領域として目の位置を検出し、それにより目の位置が適正に検出されたと判断された場合には、これを登録し、次のフレームN+1ではこの直近で登録された目の位置周辺を検出対象領域として目の位置を検出する。これに対し、フレームNにおいて画像全体を検出対象領域としても目の位置が適正に検出されなかった場合には、このフレームNでは、目の位置をこれ以上検出することなく、次のフレームN+1での目の位置の検出に進む。   If it is determined that the eye position detected in the frame N is inappropriate, the position of the eye is detected using the entire image of the frame N as a detection target region. If it is determined that the position is properly detected, this is registered, and in the next frame N + 1, the position of the eye is detected using the vicinity of the position of the most recently registered eye as the detection target area. On the other hand, if the position of the eyes is not properly detected in the frame N even if the entire image is the detection target area, the next frame N + is detected in this frame N without further detecting the position of the eyes. Proceed to detect eye position at 1.

なお、目の位置が適正に検出されない原因としては、(i)目が画像中に存在しないこと、(ii)目は存在していても目が閉じられていたこと、(iii)目の位置が高速で移動したために目の画像がぶれたこと等があるが、いずれの場合にも、あるフレームで目の位置が適正に検出されなかった場合には、次のフレームで目の位置を検出する。   Note that the reason why the eye position is not properly detected is that (i) the eye is not present in the image, (ii) the eye is present but the eye is closed, and (iii) the eye position. However, in any case, if the eye position is not properly detected in one frame, the eye position is detected in the next frame. To do.

また、画像のサイズやフレームレートにより、目の位置の検出がフレームの転送に追いつかない場合には、所定のフレーム数毎に目の位置の検出を行う。   Further, when the detection of the eye position cannot catch up with the transfer of the frame due to the size of the image and the frame rate, the eye position is detected every predetermined number of frames.

目の位置が適正に検出されなかったフレームや、所定のフレーム数ごとに目の位置の検出を行うために目の位置を検出していないフレームでは、画像の内容や目の位置の検出目的に応じて、目の位置が検出されているフレームにおける目の位置を補完することにより目の位置を特定してもよく、また、目の位置が検出されていないフレームはディスプレイに表示しないようにしてもよい。   For the purpose of detecting the contents of the image and the eye position in the frame where the eye position is not properly detected or in the frame where the eye position is not detected to detect the eye position every predetermined number of frames. Accordingly, the eye position may be specified by complementing the eye position in the frame in which the eye position is detected, and the frame in which the eye position is not detected is not displayed on the display. Also good.

本発明の目の位置の検出方法は、目の位置の検出対象とする顔画像の被写体の肌の色、瞳の色、顔の向き、照明環境の変化によらず、精度よく、簡便な演算方法で、高い処理速度で目の位置を検出することができる。したがって、静止画像においても動画像においても、白人、黒人を問わず、顔画像から目の位置を検出することができる。   The eye position detection method according to the present invention is an accurate and simple calculation regardless of changes in the skin color, pupil color, face orientation, and illumination environment of a face image subject to eye position detection. In this way, the eye position can be detected at a high processing speed. Therefore, the position of the eye can be detected from the face image regardless of whether it is a white person or a black person in both a still image and a moving image.

こうして検出された目の位置は、目の位置を基準に用いて種々のヘアスタイル画像を任意の顔画像にフィッティングさせる髪型シミュレーション画像の形成、目の位置を基準に用いて化粧後の顔の部分画像を任意の顔画像にフィッティングさせる化粧シミュレーション画像の形成、顔画像の目隠し処理、顔画像のフレーム処理、個人認証用画像の形成など、目の位置の検出が必要とされる種々の場面で利用することができる。   The eye position thus detected is the formation of a hairstyle simulation image for fitting various hairstyle images to an arbitrary face image using the eye position as a reference, and the face part after makeup using the eye position as a reference Used in various scenes where eye position detection is required, such as forming makeup simulation images that fit images to arbitrary face images, face image blindfolding, face image frame processing, and personal authentication image formation can do.

本発明は、上述のように目の位置の検出が必要とされる種々の場面で有用となる。   The present invention is useful in various scenes where detection of the eye position is required as described above.

静止画像における目の位置の検出方法の流れ図である。It is a flowchart of the detection method of the eye position in a still image. 動画像における目の位置の検出方法の流れ図である。It is a flowchart of the detection method of the position of the eye in a moving image. 目の位置の検出システムのブロック図である。It is a block diagram of an eye position detection system. 目の位置の検出対象領域の説明図である。It is explanatory drawing of the detection target area | region of the position of eyes. 明度を逐次変化させたグレースケール画像である。It is the gray scale image which changed lightness sequentially. 明度を逐次変化させたグレースケール画像の階調反転画像である。It is a grayscale inverted image of a gray scale image in which the brightness is sequentially changed. あるフェードイン画像における画素の固まり領域の説明図である。It is explanatory drawing of the cluster area | region of a pixel in a certain fade-in image. 目の位置候補を、グレースケール画像の全階層にわたって集積した状態の説明図である。It is explanatory drawing of the state which accumulated the position candidate of eyes over all the hierarchy of a gray scale image. 検出した目の位置を表示した元画像である。It is the original image which displayed the position of the detected eye.

符号の説明Explanation of symbols

1 撮像装置
2 パソコン本体
3 ディスプレイ
4 イメージスキャナ
5 プリンタ
10 目の位置の検出システム
20 グレースケール顔画像
21 目の位置の検出対象領域とする矩形枠
DESCRIPTION OF SYMBOLS 1 Image pick-up device 2 Personal computer body 3 Display 4 Image scanner 5 Printer 10 Eye position detection system 20 Gray scale face image 21 Rectangular frame as eye position detection target area

Claims (8)

ぼかし処理をした顔画像から、明度が高明度でフェードアウトしたグレースケール画像から該高明度でフェードアウトした明度を漸次低下させた複数階層のグレースケール画像を作成し、
該複数階層のグレースケール画像において、高明度でフェードアウトしたグレースケール画像から低明度のグレースケール画像へ漸次明度変化するのに伴い、顔領域に漸次現れる画素の固まり領域を検出し、
検出した画素の固まり領域のうち対となって現れたものを目の位置候補として選択し、
各目の位置候補の全階層のグレースケール画像にわたる出現度数を集積し、カウントし、ランキングして、最大カウントの目の位置候補の位置を目の位置とし、ただし、次の(a)〜(d)の条件
(a)ランキング第2位の目の位置候補が、ランキング第1位の目の位置候補より上方にある場合
(b)ランキング第2位の目の位置候補の目と目の中心間距離が、ランキング第1位の目の位置候補の中心間距離より長い場合
(c)ランキング第2位の目の位置候補の左右の瞳にあたる領域が、共にランキング第1位の目候補の左右の瞳にあたる位置よりも外側にある場合
(d)ランキング第1位の目の位置候補とランキング第2位の目の位置候補の縦方向の距離が、目と眉の距離程度に離れ、ランキング第1位の目の位置候補がランキング第2位の目の位置候補よりも上にある場合
のうち、(a)〜(c)の条件を全て満たした場合、あるいは(d)の条件を満たした場合には、カウント数が2番目に多かった目の位置候補の位置を目の位置と特定する目の位置の検出方法。
Create a multi-level grayscale image in which the brightness faded out at a high brightness from the gray scale image faded out at a high brightness from the blurred face image,
In the grayscale image of the plurality of layers, a cluster area of pixels gradually appearing in the face area is detected as the brightness gradually changes from a grayscale image faded out at a high brightness to a grayscale image having a low brightness.
Select the detected pixel cluster area that appeared as a pair as the eye position candidate,
The frequency of appearance of all eye position candidates over all grayscale images is accumulated, counted, and ranked, and the position of the eye position candidate with the maximum count is set as the eye position, but the following (a) to ( d) Condition
(a) When the second position candidate for the ranking is higher than the first position candidate for the ranking
(b) When the distance between the center of the eye position candidate of the 2nd ranked eye is longer than the distance between the centers of the position candidate of the 1st ranked eye
(c) When the left and right pupil regions of the second ranking eye position candidate are both outside the positions corresponding to the left and right pupils of the first ranking eye candidate
(d) The vertical distance between the first position candidate of the ranking and the second position candidate of the ranking is about the distance between the eyes and the eyebrows, and the first position candidate of the ranking is ranked first. Among the cases above the second position candidate, if all of the conditions (a) to (c) are satisfied, or if the condition (d) is satisfied, the count number is second. A method for detecting an eye position that identifies the positions of eye position candidates that have been many as eye positions.
目の位置候補相互の位置関係又は目の位置候補の横幅に基づいて目の位置を特定する請求項1記載の目の位置の検出方法。   The eye position detection method according to claim 1, wherein the eye position is specified based on a positional relationship between eye position candidates or a lateral width of the eye position candidates. グレースケール画像の階調を反転させ、画素の固まり領域を検出する請求項1又は2記載の目の位置の検出方法。   The eye position detection method according to claim 1, wherein the gray scale image is inverted to detect a cluster area of pixels. 顔画像が、静止画像又は動画像のフレームである請求項1〜3のいずれかに記載の目の位置の検出方法。   The eye position detection method according to claim 1, wherein the face image is a frame of a still image or a moving image. 動画像の一つのフレームで目の位置が特定された場合に、その後のフレームにおいて直近で特定された目の位置の周辺領域を目の位置の検出対象領域とする請求項4記載の目の位置の検出方法。   5. The eye position according to claim 4, wherein when an eye position is specified in one frame of a moving image, an area around the eye position specified most recently in a subsequent frame is set as an eye position detection target area. Detection method. 顔画像の取得手段、並びに演算手段を備えた目の位置の検出システムであって、
演算手段が、顔画像のぼかし機能、顔画像から、明度が高明度でフェードアウトしたグレースケール画像から該高明度でフェードアウトした明度を漸次低下させた複数階層のグレースケール画像を作成する機能、該複数階層のグレースケール画像において高明度でフェードアウトしたグレースケール画像から低明度のグレースケール画像へ漸次明度変化するのに伴い、顔領域に漸次現れる画素の固まり領域を検出する機能、検出した画素の固まり領域のうち対となって現れたものを目の位置候補として選択する機能、及び各目の位置候補の全階層のグレースケール画像にわたる出現度数を集積し、カウントし、ランキングして目の位置を特定する機能を備え、
該目の位置を特定する機能が、最大カウントの目の位置候補の位置を目の位置とし、ただし、次の(a)〜(d)の条件
(a)ランキング第2位の目の位置候補が、ランキング第1位の目の位置候補より上方にある場合
(b)ランキング第2位の目の位置候補の目と目の中心間距離が、ランキング第1位の目の位置候補の中心間距離より長い場合
(c)ランキング第2位の目の位置候補の左右の瞳にあたる領域が、共にランキング第1位の目候補の左右の瞳にあたる位置よりも外側にある場合
(d)ランキング第1位の目の位置候補とランキング第2位の目の位置候補の縦方向の距離が、目と眉の距離程度に離れ、ランキング第1位の目の位置候補がランキング第2位の目の位置候補よりも上にある場合
のうち、(a)〜(c)の条件を全て満たした場合、あるいは(d)の条件を満たした場合には、カウント数が2番目に多かった目の位置候補の位置を目の位置と特定する目の位置の検出システム。
An eye position detection system comprising a face image acquisition means and a calculation means,
The computing means has a blurring function of a face image, a function of creating a grayscale image of a plurality of layers by gradually reducing the brightness faded out at a high brightness from a grayscale image faded out at a high brightness from the face image, the plurality A function that detects the cluster area of pixels that gradually appear in the face area as the brightness gradually changes from a gray scale image that fades out at a high brightness level to a low-scale gray scale image in the gray scale image of the hierarchy, and the detected pixel cluster area A function to select the eye position candidate that appears as a pair, and the frequency of appearance of each eye position candidate over the grayscale image of all layers is accumulated, counted, and ranked to identify the eye position With the ability to
The function of specifying the eye position is the position of the eye position candidate with the maximum count as the eye position, provided that the following conditions (a) to (d)
(a) When the second position candidate for the ranking is higher than the first position candidate for the ranking
(b) When the distance between the center of the eye position candidate of the 2nd ranked eye is longer than the distance between the centers of the position candidate of the 1st ranked eye
(c) When the left and right pupil regions of the second ranking eye position candidate are both outside the positions corresponding to the left and right pupils of the first ranking eye candidate
(d) The vertical distance between the first position candidate of the ranking and the second position candidate of the ranking is about the distance between the eyes and the eyebrows, and the first position candidate of the ranking is ranked first. Among the cases above the second position candidate, if all of the conditions (a) to (c) are satisfied, or if the condition (d) is satisfied, the count number is second. An eye position detection system that identifies the position of a large number of eye position candidates as the eye position.
演算手段が、目の位置候補相互の位置関係又は目の位置候補の横幅に基づいて目の位置を特定する機能を有する請求項6記載の目の位置の検出システム。   The eye position detection system according to claim 6, wherein the calculation unit has a function of specifying an eye position based on a positional relationship between eye position candidates or a lateral width of the eye position candidate. 顔画像の取得手段が、静止画像又は動画像が撮影可能なカメラである請求項6又は7記載の目の位置の検出システム。   The eye position detection system according to claim 6 or 7, wherein the face image acquisition means is a camera capable of capturing a still image or a moving image.
JP2006340420A 2005-12-28 2006-12-18 Eye position detection method Active JP4831344B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006340420A JP4831344B2 (en) 2005-12-28 2006-12-18 Eye position detection method

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2005380436 2005-12-28
JP2005380436 2005-12-28
JP2006340420A JP4831344B2 (en) 2005-12-28 2006-12-18 Eye position detection method

Publications (2)

Publication Number Publication Date
JP2007200289A JP2007200289A (en) 2007-08-09
JP4831344B2 true JP4831344B2 (en) 2011-12-07

Family

ID=38454794

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006340420A Active JP4831344B2 (en) 2005-12-28 2006-12-18 Eye position detection method

Country Status (1)

Country Link
JP (1) JP4831344B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4683236B2 (en) * 2007-09-27 2011-05-18 花王株式会社 Eye position detection method
JP4775599B2 (en) * 2008-07-04 2011-09-21 花王株式会社 Eye position detection method

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3355076B2 (en) * 1995-09-14 2002-12-09 三菱電機株式会社 Face image processing device
KR19990016896A (en) * 1997-08-20 1999-03-15 전주범 Eye region detection method in face image
JP2003281539A (en) * 2002-03-25 2003-10-03 Oki Electric Ind Co Ltd Facial component searching device and facial component searching method
CN1313979C (en) * 2002-05-03 2007-05-02 三星电子株式会社 Apparatus and method for generating 3-D cartoon

Also Published As

Publication number Publication date
JP2007200289A (en) 2007-08-09

Similar Documents

Publication Publication Date Title
JP5389903B2 (en) Optimal video selection
CN105323425B (en) Scene motion correction in blending image system
EP1918872B1 (en) Image segmentation method and system
JP4121026B2 (en) Imaging apparatus and method, and program
US8131013B2 (en) Method and detecting system for positions of facial parts
US20050243350A1 (en) Image processing method, apparatus, and program
CN107277356A (en) The human face region treating method and apparatus of backlight scene
WO2010024265A1 (en) Image processing device and method, and learning device, method, and program
CN108024058B (en) Image blurs processing method, device, mobile terminal and storage medium
JP2007047965A (en) Method and device for detecting object of digital image, and program
CN108428214A (en) A kind of image processing method and device
CN107454315B (en) The human face region treating method and apparatus of backlight scene
US20120120196A1 (en) Image counting method and apparatus
JP2006119817A (en) Image processor
CN109089041A (en) Recognition methods, device, electronic equipment and the storage medium of photographed scene
JP2004030007A (en) Makeup simulation apparatus, makeup simulation method, makeup simulation program and recording medium with program recorded thereon
JP2004005384A (en) Image processing method, image processing device, program, recording medium, automatic trimming device and picture-taking arrangement
JP4831344B2 (en) Eye position detection method
JP4530173B2 (en) Method and system for detecting the position of a facial part
JP4775599B2 (en) Eye position detection method
JP2009258770A (en) Image processing method, image processor, image processing program, and imaging device
JP4683236B2 (en) Eye position detection method
JP5093540B2 (en) Eye position detection method and detection system
JP4831361B2 (en) Eye position detection method and detection system
JPH11283036A (en) Object detector and object detection method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071105

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100910

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100929

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101129

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110112

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110412

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20110421

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110615

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110808

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110824

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110906

R151 Written notification of patent or utility model registration

Ref document number: 4831344

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140930

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250