JP2009176047A - Center-of-eye measuring instrument, center-of-eye measuring program, and center-of-eye measuring method - Google Patents

Center-of-eye measuring instrument, center-of-eye measuring program, and center-of-eye measuring method Download PDF

Info

Publication number
JP2009176047A
JP2009176047A JP2008014014A JP2008014014A JP2009176047A JP 2009176047 A JP2009176047 A JP 2009176047A JP 2008014014 A JP2008014014 A JP 2008014014A JP 2008014014 A JP2008014014 A JP 2008014014A JP 2009176047 A JP2009176047 A JP 2009176047A
Authority
JP
Japan
Prior art keywords
eye
boundary
coordinates
center
coordinate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008014014A
Other languages
Japanese (ja)
Inventor
Kenji Hara
謙治 原
Yoshiyuki Mihara
義行 美原
Manh Duong Phung
マン ズン フン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2008014014A priority Critical patent/JP2009176047A/en
Publication of JP2009176047A publication Critical patent/JP2009176047A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a center-of-eye measuring instrument capable of rapidly measuring the center of the eye even with a low-speed processor, and to provide a center-of-eye measuring program and a center-of-eye measuring method. <P>SOLUTION: An eye region constituted of the pupil and the iris is made to correspond to the coordinate of an orthogonal coordinate system and detected, and then, a right boundary coordinate and a left boundary coordinate positioned in boundaries with other regions are detected. Besides, a plurality of boundary coordinates positioned in the upper right from the right boundary coordinate is detected and also a plurality of boundary coordinates positioned in the upper left from the left boundary coordinate is detected, thereby calculating the center coordinate of the eye region through the use of the plurality of detected boundary coordinates. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、瞳孔及び虹彩で構成される目領域の中心を測定する技術に関する。   The present invention relates to a technique for measuring the center of an eye region composed of a pupil and an iris.

従来、人の視線を測定する場合、人からある程度(50[cm]〜100[cm])離れた位置に、近赤外線光あるいは可視光線の点光源を設置すると共に、眼球表面における反射光を撮影するためのカメラを設置し、このカメラで角膜表面における点光源の反射像および瞳孔を撮影して、その方向から人の視線方法を算出していた。   Conventionally, when measuring the line of sight of a person, a point light source of near-infrared light or visible light is installed at a certain distance (50 [cm] to 100 [cm]) from the person, and reflected light on the eyeball surface is photographed. A camera for this purpose was installed, and a reflected image and pupil of a point light source on the surface of the cornea were photographed with this camera, and a human gaze method was calculated from the direction.

例えば、特許文献1では、撮影された瞳孔像の中心を算出する際に、はじめに周辺よりも暗い領域を連結してセグメント化した後に、各領域の形状を調べ、瞳孔に類似した形状の領域を候補として列挙する。次に、列挙された候補領域から、瞳孔の形状に最も近い領域を瞳孔領域とし、得られた瞳孔領域に対してエッジ検出を行って、瞳孔の輪郭座標を求める。最後に、求まった瞳孔の輪郭座標を角膜表面反射を考慮して補正し、楕円近似によって瞳孔の中心を求める技術が開示されている。
特開2003−79577号公報 T. W. RIDLER、外1名、「Picture Thresholding Using an Iterative Selection Method」、IEEE TRANSACTIONS ON SYSTEMS, MAN AND CYBERNETICS、1978年8月、VOL. SMC-8、No. 8、p.630-632 N. CHERNOV、外1名、「Least Squares Fitting of Circles」、Journal of Mathematical Imaging and Vision、2005年、VOL. 23、p.239-252
For example, in Patent Document 1, when calculating the center of a captured pupil image, first, a region darker than the periphery is connected and segmented, and then the shape of each region is examined, and regions similar in shape to the pupil are obtained. List as candidates. Next, from the enumerated candidate regions, a region closest to the shape of the pupil is set as a pupil region, and edge detection is performed on the obtained pupil region to obtain the contour coordinates of the pupil. Finally, a technique for correcting the contour coordinates of the obtained pupil in consideration of corneal surface reflection and obtaining the center of the pupil by elliptic approximation is disclosed.
JP 2003-79777 A TW RIDLER, 1 other, "Picture Thresholding Using an Iterative Selection Method", IEEE TRANSACTIONS ON SYSTEMS, MAN AND CYBERNETICS, August 1978, VOL. SMC-8, No. 8, p.630-632 N. CHERNOV, 1 other, “Least Squares Fitting of Circles”, Journal of Mathematical Imaging and Vision, 2005, VOL. 23, p.239-252

しかしながら、特許文献1で開示された手法は計算負荷が高く、例えばDSP(Digital Signal Processorの略)のような比較的計算速度の遅いプロセッサでは実時間処理ができないため、DSPが搭載されたカメラに上記手法の技術を適用できないという問題があった。   However, the method disclosed in Patent Document 1 has a high calculation load. For example, a processor with a relatively low calculation speed such as a DSP (abbreviation of Digital Signal Processor) cannot perform real-time processing. There was a problem that the technique of the above method could not be applied.

本発明は、上記に鑑みてなされたものであり、低速なプロセッサでも高速に目の中心を測定可能な目中心測定装置、目中心測定プログラム、及び目中心測定方法を提供することを課題とする。   The present invention has been made in view of the above, and it is an object of the present invention to provide an eye center measuring device, an eye center measuring program, and an eye center measuring method capable of measuring the eye center at high speed even with a low-speed processor. .

請求項1に記載の本発明は、少なくとも目が撮影された映像を蓄積する映像蓄積手段と、前記映像を前記映像蓄積手段から読み出して、瞳孔及び虹彩で構成される目領域を直交座標系の座標に対応付けて検出する目領域検出手段と、前記目領域であって、他の領域との境界に位置する第1の境界座標及び第2の境界座標を検出し、当該第1の境界座標よりも右上に位置する第3の境界座標を更に検出すると共に、当該第2の境界座標よりも左上に位置する第4の境界座標を更に検出する境界検出手段と、前記第1の境界座標乃至前記第4の境界座標を用いて前記目領域の中心座標を算出する中心算出手段と、を有することを要旨とする。   According to the first aspect of the present invention, there is provided a video storage unit that stores at least a video of which an eye has been photographed, and the video region is read out from the video storage unit, and an eye region composed of a pupil and an iris is defined in an orthogonal coordinate system. Eye area detecting means for detecting the corresponding to the coordinates, and the first boundary coordinates and the second boundary coordinates which are the eye area and located at the boundary with the other area, and the first boundary coordinates Boundary detection means for further detecting a third boundary coordinate located on the upper right side and further detecting a fourth boundary coordinate located on the upper left side with respect to the second boundary coordinate; and And a center calculating means for calculating center coordinates of the eye area using the fourth boundary coordinates.

本発明にあっては、瞳孔及び虹彩で構成される目領域を直交座標系の座標に対応付けて検出した後、他の領域との境界に位置する第1の境界座標及び第2の境界座標を検出し、第1の境界座標よりも右上に位置する第3の境界座標を更に検出すると共に、第2の境界座標よりも左上に位置する第4の境界座標を更に検出し、第1の境界座標乃至第4の境界座標を用いて目領域の中心座標を算出するため、低速なプロセッサでも高速に目の中心を測定可能な目中心測定装置を提供することができる。   In the present invention, after detecting the eye area composed of the pupil and the iris in association with the coordinates of the orthogonal coordinate system, the first boundary coordinates and the second boundary coordinates located at the boundary with the other area , And further detecting a third boundary coordinate located on the upper right side of the first boundary coordinate, and further detecting a fourth boundary coordinate located on the upper left side of the second boundary coordinate, Since the center coordinates of the eye region are calculated using the boundary coordinates to the fourth boundary coordinates, it is possible to provide an eye center measuring device capable of measuring the center of the eye at high speed even with a low speed processor.

請求項2に記載の本発明は、前記第1の境界座標が、前記目領域の内側に位置する内座標よりも右側に位置する境界座標であり、前記第2の境界座標は、当該内座標よりも左側に位置する境界座標であることを要旨とする。   According to the second aspect of the present invention, the first boundary coordinate is a boundary coordinate located on the right side of the inner coordinate located inside the eye region, and the second boundary coordinate is the inner coordinate. The gist is that the boundary coordinates are located on the left side of the line.

請求項3に記載の本発明は、前記内座標が、前記目領域検出手段により検出された前記目領域に基づいて推定された推定中心座標であることを要旨とする。   The gist of the present invention described in claim 3 is that the inner coordinates are estimated center coordinates estimated based on the eye area detected by the eye area detecting means.

請求項4に記載の本発明は、前記内座標が、前記目領域検出手段により検出された前記目領域に基づいて推定された推定中心座標よりも下に位置する内座標であることを要旨とする。   The gist of the present invention described in claim 4 is that the inner coordinates are inner coordinates located below the estimated central coordinates estimated based on the eye area detected by the eye area detecting means. To do.

請求項5に記載の本発明は、前記内座標が、前記目領域検出手段により検出された前記目領域に基づいて推定された推定中心座標よりも下に位置する境界座標であることを要旨とする。   The gist of the present invention described in claim 5 is that the inner coordinates are boundary coordinates positioned below estimated central coordinates estimated based on the eye area detected by the eye area detecting means. To do.

請求項6に記載の本発明は、前記映像は輝度値を有する複数のピクセルで構成されるものであって、前記目領域検出手段は、所定の閾値よりも低い輝度値が連続する複数の領域を抽出し、当該領域に含まれるピクセル数を最大とする領域と2番目に大きい領域のうちいずれかを上下の位置関係に基づいて前記目領域として検出することを要旨とする。   According to a sixth aspect of the present invention, the video is composed of a plurality of pixels having luminance values, and the eye area detecting means includes a plurality of areas where luminance values lower than a predetermined threshold value are continuous. And extracting either the region having the maximum number of pixels included in the region or the second largest region as the eye region based on the vertical positional relationship.

請求項7に記載の本発明は、前記中心算出手段が、大きさの異なる複数の円を前記第1の境界座標乃至前記第4の境界座標にそれぞれフィッティングし、最も適合する円を用いて前記中心座標を算出することを要旨とする。   According to the seventh aspect of the present invention, the center calculating unit fits a plurality of circles having different sizes to the first boundary coordinate to the fourth boundary coordinate, and uses the most suitable circle. The gist is to calculate the center coordinates.

請求項8に記載の本発明は、前記最も適合する円とは、求める円の円周上の円周座標から前記第1の境界座標乃至前記第4の境界座標それぞれへの距離の二乗の総和を表す目的関数を最小とする円であることを要旨とする。   The present invention according to claim 8, wherein the most suitable circle is a sum of squares of distances from a circumferential coordinate on a circumference of a desired circle to each of the first boundary coordinate to the fourth boundary coordinate. The gist is that it is a circle that minimizes the objective function representing.

請求項9に記載の本発明は、請求項1乃至8にいずれか1項に記載の各手段としてコンピュータを機能させることを要旨とする。   The gist of the present invention described in claim 9 is to cause a computer to function as each means described in any one of claims 1 to 8.

請求項10に記載の本発明は、少なくとも目が撮影された映像を映像蓄積手段に蓄積するステップと、前記映像を前記映像蓄積手段から読み出して、瞳孔及び虹彩で構成される目領域を直交座標系の座標に対応付けて検出するステップと、前記目領域であって、他の領域との境界に位置する第1の境界座標及び第2の境界座標を検出し、当該第1の境界座標よりも右上に位置する第3の境界座標を更に検出すると共に、当該第2の境界座標よりも左上に位置する第4の境界座標を更に検出するステップと、前記第1の境界座標乃至前記第4の境界座標を用いて前記目領域の中心座標を算出するステップと、を有することを要旨とする。   According to a tenth aspect of the present invention, there is provided a step of accumulating at least an image in which an eye is photographed in an image accumulating unit, an image obtained by reading the image from the image accumulating unit, and an eye region composed of a pupil and an iris being orthogonal Detecting in association with the coordinates of the system, and detecting the first boundary coordinates and the second boundary coordinates which are located in the boundary between the eye area and the other area, from the first boundary coordinates Further detecting a third boundary coordinate located at the upper right and further detecting a fourth boundary coordinate located at the upper left of the second boundary coordinate; and the first to fourth boundary coordinates. And a step of calculating center coordinates of the eye region using the boundary coordinates.

本発明によれば、低速なプロセッサでも高速に目の中心を測定可能な目中心測定装置、目中心測定プログラム、及び目中心測定方法を提供することができる。   According to the present invention, it is possible to provide an eye center measuring apparatus, an eye center measuring program, and an eye center measuring method capable of measuring the eye center at high speed even with a low-speed processor.

以下、本発明の実施の形態について図面を用いて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

<目中心測定装置のブロック構成及び全体の処理について>
図1は、本実施の形態における目中心測定装置のブロック構成を示すブロック図である。この目中心測定装置は、映像入力部11と、フレーム抽出部12と、閾値算出部13と、目領域検出部14と、中心推定部15と、境界検出部16と、中心算出部17と、映像蓄積部21と、データ記憶部22とを備えた構成である。
<About the block configuration and overall processing of the eye center measuring device>
FIG. 1 is a block diagram showing a block configuration of the eye center measuring apparatus according to the present embodiment. This eye center measuring device includes a video input unit 11, a frame extraction unit 12, a threshold calculation unit 13, an eye region detection unit 14, a center estimation unit 15, a boundary detection unit 16, a center calculation unit 17, The video storage unit 21 and the data storage unit 22 are provided.

この目中心測定装置は、専用のハードウェアとして構成してもよいし、汎用的なコンピュータを用いて構成してもよい。また、各部の処理をコンピュータプログラムによって実行させるようにしてもよい。更に、このコンピュータプログラムを読み取り可能な記録媒体に記録するようにしてもよい。なお、各部が処理した処理結果は、映像蓄積部21に蓄積され、若しくはデータ記憶部22に記憶される。   This eye center measuring apparatus may be configured as dedicated hardware, or may be configured using a general-purpose computer. Further, the processing of each unit may be executed by a computer program. Further, the computer program may be recorded on a readable recording medium. The processing results processed by each unit are accumulated in the video accumulation unit 21 or stored in the data storage unit 22.

図2は、本実施の形態における目中心測定装置の全体処理を示すフローである。最初に、映像入力部11は、目や眉が撮影された映像(以降、「入力画像」と称する場合もある)の入力を受け付けて、映像蓄積部21に蓄積する(S101)。   FIG. 2 is a flowchart showing the overall processing of the eye center measuring apparatus in the present embodiment. First, the video input unit 11 receives an input of a video in which eyes and eyebrows are photographed (hereinafter also referred to as “input image”) and stores the input in the video storage unit 21 (S101).

なお、本実施の形態で取り扱う入力画像は、複数のフレームによって構成される動画であり、各フレームは複数のピクセルによって構成される静止画像である。ここで、入力画像の幅がwidthであり、高さがheightであるとすると、各フレームはwidth×height個のピクセルによって構成される。各ピクセルは、RGBカラーモデルにおいて色を表現するデータ(輝度値)であり、フレームにおけるx座標値とy座標値とR値とG値とB値によって構成され、x座標値は1以上width以下の整数値であり、y座標値は1以上height以下の整数値であり、R値とG値とB値とはそれぞれ0以上255以下の整数値である。また、各フレームにおいて最も左上のピクセルの座標値を(1,1)とし、x軸は右方向、y軸は下方向を向いているものとする。   Note that the input image handled in the present embodiment is a moving image composed of a plurality of frames, and each frame is a still image composed of a plurality of pixels. Here, assuming that the width of the input image is width and the height is height, each frame is composed of width × height pixels. Each pixel is data (luminance value) expressing a color in the RGB color model, and is composed of an x coordinate value, a y coordinate value, an R value, a G value, and a B value in the frame, and the x coordinate value is 1 or more and width or less. The y-coordinate value is an integer value between 1 and height, and the R value, G value, and B value are integer values between 0 and 255, respectively. Further, the coordinate value of the upper left pixel in each frame is (1, 1), the x axis is directed to the right, and the y axis is directed downward.

次に、フレーム抽出部12は、映像蓄積部21に蓄積された映像を読み出して、複数のフレームで構成された映像から1フレーム(以降、「静止画像」と称する場合もある)を抽出する(S102)。   Next, the frame extraction unit 12 reads the video stored in the video storage unit 21 and extracts one frame (hereinafter also referred to as “still image”) from the video composed of a plurality of frames ( S102).

続いて、閾値算出部13は、抽出された静止画像から眉部及び目部を検出するための閾値を算出し、データ記憶部22に記憶する(S103)。   Subsequently, the threshold value calculation unit 13 calculates a threshold value for detecting the eyebrows and the eyes from the extracted still image, and stores it in the data storage unit 22 (S103).

ここで算出される閾値とは輝度値を表す0以上255以下の整数値であって、眉部及び目部に含まれるピクセルは算出された閾値以下の値となる。なお、閾値の算出には、非特許文献1に開示されたISODATA法を用いることも可能であるし、予め指定された値を用いてもよい。なお、閾値の値を適宜変更することにより、黒色や青色など様々な目の色について目の中心を測定することが可能となる。   The threshold value calculated here is an integer value of 0 or more and 255 or less representing the luminance value, and the pixels included in the eyebrow part and the eye part are values less than the calculated threshold value. For the calculation of the threshold value, the ISODATA method disclosed in Non-Patent Document 1 can be used, or a value designated in advance may be used. Note that the center of the eye can be measured for various eye colors such as black and blue by appropriately changing the threshold value.

そして、目領域検出部14は、算出された閾値をデータ記憶部22から読み出して、フレーム抽出部12で抽出された静止画像から眉部及び目部を抽出し、上下の位置関係に基づいて目部を特定した後に、瞳孔及び虹彩で構成される目領域を直交座標系の座標に対応付けて検出し、データ記憶部22に記憶する(S104)。なお、目領域検出部14における処理の詳細については後述する。   Then, the eye region detection unit 14 reads the calculated threshold value from the data storage unit 22, extracts the eyebrows and the eyes from the still image extracted by the frame extraction unit 12, and based on the vertical positional relationship, After specifying the part, the eye area composed of the pupil and the iris is detected in association with the coordinates of the orthogonal coordinate system, and stored in the data storage unit 22 (S104). Details of processing in the eye area detection unit 14 will be described later.

続いて、中心推定部15は、目領域を構成する座標をデータ記憶部22から読み出して、目領域の中心座標を推定(以降、「推定中心座標」と称する場合もある)し、データ記憶部22に記憶する(S105)。なお、中心推定部15における処理の詳細については後述する。   Subsequently, the center estimation unit 15 reads the coordinates constituting the eye area from the data storage unit 22, estimates the center coordinates of the eye area (hereinafter may be referred to as “estimated center coordinates”), and the data storage unit 22 (S105). Details of the processing in the center estimation unit 15 will be described later.

次に、境界検出部16は、目領域を構成する座標をデータ記憶部22から読み出すと共に推定中心座標を同データ記憶部22から読み出して、目領域を構成する座標であって、他の領域との境界に位置する右初期境界座標及び左初期境界座標を検出し、右初期境界座標よりも右上に位置する複数の境界座標(以降、「右上境界座標群」と称する場合もある)を更に検出すると共に、左初期境界座標よりも左上に位置する複数の境界座標(以降、「左上境界座標群」と称する場合もある)を更に検出し、データ記憶部22に記憶する(S106)。なお、境界検出部16における処理の詳細については後述する。   Next, the boundary detection unit 16 reads the coordinates constituting the eye area from the data storage unit 22 and reads the estimated center coordinates from the data storage unit 22, and is the coordinates constituting the eye area, The right initial boundary coordinate and the left initial boundary coordinate located at the boundary are detected, and a plurality of boundary coordinates (hereinafter sometimes referred to as “upper right boundary coordinate group”) located further to the upper right than the right initial boundary coordinate are further detected. In addition, a plurality of boundary coordinates (hereinafter also referred to as “upper left boundary coordinate group”) located at the upper left of the left initial boundary coordinates are further detected and stored in the data storage unit 22 (S106). Details of processing in the boundary detection unit 16 will be described later.

最後に、中心算出部17は、検出された右初期境界座標及び左初期境界座標と複数の境界座標とをデータ記憶部22から読み出して、目領域の中心座標を算出する(S107)。なお、中心算出部17における処理の詳細については後述する。   Finally, the center calculation unit 17 reads the detected right initial boundary coordinates, left initial boundary coordinates, and a plurality of boundary coordinates from the data storage unit 22, and calculates the center coordinates of the eye area (S107). Details of processing in the center calculation unit 17 will be described later.

<目領域検出部の処理について>
図3は、目領域検出部の処理を説明するための説明図である。最初に、目領域検出部14は、閾値算出部13で算出された閾値を用いて、フレーム抽出部12で抽出された静止画像から眉部及び目部を抽出する(S201)。次に、目領域検出部14は、抽出された眉部及び目部のうち、目部に対応する部分を特定し(S202)、目領域を検出する(S203)。
<About the processing of the eye area detection unit>
FIG. 3 is an explanatory diagram for explaining processing of the eye region detection unit. First, the eye region detection unit 14 extracts the eyebrows and the eyes from the still image extracted by the frame extraction unit 12 using the threshold calculated by the threshold calculation unit 13 (S201). Next, the eye area detection unit 14 specifies a part corresponding to the eye part among the extracted eyebrow part and eye part (S202), and detects the eye area (S203).

具体的には、まず、静止画像の全てのピクセルに対して、輝度値が閾値よりも高いピクセルと閾値以下のピクセルとに分類する。更に、閾値以下のピクセルのうち、上下方向或いは左右方向に隣り合うピクセル同士は同一のセグメントであるとし、1個以上のセグメントを抽出する。   Specifically, first, all the pixels of the still image are classified into pixels having a luminance value higher than the threshold and pixels lower than the threshold. Furthermore, among pixels below the threshold, pixels adjacent in the vertical direction or the horizontal direction are assumed to be the same segment, and one or more segments are extracted.

次に、例えば目の付近を撮影した静止画像を用いたとき、大きなセグメントは眉毛と目であると推測できるため、上方に位置するセグメントを眉部とし、下方に位置するセグメントを目部とする。より具体的には、抽出されたセグメントのうち、含まれるピクセル数が最大となるセグメントと、2番目に大きいセグメントを目領域の候補とする。候補となった2つのセグメントについてそれぞれ含まれる全てのピクセルのy座標値の平均を算出して重心y座標値を算出し、重心y座標値の大きいセグメント、すなわち下方に位置するセグメントを目領域のセグメントとする。そして、ここで検出した目領域のセグメントに含まれるピクセルの集合を目領域情報として出力する。   Next, for example, when a still image obtained by photographing the vicinity of the eyes is used, it can be assumed that the large segments are the eyebrows and the eyes, so the upper segment is the eyebrow and the lower segment is the eye . More specifically, among the extracted segments, the segment having the maximum number of pixels included and the second largest segment are set as candidates for the eye region. The average of the y-coordinate values of all the pixels included in each of the two candidate segments is calculated to calculate the centroid y-coordinate value, and the segment with the large centroid-y coordinate value, that is, the segment located below is selected as the eye region A segment. Then, a set of pixels included in the detected eye area segment is output as eye area information.

<中心推定部の処理について>
中心推定部15は、目領域検出部14で検出された目領域の中心座標を推定する。具体的には、前述の目領域情報の重心を推定中心座標とする。即ち、ピクセルの集合の重心を求める関数center(S)を式(1)に示すように定義し、目領域情報を表すピクセルの集合をSeyeとする。このとき、center(Seye)によって求められる座標値を推定中心座標として出力する。

Figure 2009176047
<About the processing of the center estimation unit>
The center estimation unit 15 estimates the center coordinates of the eye area detected by the eye area detection unit 14. Specifically, the center of gravity of the aforementioned eye area information is set as the estimated center coordinates. That is, a function center (S) for obtaining the center of gravity of a set of pixels is defined as shown in Expression (1), and a set of pixels representing eye area information is defined as Seye . At this time, a coordinate value obtained by center (S eye ) is output as an estimated center coordinate.
Figure 2009176047

但し、Sはピクセルの集合であり、x,yはそれぞれSのx座標,y座標である。 Here, S is a set of pixels, and x S and y S are the x coordinate and y coordinate of S, respectively.

なお、これ以降、目領域検出部14により検出された目領域に基づいて推定された推定中心座標を用いて後段の処理を説明するが、これは目領域の内側に位置する内座標の一例であって、目領域の内側の任意の場所の内座標を用いた場合であっても得られる効果は同様である。例えば、推定中心座標よりも下に位置する内座標や、推定中心座標よりも下に位置する境界座標(後述する中心下境界座標に相当)であっても良い。   In the following, the subsequent processing will be described using the estimated central coordinates estimated based on the eye area detected by the eye area detection unit 14, but this is an example of the inner coordinates located inside the eye area. Thus, the same effect can be obtained even when the internal coordinates of an arbitrary place inside the eye area are used. For example, internal coordinates positioned below the estimated center coordinates, or boundary coordinates positioned below the estimated center coordinates (corresponding to center-lower boundary coordinates described later) may be used.

<境界検出部の処理について>
境界検出部16は、3つのステップを介して複数の境界座標を検出する。第1のステップでは推定中心座標の下に位置する中心下境界座標を求め、第2のステップでは中心下境界座標よりも右側に位置する右初期境界座標と、中心下境界座標よりも左側に位置する左初期境界座標とを求め、第3のステップでは右初期境界座標よりも右上に位置する複数の境界座標(右上境界座標群)と、左初期境界座標よりも左上に位置する複数の境界座標(左上境界座標群)とを検出する。
<About the processing of the boundary detection unit>
The boundary detection unit 16 detects a plurality of boundary coordinates through three steps. In the first step, the lower center boundary coordinates located below the estimated center coordinates are obtained, and in the second step, the right initial boundary coordinates located on the right side of the lower center boundary coordinates and the left side of the lower center boundary coordinates. In the third step, a plurality of boundary coordinates (upper right boundary coordinate group) positioned on the upper right side of the right initial boundary coordinate and a plurality of boundary coordinates positioned on the upper left side of the left initial boundary coordinate are obtained in the third step. (Upper left boundary coordinate group).

図4は、第1のステップの処理を説明するための説明図である。境界検出部16は、中心推定部15によって推定された推定中心座標(x,y)に対して、xを固定し、目領域内でyが最大となる点を中心下境界座標とする(S301)。   FIG. 4 is an explanatory diagram for explaining the processing of the first step. The boundary detection unit 16 fixes x with respect to the estimated center coordinates (x, y) estimated by the center estimation unit 15, and sets the point where y is maximum in the eye region as the lower center boundary coordinates (S301). ).

若しくは、推定中心座標(x,y)に対して、xを固定し、yを1ずつ増加させて中心下境界座標を検索し、(x,y)が目領域内であり、(x,y+1)が目領域外であるyが見つかれば、その(x,y)を中心下境界座標としてもよい。   Alternatively, with respect to the estimated center coordinates (x, y), x is fixed and y is incremented by 1 to search the lower center boundary coordinates, and (x, y) is within the eye area, and (x, y + 1) ) Is outside the eye area, the (x, y) may be used as the lower center boundary coordinate.

図5は、第2のステップの処理を説明するための説明図である。境界検出部16は、中心下境界座標(x,y)に対して、yを固定し、xを1ずつ増加させて、右初期境界座標を探索すると共に、中心下境界座標(x,y)に対して、yを固定し、xを1ずつ減少させて、左初期境界座標を探索する(S401)。   FIG. 5 is an explanatory diagram for explaining the processing of the second step. The boundary detection unit 16 fixes y with respect to the lower center boundary coordinate (x, y), increases x by 1 to search the right initial boundary coordinate, and lower the center lower boundary coordinate (x, y). On the other hand, y is fixed, x is decreased by 1 and the left initial boundary coordinate is searched (S401).

具体的には、(x,y)が目領域内であり(x+1,y)が目領域外であるxが見つかれば、その(x,y)を右初期境界座標とする。同様に、(x,y)が目領域内であり(x−1,y)が目領域外であるxが見つかれば、その(x,y)左初期境界座標とする。   Specifically, if x is found where (x, y) is in the eye area and (x + 1, y) is outside the eye area, that (x, y) is set as the right initial boundary coordinate. Similarly, if x is found where (x, y) is within the eye region and (x-1, y) is outside the eye region, the (x, y) left initial boundary coordinate is set.

図6は、第3のステップの処理を説明するための説明図である。境界検出部16は、右初期境界座標のyを増加させた後、xを増加させて境界座標を検出すると共に、左初期境界座標のyを増加させた後、xを減少させて境界座標を検出する(S501)。そして、S501の処理を繰り返し、複数の境界座標を検出する(S502)。以下、より具体的に説明する。   FIG. 6 is an explanatory diagram for explaining the processing of the third step. The boundary detection unit 16 increases y of the right initial boundary coordinate, detects x by increasing x, and increases y of the left initial boundary coordinate, and then decreases x to decrease the boundary coordinate. Detect (S501). Then, the process of S501 is repeated to detect a plurality of boundary coordinates (S502). More specific description will be given below.

最初に、右上境界座標群の算出方法について説明する。境界検出部16は、右初期境界座標(x,y)に対して、xを固定し、yを増加させて最初に見つかる目領域の座標を右初期境界座標の上部内座標とする。即ち、座標(x,y)の右初期境界座標の上部内座標を算出する関数は、式(2)に示す関数となる。

Figure 2009176047
First, a method for calculating the upper right boundary coordinate group will be described. The boundary detection unit 16 fixes x with respect to the right initial boundary coordinates (x, y), increases y, and sets the coordinates of the eye area that is found first as the upper inner coordinates of the right initial boundary coordinates. That is, the function for calculating the upper inner coordinates of the right initial boundary coordinates of the coordinates (x, y) is a function shown in Expression (2).
Figure 2009176047

次に、上記手順で求めた上部内座標(x,y)の右側の境界座標を探索する。具体的には、上部内座標(x,y)に対して、yを固定し、xを1ずつ増加させて境界座標を探索し、(x,y)の右隣の座標が目領域外であるxが見つかれば、その(x,y)を境界座標とする。即ち、右上境界座標群としての境界座標を算出する関数は、式(3)に示す関数となる。

Figure 2009176047
Next, the boundary coordinates on the right side of the upper inner coordinates (x, y) obtained by the above procedure are searched. Specifically, with respect to the upper inner coordinates (x, y), y is fixed, x is incremented by 1 and the boundary coordinates are searched, and the coordinates on the right of (x, y) are outside the eye area. If a certain x is found, that (x, y) is set as the boundary coordinate. That is, the function for calculating the boundary coordinates as the upper right boundary coordinate group is a function shown in Expression (3).
Figure 2009176047

そして、境界検出部16は、検出された境界座標の上部内座標を探索し、同様の手順で右上方向の境界座標を繰り返し検出することで、右上境界座標群を得ることができる。即ち、右上境界座標群{r}は、右初期境界座標をRとすると、式(2)及び式(3)を用いて、式(4)で表現することが可能となる。但し、upper(r)が存在しなくなった時点で境界座標の算出を終了する。

Figure 2009176047
And the boundary detection part 16 can obtain the upper right boundary coordinate group by searching the upper inner coordinates of the detected boundary coordinates and repeatedly detecting the upper right boundary coordinates in the same procedure. That is, the upper right boundary coordinate group {r k } can be expressed by Expression (4) using Expression (2) and Expression (3), where R is the right initial boundary coordinate. However, the calculation of the boundary coordinates ends when upper (r k ) no longer exists.
Figure 2009176047

左上境界座標群の算出についても同様に行う。まず、式(5)に示すように、左上境界座標群としての境界座標を算出する関数を定義する。

Figure 2009176047
The calculation of the upper left boundary coordinate group is similarly performed. First, as shown in Expression (5), a function for calculating boundary coordinates as an upper left boundary coordinate group is defined.
Figure 2009176047

式(5)は、座標(x,y)に対して、yを固定し、xを1ずつ減少させて境界座標を探索し、(x,y)の左隣の座標が目領域外であるxが見つかれば、その(x,y)を境界座標とする。即ち、左上境界座標群{l}は、左初期境界座標をLとすると、式(2)及び式(5)を用いて、式(6)で表現することが可能となる。但し、upper(l)が存在しなくなった時点で境界座標の算出を終了する。

Figure 2009176047
Expression (5) searches for boundary coordinates by fixing y with respect to coordinates (x, y) and decreasing x by 1 and the coordinates on the left of (x, y) are outside the eye area. If x is found, the (x, y) is set as the boundary coordinates. That is, the upper left boundary coordinate group {l k } can be expressed by Expression (6) using Expression (2) and Expression (5), where L is the left initial boundary coordinate. However, the calculation of the boundary coordinates ends when upper (l k ) no longer exists.
Figure 2009176047

最後に、境界検出部16は、上記手順によって算出された{r}及び{l}を合わせて複数の境界座標として出力する。 Finally, the boundary detection unit 16 outputs {r k } and {l k } calculated by the above procedure together as a plurality of boundary coordinates.

<中心算出部の処理について>
図7は、中心算出部の処理を説明するための説明図である。中心算出部17は、大きさの異なる複数の円を境界検出部16により検出された複数の境界座標にそれぞれフィッティングし、フィッティングによって得られた最も適合する円の中心座標を目領域の中心座標として算出する(S601)。
<About the processing of the center calculation unit>
FIG. 7 is an explanatory diagram for explaining the processing of the center calculation unit. The center calculation unit 17 fits a plurality of circles having different sizes to the plurality of boundary coordinates detected by the boundary detection unit 16, and uses the center coordinates of the most suitable circle obtained by the fitting as the center coordinates of the eye region. Calculate (S601).

複数の境界座標への円のフィッティングには、非特許文献2に記載されたLeast Squares Fittingアルゴリズムを用いることが可能である。具体的には、目的関数Fの最小化によって円のフィッティングを行う。複数の境界座標をB={(x,y)}i=1,2,…,Nとし、フィッティングによって得られる円の中心座標を(a,b),半径をRとすると、求める円の円周上の座標(x,y)から各境界座標への距離の二乗の総和を表す目的関数F(a,b,R)は、式(7)に示す関数となる。

Figure 2009176047
For fitting a circle to a plurality of boundary coordinates, the Last Squares Fitting algorithm described in Non-Patent Document 2 can be used. Specifically, circle fitting is performed by minimizing the objective function F. A plurality of boundary coordinates are B = {(x i , y i )} i = 1, 2,..., N , the center coordinates of the circle obtained by fitting are (a, b), and the radius is R. The objective function F (a, b, R) representing the sum of the squares of the distances from the coordinates (x i , y i ) on the circumference of each to the boundary coordinates is a function shown in Expression (7).
Figure 2009176047

但し、本実施の形態では、目的関数F(a,b,R)を式(8)及び式(9)とする。

Figure 2009176047
Figure 2009176047
However, in the present embodiment, the objective function F (a, b, R) is represented by Expression (8) and Expression (9).
Figure 2009176047
Figure 2009176047

そして、この目的関数F(a,b,R)を最小化するa,b,Rを求める。F(a,b,R)をB,C,Dについてぞれぞれ偏微分を行うと、式(10)となる。

Figure 2009176047
Figure 2009176047
Then, a, b, and R that minimize the objective function F (a, b, R) are obtained. When partial differentiation of F (a, b, R) is performed for B, C, and D, Expression (10) is obtained.
Figure 2009176047
Figure 2009176047

式(10)で示す連立方程式をCholesky分解により解き、B,C,Dを得て、式(11)によりa,b,Rを得ることができる。中心算出部17は、ここで求めた(a,b)を目領域の中心座標として出力する。   The simultaneous equations shown in equation (10) can be solved by Cholesky decomposition to obtain B, C, and D, and a, b, and R can be obtained from equation (11). The center calculation unit 17 outputs (a, b) obtained here as the center coordinates of the eye region.

本実施の形態によれば、瞳孔及び虹彩で構成される目領域を直交座標系の座標に対応付けて検出した後、他の領域との境界に位置する右境界座標及び左境界座標を検出し、右境界座標よりも右上に位置する複数の境界座標を更に検出すると共に、左境界座標よりも左上に位置する複数の境界座標を更に検出し、検出された複数の境界座標を用いて目領域の中心座標を算出するので、低速なプロセッサでも高速に目の中心を測定可能な目中心測定装置を提供することができる。   According to the present embodiment, after detecting the eye region composed of the pupil and the iris in association with the coordinates of the orthogonal coordinate system, the right boundary coordinate and the left boundary coordinate located at the boundary with the other region are detected. , Further detecting a plurality of boundary coordinates located at the upper right than the right boundary coordinates, further detecting a plurality of boundary coordinates located at the upper left than the left boundary coordinates, and using the detected plurality of boundary coordinates, the eye region Therefore, it is possible to provide an eye center measuring apparatus capable of measuring the eye center at high speed even with a low speed processor.

本実施の形態における目中心測定装置のブロック構成を示すブロック図である。It is a block diagram which shows the block configuration of the eye center measuring apparatus in this Embodiment. 本実施の形態における目中心測定装置の全体処理を示すフローである。It is a flow which shows the whole process of the eye center measuring apparatus in this Embodiment. 目領域検出部の処理を説明するための説明図である。It is explanatory drawing for demonstrating the process of an eye area | region detection part. 境界検出部における第1のステップの処理を説明するための説明図である。It is explanatory drawing for demonstrating the process of the 1st step in a boundary detection part. 境界検出部における第2のステップの処理を説明するための説明図である。It is explanatory drawing for demonstrating the process of the 2nd step in a boundary detection part. 境界検出部における第3のステップの処理を説明するための説明図である。It is explanatory drawing for demonstrating the process of the 3rd step in a boundary detection part. 中心算出部の処理を説明するための説明図である。It is explanatory drawing for demonstrating the process of a center calculation part.

符号の説明Explanation of symbols

11…映像入力部
12…フレーム抽出部
13…閾値算出部
14…目領域検出部
15…中心推定部
16…境界検出部
17…中心算出部
21…映像蓄積部
22…データ記憶部
DESCRIPTION OF SYMBOLS 11 ... Video input part 12 ... Frame extraction part 13 ... Threshold calculation part 14 ... Eye area | region detection part 15 ... Center estimation part 16 ... Boundary detection part 17 ... Center calculation part 21 ... Video storage part 22 ... Data storage part

Claims (10)

少なくとも目が撮影された映像を蓄積する映像蓄積手段と、
前記映像を前記映像蓄積手段から読み出して、瞳孔及び虹彩で構成される目領域を直交座標系の座標に対応付けて検出する目領域検出手段と、
前記目領域であって、他の領域との境界に位置する第1の境界座標及び第2の境界座標を検出し、当該第1の境界座標よりも右上に位置する第3の境界座標を更に検出すると共に、当該第2の境界座標よりも左上に位置する第4の境界座標を更に検出する境界検出手段と、
前記第1の境界座標乃至前記第4の境界座標を用いて前記目領域の中心座標を算出する中心算出手段と、
を有することを特徴とする目中心測定装置。
Video storage means for storing at least the video of which the eye was shot;
Eye region detection means for reading out the image from the image storage unit and detecting an eye region composed of a pupil and an iris in association with coordinates of an orthogonal coordinate system;
A first boundary coordinate and a second boundary coordinate, which are the eye region and located at a boundary with another region, are detected, and a third boundary coordinate positioned at the upper right of the first boundary coordinate is further detected. Boundary detecting means for detecting, and further detecting a fourth boundary coordinate located at the upper left of the second boundary coordinate;
Center calculating means for calculating center coordinates of the eye region using the first boundary coordinates to the fourth boundary coordinates;
An eye center measuring apparatus characterized by comprising:
前記第1の境界座標は、前記目領域の内側に位置する内座標よりも右側に位置する境界座標であり、前記第2の境界座標は、当該内座標よりも左側に位置する境界座標であることを特徴とする請求項1に記載の目中心測定装置。   The first boundary coordinate is a boundary coordinate located on the right side of the internal coordinate located inside the eye area, and the second boundary coordinate is a boundary coordinate located on the left side of the internal coordinate. The eye center measuring apparatus according to claim 1. 前記内座標は、前記目領域検出手段により検出された前記目領域に基づいて推定された推定中心座標であることを特徴とする請求項2に記載の目中心測定装置。   3. The eye center measuring device according to claim 2, wherein the inner coordinates are estimated center coordinates estimated based on the eye area detected by the eye area detecting means. 前記内座標は、前記目領域検出手段により検出された前記目領域に基づいて推定された推定中心座標よりも下に位置する内座標であることを特徴とする請求項2に記載の目中心測定装置。   3. The eye center measurement according to claim 2, wherein the inner coordinates are inner coordinates located below estimated central coordinates estimated based on the eye area detected by the eye area detecting means. apparatus. 前記内座標は、前記目領域検出手段により検出された前記目領域に基づいて推定された推定中心座標よりも下に位置する境界座標であることを特徴とする請求項2に記載の目中心測定装置。   3. The eye center measurement according to claim 2, wherein the inner coordinates are boundary coordinates located below estimated center coordinates estimated based on the eye area detected by the eye area detecting means. apparatus. 前記映像は輝度値を有する複数のピクセルで構成されるものであって、
前記目領域検出手段は、
所定の閾値よりも低い輝度値が連続する複数の領域を抽出し、当該領域に含まれるピクセル数を最大とする領域と2番目に大きい領域のうちいずれかを上下の位置関係に基づいて前記目領域として検出することを特徴とする請求項1乃至5のいずれか1項に記載の目中心測定装置。
The image is composed of a plurality of pixels having luminance values,
The eye area detecting means includes
A plurality of regions having continuous luminance values lower than a predetermined threshold are extracted, and either the region maximizing the number of pixels included in the region or the second largest region is determined based on the vertical positional relationship. The eye center measuring device according to claim 1, wherein the eye center measuring device is detected as a region.
前記中心算出手段は、
大きさの異なる複数の円を前記第1の境界座標乃至前記第4の境界座標にそれぞれフィッティングし、最も適合する円を用いて前記中心座標を算出することを特徴とする請求項1乃至6のいずれか1項に記載の目中心測定装置。
The center calculating means includes
7. A plurality of circles having different sizes are fitted to the first boundary coordinate to the fourth boundary coordinate, respectively, and the center coordinate is calculated using the most suitable circle. The eye center measuring apparatus according to any one of the preceding claims.
前記最も適合する円とは、求める円の円周上の円周座標から前記第1の境界座標乃至前記第4の境界座標それぞれへの距離の二乗の総和を表す目的関数を最小とする円であることを特徴とする請求項7に記載の目中心測定装置。   The most suitable circle is a circle that minimizes an objective function that represents the sum of squares of the distances from the circumferential coordinates on the circumference of the circle to be obtained to each of the first boundary coordinates to the fourth boundary coordinates. The eye center measuring apparatus according to claim 7, wherein the eye center measuring apparatus is provided. 請求項1乃至8にいずれか1項に記載の各手段としてコンピュータを機能させることを特徴とする目中心測定プログラム。   9. An eye center measurement program that causes a computer to function as each means according to claim 1. 少なくとも目が撮影された映像を映像蓄積手段に蓄積するステップと、
前記映像を前記映像蓄積手段から読み出して、瞳孔及び虹彩で構成される目領域を直交座標系の座標に対応付けて検出するステップと、
前記目領域であって、他の領域との境界に位置する第1の境界座標及び第2の境界座標を検出し、当該第1の境界座標よりも右上に位置する第3の境界座標を更に検出すると共に、当該第2の境界座標よりも左上に位置する第4の境界座標を更に検出するステップと、
前記第1の境界座標乃至前記第4の境界座標を用いて前記目領域の中心座標を算出するステップと、
を有することを特徴とする目中心測定方法。
Storing at least an image of which the eye is photographed in an image storage means;
Reading the video from the video storage means and detecting an eye region composed of a pupil and an iris in association with coordinates of an orthogonal coordinate system;
A first boundary coordinate and a second boundary coordinate, which are the eye region and located at a boundary with another region, are detected, and a third boundary coordinate positioned at the upper right of the first boundary coordinate is further detected. Detecting and further detecting a fourth boundary coordinate located at the upper left of the second boundary coordinate;
Calculating center coordinates of the eye region using the first boundary coordinates to the fourth boundary coordinates;
A method for measuring an eye center, comprising:
JP2008014014A 2008-01-24 2008-01-24 Center-of-eye measuring instrument, center-of-eye measuring program, and center-of-eye measuring method Pending JP2009176047A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008014014A JP2009176047A (en) 2008-01-24 2008-01-24 Center-of-eye measuring instrument, center-of-eye measuring program, and center-of-eye measuring method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008014014A JP2009176047A (en) 2008-01-24 2008-01-24 Center-of-eye measuring instrument, center-of-eye measuring program, and center-of-eye measuring method

Publications (1)

Publication Number Publication Date
JP2009176047A true JP2009176047A (en) 2009-08-06

Family

ID=41031065

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008014014A Pending JP2009176047A (en) 2008-01-24 2008-01-24 Center-of-eye measuring instrument, center-of-eye measuring program, and center-of-eye measuring method

Country Status (1)

Country Link
JP (1) JP2009176047A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016184305A (en) * 2015-03-26 2016-10-20 オムロン株式会社 Image processing apparatus and image processing method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016184305A (en) * 2015-03-26 2016-10-20 オムロン株式会社 Image processing apparatus and image processing method

Similar Documents

Publication Publication Date Title
JP4307496B2 (en) Facial part detection device and program
US9251589B2 (en) Depth measurement apparatus, image pickup apparatus, and depth measurement program
US8879847B2 (en) Image processing device, method of controlling image processing device, and program for enabling computer to execute same method
US10216979B2 (en) Image processing apparatus, image processing method, and storage medium to detect parts of an object
CN104463159B (en) A kind of image processing method and device for positioning iris
JP6494253B2 (en) Object detection apparatus, object detection method, image recognition apparatus, and computer program
KR101899866B1 (en) Apparatus and method for detecting error of lesion contour, apparatus and method for correcting error of lesion contour and, apparatus for insecting error of lesion contour
US10140726B2 (en) Apparatus and method for estimating gazed position of person
CN108985210A (en) A kind of Eye-controlling focus method and system based on human eye geometrical characteristic
JP2017016192A (en) Three-dimensional object detection apparatus and three-dimensional object authentication apparatus
US20140286546A1 (en) Apparatus and method for processing fingerprint image
EP4310800A3 (en) Detection of pathologies in ocular images
JP2015156937A (en) Image processing device, image processing method, and program
JP5995217B2 (en) A method to detect an ellipse that approximates the pupil
WO2019123554A1 (en) Image processing device, image processing method, and recording medium
JP4821355B2 (en) Person tracking device, person tracking method, and person tracking program
JP2007011490A (en) Device and method for detecting road parameter
JP6754717B2 (en) Object candidate area estimation device, object candidate area estimation method, and object candidate area estimation program
JP5111321B2 (en) 瞼 Likelihood calculation device and program
JP2009181307A (en) Congestion/retention detection system
CN111738241A (en) Pupil detection method and device based on double cameras
JP6977667B2 (en) Object-likeness estimation device, method, and program
JP2009176047A (en) Center-of-eye measuring instrument, center-of-eye measuring program, and center-of-eye measuring method
JP2020201823A (en) Image processing device, image processing method, and program
US8824734B2 (en) Device, method and recording to determine depressed portions of image regions using shortcut line analysis