JP2009176047A - Center-of-eye measuring instrument, center-of-eye measuring program, and center-of-eye measuring method - Google Patents
Center-of-eye measuring instrument, center-of-eye measuring program, and center-of-eye measuring method Download PDFInfo
- Publication number
- JP2009176047A JP2009176047A JP2008014014A JP2008014014A JP2009176047A JP 2009176047 A JP2009176047 A JP 2009176047A JP 2008014014 A JP2008014014 A JP 2008014014A JP 2008014014 A JP2008014014 A JP 2008014014A JP 2009176047 A JP2009176047 A JP 2009176047A
- Authority
- JP
- Japan
- Prior art keywords
- eye
- boundary
- coordinates
- center
- coordinate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、瞳孔及び虹彩で構成される目領域の中心を測定する技術に関する。 The present invention relates to a technique for measuring the center of an eye region composed of a pupil and an iris.
従来、人の視線を測定する場合、人からある程度(50[cm]〜100[cm])離れた位置に、近赤外線光あるいは可視光線の点光源を設置すると共に、眼球表面における反射光を撮影するためのカメラを設置し、このカメラで角膜表面における点光源の反射像および瞳孔を撮影して、その方向から人の視線方法を算出していた。 Conventionally, when measuring the line of sight of a person, a point light source of near-infrared light or visible light is installed at a certain distance (50 [cm] to 100 [cm]) from the person, and reflected light on the eyeball surface is photographed. A camera for this purpose was installed, and a reflected image and pupil of a point light source on the surface of the cornea were photographed with this camera, and a human gaze method was calculated from the direction.
例えば、特許文献1では、撮影された瞳孔像の中心を算出する際に、はじめに周辺よりも暗い領域を連結してセグメント化した後に、各領域の形状を調べ、瞳孔に類似した形状の領域を候補として列挙する。次に、列挙された候補領域から、瞳孔の形状に最も近い領域を瞳孔領域とし、得られた瞳孔領域に対してエッジ検出を行って、瞳孔の輪郭座標を求める。最後に、求まった瞳孔の輪郭座標を角膜表面反射を考慮して補正し、楕円近似によって瞳孔の中心を求める技術が開示されている。
しかしながら、特許文献1で開示された手法は計算負荷が高く、例えばDSP(Digital Signal Processorの略)のような比較的計算速度の遅いプロセッサでは実時間処理ができないため、DSPが搭載されたカメラに上記手法の技術を適用できないという問題があった。 However, the method disclosed in Patent Document 1 has a high calculation load. For example, a processor with a relatively low calculation speed such as a DSP (abbreviation of Digital Signal Processor) cannot perform real-time processing. There was a problem that the technique of the above method could not be applied.
本発明は、上記に鑑みてなされたものであり、低速なプロセッサでも高速に目の中心を測定可能な目中心測定装置、目中心測定プログラム、及び目中心測定方法を提供することを課題とする。 The present invention has been made in view of the above, and it is an object of the present invention to provide an eye center measuring device, an eye center measuring program, and an eye center measuring method capable of measuring the eye center at high speed even with a low-speed processor. .
請求項1に記載の本発明は、少なくとも目が撮影された映像を蓄積する映像蓄積手段と、前記映像を前記映像蓄積手段から読み出して、瞳孔及び虹彩で構成される目領域を直交座標系の座標に対応付けて検出する目領域検出手段と、前記目領域であって、他の領域との境界に位置する第1の境界座標及び第2の境界座標を検出し、当該第1の境界座標よりも右上に位置する第3の境界座標を更に検出すると共に、当該第2の境界座標よりも左上に位置する第4の境界座標を更に検出する境界検出手段と、前記第1の境界座標乃至前記第4の境界座標を用いて前記目領域の中心座標を算出する中心算出手段と、を有することを要旨とする。 According to the first aspect of the present invention, there is provided a video storage unit that stores at least a video of which an eye has been photographed, and the video region is read out from the video storage unit, and an eye region composed of a pupil and an iris is defined in an orthogonal coordinate system. Eye area detecting means for detecting the corresponding to the coordinates, and the first boundary coordinates and the second boundary coordinates which are the eye area and located at the boundary with the other area, and the first boundary coordinates Boundary detection means for further detecting a third boundary coordinate located on the upper right side and further detecting a fourth boundary coordinate located on the upper left side with respect to the second boundary coordinate; and And a center calculating means for calculating center coordinates of the eye area using the fourth boundary coordinates.
本発明にあっては、瞳孔及び虹彩で構成される目領域を直交座標系の座標に対応付けて検出した後、他の領域との境界に位置する第1の境界座標及び第2の境界座標を検出し、第1の境界座標よりも右上に位置する第3の境界座標を更に検出すると共に、第2の境界座標よりも左上に位置する第4の境界座標を更に検出し、第1の境界座標乃至第4の境界座標を用いて目領域の中心座標を算出するため、低速なプロセッサでも高速に目の中心を測定可能な目中心測定装置を提供することができる。 In the present invention, after detecting the eye area composed of the pupil and the iris in association with the coordinates of the orthogonal coordinate system, the first boundary coordinates and the second boundary coordinates located at the boundary with the other area , And further detecting a third boundary coordinate located on the upper right side of the first boundary coordinate, and further detecting a fourth boundary coordinate located on the upper left side of the second boundary coordinate, Since the center coordinates of the eye region are calculated using the boundary coordinates to the fourth boundary coordinates, it is possible to provide an eye center measuring device capable of measuring the center of the eye at high speed even with a low speed processor.
請求項2に記載の本発明は、前記第1の境界座標が、前記目領域の内側に位置する内座標よりも右側に位置する境界座標であり、前記第2の境界座標は、当該内座標よりも左側に位置する境界座標であることを要旨とする。 According to the second aspect of the present invention, the first boundary coordinate is a boundary coordinate located on the right side of the inner coordinate located inside the eye region, and the second boundary coordinate is the inner coordinate. The gist is that the boundary coordinates are located on the left side of the line.
請求項3に記載の本発明は、前記内座標が、前記目領域検出手段により検出された前記目領域に基づいて推定された推定中心座標であることを要旨とする。 The gist of the present invention described in claim 3 is that the inner coordinates are estimated center coordinates estimated based on the eye area detected by the eye area detecting means.
請求項4に記載の本発明は、前記内座標が、前記目領域検出手段により検出された前記目領域に基づいて推定された推定中心座標よりも下に位置する内座標であることを要旨とする。 The gist of the present invention described in claim 4 is that the inner coordinates are inner coordinates located below the estimated central coordinates estimated based on the eye area detected by the eye area detecting means. To do.
請求項5に記載の本発明は、前記内座標が、前記目領域検出手段により検出された前記目領域に基づいて推定された推定中心座標よりも下に位置する境界座標であることを要旨とする。 The gist of the present invention described in claim 5 is that the inner coordinates are boundary coordinates positioned below estimated central coordinates estimated based on the eye area detected by the eye area detecting means. To do.
請求項6に記載の本発明は、前記映像は輝度値を有する複数のピクセルで構成されるものであって、前記目領域検出手段は、所定の閾値よりも低い輝度値が連続する複数の領域を抽出し、当該領域に含まれるピクセル数を最大とする領域と2番目に大きい領域のうちいずれかを上下の位置関係に基づいて前記目領域として検出することを要旨とする。 According to a sixth aspect of the present invention, the video is composed of a plurality of pixels having luminance values, and the eye area detecting means includes a plurality of areas where luminance values lower than a predetermined threshold value are continuous. And extracting either the region having the maximum number of pixels included in the region or the second largest region as the eye region based on the vertical positional relationship.
請求項7に記載の本発明は、前記中心算出手段が、大きさの異なる複数の円を前記第1の境界座標乃至前記第4の境界座標にそれぞれフィッティングし、最も適合する円を用いて前記中心座標を算出することを要旨とする。 According to the seventh aspect of the present invention, the center calculating unit fits a plurality of circles having different sizes to the first boundary coordinate to the fourth boundary coordinate, and uses the most suitable circle. The gist is to calculate the center coordinates.
請求項8に記載の本発明は、前記最も適合する円とは、求める円の円周上の円周座標から前記第1の境界座標乃至前記第4の境界座標それぞれへの距離の二乗の総和を表す目的関数を最小とする円であることを要旨とする。 The present invention according to claim 8, wherein the most suitable circle is a sum of squares of distances from a circumferential coordinate on a circumference of a desired circle to each of the first boundary coordinate to the fourth boundary coordinate. The gist is that it is a circle that minimizes the objective function representing.
請求項9に記載の本発明は、請求項1乃至8にいずれか1項に記載の各手段としてコンピュータを機能させることを要旨とする。 The gist of the present invention described in claim 9 is to cause a computer to function as each means described in any one of claims 1 to 8.
請求項10に記載の本発明は、少なくとも目が撮影された映像を映像蓄積手段に蓄積するステップと、前記映像を前記映像蓄積手段から読み出して、瞳孔及び虹彩で構成される目領域を直交座標系の座標に対応付けて検出するステップと、前記目領域であって、他の領域との境界に位置する第1の境界座標及び第2の境界座標を検出し、当該第1の境界座標よりも右上に位置する第3の境界座標を更に検出すると共に、当該第2の境界座標よりも左上に位置する第4の境界座標を更に検出するステップと、前記第1の境界座標乃至前記第4の境界座標を用いて前記目領域の中心座標を算出するステップと、を有することを要旨とする。 According to a tenth aspect of the present invention, there is provided a step of accumulating at least an image in which an eye is photographed in an image accumulating unit, an image obtained by reading the image from the image accumulating unit, and an eye region composed of a pupil and an iris being orthogonal Detecting in association with the coordinates of the system, and detecting the first boundary coordinates and the second boundary coordinates which are located in the boundary between the eye area and the other area, from the first boundary coordinates Further detecting a third boundary coordinate located at the upper right and further detecting a fourth boundary coordinate located at the upper left of the second boundary coordinate; and the first to fourth boundary coordinates. And a step of calculating center coordinates of the eye region using the boundary coordinates.
本発明によれば、低速なプロセッサでも高速に目の中心を測定可能な目中心測定装置、目中心測定プログラム、及び目中心測定方法を提供することができる。 According to the present invention, it is possible to provide an eye center measuring apparatus, an eye center measuring program, and an eye center measuring method capable of measuring the eye center at high speed even with a low-speed processor.
以下、本発明の実施の形態について図面を用いて説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
<目中心測定装置のブロック構成及び全体の処理について>
図1は、本実施の形態における目中心測定装置のブロック構成を示すブロック図である。この目中心測定装置は、映像入力部11と、フレーム抽出部12と、閾値算出部13と、目領域検出部14と、中心推定部15と、境界検出部16と、中心算出部17と、映像蓄積部21と、データ記憶部22とを備えた構成である。
<About the block configuration and overall processing of the eye center measuring device>
FIG. 1 is a block diagram showing a block configuration of the eye center measuring apparatus according to the present embodiment. This eye center measuring device includes a
この目中心測定装置は、専用のハードウェアとして構成してもよいし、汎用的なコンピュータを用いて構成してもよい。また、各部の処理をコンピュータプログラムによって実行させるようにしてもよい。更に、このコンピュータプログラムを読み取り可能な記録媒体に記録するようにしてもよい。なお、各部が処理した処理結果は、映像蓄積部21に蓄積され、若しくはデータ記憶部22に記憶される。
This eye center measuring apparatus may be configured as dedicated hardware, or may be configured using a general-purpose computer. Further, the processing of each unit may be executed by a computer program. Further, the computer program may be recorded on a readable recording medium. The processing results processed by each unit are accumulated in the
図2は、本実施の形態における目中心測定装置の全体処理を示すフローである。最初に、映像入力部11は、目や眉が撮影された映像(以降、「入力画像」と称する場合もある)の入力を受け付けて、映像蓄積部21に蓄積する(S101)。
FIG. 2 is a flowchart showing the overall processing of the eye center measuring apparatus in the present embodiment. First, the
なお、本実施の形態で取り扱う入力画像は、複数のフレームによって構成される動画であり、各フレームは複数のピクセルによって構成される静止画像である。ここで、入力画像の幅がwidthであり、高さがheightであるとすると、各フレームはwidth×height個のピクセルによって構成される。各ピクセルは、RGBカラーモデルにおいて色を表現するデータ(輝度値)であり、フレームにおけるx座標値とy座標値とR値とG値とB値によって構成され、x座標値は1以上width以下の整数値であり、y座標値は1以上height以下の整数値であり、R値とG値とB値とはそれぞれ0以上255以下の整数値である。また、各フレームにおいて最も左上のピクセルの座標値を(1,1)とし、x軸は右方向、y軸は下方向を向いているものとする。 Note that the input image handled in the present embodiment is a moving image composed of a plurality of frames, and each frame is a still image composed of a plurality of pixels. Here, assuming that the width of the input image is width and the height is height, each frame is composed of width × height pixels. Each pixel is data (luminance value) expressing a color in the RGB color model, and is composed of an x coordinate value, a y coordinate value, an R value, a G value, and a B value in the frame, and the x coordinate value is 1 or more and width or less. The y-coordinate value is an integer value between 1 and height, and the R value, G value, and B value are integer values between 0 and 255, respectively. Further, the coordinate value of the upper left pixel in each frame is (1, 1), the x axis is directed to the right, and the y axis is directed downward.
次に、フレーム抽出部12は、映像蓄積部21に蓄積された映像を読み出して、複数のフレームで構成された映像から1フレーム(以降、「静止画像」と称する場合もある)を抽出する(S102)。
Next, the
続いて、閾値算出部13は、抽出された静止画像から眉部及び目部を検出するための閾値を算出し、データ記憶部22に記憶する(S103)。
Subsequently, the threshold
ここで算出される閾値とは輝度値を表す0以上255以下の整数値であって、眉部及び目部に含まれるピクセルは算出された閾値以下の値となる。なお、閾値の算出には、非特許文献1に開示されたISODATA法を用いることも可能であるし、予め指定された値を用いてもよい。なお、閾値の値を適宜変更することにより、黒色や青色など様々な目の色について目の中心を測定することが可能となる。 The threshold value calculated here is an integer value of 0 or more and 255 or less representing the luminance value, and the pixels included in the eyebrow part and the eye part are values less than the calculated threshold value. For the calculation of the threshold value, the ISODATA method disclosed in Non-Patent Document 1 can be used, or a value designated in advance may be used. Note that the center of the eye can be measured for various eye colors such as black and blue by appropriately changing the threshold value.
そして、目領域検出部14は、算出された閾値をデータ記憶部22から読み出して、フレーム抽出部12で抽出された静止画像から眉部及び目部を抽出し、上下の位置関係に基づいて目部を特定した後に、瞳孔及び虹彩で構成される目領域を直交座標系の座標に対応付けて検出し、データ記憶部22に記憶する(S104)。なお、目領域検出部14における処理の詳細については後述する。
Then, the eye region detection unit 14 reads the calculated threshold value from the
続いて、中心推定部15は、目領域を構成する座標をデータ記憶部22から読み出して、目領域の中心座標を推定(以降、「推定中心座標」と称する場合もある)し、データ記憶部22に記憶する(S105)。なお、中心推定部15における処理の詳細については後述する。
Subsequently, the
次に、境界検出部16は、目領域を構成する座標をデータ記憶部22から読み出すと共に推定中心座標を同データ記憶部22から読み出して、目領域を構成する座標であって、他の領域との境界に位置する右初期境界座標及び左初期境界座標を検出し、右初期境界座標よりも右上に位置する複数の境界座標(以降、「右上境界座標群」と称する場合もある)を更に検出すると共に、左初期境界座標よりも左上に位置する複数の境界座標(以降、「左上境界座標群」と称する場合もある)を更に検出し、データ記憶部22に記憶する(S106)。なお、境界検出部16における処理の詳細については後述する。
Next, the
最後に、中心算出部17は、検出された右初期境界座標及び左初期境界座標と複数の境界座標とをデータ記憶部22から読み出して、目領域の中心座標を算出する(S107)。なお、中心算出部17における処理の詳細については後述する。
Finally, the
<目領域検出部の処理について>
図3は、目領域検出部の処理を説明するための説明図である。最初に、目領域検出部14は、閾値算出部13で算出された閾値を用いて、フレーム抽出部12で抽出された静止画像から眉部及び目部を抽出する(S201)。次に、目領域検出部14は、抽出された眉部及び目部のうち、目部に対応する部分を特定し(S202)、目領域を検出する(S203)。
<About the processing of the eye area detection unit>
FIG. 3 is an explanatory diagram for explaining processing of the eye region detection unit. First, the eye region detection unit 14 extracts the eyebrows and the eyes from the still image extracted by the
具体的には、まず、静止画像の全てのピクセルに対して、輝度値が閾値よりも高いピクセルと閾値以下のピクセルとに分類する。更に、閾値以下のピクセルのうち、上下方向或いは左右方向に隣り合うピクセル同士は同一のセグメントであるとし、1個以上のセグメントを抽出する。 Specifically, first, all the pixels of the still image are classified into pixels having a luminance value higher than the threshold and pixels lower than the threshold. Furthermore, among pixels below the threshold, pixels adjacent in the vertical direction or the horizontal direction are assumed to be the same segment, and one or more segments are extracted.
次に、例えば目の付近を撮影した静止画像を用いたとき、大きなセグメントは眉毛と目であると推測できるため、上方に位置するセグメントを眉部とし、下方に位置するセグメントを目部とする。より具体的には、抽出されたセグメントのうち、含まれるピクセル数が最大となるセグメントと、2番目に大きいセグメントを目領域の候補とする。候補となった2つのセグメントについてそれぞれ含まれる全てのピクセルのy座標値の平均を算出して重心y座標値を算出し、重心y座標値の大きいセグメント、すなわち下方に位置するセグメントを目領域のセグメントとする。そして、ここで検出した目領域のセグメントに含まれるピクセルの集合を目領域情報として出力する。 Next, for example, when a still image obtained by photographing the vicinity of the eyes is used, it can be assumed that the large segments are the eyebrows and the eyes, so the upper segment is the eyebrow and the lower segment is the eye . More specifically, among the extracted segments, the segment having the maximum number of pixels included and the second largest segment are set as candidates for the eye region. The average of the y-coordinate values of all the pixels included in each of the two candidate segments is calculated to calculate the centroid y-coordinate value, and the segment with the large centroid-y coordinate value, that is, the segment located below is selected as the eye region A segment. Then, a set of pixels included in the detected eye area segment is output as eye area information.
<中心推定部の処理について>
中心推定部15は、目領域検出部14で検出された目領域の中心座標を推定する。具体的には、前述の目領域情報の重心を推定中心座標とする。即ち、ピクセルの集合の重心を求める関数center(S)を式(1)に示すように定義し、目領域情報を表すピクセルの集合をSeyeとする。このとき、center(Seye)によって求められる座標値を推定中心座標として出力する。
The
但し、Sはピクセルの集合であり、xS,ySはそれぞれSのx座標,y座標である。 Here, S is a set of pixels, and x S and y S are the x coordinate and y coordinate of S, respectively.
なお、これ以降、目領域検出部14により検出された目領域に基づいて推定された推定中心座標を用いて後段の処理を説明するが、これは目領域の内側に位置する内座標の一例であって、目領域の内側の任意の場所の内座標を用いた場合であっても得られる効果は同様である。例えば、推定中心座標よりも下に位置する内座標や、推定中心座標よりも下に位置する境界座標(後述する中心下境界座標に相当)であっても良い。 In the following, the subsequent processing will be described using the estimated central coordinates estimated based on the eye area detected by the eye area detection unit 14, but this is an example of the inner coordinates located inside the eye area. Thus, the same effect can be obtained even when the internal coordinates of an arbitrary place inside the eye area are used. For example, internal coordinates positioned below the estimated center coordinates, or boundary coordinates positioned below the estimated center coordinates (corresponding to center-lower boundary coordinates described later) may be used.
<境界検出部の処理について>
境界検出部16は、3つのステップを介して複数の境界座標を検出する。第1のステップでは推定中心座標の下に位置する中心下境界座標を求め、第2のステップでは中心下境界座標よりも右側に位置する右初期境界座標と、中心下境界座標よりも左側に位置する左初期境界座標とを求め、第3のステップでは右初期境界座標よりも右上に位置する複数の境界座標(右上境界座標群)と、左初期境界座標よりも左上に位置する複数の境界座標(左上境界座標群)とを検出する。
<About the processing of the boundary detection unit>
The
図4は、第1のステップの処理を説明するための説明図である。境界検出部16は、中心推定部15によって推定された推定中心座標(x,y)に対して、xを固定し、目領域内でyが最大となる点を中心下境界座標とする(S301)。
FIG. 4 is an explanatory diagram for explaining the processing of the first step. The
若しくは、推定中心座標(x,y)に対して、xを固定し、yを1ずつ増加させて中心下境界座標を検索し、(x,y)が目領域内であり、(x,y+1)が目領域外であるyが見つかれば、その(x,y)を中心下境界座標としてもよい。 Alternatively, with respect to the estimated center coordinates (x, y), x is fixed and y is incremented by 1 to search the lower center boundary coordinates, and (x, y) is within the eye area, and (x, y + 1) ) Is outside the eye area, the (x, y) may be used as the lower center boundary coordinate.
図5は、第2のステップの処理を説明するための説明図である。境界検出部16は、中心下境界座標(x,y)に対して、yを固定し、xを1ずつ増加させて、右初期境界座標を探索すると共に、中心下境界座標(x,y)に対して、yを固定し、xを1ずつ減少させて、左初期境界座標を探索する(S401)。
FIG. 5 is an explanatory diagram for explaining the processing of the second step. The
具体的には、(x,y)が目領域内であり(x+1,y)が目領域外であるxが見つかれば、その(x,y)を右初期境界座標とする。同様に、(x,y)が目領域内であり(x−1,y)が目領域外であるxが見つかれば、その(x,y)左初期境界座標とする。 Specifically, if x is found where (x, y) is in the eye area and (x + 1, y) is outside the eye area, that (x, y) is set as the right initial boundary coordinate. Similarly, if x is found where (x, y) is within the eye region and (x-1, y) is outside the eye region, the (x, y) left initial boundary coordinate is set.
図6は、第3のステップの処理を説明するための説明図である。境界検出部16は、右初期境界座標のyを増加させた後、xを増加させて境界座標を検出すると共に、左初期境界座標のyを増加させた後、xを減少させて境界座標を検出する(S501)。そして、S501の処理を繰り返し、複数の境界座標を検出する(S502)。以下、より具体的に説明する。
FIG. 6 is an explanatory diagram for explaining the processing of the third step. The
最初に、右上境界座標群の算出方法について説明する。境界検出部16は、右初期境界座標(x,y)に対して、xを固定し、yを増加させて最初に見つかる目領域の座標を右初期境界座標の上部内座標とする。即ち、座標(x,y)の右初期境界座標の上部内座標を算出する関数は、式(2)に示す関数となる。
次に、上記手順で求めた上部内座標(x,y)の右側の境界座標を探索する。具体的には、上部内座標(x,y)に対して、yを固定し、xを1ずつ増加させて境界座標を探索し、(x,y)の右隣の座標が目領域外であるxが見つかれば、その(x,y)を境界座標とする。即ち、右上境界座標群としての境界座標を算出する関数は、式(3)に示す関数となる。
そして、境界検出部16は、検出された境界座標の上部内座標を探索し、同様の手順で右上方向の境界座標を繰り返し検出することで、右上境界座標群を得ることができる。即ち、右上境界座標群{rk}は、右初期境界座標をRとすると、式(2)及び式(3)を用いて、式(4)で表現することが可能となる。但し、upper(rk)が存在しなくなった時点で境界座標の算出を終了する。
左上境界座標群の算出についても同様に行う。まず、式(5)に示すように、左上境界座標群としての境界座標を算出する関数を定義する。
式(5)は、座標(x,y)に対して、yを固定し、xを1ずつ減少させて境界座標を探索し、(x,y)の左隣の座標が目領域外であるxが見つかれば、その(x,y)を境界座標とする。即ち、左上境界座標群{lk}は、左初期境界座標をLとすると、式(2)及び式(5)を用いて、式(6)で表現することが可能となる。但し、upper(lk)が存在しなくなった時点で境界座標の算出を終了する。
最後に、境界検出部16は、上記手順によって算出された{rk}及び{lk}を合わせて複数の境界座標として出力する。
Finally, the
<中心算出部の処理について>
図7は、中心算出部の処理を説明するための説明図である。中心算出部17は、大きさの異なる複数の円を境界検出部16により検出された複数の境界座標にそれぞれフィッティングし、フィッティングによって得られた最も適合する円の中心座標を目領域の中心座標として算出する(S601)。
<About the processing of the center calculation unit>
FIG. 7 is an explanatory diagram for explaining the processing of the center calculation unit. The
複数の境界座標への円のフィッティングには、非特許文献2に記載されたLeast Squares Fittingアルゴリズムを用いることが可能である。具体的には、目的関数Fの最小化によって円のフィッティングを行う。複数の境界座標をB={(xi,yi)}i=1,2,…,Nとし、フィッティングによって得られる円の中心座標を(a,b),半径をRとすると、求める円の円周上の座標(xi,yi)から各境界座標への距離の二乗の総和を表す目的関数F(a,b,R)は、式(7)に示す関数となる。
但し、本実施の形態では、目的関数F(a,b,R)を式(8)及び式(9)とする。
そして、この目的関数F(a,b,R)を最小化するa,b,Rを求める。F(a,b,R)をB,C,Dについてぞれぞれ偏微分を行うと、式(10)となる。
式(10)で示す連立方程式をCholesky分解により解き、B,C,Dを得て、式(11)によりa,b,Rを得ることができる。中心算出部17は、ここで求めた(a,b)を目領域の中心座標として出力する。
The simultaneous equations shown in equation (10) can be solved by Cholesky decomposition to obtain B, C, and D, and a, b, and R can be obtained from equation (11). The
本実施の形態によれば、瞳孔及び虹彩で構成される目領域を直交座標系の座標に対応付けて検出した後、他の領域との境界に位置する右境界座標及び左境界座標を検出し、右境界座標よりも右上に位置する複数の境界座標を更に検出すると共に、左境界座標よりも左上に位置する複数の境界座標を更に検出し、検出された複数の境界座標を用いて目領域の中心座標を算出するので、低速なプロセッサでも高速に目の中心を測定可能な目中心測定装置を提供することができる。 According to the present embodiment, after detecting the eye region composed of the pupil and the iris in association with the coordinates of the orthogonal coordinate system, the right boundary coordinate and the left boundary coordinate located at the boundary with the other region are detected. , Further detecting a plurality of boundary coordinates located at the upper right than the right boundary coordinates, further detecting a plurality of boundary coordinates located at the upper left than the left boundary coordinates, and using the detected plurality of boundary coordinates, the eye region Therefore, it is possible to provide an eye center measuring apparatus capable of measuring the eye center at high speed even with a low speed processor.
11…映像入力部
12…フレーム抽出部
13…閾値算出部
14…目領域検出部
15…中心推定部
16…境界検出部
17…中心算出部
21…映像蓄積部
22…データ記憶部
DESCRIPTION OF
Claims (10)
前記映像を前記映像蓄積手段から読み出して、瞳孔及び虹彩で構成される目領域を直交座標系の座標に対応付けて検出する目領域検出手段と、
前記目領域であって、他の領域との境界に位置する第1の境界座標及び第2の境界座標を検出し、当該第1の境界座標よりも右上に位置する第3の境界座標を更に検出すると共に、当該第2の境界座標よりも左上に位置する第4の境界座標を更に検出する境界検出手段と、
前記第1の境界座標乃至前記第4の境界座標を用いて前記目領域の中心座標を算出する中心算出手段と、
を有することを特徴とする目中心測定装置。 Video storage means for storing at least the video of which the eye was shot;
Eye region detection means for reading out the image from the image storage unit and detecting an eye region composed of a pupil and an iris in association with coordinates of an orthogonal coordinate system;
A first boundary coordinate and a second boundary coordinate, which are the eye region and located at a boundary with another region, are detected, and a third boundary coordinate positioned at the upper right of the first boundary coordinate is further detected. Boundary detecting means for detecting, and further detecting a fourth boundary coordinate located at the upper left of the second boundary coordinate;
Center calculating means for calculating center coordinates of the eye region using the first boundary coordinates to the fourth boundary coordinates;
An eye center measuring apparatus characterized by comprising:
前記目領域検出手段は、
所定の閾値よりも低い輝度値が連続する複数の領域を抽出し、当該領域に含まれるピクセル数を最大とする領域と2番目に大きい領域のうちいずれかを上下の位置関係に基づいて前記目領域として検出することを特徴とする請求項1乃至5のいずれか1項に記載の目中心測定装置。 The image is composed of a plurality of pixels having luminance values,
The eye area detecting means includes
A plurality of regions having continuous luminance values lower than a predetermined threshold are extracted, and either the region maximizing the number of pixels included in the region or the second largest region is determined based on the vertical positional relationship. The eye center measuring device according to claim 1, wherein the eye center measuring device is detected as a region.
大きさの異なる複数の円を前記第1の境界座標乃至前記第4の境界座標にそれぞれフィッティングし、最も適合する円を用いて前記中心座標を算出することを特徴とする請求項1乃至6のいずれか1項に記載の目中心測定装置。 The center calculating means includes
7. A plurality of circles having different sizes are fitted to the first boundary coordinate to the fourth boundary coordinate, respectively, and the center coordinate is calculated using the most suitable circle. The eye center measuring apparatus according to any one of the preceding claims.
前記映像を前記映像蓄積手段から読み出して、瞳孔及び虹彩で構成される目領域を直交座標系の座標に対応付けて検出するステップと、
前記目領域であって、他の領域との境界に位置する第1の境界座標及び第2の境界座標を検出し、当該第1の境界座標よりも右上に位置する第3の境界座標を更に検出すると共に、当該第2の境界座標よりも左上に位置する第4の境界座標を更に検出するステップと、
前記第1の境界座標乃至前記第4の境界座標を用いて前記目領域の中心座標を算出するステップと、
を有することを特徴とする目中心測定方法。 Storing at least an image of which the eye is photographed in an image storage means;
Reading the video from the video storage means and detecting an eye region composed of a pupil and an iris in association with coordinates of an orthogonal coordinate system;
A first boundary coordinate and a second boundary coordinate, which are the eye region and located at a boundary with another region, are detected, and a third boundary coordinate positioned at the upper right of the first boundary coordinate is further detected. Detecting and further detecting a fourth boundary coordinate located at the upper left of the second boundary coordinate;
Calculating center coordinates of the eye region using the first boundary coordinates to the fourth boundary coordinates;
A method for measuring an eye center, comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008014014A JP2009176047A (en) | 2008-01-24 | 2008-01-24 | Center-of-eye measuring instrument, center-of-eye measuring program, and center-of-eye measuring method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008014014A JP2009176047A (en) | 2008-01-24 | 2008-01-24 | Center-of-eye measuring instrument, center-of-eye measuring program, and center-of-eye measuring method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009176047A true JP2009176047A (en) | 2009-08-06 |
Family
ID=41031065
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008014014A Pending JP2009176047A (en) | 2008-01-24 | 2008-01-24 | Center-of-eye measuring instrument, center-of-eye measuring program, and center-of-eye measuring method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2009176047A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016184305A (en) * | 2015-03-26 | 2016-10-20 | オムロン株式会社 | Image processing apparatus and image processing method |
-
2008
- 2008-01-24 JP JP2008014014A patent/JP2009176047A/en active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016184305A (en) * | 2015-03-26 | 2016-10-20 | オムロン株式会社 | Image processing apparatus and image processing method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4307496B2 (en) | Facial part detection device and program | |
US9251589B2 (en) | Depth measurement apparatus, image pickup apparatus, and depth measurement program | |
US8879847B2 (en) | Image processing device, method of controlling image processing device, and program for enabling computer to execute same method | |
US10216979B2 (en) | Image processing apparatus, image processing method, and storage medium to detect parts of an object | |
CN104463159B (en) | A kind of image processing method and device for positioning iris | |
JP6494253B2 (en) | Object detection apparatus, object detection method, image recognition apparatus, and computer program | |
KR101899866B1 (en) | Apparatus and method for detecting error of lesion contour, apparatus and method for correcting error of lesion contour and, apparatus for insecting error of lesion contour | |
US10140726B2 (en) | Apparatus and method for estimating gazed position of person | |
CN108985210A (en) | A kind of Eye-controlling focus method and system based on human eye geometrical characteristic | |
JP2017016192A (en) | Three-dimensional object detection apparatus and three-dimensional object authentication apparatus | |
US20140286546A1 (en) | Apparatus and method for processing fingerprint image | |
EP4310800A3 (en) | Detection of pathologies in ocular images | |
JP2015156937A (en) | Image processing device, image processing method, and program | |
JP5995217B2 (en) | A method to detect an ellipse that approximates the pupil | |
WO2019123554A1 (en) | Image processing device, image processing method, and recording medium | |
JP4821355B2 (en) | Person tracking device, person tracking method, and person tracking program | |
JP2007011490A (en) | Device and method for detecting road parameter | |
JP6754717B2 (en) | Object candidate area estimation device, object candidate area estimation method, and object candidate area estimation program | |
JP5111321B2 (en) | 瞼 Likelihood calculation device and program | |
JP2009181307A (en) | Congestion/retention detection system | |
CN111738241A (en) | Pupil detection method and device based on double cameras | |
JP6977667B2 (en) | Object-likeness estimation device, method, and program | |
JP2009176047A (en) | Center-of-eye measuring instrument, center-of-eye measuring program, and center-of-eye measuring method | |
JP2020201823A (en) | Image processing device, image processing method, and program | |
US8824734B2 (en) | Device, method and recording to determine depressed portions of image regions using shortcut line analysis |