KR100686517B1 - Method For Modeling Pupil Shape - Google Patents

Method For Modeling Pupil Shape Download PDF

Info

Publication number
KR100686517B1
KR100686517B1 KR1020050017269A KR20050017269A KR100686517B1 KR 100686517 B1 KR100686517 B1 KR 100686517B1 KR 1020050017269 A KR1020050017269 A KR 1020050017269A KR 20050017269 A KR20050017269 A KR 20050017269A KR 100686517 B1 KR100686517 B1 KR 100686517B1
Authority
KR
South Korea
Prior art keywords
pupil
pixel
outline
shape
modeling
Prior art date
Application number
KR1020050017269A
Other languages
Korean (ko)
Other versions
KR20060096612A (en
Inventor
이인범
박광석
한주만
최병훈
Original Assignee
재단법인서울대학교산학협력재단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 재단법인서울대학교산학협력재단 filed Critical 재단법인서울대학교산학협력재단
Priority to KR1020050017269A priority Critical patent/KR100686517B1/en
Publication of KR20060096612A publication Critical patent/KR20060096612A/en
Application granted granted Critical
Publication of KR100686517B1 publication Critical patent/KR100686517B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/14Arrangements specially adapted for eye photography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/11Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for measuring interpupillary distance or diameter of pupils
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2576/00Medical imaging apparatus involving image processing or analysis

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Ophthalmology & Optometry (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

본 발명은 촬영된 안구 이미지에서 동공의 모양을 정확하게 산출하기 위한 동공 모양 산출 방법에 관한 것으로서, 보다 구체적으로 촬영 당시 동공이 눈까풀 등 피부에 일부 덮여 있는 경우 이를 감지하여 피부에 의해 가려지지 않은 부분만을 이용하여 동공 모양을 모델링함으로써 동공 모양을 정확하게 산출할 수 있는 동공 모양 산출 방법에 관한 것이다. The present invention relates to a pupil shape calculation method for accurately calculating a pupil shape in a photographed eyeball image. More specifically, when the pupil is partially covered with skin such as an eyelid at the time of photographing, only the part not detected by the skin is detected. The present invention relates to a pupil shape calculation method capable of accurately calculating the pupil shape by modeling the pupil shape.

본 발명에 따른 동공 모양 모델링 방법은 촬영된 안구 이미지의 각 픽셀에 대응하는 명도 정보를 이용하여 상기 안구 이미지 상에 노출된 동공의 외곽선에 포함되는 제1 픽셀을 감지하는 단계, 상기 안구 이미지로부터 엣지에 해당하는 제2 픽셀을 감지하는 단계, 상기 제1 픽셀과 상기 제2 픽셀이 일치하는 경우 해당 픽셀을, 상기 동공의 외곽선 중에서 상기 동공의 원외곽선 상의 픽셀로 결정하는 단계, 및 상기 원외곽선 상의 픽셀에 기초하여 동공의 모양을 모델링하는 단계를 포함하고, 상기 동공의 원외곽선은 상기 동공이 전부 노출되었을 때의 상기 동공의 외곽선인 것을 특징으로 한다.The pupil shape modeling method according to the present invention detects a first pixel included in an outline of a pupil exposed on the eyeball image using brightness information corresponding to each pixel of the photographed eyeball image, and an edge from the eyeball image. Detecting a second pixel corresponding to, determining that the pixel is a pixel on an outline of the pupil among the outline of the pupil, and when the first pixel and the second pixel coincide with each other, and on the outline And modeling the shape of the pupil based on the pixel, wherein the outer outline of the pupil is an outline of the pupil when the pupil is completely exposed.

동공, 모양, 모델링, 피부, 원외곽선. Pupil, shape, modeling, skin, outline.

Description

동공 모양 모델링 방법{Method For Modeling Pupil Shape}Method for Modeling Pupil Shape}

도 1 및 도 2는 종래기술에 따른 동공 모양 모델링 방법을 설명하기 위한 도면이다. 1 and 2 are views for explaining a pupil shape modeling method according to the prior art.

도 3은 본 발명에 따른 동공 모양 모델링 방법을 도시한 흐름도이다. 3 is a flowchart illustrating a pupil shape modeling method according to the present invention.

도 4 내지 도 7은 본 발명에 따른 동공 모양 모델링 방법을 설명하기 위한 도면이다. 4 to 7 are views for explaining a pupil shape modeling method according to the present invention.

도 8은 본 발명에 따른 동공 모양 모델링 방법을 수행하는 데 채용될 수 있는 측정 시스템의 내부 블록도이다.8 is an internal block diagram of a measurement system that may be employed to perform the pupil shape modeling method in accordance with the present invention.

본 발명은 촬영된 안구 이미지에서 동공의 모양을 정확하게 산출하기 위한 동공 모양 산출 방법에 관한 것으로서, 보다 구체적으로 촬영 당시 동공이 눈까풀 등 피부에 일부 덮여 있는 경우 이를 감지하여 피부에 의해 가려지지 않은 부분만을 이용하여 동공 모양을 모델링함으로써 동공 모양을 정확하게 산출할 수 있는 동공 모양 산출 방법에 관한 것이다. The present invention relates to a pupil shape calculation method for accurately calculating a pupil shape in a photographed eyeball image. More specifically, when the pupil is partially covered with skin such as an eyelid at the time of photographing, only the part not detected by the skin is detected. The present invention relates to a pupil shape calculation method capable of accurately calculating the pupil shape by modeling the pupil shape.

동공 중심을 판독하는 기술은, 안과에서의 저시력 검사 및 시야 검사를 위 해, 이비인후과에서의 전정 기관 검사를 위해, 또는 휴먼-컴퓨터 인터페이스(Human-Computer Interface) 분야에서는 사용자 명령을 인식하기 위해 이용될 수 있다. Pupil center reading techniques can be used for low vision and visual field examinations in ophthalmology, for vestibular examination in otolaryngology, or for recognizing user commands in the field of human-computer interfaces. Can be.

종래기술은 동공의 중심을 판독하기 위해 사용자의 안구를 촬영한 후, 촬영된 안구 이미지에서 동공 모양을 원이나 타원으로 모델링한 후 그 중점을 찾는 방법을 사용한다. 이하, 종래기술에 따라 동공의 모양을 모델링하고, 모델링한 동공의 중심을 찾는 과정을 구체적으로 설명한다. The prior art uses a method of finding the center of gravity after photographing the eyeball of the user to read the center of the pupil, modeling the pupil shape as a circle or an ellipse in the photographed eyeball image. Hereinafter, a process of modeling a pupil shape according to the related art and finding a center of the modeled pupil will be described in detail.

종래기술에 따른 동공 중심 산출 방법은, 도 1의 (a) 내지 (d)에 도시한 바와 같이 사람의 안구를 촬영하여 안구 이미지를 획득하고, 상기 안구 이미지에 오프닝(opening), 문턱치화(thresholding)와 같은 이미지 처리를 한 후, 원래의 안구 이미지(a)와 이미지 처리 후의 안구 이미지(c)를 이용하여 도 1의 도면부호(101)로 표시한 바와 같은 동공의 외곽선을 찾을 수 있다. In the pupil center calculation method according to the related art, as shown in (a) to (d) of FIG. 1, a human eye is photographed to obtain an eye image, and an opening and thresholding are performed on the eye image. After image processing such as), the outline of the pupil as indicated by the reference numeral 101 of FIG. 1 can be found using the original eye image a and the image of the eyeball after the image processing.

또한, 종래기술은 일단 동공의 외곽선이 결정된 경우에는 상기 외곽선을 타원으로 모델링한 후 원 또는 타원의 중점을 동공의 중심으로 결정함으로써, 동공의 중심 위치를 산출할 수 있다. In addition, in the related art, once the outline of the pupil is determined, the center position of the pupil may be calculated by modeling the outline as an ellipse and determining the center of the circle or the ellipse as the center of the pupil.

그러나, 종래기술에 따른 동공 중심 산출 방법은, 안구 이미지 상에 동공이 "모두 노출되도록 안구를 촬영해야 한다"는 것을 전제로 하기 때문에, 도 2에 도시한 바와 같이 동공이 눈까풀 등의 피부에 의해 일부 가려져 보이지 않는 경우에는 동공을 정확하게 모델링할 수 없게 되고, 따라서 동공의 중심 역시 부정확하게 산출되고 만다. However, since the pupil center calculation method according to the prior art presupposes that "eyes should be photographed so that all the pupils are exposed on the eyeball image", as shown in FIG. In some cases, the pupils cannot be accurately modeled, and thus the centers of the pupils are incorrectly calculated.

즉, 도 2의 (a)를 참조하면, 피촬영자가 시선을 우측으로 한 경우, 원래 동공의 모양에 근접하도록 빨간 점선으로 표시된 타원(201)처럼 모델링되는 것이 적합함에도, 동공 일부가 피부로 가려진 상태에서 촬영한 결과 파란 점선으로 표시된 타원(202)와 같이 모델링 되고 만다. 또한, 도 2의 (b)를 참조하면, 원래 동공의 모양에 근접하도록 빨간 점으로 표시된 타원(203)처럼 모델링되는 것이 적합함에도, 동공이 눈까풀에 의해 일부 가려진 상태에서 촬영한 결과 파란 점선으로 표시된 타원(204)와 같이 모델링 되고 만다. 따라서, 동공의 중심 역시 부정확하게 산출된다. That is, referring to FIG. 2 (a), when the subject looks to the right, even though the part of the pupil is covered by the skin, it is suitable to be modeled as an ellipse 201 indicated by the red dotted line so as to approximate the shape of the original pupil. The result of shooting in the state is modeled as an ellipse 202 indicated by a blue dotted line. In addition, referring to Figure 2 (b), even if it is suitable to be modeled as an ellipse 203 indicated by a red dot to approach the shape of the original pupil, the result shown in the blue dotted line as a result of the pupil is partially covered by the eyelid It is modeled like an ellipse 204. Therefore, the center of the pupil is also calculated incorrectly.

이와 같은 종래기술의 문제점 때문에, 안과, 이비인후과 등의 병원에서는 환자의 눈까풀을 손 등으로 고정시킨 상태에서 안구를 촬영하므로, 피촬영자인 환자가 불편한 상태에서 검사를 받아야 한다는 문제가 있었다. Because of the problems of the prior art, in the ophthalmology, otolaryngology, hospitals, etc. because the eye is taken with the eyelid fixed to the patient, there was a problem that the patient being a subject to be examined in an uncomfortable state.

또한, 시선의 움직임을 이용하여 사용자의 명령을 판독하는 휴먼-컴퓨터 인터페이스 분야에서는 사용자가 계속 눈을 부릅뜨거나 눈까풀을 들어올린 상태에서 시선을 이동시키지 않으면 원하는 명령을 정확하게 입력할 수 없다는 문제가 있었다. 더욱이 아무리 눈까풀을 올린다고 해도 도 2의 (a)에 도시한 바와 같이 사용자가 상하좌우를 쳐다보는 경우에는 동공이 모두 노출되도록 안구를 촬영하는 것이 용이하지 않다는 점에서 결국 사용자가 이동 가능한 시선 범위가 제한된다는 문제도 있었다. In addition, in the field of human-computer interface that reads a user's command by using eye movement, there is a problem that a user cannot input a desired command correctly unless the user moves the eye while keeping eye contact or lifting the eyelid. . In addition, even if the eyelids are raised, as shown in FIG. 2 (a), when the user looks up, down, left, or right, it is not easy to photograph the eyes so that all the pupils are exposed. There was also a problem.

본 발명은 상기와 같은 종래기술의 문제점을 해결하기 위해 안출된 것으로 서, 동공의 일부가 피부에 의해 가려진 상태에서 안구를 촬영한 경우에도, 피부에 의해 전혀 가려지지 않은 상태에서 동공을 모델링한 경우와 동일 또는 유사한 모델링 결과를 획득할 수 있는 동공 모양 모델링 방법을 제공하는 것을 목적으로 한다. The present invention has been made to solve the problems of the prior art as described above, even when the eye is photographed in a state where a part of the pupil is covered by the skin, when the pupil is modeled in a state that is not covered by the skin at all An object of the present invention is to provide a pupil shape modeling method capable of obtaining the same or similar modeling results.

또한, 본 발명은 피촬영자의 눈까풀을 고정시킬 필요 없이 편한 상태에서 안구를 촬영해도 동공 모양을 정확하게 모델일 할 수 있는 동공 모양 모델링 방법을 제공하는 것을 목적으로 한다. It is also an object of the present invention to provide a pupil shape modeling method that can accurately model the pupil shape even when eyeballs are taken in a comfortable state without the need to fix the eyelid of the subject.

상기의 목적을 달성하고, 상술한 종래 기술의 문제점을 해결하기 위하여, 본 발명에 따른 동공 모양 모델링 방법은 촬영된 안구 이미지의 각 픽셀에 대응하는 명도 정보를 이용하여 상기 안구 이미지 상에 노출된 동공의 외곽선에 포함되는 제1 픽셀을 감지하는 단계, 상기 안구 이미지로부터 엣지에 해당하는 제2 픽셀을 감지하는 단계, 상기 제1 픽셀과 상기 제2 픽셀이 일치하는 경우 해당 픽셀을, 상기 동공의 외곽선 중에서 상기 동공의 원외곽선 상의 픽셀로 결정하는 단계, 및 상기 원외곽선 상의 픽셀에 기초하여 동공의 모양을 모델링하는 단계를 포함하고, 상기 동공의 원외곽선은 상기 동공이 전부 노출되었을 때의 상기 동공의 외곽선인 것을 특징으로 한다. In order to achieve the above object and solve the above-mentioned problems of the prior art, the pupil shape modeling method according to the present invention is a pupil exposed on the eyeball image using brightness information corresponding to each pixel of the photographed eyeball image. Detecting a first pixel included in an outline of the second pixel; detecting a second pixel corresponding to an edge from the eyeball image; and when the first pixel and the second pixel coincide with the corresponding pixel, an outline of the pupil And determining the shape of the pupil based on the pixel on the outer outline of the pupil, wherein the outline of the pupil is defined by the pupil when the pupil is fully exposed. It is characterized in that the outline.

이하 첨부된 도면을 참조하여 본 발명을 상세히 설명하기로 한다.Hereinafter, the present invention will be described in detail with reference to the accompanying drawings.

도 3은 본 발명에 따른 동공 모양 모델링 방법을 도시한 흐름도이며, 본 발명에 따른 동공 모양 모델링 방법은 소정의 측정 시스템에서 수행될 수 있다. 3 is a flowchart illustrating a pupil shape modeling method according to the present invention, and the pupil shape modeling method according to the present invention may be performed in a predetermined measurement system.

단계(S301)에서 상기 측정 시스템은 카메라를 이용하여 피촬영자의 안구를 촬영하여 안구 이미지를 생성한다. 도 4의 (a)는 촬영된 안구 이미지를 도시한다. In operation S301, the measurement system photographs the eyeball of the subject using a camera to generate an eyeball image. 4A illustrates a photographed eyeball image.

단계(S302)에서 상기 측정 시스템은 상기 안구 이미지의 각 픽셀에 대응하는 명도 정보를 이용하여 상기 안구 이미지 상에 노출된 동공의 외곽선에 포함되는 제1 픽셀을 감지한다. In operation S302, the measurement system detects a first pixel included in an outline of a pupil exposed on the eyeball image using brightness information corresponding to each pixel of the eyeball image.

즉, 상술한 바와 같은 오프닝, 문턱치화 등의 이미지 처리를 하여, 도 4의 (c)에 도시한 바와 같은 안구 이미지를 획득한 후, 각 픽셀의 명도 차이를 이용하여 동공의 외곽선에 해당하는 제1 픽셀들을 감지한다. 도 5는 설명의 편의를 위해 감지된 제1 픽셀들의 일부를 회색으로 표시한, 도 4의 (c) 중 사각형 영역의 확대도이다. That is, by performing image processing such as opening and thresholding as described above, and acquiring an eyeball image as shown in FIG. 4C, the image corresponding to the outline of the pupil using the brightness difference of each pixel is obtained. Detect 1 pixel FIG. 5 is an enlarged view of a rectangular area in FIG. 4C, in which a part of the first pixels sensed for display is grayed out for convenience of description.

단계(S303)에서 상기 측정 시스템은 도 4의 (a)에 도시한 바와 같은 안구 이미지로부터 엣지에 해당하는 제2 픽셀들을 감지한다. 이미지 상에서 엣지를 감지하는 방법은 Canny Edge Detector와 같이 다수의 알고리즘이 알려져 있으며, 본 발명은 종래의 엣지 감지 알고리즘을 이용하여 안구 이미지 상의 엣지를 판별할 수 있다. 도 6의 (b)는 이와 같이 감지된 엣지를 표시한 도면이다. 한편, 도 6의 (a)는 도 4의 (c)와 동일하다. In operation S303, the measurement system detects second pixels corresponding to an edge from an eyeball image as shown in FIG. 4A. As a method for detecting an edge on an image, a number of algorithms are known, such as Canny Edge Detector, and the present invention can determine an edge on an eyeball image using a conventional edge detection algorithm. FIG. 6B is a diagram showing the edge detected in this way. 6 (a) is the same as FIG. 4 (c).

단계(S304)에서 상기 측정 시스템은 상기 감지된 제1 픽셀들과, 상기 감지된 제2 픽셀들 중 서로 일치하는 픽셀들을 검색한다. 도 6의 (a)와 (b)를 참조하면, 제1 픽셀들과 제2 픽셀들 중에서 서로 일치하는 픽셀들은, 도 6의 (c)에서 빨간색으로 표시한 픽셀들이다. 도 6의 (c)에서도 설명의 편의를 위해 제1 픽셀과 제2 픽셀이 일치하는 픽셀들 중 일부만을 도시하였다. In operation S304, the measurement system searches for pixels that match each other among the sensed first pixels and the sensed second pixels. Referring to (a) and (b) of FIG. 6, pixels coincident with each other among the first and second pixels are pixels shown in red in FIG. 6c. In FIG. 6C, only some of the pixels in which the first pixel and the second pixel coincide with each other are illustrated for convenience of description.

이하에서는, 안구 이미지 상의 동공의 외곽선 중에서 피부에 의해 덮이지 않았을 때의 외곽선을 "원외곽선"이라는 용어로 표현하고, 제1 픽셀과 제2 픽셀이 일치하는 경우 그 픽셀을 "제3 픽셀"이라는 용어로 표현한다. 즉, 상기와 같은 과정을 통해, 상기 측정 시스템은 동공의 원외곽선 상에 위치하는 제3 픽셀을 감지하게 된다. 결국 제1 픽셀들 중에서 제3 픽셀이 아닌 픽셀은 피부에 의해 동공의 일부가 가려진 경우 그 가려진 부분에서의 외곽선 상에 위치하게 된다. Hereinafter, the outline of the pupil outline on the eye image when not covered by the skin is expressed by the term "far outline", and when the first pixel and the second pixel coincide, the pixel is referred to as "third pixel". Express in terms. That is, through the above process, the measurement system detects the third pixel located on the outline of the pupil. As a result, a pixel other than the third pixel among the first pixels is positioned on the outline of the masked part when the part of the pupil is covered by the skin.

단계(S305)에서 상기 측정 시스템은 상기 제3 픽셀들만을 이용하여 상기 안구 이미지 상의 동공의 모양을 모델링한다. In step S305, the measurement system models the shape of the pupil on the eyeball image using only the third pixels.

예를 들면, 상기 측정 시스템은 제3 픽셀들의 좌표를 포함하는 도형으로서, 아래와 같은 수학식을 산출함으로써, 즉 각 변수(

Figure 112005011115312-pat00001
,
Figure 112005011115312-pat00002
,
Figure 112005011115312-pat00003
,
Figure 112005011115312-pat00004
Figure 112005011115312-pat00005
)를 산출함으로써, 촬영된 안구의 동공을 원 또는 타원으로 모델링할 수 있다. For example, the measurement system is a figure including the coordinates of the third pixels, by calculating the following equation, that is, each variable (
Figure 112005011115312-pat00001
,
Figure 112005011115312-pat00002
,
Figure 112005011115312-pat00003
,
Figure 112005011115312-pat00004
And
Figure 112005011115312-pat00005
), The pupil of the photographed eye can be modeled as a circle or an ellipse.

Figure 112005011115312-pat00006
Figure 112005011115312-pat00006

이 때,

Figure 112005011115312-pat00007
Figure 112005011115312-pat00008
이 동일한 경우에는 동공은 원으로 모델링 된다. At this time,
Figure 112005011115312-pat00007
and
Figure 112005011115312-pat00008
In this same case, the pupil is modeled as a circle.

일단 동공을 원 또는 타원으로 모델링하면, 동공의 중심 위치는 좌표(

Figure 112005011115312-pat00009
,
Figure 112005011115312-pat00010
)로 결정된다. 동공이 원으로 모델링 된 경우 상기 좌표는 원의 중점에 해당하며, 동공이 타원으로 모델링 된 경우에는 상기 좌표는 타원의 장축과 단축의 교차점에 해당한다. Once the pupil is modeled as a circle or ellipse, the pupil's center position is coordinate (
Figure 112005011115312-pat00009
,
Figure 112005011115312-pat00010
Is determined. When the pupil is modeled as a circle, the coordinates correspond to the midpoint of the circle, and when the pupil is modeled as an ellipse, the coordinates correspond to the intersection of the major and minor axes of the ellipse.

예를 들면, 상기 측정 시스템은 도 7의 도면부호(701)로 표시한 바와 같은 타원으로 촬영된 안구 이미지 상의 동공 모양을 모델링할 수 있다. For example, the measurement system may model the pupil shape on the ocular image taken with an ellipse as indicated by reference numeral 701 of FIG. 7.

따라서, 본 발명에 따르면, 동공이 피부에 의해 일부 가려진 상태에서 사람의 안구를 촬영한 경우에도 동공의 모양을 정확하게 모델링할 수 있고, 따라서 동공의 중심 역시 정확하게 결정할 수 있게 된다. 따라서, 동공의 중심을 기준으로 하는 다양한 값들(예를 들면, 사람의 시선 방향, 저시력 여부 등)도 정확하게 산출된다. Therefore, according to the present invention, even when a human eye is photographed while the pupil is partially covered by the skin, the shape of the pupil can be accurately modeled, and thus the center of the pupil can also be accurately determined. Therefore, various values based on the center of the pupil (for example, the direction of the human eye, low vision, etc.) are also accurately calculated.

따라서, 본 발명에 따르면, 종래기술에서와 같이 원외곽선 상의 픽셀들이 아닌, 피부에 가려진 부분에서의 동공의 외곽선 상의 픽셀들도 모두 반영하여 동공의 모양을 모델링한 경우의 오차를 해소할 수 있다. Therefore, according to the present invention, it is possible to solve the error when modeling the shape of the pupil by reflecting not only the pixels on the outline but also the pixels on the outline of the pupil in the part covered by the skin as in the prior art.

또한, 본 발명의 실시예들은 다양한 컴퓨터로 구현되는 동작을 수행하기 위한 프로그램 명령을 포함하는 컴퓨터 판독 가능 매체를 포함한다. 상기 컴퓨터 판독 가능 매체에 기록되는 프로그램은 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체는 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. In addition, embodiments of the present invention include computer-readable media containing program instructions for performing various computer-implemented operations. The program recorded on the computer readable medium may include program instructions, data files, data structures, etc. alone or in combination. The media may be those specially designed and constructed for the purposes of the present invention, or they may be of the kind well-known and available to those having skill in the computer software arts.

도 8은 본 발명에 따른 동공 모양 모델링 방법을 수행하는 데 채용될 수 있는 측정 시스템의 내부 블록도이다.8 is an internal block diagram of a measurement system that may be employed to perform the pupil shape modeling method in accordance with the present invention.

컴퓨터 장치(800)는 램(RAM: Random Access Memory)(820)과 롬(ROM: Read Only Memory)(830)을 포함하는 주기억장치와 연결되는 하나 이상의 프로세서(810) 를 포함한다. 프로세서(810)는 중앙처리장치(CPU)로 불리기도 한다. 본 기술분야에서 널리 알려져 있는 바와 같이, 롬(830)은 데이터(data)와 명령(instruction)을 단방향성으로 CPU에 전송하는 역할을 하며, 램(820)은 통상적으로 데이터와 명령을 양방향성으로 전송하는 데 사용된다. 램(820) 및 롬(830)은 컴퓨터 판독 가능 매체의 어떠한 적절한 형태를 포함할 수 있다. 대용량 기억장치(Mass Storage)(840)는 양방향성으로 프로세서(810)와 연결되어 추가적인 데이터 저장 능력을 제공하며, 상기된 컴퓨터 판독 가능 기록 매체 중 어떠한 것일 수 있다. 대용량 기억장치(840)는 프로그램, 데이터 등을 저장하는데 사용되며, 통상적으로 주기억장치보다 속도가 느린 하드 디스크와 같은 보조기억장치이다. CD 롬(860)과 같은 특정 대용량 기억장치가 사용될 수도 있다. 프로세서(810)는 비디오 모니터, 트랙볼, 마우스, 키보드, 마이크로폰, 터치스크린 형 디스플레이, 카드 판독기, 자기 또는 종이 테이프 판독기, 음성 또는 필기 인식기, 조이스틱, 또는 기타 공지된 컴퓨터 입출력장치와 같은 하나 이상의 입출력 인터페이스(850)와 연결된다. 마지막으로, 프로세서(810)는 네트워크 인터페이스(870)를 통하여 유선 또는 무선 통신 네트워크에 연결될 수 있다. 이러한 네트워크 연결을 통하여 상기된 방법의 절차를 수행할 수 있다. 상기된 장치 및 도구는 컴퓨터 하드웨어 및 소프트웨어 기술 분야의 당업자에게 잘 알려져 있다.Computer device 800 includes one or more processors 810 coupled with a main memory device including random access memory (RAM) 820 and read only memory (ROM) 830. The processor 810 is also called a central processing unit (CPU). As is well known in the art, the ROM 830 serves to transfer data and instructions to the CPU unidirectionally, and the RAM 820 typically transfers data and instructions bidirectionally. Used to. RAM 820 and ROM 830 may include any suitable form of computer readable media. Mass storage 840 is bidirectionally coupled to processor 810 to provide additional data storage capability, and may be any of the computer readable recording media described above. The mass storage device 840 is used to store programs, data, and the like, and is a secondary memory device such as a hard disk which is generally slower than the main memory device. Certain mass storage devices such as CD ROM 860 may be used. The processor 810 may include one or more input / output interfaces, such as video monitors, trackballs, mice, keyboards, microphones, touchscreen displays, card readers, magnetic or paper tape readers, voice or handwriting readers, joysticks, or other known computer input / output devices. 850 is connected. Finally, the processor 810 may be connected to a wired or wireless communication network through the network interface 870. Through this network connection, the procedure of the method described above can be performed. The apparatus and tools described above are well known to those skilled in the computer hardware and software arts.

상기된 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있다.The hardware device described above may be configured to operate as one or more software modules to perform the operations of the present invention.

지금까지 본 발명에 따른 구체적인 실시예에 관하여 설명하였으나, 본 발명 의 범위에서 벗어나지 않는 한도 내에서는 여러 가지 변형이 가능함은 물론이다.Although specific embodiments of the present invention have been described so far, various modifications are possible without departing from the scope of the present invention.

그러므로, 본 발명의 범위는 설명된 실시예에 국한되어 정해져서는 안되며, 후술하는 특허 청구의 범위뿐 아니라 이 특허 청구의 범위와 균등한 것들에 의해 정해져야 한다.Therefore, the scope of the present invention should not be limited to the described embodiments, but should be defined not only by the claims below, but also by the equivalents of the claims.

이상과 같이 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 이는 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다. 따라서, 본 발명 사상은 아래에 기재된 특허 청구 범위에 의해서만 파악되어야 하고, 이의 균등 또는 등가적 변형 모두는 본 발명 사상의 범주에 속한다고 할 것이다.As described above, the present invention has been described by way of limited embodiments and drawings, but the present invention is not limited to the above-described embodiments, which can be variously modified and modified by those skilled in the art to which the present invention pertains. Modifications are possible. Accordingly, the spirit of the present invention should be understood only by the claims set forth below, and all equivalent or equivalent modifications thereof will belong to the scope of the present invention.

본 발명에 따르면, 상기와 같은 종래기술의 문제점을 해결하기 위해 안출된 것으로서, 동공의 일부가 피부에 의해 가려진 상태에서 안구를 촬영한 경우에도, 피부에 의해 전혀 가려지지 않은 상태에서 동공을 모델링한 경우와 동일 또는 유사한 모델링 결과를 획득할 수 있는 동공 모양 모델링 방법이 제공된다. According to the present invention, in order to solve the problems of the prior art as described above, even when the eye is taken in a state where a part of the pupil is covered by the skin, the pupil is modeled in a state that is not covered by the skin at all A pupil shape modeling method capable of obtaining the same or similar modeling results as the case is provided.

따라서, 본 발명에 따르면, 피촬영자가 상하좌우 방향으로 시선을 이동시키거나, 피촬영자의 눈까풀을 위로 고정시키지 않은 상태에서 촬영된 안구 이미지로부터 정확한 동공 모양을 모델링할 수 있게 되므로, 피촬영자가 편안하게 안구 촬영에 임할 수 있다는 장점이 있다. Therefore, according to the present invention, since the subject can move the gaze in the up, down, left, and right directions, or can model the correct pupil shape from the eye image photographed without fixing the eyelid of the subject, the subject is comfortable. There is an advantage that you can work on eye shooting.

Claims (4)

촬영한 안구 이미지 상에서 동공의 모양을 모델링하는 방법에 있어서, In the method of modeling the shape of the pupil on the photographed eye image, 상기 안구 이미지의 각 픽셀에 대응하는 명도 정보를 이용하여 상기 안구 이미지 상에 노출된 동공의 외곽선에 포함되는 제1 픽셀을 감지하는 단계; Detecting a first pixel included in an outline of a pupil exposed on the eyeball image using brightness information corresponding to each pixel of the eyeball image; 상기 안구 이미지로부터 엣지에 해당하는 제2 픽셀을 감지하는 단계; Detecting a second pixel corresponding to an edge from the eyeball image; 상기 제1 픽셀과 상기 제2 픽셀이 일치하는 경우 해당 픽셀을, 상기 동공의 외곽선 중에서 상기 동공의 원외곽선 상의 픽셀로 결정하는 단계; 및If the first pixel and the second pixel coincide with each other, determining the corresponding pixel as a pixel on an outline of the pupil from an outline of the pupil; And 상기 원외곽선 상의 픽셀에 기초하여 동공의 모양을 모델링하는 단계;Modeling the shape of the pupil based on the pixels on the outline; 를 포함하고, Including, 상기 동공의 원외곽선은 상기 동공이 피부에 가리지 않고 전부 노출되었을 때의 상기 동공의 외곽선인 것을 특징으로 하는 동공 모양 모델링 방법. The pupil outline is a pupil shape modeling method, characterized in that the outline of the pupil when the pupil is completely exposed to the skin. 제1항에 있어서, The method of claim 1, 상기 동공의 모양을 원으로 모델링한 경우, 상기 원의 중점을 상기 동공의 중심으로 결정하는 단계;If the shape of the pupil is modeled as a circle, determining the center of the circle as the center of the pupil; 를 더 포함하는 것을 특징으로 하는 동공 모양 모델링 방법. Pupil shape modeling method characterized in that it further comprises. 제1항에 있어서, The method of claim 1, 상기 동공의 모양을 타원으로 모델링한 경우, 상기 타원의 중점을 상기 동공 의 중심으로 결정하는 단계 -상기 타원의 중점은 상기 타원의 단축과 장축의 교차점에 해당함-In the case where the shape of the pupil is modeled as an ellipse, determining the midpoint of the ellipse as the center of the pupil, wherein the midpoint of the ellipse corresponds to the intersection of the short axis and the long axis of the ellipse. 를 더 포함하는 것을 특징으로 하는 동공 모양 모델링 방법. Pupil shape modeling method characterized in that it further comprises. 제1항 내지 제3항 중 어느 한 항의 방법을 실행시키기 위한 프로그램을 기록한 컴퓨터 판독 가능한 기록 매체. A computer-readable recording medium having recorded thereon a program for executing the method of any one of claims 1 to 3.
KR1020050017269A 2005-03-02 2005-03-02 Method For Modeling Pupil Shape KR100686517B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020050017269A KR100686517B1 (en) 2005-03-02 2005-03-02 Method For Modeling Pupil Shape

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020050017269A KR100686517B1 (en) 2005-03-02 2005-03-02 Method For Modeling Pupil Shape

Publications (2)

Publication Number Publication Date
KR20060096612A KR20060096612A (en) 2006-09-13
KR100686517B1 true KR100686517B1 (en) 2007-02-27

Family

ID=37624106

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020050017269A KR100686517B1 (en) 2005-03-02 2005-03-02 Method For Modeling Pupil Shape

Country Status (1)

Country Link
KR (1) KR100686517B1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9443343B2 (en) 2010-11-24 2016-09-13 Samsung Electronics Co., Ltd. Method and apparatus for realistically reproducing eyeball
CN107180441B (en) * 2016-03-10 2019-04-09 腾讯科技(深圳)有限公司 The method and apparatus for generating eye image
KR20210028499A (en) 2019-09-04 2021-03-12 한양대학교 산학협력단 Method and apparatus for measuring eye movement

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04193154A (en) * 1990-11-27 1992-07-13 Hoya Corp Pupil inspecting device and pupil motion recording system
JPH11169345A (en) 1997-12-15 1999-06-29 Sukara Kk Pupillometer
JP2002233502A (en) 2001-02-08 2002-08-20 Topcon Corp Contrast chart device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04193154A (en) * 1990-11-27 1992-07-13 Hoya Corp Pupil inspecting device and pupil motion recording system
JPH11169345A (en) 1997-12-15 1999-06-29 Sukara Kk Pupillometer
JP2002233502A (en) 2001-02-08 2002-08-20 Topcon Corp Contrast chart device

Also Published As

Publication number Publication date
KR20060096612A (en) 2006-09-13

Similar Documents

Publication Publication Date Title
US9489574B2 (en) Apparatus and method for enhancing user recognition
US9291834B2 (en) System for the measurement of the interpupillary distance using a device equipped with a display and a camera
JP5137833B2 (en) Gaze direction detection device and gaze direction detection method
JP3361980B2 (en) Eye gaze detecting apparatus and method
RU2608462C2 (en) User input processing with eye tracking
CN109690553A (en) The system and method for executing eye gaze tracking
US10346601B2 (en) Biometric information acquisition method and device for same
JP4692526B2 (en) Gaze direction estimation apparatus, gaze direction estimation method, and program for causing computer to execute gaze direction estimation method
TW202038133A (en) System and method for rapidly locating iris using deep learning
US20140085189A1 (en) Line-of-sight detection apparatus, line-of-sight detection method, and program therefor
JP7168953B2 (en) Gaze measurement device for automatic calibration, Gaze measurement method and Gaze measurement program
CN110555426A (en) Sight line detection method, device, equipment and storage medium
CN117897778A (en) Method for acquiring side image for eye prominence analysis, image capturing apparatus and recording medium for performing the method
JP2007163864A (en) Display control apparatus, display control method, display control program, and display control program recording medium
CN110051319A (en) Adjusting method, device, equipment and the storage medium of eyeball tracking sensor
KR20190112493A (en) Method for controling fundus camera and apparatus using the same
KR100686517B1 (en) Method For Modeling Pupil Shape
Yang et al. Wearable eye-tracking system for synchronized multimodal data acquisition
JP4682372B2 (en) Gaze direction detection device, gaze direction detection method, and program for causing computer to execute gaze direction detection method
KR20100038897A (en) Apparatus of estimating user's gaze and the method thereof
US20230012806A1 (en) Method and photographing device for acquiring side image for ocular proptosis degree analysis, and recording medium therefor
CN112528714B (en) Single-light-source-based gaze point estimation method, system, processor and equipment
Höffner Gaze tracking using common webcams
WO2022018271A1 (en) Method for determining a coronal position of an eye relative to the head
JP2021096537A (en) Biological information acquisition device, terminal device, biological information acquisition method, biological information acquisition program, and computer readable recording medium

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130802

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20140204

Year of fee payment: 8

LAPS Lapse due to unpaid annual fee