KR20160057360A - Method and Apparatus for identifying eyeball position, Method and Apparatus for tracking eyeball position - Google Patents

Method and Apparatus for identifying eyeball position, Method and Apparatus for tracking eyeball position Download PDF

Info

Publication number
KR20160057360A
KR20160057360A KR1020160053342A KR20160053342A KR20160057360A KR 20160057360 A KR20160057360 A KR 20160057360A KR 1020160053342 A KR1020160053342 A KR 1020160053342A KR 20160053342 A KR20160053342 A KR 20160053342A KR 20160057360 A KR20160057360 A KR 20160057360A
Authority
KR
South Korea
Prior art keywords
image
user
eyes
initial
pixel value
Prior art date
Application number
KR1020160053342A
Other languages
Korean (ko)
Other versions
KR101643724B1 (en
Inventor
김경중
윤두밈
Original Assignee
세종대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 세종대학교산학협력단 filed Critical 세종대학교산학협력단
Priority to KR1020160053342A priority Critical patent/KR101643724B1/en
Publication of KR20160057360A publication Critical patent/KR20160057360A/en
Application granted granted Critical
Publication of KR101643724B1 publication Critical patent/KR101643724B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • G06K9/0061
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/18Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 for optical projection, e.g. combination of mirror and condenser and objective
    • G06K9/00604
    • G06K9/00617
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/197Matching; Classification

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

Disclosed is a method for identifying an eyeball position. According to an embodiment of the present invention, the method comprises: a step of acquiring an initial image, which is an image of both eyeballs of a user, by using a camera located between the both eyeballs of the user; a step of generating an inverted image by invert-processing the initial image; a step of generating a first pre-treatment image processed to divide the position of the both eyeballs of the user in the initial image and display the divided position of the both eyeballs, by using the initial image and the inverted image; and a step of identifying the position of the both eyeballs of the user, based on the first pre-treatment image. The purpose of the present invention is to provide an apparatus for identifying an eyeball position capable of reducing user′s fatigue with lower costs and weight.

Description

안구 위치 식별 방법 및 그 장치, 안구 위치 추적 방법 및 그 장치{Method and Apparatus for identifying eyeball position, Method and Apparatus for tracking eyeball position}BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method and apparatus for identifying an eyeball position,

본 발명의 일실시예는 안구 위치 식별 및 추적에 관한 것으로, 특히 이미지 처리를 기반으로 한 안구 위치 식별 방법 및 그 장치, 안구 위치 추적 방법 및 그 장치에 관한 것이다.An embodiment of the present invention relates to eye position identification and tracking, and more particularly, to an eye position identification method and apparatus based on image processing, an eye position tracking method, and an apparatus therefor.

안구 추적 기법은 사용자의 안구의 움직임을 추적하여 사용자의 관심 영역 또는 원하는 동작 등을 파악하고, 그 파악된 정보를 다양한 분야에 적용하는 기법이다. The eye tracking technique is a technique of tracking the movement of the user's eyeball, grasping the user's area of interest or desired motion, and applying the detected information to various fields.

종래에는 안구의 위치를 추적하기 위해 일반적인 웹카메라와 같은 소형 영상 장치를 이용하여 이미지를 획득한 후 이를 분석함으로써 안구 추적을 수행하였다.  Conventionally, eye tracking was performed by acquiring an image using a small image device such as a general web camera and then analyzing the obtained image to track the position of the eyeball.

도 1은 종래의 안구 추적 방법을 설명하기 위하여 도시한 도면이다. 1 is a view illustrating a conventional eye tracking method.

도 1(a)는 사용자의 안구를 한개의 카메라를 이용하여 촬영하는 장면을 옆에서 바라본 도면으로, 이와 같은 경우에는 카메라가 사용자의 한개의 안구쪽에 편향되게 설치되어 무게 중심이 맞지 않게 되고, 그 카메라의 시야각이 좁기 때문에 안구의 전체적인 모습을 획득하기 위해서 카메라가 사용자 안구의 아래쪽에서 비스듬하게 위치하게 되어 사용자의 피로를 유발할 수 있다. FIG. 1 (a) is a side view of a scene in which a user's eyeball is photographed using one camera. In such a case, the camera is installed to be deflected toward one eyeball of the user, Since the viewing angle of the camera is narrow, the camera may be positioned obliquely below the user's eye in order to obtain the overall appearance of the eyeball, which may cause fatigue of the user.

도 1(b)는 두개의 카메라를 이용하여 사용자의 두개의 안구를 촬영하는 실시예를 도시하고 있는데,이와 같이 두개의 카메라를 이용하게 되면 안구 추적 장치의 가격과 무게를 상승시키게 되는 문제가 있다. FIG. 1 (b) shows an embodiment in which two eyes of a user are photographed using two cameras. The use of two cameras increases the price and weight of the eye tracking device .

또한, 도 1에는 도시되지 않았지만 안구의 정확한 위치를 검출하기 위해 적외선 인공 광원을 추가로 방사하여 영상을 획득할 수도 있는데, 이는 사용자로 하여금 눈의 피로를 상승시키고 장기간 사용시 사용자의 눈에 악영향을 미칠 수 있는 문제가 있다. In addition, although not shown in FIG. 1, an infrared artificial light source may be additionally irradiated to acquire an image to detect an accurate position of the eyeball. This may cause a user to increase eye fatigue and adversely affect the user's eyes during long- There is a problem.

따라서, 가격이 저렴하면서도 무게가 가볍고, 사용자의 피로를 줄여줄 수 있는 안구 추적 장치 개발의 필요성이 대두되고 있다. Therefore, there is a need to develop an eye tracking device which is low in cost, light in weight, and able to reduce fatigue of a user.

본 발명의 일 실시예의 목적은 가격이 저렴하면서도 무게가 가볍고, 사용자의 피로를 줄여줄 수 있는 안구 식별 장치 및 추적 장치를 제공하는 것이다. An object of an embodiment of the present invention is to provide an eyeball discriminating apparatus and a tracking apparatus which are low in cost and light in weight and can reduce fatigue of a user.

상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른 안구 식별 방법은 사용자의 양쪽 안구 사이에 위치한 카메라를 이용하여 상기 사용자의 양쪽 안구에 대한 이미지인 초기 이미지를 획득하는 단계; 상기 초기 이미지를 반전 처리하여 반전 이미지를 생성하는 단계; 상기 초기 이미지 및 상기 반전 이미지를 이용하여 상기 초기 이미지에서의 상기 사용자의 양쪽 안구의 위치를 구분하여 표시하도록 처리된 제1 전처리 이미지를 생성하는 단계; 및 상기 제1 전처리 이미지에 기초하여 상기 사용자의 양쪽 안구의 위치를 식별하는 단계를 포함하고, 상기 제1 전처리 이미지를 생성하는 단계는 하기의 (수학식 1)에 의거하여 상기 제1 전처리 이미지의 픽셀 값을 산출할 수 있다. According to another aspect of the present invention, there is provided an eyeball discriminating method comprising: obtaining an initial image, which is an image of both eyes of a user, using a camera positioned between both eyes of a user; Inverting the initial image to generate an inverted image; Generating a first pre-processing image that is processed to separately display positions of both eyes of the user in the initial image using the initial image and the inverted image; And identifying positions of both eyes of the user based on the first pre-processing image, wherein the step of generating the first pre-processing image comprises the steps of: The pixel value can be calculated.

(수학식 1)(1)

Figure pat00001
Figure pat00001

이때, Upper는 초기 이미지의 픽셀 값, Lower는 반전 이미지의 픽셀 값, MAX_BIT는 상기 초기 이미지의 해당 비트로 표현할 수 있는 최대 픽셀 값이다. Here, Upper is the pixel value of the initial image, Lower is the pixel value of the inverted image, and MAX_BIT is the maximum pixel value that can be expressed by the corresponding bits of the initial image.

바람직하게는, 상기 제1 전처리 이미지를 생성하는 단계는 상기 초기 이미지에서의 상기 사용자의 양쪽 안구 영역은 상대적으로 밝은 영역으로 변환하여 표시하고, 상기 사용자의 양쪽 안구 영역을 제외한 나머지 영역은 상대적으로 어두운 영역으로 표시하는 전처리를 수행함으로써 상기 제1 전처리 이미지를 생성할 수 있다. Advantageously, the step of generating the first pre-processing image comprises converting both the ocular regions of the user in the initial image into relatively bright regions and displaying the remaining regions except for both ocular regions of the user relatively dark Region by performing pre-processing to display the first preprocessed image.

바람직하게는, 본 발명의 일 실시예에 따른 안구 식별 방법은 상기 제1 전처리 이미지와 상기 반전 이미지를 이용하여 상기 제1 전처리 이미지에서의 상기 사용자의 양쪽 안구의 위치를 구분하여 표시하도록 처리된 제2 전처리 이미지를 생성하는 단계를 더 포함할 수 있다. Preferably, the method for identifying an eye according to an embodiment of the present invention includes the steps of dividing and displaying positions of both eyes of the user in the first preprocessed image using the first preprocessed image and the inverted image, 2 < / RTI > pre-processing image.

바람직하게는, 본 발명의 일 실시예에 따른 안구 식별 방법은 상기 획득된 초기 이미지에서 상기 카메라에 탑재된 렌즈의 특성에 의해 발생한 왜곡을 보상하는 단계를 더 포함할 수 있다. Preferably, the method for discriminating an eye according to an embodiment of the present invention may further comprise compensating for a distortion caused by a characteristic of a lens mounted on the camera in the obtained initial image.

바람직하게는, 상기 카메라는 상기 사용자의 양쪽 안구의 가운데에 위치할 수 있다. Preferably, the camera may be located in the middle of both eyes of the user.

바람직하게는, 상기 카메라에 탑재된 렌즈는 상기 사용자의 양쪽 안구를 촬영할 수 있는 시야각을 가지는 어안렌즈 또는 양쪽 안구의 촬영을 목적으로 하는 특수 목적 렌즈일 수 있다. Preferably, the lens mounted on the camera may be a fisheye lens having a viewing angle capable of photographing both eyes of the user, or a special purpose lens for photographing both eyes.

또한, 상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른 안구 식별 장치는 사용자에게 부착시 사용자의 양쪽 안구 사이에 위치하도록 구성되는 카메라; 상기 카메라를 이용하여 상기 사용자의 양쪽 안구에 대한 이미지인 초기 이미지를 획득하는 이미지 획득부; 상기 초기 이미지를 반전 처리하여 반전 이미지를 생성하는 반전 이미지 생성부; 상기 초기 이미지 및 상기 반전 이미지를 이용하여 상기 초기 이미지에서의 상기 사용자의 양쪽 안구의 위치를 구분하여 표시하도록 처리된 제1 전처리 이미지를 생성하는 이미지 전처리부; 및 상기 제1 전처리 이미지에 기초하여 상기 사용자의 양쪽 안구의 위치를 식별하는 안구 위치 식별부를 포함할 수 있고, 상기 이미지 전처리부는 하기의 (수학식 1)에 의거하여 상기 제1 전처리 이미지의 픽셀 값을 산출할 수 있다. According to another aspect of the present invention, there is provided an eyeball discriminating apparatus comprising: a camera configured to be positioned between both eyes of a user when attached to a user; An image obtaining unit that obtains an initial image that is an image of both eyes of the user using the camera; An inverted image generating unit for inverting the initial image to generate an inverted image; An image preprocessing unit for generating a first pre-processing image processed to display the positions of both eyes of the user in the initial image by using the initial image and the inverted image; And an eye position identifying unit for identifying positions of both eyes of the user based on the first preprocessed image, and the image preprocessing unit may calculate a pixel value of the first preprocessed image based on the following Equation (1) Can be calculated.

(수학식 1)(1)

Figure pat00002
Figure pat00002

이때, Upper는 초기 이미지의 픽셀 값, Lower는 반전 이미지의 픽셀 값, MAX_BIT는 상기 초기 이미지의 해당 비트로 표현할 수 있는 최대 픽셀 값이다. Here, Upper is the pixel value of the initial image, Lower is the pixel value of the inverted image, and MAX_BIT is the maximum pixel value that can be expressed by the corresponding bits of the initial image.

바람직하게는, 상기 이미지 전처리부는 상기 초기 이미지에서의 상기 사용자의 양쪽 안구 영역은 상대적으로 밝은 영역으로 변환하여 표시하고, 상기 사용자의 양쪽 안구 영역을 제외한 나머지 영역은 상대적으로 어두운 영역으로 표시하는 전처리를 수행함으로써 상기 제1 전처리 이미지를 생성할 수 있다. Preferably, the image preprocessing unit transforms and displays both eye regions of the user in the initial image into a relatively bright region, and displays a region other than the eyeball regions of the user as a relatively dark region Thereby generating the first preprocessed image.

바람직하게는, 상기 이미지 전처리부는 상기 제1 전처리 이미지와 상기 반전 이미지를 이용하여 상기 제1 전처리 이미지에서의 상기 사용자의 양쪽 안구의 위치를 구분하여 표시하도록 처리된 제2 전처리 이미지를 생성하는 동작을 더 수행할 수 있다. Advantageously, the image preprocessing unit is operable to generate a second pre-processing image that is processed to distinguish and display the positions of both eyes of the user in the first pre-processing image using the first pre-processing image and the inverted image You can do more.

바람직하게는, 본 발명의 일 실시예에 따른 안구 식별 장치는 상기 획득된 초기 이미지에서 상기 카메라에 탑재된 렌즈의 특성에 의해 발생한 왜곡을 보상하는 왜곡 보상부를 더 포함할 수 있다. Preferably, the eyeball discriminating apparatus according to an embodiment of the present invention may further include a distortion compensating unit that compensates distortion caused by the characteristics of the lens mounted on the camera in the obtained initial image.

바람직하게는, 상기 카메라는 상기 사용자의 양쪽 안구의 가운데에 위치할 수 있다. Preferably, the camera may be located in the middle of both eyes of the user.

바람직하게는, 상기 카메라에 탑재된 렌즈는 상기 사용자의 양쪽 안구를 촬영할 수 있는 시야각을 가지는 어안렌즈 또는 양쪽 안구의 촬영을 목적으로 하는 특수 목적 렌즈일 수 있다.Preferably, the lens mounted on the camera may be a fisheye lens having a viewing angle capable of photographing both eyes of the user, or a special purpose lens for photographing both eyes.

또한, 상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른 안구 추적 방법은 사용자의 양쪽 안구 사이에 위치한 카메라를 이용하여 소정 시간 간격으로 상기 사용자의 양쪽 안구에 대한 복수의 이미지인 복수의 초기 이미지를 획득하는 단계; 상기 복수의 초기 이미지를 반전 처리하여 복수의 반전 이미지를 생성하는 단계; 상기 복수의 초기 이미지 및 상기 복수의 반전 이미지를 이용하여 상기 복수의 초기 이미지 각각에서의 상기 사용자의 양쪽 안구의 위치를 구분하여 표시하도록 처리된 복수의 제1 전처리 이미지를 생성하는 단계; 및 상기 복수의 제1 전처리 이미지에 기초하여 상기 사용자의 양쪽 안구의 위치를 추적하는 단계를 포함할 수 있고, 상기 제1 전처리 이미지를 생성하는 단계는 하기의 (수학식 1)에 의거하여 상기 제1 전처리 이미지의 픽셀 값을 산출할 수 있다. According to another aspect of the present invention, there is provided an eye tracking method for tracking an eye of a user using a camera positioned between both eyes of a user, ; Inverting the plurality of initial images to generate a plurality of inverted images; Generating a plurality of first pre-processing images processed to display the positions of both eyes of the user in each of the plurality of initial images using the plurality of initial images and the plurality of inverted images; And tracking the position of both eyes of the user based on the plurality of first pre-processing images, wherein the step of generating the first pre-processing image comprises the steps of: 1 pixel value of the preprocessed image can be calculated.

(수학식 1)(1)

Figure pat00003
Figure pat00003

이때, Upper는 초기 이미지의 픽셀 값, Lower는 반전 이미지의 픽셀 값, MAX_BIT는 상기 초기 이미지의 해당 비트로 표현할 수 있는 최대 픽셀 값이다. Here, Upper is the pixel value of the initial image, Lower is the pixel value of the inverted image, and MAX_BIT is the maximum pixel value that can be expressed by the corresponding bits of the initial image.

또한, 상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른 안구 추적 장치는 사용자에게 부착시 사용자의 양쪽 안구 사이에 위치하도록 구성되는 카메라;상기 카메라를 이용하여 소정 시간 간격으로 상기 사용자의 양쪽 안구에 대한 복수의 초기 이미지를 획득하는 이미지획득부; 상기 복수의 초기 이미지를 반전 처리하여 복수의 반전 이미지를 생성하는 반전 이미지 생성부; 상기 복수의 초기 이미지 및 상기 복수의 반전 이미지를 이용하여 상기 복수의 초기 이미지 각각에서의 상기 사용자의 양쪽 안구의 위치를 구분하여 표시하도록 처리된 복수의 제1 전처리 이미지를 생성하는 이미지 전처리부; 및 상기 복수의 제1 전처리 이미지에 기초하여상기 사용자의 양쪽 안구의 위치를 추적하는 안구 위치 추적부를 포함할 수 있다. According to another aspect of the present invention, there is provided an eye tracking apparatus comprising: a camera configured to be positioned between both eyes of a user when attached to a user; An image obtaining unit that obtains a plurality of initial images for the image; An inverted image generating unit for inverting the plurality of initial images to generate a plurality of inverted images; An image preprocessing unit for generating a plurality of first pre-processing images processed to display the position of both eyes of the user in each of the plurality of initial images using the plurality of initial images and the plurality of inverted images; And an eye position tracking unit for tracking the positions of both eyes of the user based on the plurality of first pre-processing images.

바람직하게는, 상기 제1 전처리 이미지를 생성하는 단계는 하기의 (수학식 1)에 의거하여 상기 제1 전처리 이미지의 픽셀 값을 산출할 수 있다. Preferably, the step of generating the first preprocessed image may calculate the pixel value of the first preprocessed image based on the following equation (1).

(수학식 1)(1)

Figure pat00004
Figure pat00004

이때, Upper는 초기 이미지의 픽셀 값, Lower는 반전 이미지의 픽셀 값, MAX_BIT는 상기 초기 이미지의 해당 비트로 표현할 수 있는 최대 픽셀 값이다. Here, Upper is the pixel value of the initial image, Lower is the pixel value of the inverted image, and MAX_BIT is the maximum pixel value that can be expressed by the corresponding bits of the initial image.

본 발명의 일 실시예에 따르면, 안구 식별 장치 및 추적 장치의 가격을 저렴하게 하면서도 무게를 가볍게 구성할 수 있게 해주는 효과가 있다. According to an embodiment of the present invention, it is possible to reduce the cost of the eyeball discriminating apparatus and the tracking apparatus, while making it possible to construct the weight lightly.

또한, 본 발명의 다른 실시예에 따르면 추가적인 광원 없이 안구 위치를 검출할 수 있게 해주어 사용자의 피로를 최소화할 있는 효과가 있다. According to another embodiment of the present invention, it is possible to detect an eye position without an additional light source, thereby minimizing fatigue of a user.

도 1은 종래의 안구 추적 방법을 설명하기 위하여 도시한 도면이다.
도 2는 본 발명의 일 실시예에 따른 안구 식별 장치를 설명하기 위하여 도시한 도면이다
도 3은 본 발명의 일 실시예에 따른 안구 식별 방법을 설명하기 위하여 도시한 흐름도이다
도 4는 본 발명의 다른 실시예에 따른 안구 식별 방법을 설명하기 위하여 도시한 흐름도이다
도 5는 본 발명의 일 실시예에 따른 카메라의 구성을 설명하기 위하여 도시한 도면이다.
도 6은 본 발명의 일 실시예에 따른 안구 식별 방법을 나타내는 의사 코드를 도시한 도면이다.
도 7은 본 발명의 일 실시예에 따른 전처리 이미지를 설명하기 위하여 도시한 도면이다.
도 8은 본 발명의 일 실시예에 따른 안구 추적 장치를 설명하기 위하여 도시한 도면이다.
도 9는 본 발명의 일 실시예에 따른 안구 추적 방법을 설명하기 위하여 도시한 흐름도이다.
1 is a view illustrating a conventional eye tracking method.
2 is a view for explaining an eyeball discriminating apparatus according to an embodiment of the present invention
FIG. 3 is a flowchart illustrating an eyeball discriminating method according to an embodiment of the present invention
FIG. 4 is a flowchart illustrating an eyeball discriminating method according to another embodiment of the present invention
5 is a diagram illustrating a configuration of a camera according to an embodiment of the present invention.
6 is a diagram showing a pseudo code representing an eyeball discriminating method according to an embodiment of the present invention.
7 is a view for explaining a pre-processed image according to an embodiment of the present invention.
8 is a view for explaining an eye tracking apparatus according to an embodiment of the present invention.
9 is a flowchart illustrating an eye tracking method according to an embodiment of the present invention.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다. While the invention is susceptible to various modifications and alternative forms, specific embodiments thereof are shown by way of example in the drawings and will herein be described in detail. It should be understood, however, that the invention is not intended to be limited to the particular embodiments, but includes all modifications, equivalents, and alternatives falling within the spirit and scope of the invention. Like reference numerals are used for like elements in describing each drawing.

제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다. The terms first, second, A, B, etc. may be used to describe various elements, but the elements should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, the first component may be referred to as a second component, and similarly, the second component may also be referred to as a first component. And / or < / RTI > includes any combination of a plurality of related listed items or any of a plurality of related listed items.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. It is to be understood that when an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, . On the other hand, when an element is referred to as being "directly connected" or "directly connected" to another element, it should be understood that there are no other elements in between.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used in this application is used only to describe a specific embodiment and is not intended to limit the invention. The singular expressions include plural expressions unless the context clearly dictates otherwise. In the present application, the terms "comprises" or "having" and the like are used to specify that there is a feature, a number, a step, an operation, an element, a component or a combination thereof described in the specification, But do not preclude the presence or addition of one or more other features, integers, steps, operations, elements, components, or combinations thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms such as those defined in commonly used dictionaries are to be interpreted as having a meaning consistent with the contextual meaning of the related art and are to be interpreted as either ideal or overly formal in the sense of the present application Do not.

이하, 본 발명에 따른 바람직한 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.Hereinafter, preferred embodiments according to the present invention will be described in detail with reference to the accompanying drawings.

도 2는 본 발명의 일 실시예에 따른 안구 식별 장치를 설명하기 위하여 도시한 도면이다. 2 is a view for explaining an eyeball discriminating apparatus according to an embodiment of the present invention.

도 2를 참조하면, 본 발명의 일 실시예에 따른 안구 식별 장치(200)는 카메라(210), 이미지 획득부(220), 반전 이미지 생성부(230), 이미지 전처리부(240) 및 안구 위치 식별부(250)를 포함한다. 2, an eyeball discriminating apparatus 200 according to an embodiment of the present invention includes a camera 210, an image acquiring unit 220, an inverted image generating unit 230, an image preprocessing unit 240, And an identification unit 250.

카메라(210)는 사용자에게 부착시 사용자의 양쪽 안구 사이에 위치하도록 구성된다. The camera 210 is configured to be positioned between both eyes of the user upon attachment to the user.

이때, 카메라(210)는 사용자의 양쪽 안구의 가운데에 위치함으로써, 무게 중심을 맞춰줄 수 있다. At this time, the camera 210 is positioned at the center of both eyes of the user, so that the center of gravity can be adjusted.

상기 카메라(210)에 탑재된 렌즈는 사용자의 양쪽 안구를 촬영할 수 있는 시야각을 가지는 어안렌즈 또는 양쪽 안구의 촬영을 목적으로 하는 특수 목적 렌즈일 수 있다.The lens mounted on the camera 210 may be a fisheye lens having a viewing angle capable of photographing both eyes of the user or a special purpose lens for photographing both eyes.

바람직하게는, 카메라(210)에 탑재된 렌즈는 사용자의 양쪽 안구를 촬영할 수 있는 시야각을 가지는 어안렌즈일 수 있는데, 이를 통해 하나의 카메라(210)를 통해서도 사용자의 양쪽 안구를 촬영할 수 있게 되어 안구 위치 식별 장치(200)의 가격 및 무게를 줄일 수 있게 되는 효과가 있다. Preferably, the lens mounted on the camera 210 may be a fisheye lens having a viewing angle capable of photographing both eyes of the user, so that both eyes of the user can be photographed through one camera 210, It is possible to reduce the price and weight of the position identifying device 200. [

이미지 획득부(220)는 카메라(210)를 이용하여 사용자의 양쪽 안구에 대한 이미지인 초기 이미지를 획득한다. The image obtaining unit 220 uses the camera 210 to obtain an initial image that is an image of both eyes of the user.

이때, 초기 이미지는 흑백 이미지일 수도 있고, 컬러 이미지일 수도 있다. At this time, the initial image may be a monochrome image or a color image.

반전 이미지 생성부(230)는 초기 이미지를 반전 처리하여 반전 이미지를 생성한다. The inverse image generating unit 230 inverts the initial image to generate an inverse image.

이미지 전처리부(240)는 초기 이미지 및 반전 이미지를 이용하여 초기 이미지에서의 사용자의 양쪽 안구의 위치를 구분하여 표시하도록 처리된 제1 전처리 이미지를 생성한다. The image preprocessing unit 240 generates a first preprocessed image processed to display the position of both eyes of the user in the initial image by using the initial image and the inverted image.

안구 위치 식별부(250)는 제1 전처리 이미지에 기초하여 사용자의 양쪽 안구의 위치를 식별한다. The eye position identification unit 250 identifies the positions of both eyes of the user based on the first pre-processing image.

이와 같이, 본 발명의 일 실시예는 이미지 전처리를 통해 생성된 제1 전처리 이미지를 이용하여 사용자의 양쪽 안구의 위치를 정확히 식별할 수 있으므로, 추가적인 광원 없이 안구 위치를 검출할 수 있게 되어 사용자의 피로를 최소화할 수 있는 효과가 있다. As described above, according to an embodiment of the present invention, since the positions of both eyes of a user can be accurately identified using the first preprocessed image generated through image preprocessing, the eye position can be detected without additional light source, Can be minimized.

도 3은 본 발명의 일 실시예에 따른 안구 식별 방법을 설명하기 위하여 도시한 흐름도이다 FIG. 3 is a flowchart illustrating an eyeball discriminating method according to an embodiment of the present invention

단계 310에서는, 안구 식별 장치(200)가 사용자의 양쪽 안구 사이에 위치한 카메라를 이용하여 사용자의 양쪽 안구에 대한 초기 이미지를 획득한다. In step 310, the eye identification device 200 acquires an initial image of both eyes of the user using a camera located between the eyes of the user.

이때, 안구 식별 장치(200)에 탑재된 카메라는 사용자에게 부착시 사용자의 양쪽 안구 사이에 위치하도록 구성될 수 있다. At this time, the camera mounted on the ocular discrimination apparatus 200 may be configured to be positioned between both eyes of the user when attached to the user.

단계 320에서는, 안구 식별 장치(200)가 초기 이미지를 반전 처리하여 반전 이미지를 생성한다.  In step 320, the eye distinguishing device 200 inverts the initial image to generate an inverted image.

단계 330에서는, 안구 식별 장치(200)가 초기 이미지 및 반전 이미지를 이용하여 초기 이미지에서의 사용자의 양쪽 안구의 위치를 구분하여 표시하도록 처리된 제1 전처리 이미지를 생성한다. In step 330, the eye identification device 200 generates a first pre-processing image that is processed to separately display the position of both eyes of the user in the initial image using the initial image and the inverted image.

이때, 안구 식별 장치(200)는 초기 이미지에서의 사용자의 양쪽 안구 영역은 상대적으로 밝은 영역으로 변환하여 표시하고, 사용자의 양쪽 안구 영역을 제외한 나머지 영역은 상대적으로 어두운 영역으로 표시하는 전처리를 수행함으로써 제1 전처리 이미지를 생성할 수 있다. At this time, the ocular distinguishing device 200 performs a pre-processing for displaying both the ocular regions of the user in the initial image into a relatively bright region and displaying the remaining regions except the both ocular regions of the user as a relatively dark region A first preprocessed image can be generated.

예컨대, 제1 전처리 이미지에 포함되는 픽셀들의 픽셀 값은 하기의 수학식 1에 의하여 생성될 수 있다. For example, the pixel value of the pixels included in the first preprocessed image can be generated by the following Equation (1).

Figure pat00005
Figure pat00005

이때, Upper는 초기 이미지의 픽셀 값, Lower는 반전 이미지의 픽셀 값, MAX_BIT는 초기 이미지의 해당 비트로 표현할 수 있는 최대 픽셀 값을 나타낸다. 만일, 초기 이미지의 해당 비트가 8비트라면 MAX_BIT는 255가 되고, 16비트라면 MAX_BIT는 65535가 될 것이다. Here, Upper represents the pixel value of the initial image, Lower represents the pixel value of the inverted image, and MAX_BIT represents the maximum pixel value that can be represented by the corresponding bit of the initial image. If the corresponding bit of the initial image is 8 bits, MAX_BIT will be 255, and if it is 16 bits, MAX_BIT will be 65535.

수학식 1에 따르면, 초기 이미지에서 0에 근접한 픽셀 값을 가지는 픽셀들은 제1 전처리 이미지에서 최대 픽셀값에 근접한 픽셀 값을 가지게 되고, 초기 이미지에서 최대 픽셀값에 근접한 픽셀 값을 가지는 픽셀들은 제1 전처리 이미지에서 0에 근접한 픽셀 값을 가지게 된다. According to Equation (1), pixels having pixel values close to 0 in the initial image have pixel values close to the maximum pixel value in the first preprocessed image, and pixels having pixel values close to the maximum pixel value in the initial image are The preprocessed image has pixel values close to zero.

보다 구체적으로는, 수학식 1에 따르면 초기 이미지에서 0에 매우 가까운 픽셀 값을 가지는 픽셀들만 제1 전처리 이미지에서 높은 픽셀 값을 가지게 되어 밝게 표시된다. 즉, 초기 이미지에서 사용자의 안구 영역의 동공은 까만색으로 표시되므로 제1 전처리 이미지에서 안구 영역의 동공만 밝게 표시되고 나머지 영역은 어둡게 표시된다. More specifically, according to Equation (1), only pixels having a pixel value very close to 0 in the initial image have a high pixel value in the first preprocessed image, and are brightly displayed. That is, since the pupil of the user's eyeball region is displayed in black in the initial image, only the pupil of the eyeball region is brightly displayed in the first preprocessed image, and the remaining region is displayed in darkness.

단계 340에서는, 제1 전처리 이미지에 기초하여 사용자의 양쪽 안구의 위치를 식별한다. In step 340, the position of both eyes of the user is identified based on the first pre-processing image.

이와 같이, 본 발명의 일 실시예는 이미지 전처리를 통해 사용자 안구 영역을 식별하게 되므로 추가정인 광원 없이 사용자 안구를 식별할 수 있는 효과가 있다. As described above, according to the embodiment of the present invention, since the user's eye area is identified through the image preprocessing, it is possible to identify the user's eye without an additional light source.

도 4는 본 발명의 다른 실시예에 따른 안구 식별 방법을 설명하기 위하여 도시한 흐름도이다 FIG. 4 is a flowchart illustrating an eyeball discriminating method according to another embodiment of the present invention

단계 410에서는, 안구 식별 장치(200)가 사용자의 양쪽 안구 사이에 위치한 카메라를 이용하여 사용자의 양쪽 안구에 대한 초기 이미지를 획득한다.In step 410, the eye identification device 200 acquires an initial image of both eyes of the user using a camera positioned between the eyes of the user.

단계 420에서는, 안구 식별 장치(200)가 그 획득된 초기 이미지에서 카메라 렌즈의 특성에 의해 발생한 왜곡을 보상한다. In step 420, the eye discrimination apparatus 200 compensates for the distortion caused by the characteristics of the camera lens in the acquired initial image.

즉, 카메라 렌즈의 특성에 따라 카메라로 촬영된 이미지에 왜곡이 발생하게 되는데, 이와 같이 카메라 렌즈의 특성에 의해 발생된 이미지의 왜곡을 보상하는 것이다.That is, according to the characteristics of the camera lens, distortion occurs in the image taken by the camera. In this way, the distortion of the image caused by the characteristics of the camera lens is compensated.

바람직하게는, 본 발명의 일 실시예에 따른 안구 식별 장치(200)가 이미지 획득부(220)를 통해 획득된 초기 이미지에서 카메라(210)에 탑재된 렌즈의 특성에 의해 발생한 왜곡을 보상하는 왜곡 보상부(미도시)를 더 포함할 수 있다. Preferably, the eyeball discriminating apparatus 200 according to an embodiment of the present invention detects a distortion that compensates for distortion caused by the characteristics of the lens mounted on the camera 210 in the initial image obtained through the image acquiring unit 220 And may further include a compensation unit (not shown).

한편, 다른 실시예에서는 단계 420이 생략될 수 있다. On the other hand, in another embodiment, step 420 may be omitted.

단계 430에서는, 안구 식별 장치(200)가 왜곡이 보상된 초기 이미지를 반전 처리하여 반전 이미지를 생성한다. In step 430, the eye discrimination apparatus 200 inverts the distortion-compensated initial image to generate an inverted image.

만일, 단계 420이 생략된 경우에는 안구 식별 장치(200)가 왜곡이 보상되지 않은 제1 이미지를 반전 처리하여 반전 이미지를 생성할 수 있다. If step 420 is omitted, the eye distinguishing device 200 can reverse-process the first image for which the distortion is not compensated to generate an inverted image.

단계 440에서는, 안구 식별 장치(200)가 왜곡이 보상된 초기 이미지 및 반전 이미지를 이용하여 제1 전처리 이미지를 생성한다. In step 440, the eye discrimination apparatus 200 generates a first pre-processing image using the distortion-compensated initial image and the reversed image.

단계 450에서는, 안구 식별 장치(200)가 제1 전처리 이미지와 반전 이미지를 이용하여 제2 전처리 이미지를 생성한다. In step 450, the eye recognition device 200 generates a second pre-processing image using the first pre-processing image and the inverted image.

이때, 제2 전처리 이미지는 수학식 1에 의하여 생성될 수 있는데, 수학식 1의 Upper에는 제1 전처리 이미지의 픽셀 값이 대입되고, Lower에는 반전 이미지의 픽셀 값이 대입되고, MAX_BIT에는 제1 전처리 이미지의 해당 비트로 표현할 수 있는 최대 픽셀 값이 대입됨으로써, 제2 전처리 이미지가 생성될 수 있다. At this time, the second pre-processing image can be generated by Equation 1, where the pixel value of the first pre-processing image is substituted for Upper of Equation 1, the pixel value of the inverted image is substituted for Lower, The second preprocessed image can be generated by substituting the maximum pixel value that can be represented by the corresponding bit of the image.

이와 같이, 제1 전처리 이미지와 반전 이미지를 이용하여 생성된 제2 전처리 이미지는 제1 전처리 이미지에 비해 사용자 양쪽 안구 영역이 보다 명확히 구분되어 표시된다. As described above, the second pre-processed image generated using the first pre-processed image and the inverted image is more clearly distinguished from the first pre-processed image.

단계 470에서는, 안구 식별 장치(200)가 제2 전처리 이미지에 기초하여 사용자의 양쪽 안구의 위치를 식별한다. In step 470, the eye identification device 200 identifies the position of both eyes of the user based on the second pre-processing image.

도 5는 본 발명의 일 실시예에 따른 카메라의 구성을 설명하기 위하여 도시한 도면이다. 5 is a diagram illustrating a configuration of a camera according to an embodiment of the present invention.

도 5(a)는 사용자의 안구를 본 발명의 일 실시예에 따른 카메라를 이용하여 촬영하는 장면을 옆에서 바라본 도면으로, 본 발명의 일 실시예에 따른 카메라에 넓은 시야각을 갖는 렌즈가 탑재되어 있으므로 카메라가 사용자의 안구와 동일한 선상에서 촬영하게 되어 사용자의 피로감이 줄어들게 된다. 5 (a) is a side view of a scene in which a user's eyeball is photographed using a camera according to an embodiment of the present invention, and a lens having a wide viewing angle is mounted on a camera according to an embodiment of the present invention Therefore, the camera is photographed on the same line as the eyeball of the user, and the fatigue of the user is reduced.

도 5(b)에서는 본 발명의 일 실시예에 따른 카메라가 사용자의 양쪽 안구 가운데에 위치하는 것을 도시하고 있는데, 본 발명의 일 실시예에 따른 카메라에 넓은 시야각을 갖는 렌즈가 탑재되어 있어 한개의 카메라로 사용자의 양쪽 안구를 모두 촬영할 수 있게 된다. 5B illustrates that the camera according to the embodiment of the present invention is located in the center of both eyes of the user. In the camera according to the embodiment of the present invention, a lens having a wide viewing angle is mounted, The camera will be able to capture both eyes of the user.

이와 같이, 본 발명의 일 실시예에 따른 카메라는 한개의 카메라로 사용자의 양쪽 안구를 촬영할 수 있게 되어 안구 식별 장치(200)의 가격 및 무게를 줄일 수 있게 해주는 효과가 있다. As described above, the camera according to an embodiment of the present invention can photograph both eyes of a user with a single camera, thereby reducing the price and weight of the eye recognition device 200.

도 6은 본 발명의 일 실시예에 따른 안구 식별 방법을 나타내는 의사 코드를 도시한 도면이다. 6 is a diagram showing a pseudo code representing an eyeball discriminating method according to an embodiment of the present invention.

도 6을 참조하면, 첫번째 줄에서 초기 이미지(Original)가 8비트 이미지임을 나타낸다. Referring to FIG. 6, the first line indicates that the original image is an 8-bit image.

두번째 줄에서 사용자의 양쪽 안구에 대한 초기 이미지의 픽셀 값들을 입력 받는다. In the second line, the pixel values of the initial image for both eyes of the user are input.

세번째 줄에서는, 최대 픽셀값 255에서 초기 이미지의 픽셀 값을 감산함으로써 반전 이미지의 픽셀 값들을 생성한다. In the third row, pixel values of the inverse image are generated by subtracting the pixel value of the initial image from the maximum pixel value of 255. [

네번째 줄에서는, 초기 이미지와 반전 이미지를 이용하여 제1 전처리 이미지(Burn)의 픽셀 값들을 생성한다.In the fourth line, pixel values of the first preprocessed image (Burn) are generated using the initial image and the inverted image.

다섯 번째 줄에서는, 제1 전처리 이미지의 픽셀 값이 255를 초과하면 제1 전처리 이미지의 픽셀 값을 255로 설정하고, 그 외의 경우에는 제1 전처리 이미지의 픽셀 값을 그대로 사용한다. In the fifth line, if the pixel value of the first preprocessed image exceeds 255, the pixel value of the first preprocessed image is set to 255, otherwise, the pixel value of the first preprocessed image is used as it is.

여섯 번째 줄에서는, 제1 전처리 이미지(Burn)와 반전 이미지(Inverse)를 이용하여 제2 전처리 이미지(DBurn)의 픽셀 값들을 생성한다. In the sixth line, pixel values of the second preprocessed image DBurn are generated using the first preprocessed image Burn and the inverted image.

일곱 번째 줄에서는, 제2 전처리 이미지(DBurn)의 픽셀 값이 255를 초과하면 제2 전처리 이미지의 픽셀 값을 255로 설정하고, 그 외의 경우에는 제2 전처리 이미지의 픽셀 값을 제2 전처리 이미지의 최종 픽셀 값으로 결정한다. In the seventh line, if the pixel value of the second preprocessed image DBurn exceeds 255, the pixel value of the second preprocessed image is set to 255; otherwise, the pixel value of the second preprocessed image is set to 255 As the final pixel value.

도 7은 본 발명의 일 실시예에 따른 전처리 이미지를 설명하기 위하여 도시한 도면이다. 7 is a view for explaining a pre-processed image according to an embodiment of the present invention.

도 7(a)는 본 발명의 일 실시예에 따른 사용자 양쪽 안구에 대한 초기 이미지를 도시한 것으로, 한개의 카메라로 촬영을 하여 한장의 초기 이미지에 사용자의 양쪽 안구가 모두 표시된 것을 확인할 수 있다. 7A shows an initial image of both eyes of a user according to an embodiment of the present invention. It can be seen that both eyes of a user are displayed on a single initial image by photographing with one camera.

도 7(b)는 본 발명의 일 실시예에 따른 사용자 양쪽 안구에 대한 제2 전처리 이미지를 도시한 것으로, 사용자의 양쪽 안구 영역은 밝게 표시되고 나머지 영역들은 모두 어둡게 표시됨으로써, 사용자 양쪽 안구 영역이 명확히 식별되는 것을 확인할 수 있다. 7B shows a second pre-processing image for both eyes of a user according to an embodiment of the present invention, wherein both ocular regions of the user are brightly displayed and all of the remaining regions are darkly displayed, It can be confirmed that it is clearly identified.

도 8은 본 발명의 일 실시예에 따른 안구 추적 장치를 설명하기 위하여 도시한 도면이다. 도 8을 참조하면, 본 발명의 일 실시예에 따른 안구 추적 장치(202)는 카메라(210), 이미지 획득부(220), 반전 이미지 생성부(230), 이미지 전처리부(240) 및 안구 위치 추적부(252)를 포함한다. 8 is a view for explaining an eye tracking apparatus according to an embodiment of the present invention. 8, an eye tracking apparatus 202 according to an embodiment of the present invention includes a camera 210, an image acquiring unit 220, an inverted image generating unit 230, an image preprocessing unit 240, And a tracking unit 252.

카메라(210)는 사용자에게 부착시 사용자의 양쪽 안구 사이에 위치하도록 구성된다.The camera 210 is configured to be positioned between both eyes of the user upon attachment to the user.

이미지 획득부(220)는 카메라(210)를 이용하여 소정 시간 간격으로 사용자의 양쪽 안구에 대한 복수의 초기 이미지를 획득한다. The image acquiring unit 220 acquires a plurality of initial images for both eyes of the user at predetermined time intervals using the camera 210. [

반전 이미지 생성부(230)는 복수의 초기 이미지를 반전 처리하여 복수의 반전 이미지를 생성한다. The inverse image generating unit 230 inverts a plurality of initial images to generate a plurality of inverse images.

이미지 전처리부(240)는 복수의 초기 이미지 및 복수의 반전 이미지를 이용하여 복수의 초기 이미지 각각에서의 사용자의 양쪽 안구의 위치를 구분하여 표시하도록 처리된 복수의 제1 전처리 이미지를 생성한다. The image preprocessing unit 240 generates a plurality of first preprocessed images processed to display the positions of both eyes of the user in each of the plurality of initial images using a plurality of initial images and a plurality of inverted images.

안구 위치 추적부(250)는 복수의 제1 전처리 이미지에 기초하여 사용자의 양쪽 안구의 위치를 추적한다. The eye position tracking unit 250 tracks the positions of both eyes of the user based on the plurality of first pre-processing images.

즉, 안구 위치 추적부(250)는 복수의 제1 전처리 이미지를 시간별로 분석하여 사용자의 안구의 위치가 어떻게 변동되는지를 분석함으로써 사용자의 양쪽 안구의 위치를 추적하게 된다. That is, the eye position tracking unit 250 tracks the positions of both eyes of the user by analyzing a plurality of first pre-processing images by time and analyzing how the position of the user's eye changes.

도 9는 본 발명의 일 실시예에 따른 안구 추적 방법을 설명하기 위하여 도시한 흐름도이다. 9 is a flowchart illustrating an eye tracking method according to an embodiment of the present invention.

단계 910에서는, 안구 추적 장치(202)가 사용자의 양쪽 안구 사이에 위치한 카메라를 이용하여 소정 시간 간격으로 사용자의 양쪽 안구에 대한 복수의 초기 이미지를 획득한다. In step 910, the eye tracking device 202 acquires a plurality of initial images for both eyes of the user at predetermined time intervals using a camera located between both eyes of the user.

단계 920에서는, 안구 추적 장치(202)가 복수의 초기 이미지를 반전 처리하여 복수의 반전 이미지를 생성한다. In step 920, the eye tracking device 202 inverts a plurality of initial images to generate a plurality of inverted images.

단계 930에서는, 안구 추적 장치(202)가 복수의 초기 이미지 및 복수의 반전 이미지를 이용하여 복수의 초기 이미지 각각에서의 사용자의 양쪽 안구의 위치를 구분하여 표시하도록 처리된 복수의 제1 전처리 이미지를 생성한다. In step 930, the eye tracking device 202 uses a plurality of initial images and a plurality of reversed images to generate a plurality of first pre-processing images processed to display the position of both eyes of the user in each of the plurality of initial images .

단계 940에서는, 안구 추적 장치(202)가 복수의 제1 전처리 이미지에 기초하여 사용자의 양쪽 안구의 위치를 추적한다. In step 940, the eye tracking device 202 tracks the position of both eyes of the user based on the plurality of first pre-processing images.

한편, 상술한 본 발명의 실시예들은 컴퓨터에서 실행될 수 있는 프로그램으로 작성가능하고, 컴퓨터로 읽을 수 있는 기록매체를 이용하여 상기 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다.The above-described embodiments of the present invention can be embodied in a general-purpose digital computer that can be embodied as a program that can be executed by a computer and operates the program using a computer-readable recording medium.

상기 컴퓨터로 읽을 수 있는 기록매체는 마그네틱 저장매체(예를 들면, 롬, 플로피 디스크, 하드디스크 등), 광학적 판독 매체(예를 들면, 시디롬, 디브이디 등) 를 포함한다.The computer readable recording medium includes a magnetic storage medium (e.g., ROM, floppy disk, hard disk, etc.), optical reading medium (e.g., CD ROM, DVD, etc.).

이제까지 본 발명에 대하여 그 바람직한 실시예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.The present invention has been described with reference to the preferred embodiments. It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the appended claims. Therefore, the disclosed embodiments should be considered in an illustrative rather than a restrictive sense. The scope of the present invention is defined by the appended claims rather than by the foregoing description, and all differences within the scope of equivalents thereof should be construed as being included in the present invention.

Claims (12)

사용자의 양쪽 안구 사이에 위치한 카메라를 이용하여 상기 사용자의 양쪽 안구에 대한 이미지인 초기 이미지를 획득하는 단계;
상기 초기 이미지를 반전 처리하여 반전 이미지를 생성하는 단계;
상기 초기 이미지 및 상기 반전 이미지를 이용하여 상기 초기 이미지에서의 상기 사용자의 양쪽 안구의 위치를 구분하여 표시하도록 처리된 제1 전처리 이미지를 생성하는 단계; 및
상기 제1 전처리 이미지에 기초하여 상기 사용자의 양쪽 안구의 위치를 식별하는 단계를 포함하고,
상기 제1 전처리 이미지를 생성하는 단계는
하기의 (수학식 1)에 의거하여 상기 제1 전처리 이미지의 픽셀 값을 산출하는 것을 특징으로 하는 안구 식별 방법.
(수학식 1)
Figure pat00006

이때, Upper는 초기 이미지의 픽셀 값, Lower는 반전 이미지의 픽셀 값, MAX_BIT는 상기 초기 이미지의 해당 비트로 표현할 수 있는 최대 픽셀 값임.
Obtaining an initial image that is an image of both eyes of the user using a camera positioned between both eyes of the user;
Inverting the initial image to generate an inverted image;
Generating a first pre-processing image that is processed to separately display positions of both eyes of the user in the initial image using the initial image and the inverted image; And
Identifying the position of both eyes of the user based on the first pre-processing image,
The step of generating the first pre-
Wherein the pixel value of the first preprocessed image is calculated based on the following equation (1).
(1)
Figure pat00006

Here, Upper is the pixel value of the initial image, Lower is the pixel value of the inverted image, and MAX_BIT is the maximum pixel value that can be expressed by the corresponding bits of the initial image.
제1항에 있어서,
상기 제1 전처리 이미지를 생성하는 단계는
상기 초기 이미지에서의 상기 사용자의 양쪽 안구 영역은 상대적으로 밝은 영역으로 변환하여 표시하고, 상기 사용자의 양쪽 안구 영역을 제외한 나머지 영역은 상대적으로 어두운 영역으로 표시하는 전처리를 수행함으로써 상기 제1 전처리 이미지를 생성하는 것을 특징으로 하는 안구 식별 방법.
The method according to claim 1,
The step of generating the first pre-
Processing the image of both eyes of the user in the initial image by converting the image into a relatively bright region and displaying the remaining region except for both ocular regions of the user as a relatively dark region, Wherein the at least one eye distinguishes the at least one eye.
제1항에 있어서,
상기 제1 전처리 이미지와 상기 반전 이미지를 이용하여 상기 제1 전처리 이미지에서의 상기 사용자의 양쪽 안구의 위치를 구분하여 표시하도록 처리된 제2 전처리 이미지를 생성하는 단계를 더 포함하는 것을 특징으로 하는 안구 식별 방법.
The method according to claim 1,
Further comprising generating a second pre-processing image processed to display the positions of both eyes of the user in the first pre-processing image using the first pre-processing image and the inverted image, Identification method.
제1항에 있어서,
상기 카메라는
상기 사용자의 양쪽 안구의 가운데에 위치하는 것을 특징으로 하는 안구 식별 방법.
The method according to claim 1,
The camera
Wherein the eyeball is positioned at the center of both eyes of the user.
제1항에 있어서,
상기 카메라에 탑재된 렌즈는
상기 사용자의 양쪽 안구를 촬영할 수 있는 시야각을 가지는 어안렌즈 또는 양쪽 안구의 촬영을 목적으로 하는 특수 목적 렌즈인 것을 특징으로 하는 안구 식별 방법.
The method according to claim 1,
The lens mounted on the camera
A fisheye lens having a viewing angle at which both eyes of the user can be photographed or a special-purpose lens for photographing both eyes.
사용자에게 부착시 사용자의 양쪽 안구 사이에 위치하도록 구성되는 카메라;
상기 카메라를 이용하여 상기 사용자의 양쪽 안구에 대한 이미지인 초기 이미지를 획득하는 이미지 획득부;
상기 초기 이미지를 반전 처리하여 반전 이미지를 생성하는 반전 이미지 생성부;
상기 초기 이미지 및 상기 반전 이미지를 이용하여 상기 초기 이미지에서의 상기 사용자의 양쪽 안구의 위치를 구분하여 표시하도록 처리된 제1 전처리 이미지를 생성하는 이미지 전처리부; 및
상기 제1 전처리 이미지에 기초하여 상기 사용자의 양쪽 안구의 위치를 식별하는 안구 위치 식별부를 포함하고,
상기 이미지 전처리부는
하기의 (수학식 1)에 의거하여 상기 제1 전처리 이미지의 픽셀 값을 산출하는 것을 특징으로 하는 안구 식별 장치.
(수학식 1)
Figure pat00007

이때, Upper는 초기 이미지의 픽셀 값, Lower는 반전 이미지의 픽셀 값, MAX_BIT는 상기 초기 이미지의 해당 비트로 표현할 수 있는 최대 픽셀 값임.
A camera configured to be positioned between both eyes of the user upon attachment to the user;
An image obtaining unit that obtains an initial image that is an image of both eyes of the user using the camera;
An inverted image generating unit for inverting the initial image to generate an inverted image;
An image preprocessing unit for generating a first pre-processing image processed to display the positions of both eyes of the user in the initial image by using the initial image and the inverted image; And
And an eye position identifying unit for identifying positions of both eyes of the user based on the first pre-processing image,
The image pre-
Wherein the pixel value of the first preprocessed image is calculated on the basis of the following equation (1).
(1)
Figure pat00007

Here, Upper is the pixel value of the initial image, Lower is the pixel value of the inverted image, and MAX_BIT is the maximum pixel value that can be expressed by the corresponding bits of the initial image.
제6항에 있어서,
상기 이미지 전처리부는
상기 초기 이미지에서의 상기 사용자의 양쪽 안구 영역은 상대적으로 밝은 영역으로 변환하여 표시하고, 상기 사용자의 양쪽 안구 영역을 제외한 나머지 영역은 상대적으로 어두운 영역으로 표시하는 전처리를 수행함으로써 상기 제1 전처리 이미지를 생성하는 것을 특징으로 하는 안구 식별 장치.
The method according to claim 6,
The image pre-
Processing the image of both eyes of the user in the initial image by converting the image into a relatively bright region and displaying the remaining region except for both ocular regions of the user as a relatively dark region, Wherein the eye recognition device generates an eyeball.
제6항에 있어서,
상기 이미지 전처리부는
상기 제1 전처리 이미지와 상기 반전 이미지를 이용하여 상기 제1 전처리 이미지에서의 상기 사용자의 양쪽 안구의 위치를 구분하여 표시하도록 처리된 제2 전처리 이미지를 생성하는 동작을 더 수행하는 것을 특징으로 하는 안구 식별 장치.
The method according to claim 6,
The image pre-
Further comprising the step of generating a second pre-processing image processed to display the positions of both eyes of the user in the first pre-processing image using the first pre-processing image and the inverted image, Identification device.
제6항에 있어서,
상기 카메라는
상기 사용자의 양쪽 안구의 가운데에 위치하는 것을 특징으로 하는 안구 식별 장치.
The method according to claim 6,
The camera
Wherein the eyeball is positioned at the center of both eyes of the user.
제6항에 있어서,
상기 카메라에 탑재된 렌즈는
상기 사용자의 양쪽 안구를 촬영할 수 있는 시야각을 가지는 어안렌즈 또는 양쪽 안구의 촬영을 목적으로 하는 특수 목적 렌즈인 것을 특징으로 하는 안구 식별 장치.
The method according to claim 6,
The lens mounted on the camera
A fisheye lens having a viewing angle at which both eyes of the user can be photographed, or a special-purpose lens for photographing both eyes.
사용자의 양쪽 안구 사이에 위치한 카메라를 이용하여 소정 시간 간격으로 상기 사용자의 양쪽 안구에 대한 복수의 이미지인 복수의 초기 이미지를 획득하는 단계;
상기 복수의 초기 이미지를 반전 처리하여 복수의 반전 이미지를 생성하는 단계;
상기 복수의 초기 이미지 및 상기 복수의 반전 이미지를 이용하여 상기 복수의 초기 이미지 각각에서의 상기 사용자의 양쪽 안구의 위치를 구분하여 표시하도록 처리된 복수의 제1 전처리 이미지를 생성하는 단계; 및
상기 복수의 제1 전처리 이미지에 기초하여 상기 사용자의 양쪽 안구의 위치를 추적하는 단계를 포함하고,
상기 제1 전처리 이미지를 생성하는 단계는
하기의 (수학식 1)에 의거하여 상기 제1 전처리 이미지의 픽셀 값을 산출하는 것을 특징으로 하는 안구 추적 방법.
(수학식 1)
Figure pat00008

이때, Upper는 초기 이미지의 픽셀 값, Lower는 반전 이미지의 픽셀 값, MAX_BIT는 상기 초기 이미지의 해당 비트로 표현할 수 있는 최대 픽셀 값임.
Acquiring a plurality of initial images that are a plurality of images for both eyes of the user at predetermined time intervals using a camera positioned between both eyes of the user;
Inverting the plurality of initial images to generate a plurality of inverted images;
Generating a plurality of first pre-processing images processed to display the positions of both eyes of the user in each of the plurality of initial images using the plurality of initial images and the plurality of inverted images; And
And tracking the position of both eyes of the user based on the plurality of first pre-processing images,
The step of generating the first pre-
Wherein the pixel value of the first preprocessed image is calculated based on the following equation (1).
(1)
Figure pat00008

Here, Upper is the pixel value of the initial image, Lower is the pixel value of the inverted image, and MAX_BIT is the maximum pixel value that can be expressed by the corresponding bits of the initial image.
사용자에게 부착시 사용자의 양쪽 안구 사이에 위치하도록 구성되는 카메라;
상기 카메라를 이용하여 소정 시간 간격으로 상기 사용자의 양쪽 안구에 대한 복수의 이미지인 복수의 초기 이미지를 획득하는 이미지획득부;
상기 복수의 초기 이미지를 반전 처리하여 복수의 반전 이미지를 생성하는 반전 이미지 생성부;
상기 복수의 초기 이미지 및 상기 복수의 반전 이미지를 이용하여 상기 복수의 초기 이미지 각각에서의 상기 사용자의 양쪽 안구의 위치를 구분하여 표시하도록 처리된 복수의 제1 전처리 이미지를 생성하는 이미지 전처리부; 및
상기 복수의 제1 전처리 이미지에 기초하여상기 사용자의 양쪽 안구의 위치를 추적하는 안구 위치 추적부를 포함하고,
상기 이미지 전처리부는
하기의 (수학식 1)에 의거하여 상기 제1 전처리 이미지의 픽셀 값을 산출하는 것을 특징으로 하는 안구 추적 장치.
(수학식 1)
Figure pat00009

이때, Upper는 초기 이미지의 픽셀 값, Lower는 반전 이미지의 픽셀 값, MAX_BIT는 상기 초기 이미지의 해당 비트로 표현할 수 있는 최대 픽셀 값임.
A camera configured to be positioned between both eyes of the user upon attachment to the user;
An image obtaining unit that obtains a plurality of initial images, which are a plurality of images for both eyes of the user, at predetermined time intervals using the camera;
An inverted image generating unit for inverting the plurality of initial images to generate a plurality of inverted images;
An image preprocessing unit for generating a plurality of first pre-processing images processed to display the position of both eyes of the user in each of the plurality of initial images using the plurality of initial images and the plurality of inverted images; And
And an eye position tracking unit for tracking the positions of both eyes of the user based on the plurality of first pre-processing images,
The image pre-
And calculates a pixel value of the first preprocessed image based on the following equation (1).
(1)
Figure pat00009

Here, Upper is the pixel value of the initial image, Lower is the pixel value of the inverted image, and MAX_BIT is the maximum pixel value that can be expressed by the corresponding bits of the initial image.
KR1020160053342A 2016-04-29 2016-04-29 Method and Apparatus for identifying eyeball position, Method and Apparatus for tracking eyeball position KR101643724B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160053342A KR101643724B1 (en) 2016-04-29 2016-04-29 Method and Apparatus for identifying eyeball position, Method and Apparatus for tracking eyeball position

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160053342A KR101643724B1 (en) 2016-04-29 2016-04-29 Method and Apparatus for identifying eyeball position, Method and Apparatus for tracking eyeball position

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020140029651A Division KR20150107157A (en) 2014-03-13 2014-03-13 Method and Apparatus for identifying eyeball position, Method and Apparatus for tracking eyeball position

Publications (2)

Publication Number Publication Date
KR20160057360A true KR20160057360A (en) 2016-05-23
KR101643724B1 KR101643724B1 (en) 2016-07-29

Family

ID=56104282

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160053342A KR101643724B1 (en) 2016-04-29 2016-04-29 Method and Apparatus for identifying eyeball position, Method and Apparatus for tracking eyeball position

Country Status (1)

Country Link
KR (1) KR101643724B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111309138A (en) * 2018-12-12 2020-06-19 简韶逸 Method for reducing eyeball tracking operation and eye movement tracking device thereof
EP3653107A4 (en) * 2017-07-12 2020-07-08 Sony Corporation Image processing device, ophthalmic observation apparatus, and ophthalmic observation system

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040092461A (en) * 2003-04-25 2004-11-03 캐논 가부시끼가이샤 Ophthalmologic image pickup system
KR20060105271A (en) * 2005-04-04 2006-10-11 엘지전자 주식회사 Assuming system of eyeball position using 3-dimension position information and assuming method of eyeball position
KR20110038568A (en) * 2009-10-08 2011-04-14 한국전자통신연구원 Apparatus and mehtod for tracking eye

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040092461A (en) * 2003-04-25 2004-11-03 캐논 가부시끼가이샤 Ophthalmologic image pickup system
KR20060105271A (en) * 2005-04-04 2006-10-11 엘지전자 주식회사 Assuming system of eyeball position using 3-dimension position information and assuming method of eyeball position
KR20110038568A (en) * 2009-10-08 2011-04-14 한국전자통신연구원 Apparatus and mehtod for tracking eye

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3653107A4 (en) * 2017-07-12 2020-07-08 Sony Corporation Image processing device, ophthalmic observation apparatus, and ophthalmic observation system
CN111309138A (en) * 2018-12-12 2020-06-19 简韶逸 Method for reducing eyeball tracking operation and eye movement tracking device thereof

Also Published As

Publication number Publication date
KR101643724B1 (en) 2016-07-29

Similar Documents

Publication Publication Date Title
US11948282B2 (en) Image processing apparatus, image processing method, and storage medium for lighting processing on image using model data
US11281288B2 (en) Eye and head tracking
US10304164B2 (en) Image processing apparatus, image processing method, and storage medium for performing lighting processing for image data
US10825157B2 (en) Glare reduction in captured images
JP5397059B2 (en) Image processing apparatus and method, program, and recording medium
TWI431549B (en) Image processing apparatus and method and computer program product
JP2022036179A (en) Image processing apparatus and control method therefor and program
KR102048411B1 (en) Wearable device and image processing method thereof
US20150304625A1 (en) Image processing device, method, and recording medium
JP5779089B2 (en) Edge detection apparatus, edge detection program, and edge detection method
JP2017209280A (en) Skin diagnostic device and skin diagnostic method
CN111738241A (en) Pupil detection method and device based on double cameras
JP6221292B2 (en) Concentration determination program, concentration determination device, and concentration determination method
KR101643724B1 (en) Method and Apparatus for identifying eyeball position, Method and Apparatus for tracking eyeball position
US9323981B2 (en) Face component extraction apparatus, face component extraction method and recording medium in which program for face component extraction method is stored
EP3671541B1 (en) Classification of glints using an eye tracking system
JP6896811B2 (en) Image processing equipment, image processing methods, and programs
JP2009244944A (en) Image-recovering apparatus and photographing apparatus
WO2018159037A1 (en) Facial detection device, and control method and program for same
KR20150107157A (en) Method and Apparatus for identifying eyeball position, Method and Apparatus for tracking eyeball position
CN115039147A (en) Eye detection method, eye detection device, and eye detection program
JP4831344B2 (en) Eye position detection method
EP4372672A1 (en) Extended depth-of-field correction using reconstructed depth map
US20240031545A1 (en) Information processing apparatus, information processing method, and storage medium
Hsieh et al. Pixel-based multi-focus image fusion by color appearance model

Legal Events

Date Code Title Description
A107 Divisional application of patent
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant