KR20160057360A - Method and Apparatus for identifying eyeball position, Method and Apparatus for tracking eyeball position - Google Patents
Method and Apparatus for identifying eyeball position, Method and Apparatus for tracking eyeball position Download PDFInfo
- Publication number
- KR20160057360A KR20160057360A KR1020160053342A KR20160053342A KR20160057360A KR 20160057360 A KR20160057360 A KR 20160057360A KR 1020160053342 A KR1020160053342 A KR 1020160053342A KR 20160053342 A KR20160053342 A KR 20160053342A KR 20160057360 A KR20160057360 A KR 20160057360A
- Authority
- KR
- South Korea
- Prior art keywords
- image
- user
- eyes
- initial
- pixel value
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/193—Preprocessing; Feature extraction
-
- G06K9/0061—
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/18—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 for optical projection, e.g. combination of mirror and condenser and objective
-
- G06K9/00604—
-
- G06K9/00617—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/19—Sensors therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/197—Matching; Classification
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Ophthalmology & Optometry (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Optics & Photonics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Eye Examination Apparatus (AREA)
Abstract
Description
본 발명의 일실시예는 안구 위치 식별 및 추적에 관한 것으로, 특히 이미지 처리를 기반으로 한 안구 위치 식별 방법 및 그 장치, 안구 위치 추적 방법 및 그 장치에 관한 것이다.An embodiment of the present invention relates to eye position identification and tracking, and more particularly, to an eye position identification method and apparatus based on image processing, an eye position tracking method, and an apparatus therefor.
안구 추적 기법은 사용자의 안구의 움직임을 추적하여 사용자의 관심 영역 또는 원하는 동작 등을 파악하고, 그 파악된 정보를 다양한 분야에 적용하는 기법이다. The eye tracking technique is a technique of tracking the movement of the user's eyeball, grasping the user's area of interest or desired motion, and applying the detected information to various fields.
종래에는 안구의 위치를 추적하기 위해 일반적인 웹카메라와 같은 소형 영상 장치를 이용하여 이미지를 획득한 후 이를 분석함으로써 안구 추적을 수행하였다. Conventionally, eye tracking was performed by acquiring an image using a small image device such as a general web camera and then analyzing the obtained image to track the position of the eyeball.
도 1은 종래의 안구 추적 방법을 설명하기 위하여 도시한 도면이다. 1 is a view illustrating a conventional eye tracking method.
도 1(a)는 사용자의 안구를 한개의 카메라를 이용하여 촬영하는 장면을 옆에서 바라본 도면으로, 이와 같은 경우에는 카메라가 사용자의 한개의 안구쪽에 편향되게 설치되어 무게 중심이 맞지 않게 되고, 그 카메라의 시야각이 좁기 때문에 안구의 전체적인 모습을 획득하기 위해서 카메라가 사용자 안구의 아래쪽에서 비스듬하게 위치하게 되어 사용자의 피로를 유발할 수 있다. FIG. 1 (a) is a side view of a scene in which a user's eyeball is photographed using one camera. In such a case, the camera is installed to be deflected toward one eyeball of the user, Since the viewing angle of the camera is narrow, the camera may be positioned obliquely below the user's eye in order to obtain the overall appearance of the eyeball, which may cause fatigue of the user.
도 1(b)는 두개의 카메라를 이용하여 사용자의 두개의 안구를 촬영하는 실시예를 도시하고 있는데,이와 같이 두개의 카메라를 이용하게 되면 안구 추적 장치의 가격과 무게를 상승시키게 되는 문제가 있다. FIG. 1 (b) shows an embodiment in which two eyes of a user are photographed using two cameras. The use of two cameras increases the price and weight of the eye tracking device .
또한, 도 1에는 도시되지 않았지만 안구의 정확한 위치를 검출하기 위해 적외선 인공 광원을 추가로 방사하여 영상을 획득할 수도 있는데, 이는 사용자로 하여금 눈의 피로를 상승시키고 장기간 사용시 사용자의 눈에 악영향을 미칠 수 있는 문제가 있다. In addition, although not shown in FIG. 1, an infrared artificial light source may be additionally irradiated to acquire an image to detect an accurate position of the eyeball. This may cause a user to increase eye fatigue and adversely affect the user's eyes during long- There is a problem.
따라서, 가격이 저렴하면서도 무게가 가볍고, 사용자의 피로를 줄여줄 수 있는 안구 추적 장치 개발의 필요성이 대두되고 있다. Therefore, there is a need to develop an eye tracking device which is low in cost, light in weight, and able to reduce fatigue of a user.
본 발명의 일 실시예의 목적은 가격이 저렴하면서도 무게가 가볍고, 사용자의 피로를 줄여줄 수 있는 안구 식별 장치 및 추적 장치를 제공하는 것이다. An object of an embodiment of the present invention is to provide an eyeball discriminating apparatus and a tracking apparatus which are low in cost and light in weight and can reduce fatigue of a user.
상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른 안구 식별 방법은 사용자의 양쪽 안구 사이에 위치한 카메라를 이용하여 상기 사용자의 양쪽 안구에 대한 이미지인 초기 이미지를 획득하는 단계; 상기 초기 이미지를 반전 처리하여 반전 이미지를 생성하는 단계; 상기 초기 이미지 및 상기 반전 이미지를 이용하여 상기 초기 이미지에서의 상기 사용자의 양쪽 안구의 위치를 구분하여 표시하도록 처리된 제1 전처리 이미지를 생성하는 단계; 및 상기 제1 전처리 이미지에 기초하여 상기 사용자의 양쪽 안구의 위치를 식별하는 단계를 포함하고, 상기 제1 전처리 이미지를 생성하는 단계는 하기의 (수학식 1)에 의거하여 상기 제1 전처리 이미지의 픽셀 값을 산출할 수 있다. According to another aspect of the present invention, there is provided an eyeball discriminating method comprising: obtaining an initial image, which is an image of both eyes of a user, using a camera positioned between both eyes of a user; Inverting the initial image to generate an inverted image; Generating a first pre-processing image that is processed to separately display positions of both eyes of the user in the initial image using the initial image and the inverted image; And identifying positions of both eyes of the user based on the first pre-processing image, wherein the step of generating the first pre-processing image comprises the steps of: The pixel value can be calculated.
(수학식 1)(1)
이때, Upper는 초기 이미지의 픽셀 값, Lower는 반전 이미지의 픽셀 값, MAX_BIT는 상기 초기 이미지의 해당 비트로 표현할 수 있는 최대 픽셀 값이다. Here, Upper is the pixel value of the initial image, Lower is the pixel value of the inverted image, and MAX_BIT is the maximum pixel value that can be expressed by the corresponding bits of the initial image.
바람직하게는, 상기 제1 전처리 이미지를 생성하는 단계는 상기 초기 이미지에서의 상기 사용자의 양쪽 안구 영역은 상대적으로 밝은 영역으로 변환하여 표시하고, 상기 사용자의 양쪽 안구 영역을 제외한 나머지 영역은 상대적으로 어두운 영역으로 표시하는 전처리를 수행함으로써 상기 제1 전처리 이미지를 생성할 수 있다. Advantageously, the step of generating the first pre-processing image comprises converting both the ocular regions of the user in the initial image into relatively bright regions and displaying the remaining regions except for both ocular regions of the user relatively dark Region by performing pre-processing to display the first preprocessed image.
바람직하게는, 본 발명의 일 실시예에 따른 안구 식별 방법은 상기 제1 전처리 이미지와 상기 반전 이미지를 이용하여 상기 제1 전처리 이미지에서의 상기 사용자의 양쪽 안구의 위치를 구분하여 표시하도록 처리된 제2 전처리 이미지를 생성하는 단계를 더 포함할 수 있다. Preferably, the method for identifying an eye according to an embodiment of the present invention includes the steps of dividing and displaying positions of both eyes of the user in the first preprocessed image using the first preprocessed image and the inverted image, 2 < / RTI > pre-processing image.
바람직하게는, 본 발명의 일 실시예에 따른 안구 식별 방법은 상기 획득된 초기 이미지에서 상기 카메라에 탑재된 렌즈의 특성에 의해 발생한 왜곡을 보상하는 단계를 더 포함할 수 있다. Preferably, the method for discriminating an eye according to an embodiment of the present invention may further comprise compensating for a distortion caused by a characteristic of a lens mounted on the camera in the obtained initial image.
바람직하게는, 상기 카메라는 상기 사용자의 양쪽 안구의 가운데에 위치할 수 있다. Preferably, the camera may be located in the middle of both eyes of the user.
바람직하게는, 상기 카메라에 탑재된 렌즈는 상기 사용자의 양쪽 안구를 촬영할 수 있는 시야각을 가지는 어안렌즈 또는 양쪽 안구의 촬영을 목적으로 하는 특수 목적 렌즈일 수 있다. Preferably, the lens mounted on the camera may be a fisheye lens having a viewing angle capable of photographing both eyes of the user, or a special purpose lens for photographing both eyes.
또한, 상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른 안구 식별 장치는 사용자에게 부착시 사용자의 양쪽 안구 사이에 위치하도록 구성되는 카메라; 상기 카메라를 이용하여 상기 사용자의 양쪽 안구에 대한 이미지인 초기 이미지를 획득하는 이미지 획득부; 상기 초기 이미지를 반전 처리하여 반전 이미지를 생성하는 반전 이미지 생성부; 상기 초기 이미지 및 상기 반전 이미지를 이용하여 상기 초기 이미지에서의 상기 사용자의 양쪽 안구의 위치를 구분하여 표시하도록 처리된 제1 전처리 이미지를 생성하는 이미지 전처리부; 및 상기 제1 전처리 이미지에 기초하여 상기 사용자의 양쪽 안구의 위치를 식별하는 안구 위치 식별부를 포함할 수 있고, 상기 이미지 전처리부는 하기의 (수학식 1)에 의거하여 상기 제1 전처리 이미지의 픽셀 값을 산출할 수 있다. According to another aspect of the present invention, there is provided an eyeball discriminating apparatus comprising: a camera configured to be positioned between both eyes of a user when attached to a user; An image obtaining unit that obtains an initial image that is an image of both eyes of the user using the camera; An inverted image generating unit for inverting the initial image to generate an inverted image; An image preprocessing unit for generating a first pre-processing image processed to display the positions of both eyes of the user in the initial image by using the initial image and the inverted image; And an eye position identifying unit for identifying positions of both eyes of the user based on the first preprocessed image, and the image preprocessing unit may calculate a pixel value of the first preprocessed image based on the following Equation (1) Can be calculated.
(수학식 1)(1)
이때, Upper는 초기 이미지의 픽셀 값, Lower는 반전 이미지의 픽셀 값, MAX_BIT는 상기 초기 이미지의 해당 비트로 표현할 수 있는 최대 픽셀 값이다. Here, Upper is the pixel value of the initial image, Lower is the pixel value of the inverted image, and MAX_BIT is the maximum pixel value that can be expressed by the corresponding bits of the initial image.
바람직하게는, 상기 이미지 전처리부는 상기 초기 이미지에서의 상기 사용자의 양쪽 안구 영역은 상대적으로 밝은 영역으로 변환하여 표시하고, 상기 사용자의 양쪽 안구 영역을 제외한 나머지 영역은 상대적으로 어두운 영역으로 표시하는 전처리를 수행함으로써 상기 제1 전처리 이미지를 생성할 수 있다. Preferably, the image preprocessing unit transforms and displays both eye regions of the user in the initial image into a relatively bright region, and displays a region other than the eyeball regions of the user as a relatively dark region Thereby generating the first preprocessed image.
바람직하게는, 상기 이미지 전처리부는 상기 제1 전처리 이미지와 상기 반전 이미지를 이용하여 상기 제1 전처리 이미지에서의 상기 사용자의 양쪽 안구의 위치를 구분하여 표시하도록 처리된 제2 전처리 이미지를 생성하는 동작을 더 수행할 수 있다. Advantageously, the image preprocessing unit is operable to generate a second pre-processing image that is processed to distinguish and display the positions of both eyes of the user in the first pre-processing image using the first pre-processing image and the inverted image You can do more.
바람직하게는, 본 발명의 일 실시예에 따른 안구 식별 장치는 상기 획득된 초기 이미지에서 상기 카메라에 탑재된 렌즈의 특성에 의해 발생한 왜곡을 보상하는 왜곡 보상부를 더 포함할 수 있다. Preferably, the eyeball discriminating apparatus according to an embodiment of the present invention may further include a distortion compensating unit that compensates distortion caused by the characteristics of the lens mounted on the camera in the obtained initial image.
바람직하게는, 상기 카메라는 상기 사용자의 양쪽 안구의 가운데에 위치할 수 있다. Preferably, the camera may be located in the middle of both eyes of the user.
바람직하게는, 상기 카메라에 탑재된 렌즈는 상기 사용자의 양쪽 안구를 촬영할 수 있는 시야각을 가지는 어안렌즈 또는 양쪽 안구의 촬영을 목적으로 하는 특수 목적 렌즈일 수 있다.Preferably, the lens mounted on the camera may be a fisheye lens having a viewing angle capable of photographing both eyes of the user, or a special purpose lens for photographing both eyes.
또한, 상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른 안구 추적 방법은 사용자의 양쪽 안구 사이에 위치한 카메라를 이용하여 소정 시간 간격으로 상기 사용자의 양쪽 안구에 대한 복수의 이미지인 복수의 초기 이미지를 획득하는 단계; 상기 복수의 초기 이미지를 반전 처리하여 복수의 반전 이미지를 생성하는 단계; 상기 복수의 초기 이미지 및 상기 복수의 반전 이미지를 이용하여 상기 복수의 초기 이미지 각각에서의 상기 사용자의 양쪽 안구의 위치를 구분하여 표시하도록 처리된 복수의 제1 전처리 이미지를 생성하는 단계; 및 상기 복수의 제1 전처리 이미지에 기초하여 상기 사용자의 양쪽 안구의 위치를 추적하는 단계를 포함할 수 있고, 상기 제1 전처리 이미지를 생성하는 단계는 하기의 (수학식 1)에 의거하여 상기 제1 전처리 이미지의 픽셀 값을 산출할 수 있다. According to another aspect of the present invention, there is provided an eye tracking method for tracking an eye of a user using a camera positioned between both eyes of a user, ; Inverting the plurality of initial images to generate a plurality of inverted images; Generating a plurality of first pre-processing images processed to display the positions of both eyes of the user in each of the plurality of initial images using the plurality of initial images and the plurality of inverted images; And tracking the position of both eyes of the user based on the plurality of first pre-processing images, wherein the step of generating the first pre-processing image comprises the steps of: 1 pixel value of the preprocessed image can be calculated.
(수학식 1)(1)
이때, Upper는 초기 이미지의 픽셀 값, Lower는 반전 이미지의 픽셀 값, MAX_BIT는 상기 초기 이미지의 해당 비트로 표현할 수 있는 최대 픽셀 값이다. Here, Upper is the pixel value of the initial image, Lower is the pixel value of the inverted image, and MAX_BIT is the maximum pixel value that can be expressed by the corresponding bits of the initial image.
또한, 상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른 안구 추적 장치는 사용자에게 부착시 사용자의 양쪽 안구 사이에 위치하도록 구성되는 카메라;상기 카메라를 이용하여 소정 시간 간격으로 상기 사용자의 양쪽 안구에 대한 복수의 초기 이미지를 획득하는 이미지획득부; 상기 복수의 초기 이미지를 반전 처리하여 복수의 반전 이미지를 생성하는 반전 이미지 생성부; 상기 복수의 초기 이미지 및 상기 복수의 반전 이미지를 이용하여 상기 복수의 초기 이미지 각각에서의 상기 사용자의 양쪽 안구의 위치를 구분하여 표시하도록 처리된 복수의 제1 전처리 이미지를 생성하는 이미지 전처리부; 및 상기 복수의 제1 전처리 이미지에 기초하여상기 사용자의 양쪽 안구의 위치를 추적하는 안구 위치 추적부를 포함할 수 있다. According to another aspect of the present invention, there is provided an eye tracking apparatus comprising: a camera configured to be positioned between both eyes of a user when attached to a user; An image obtaining unit that obtains a plurality of initial images for the image; An inverted image generating unit for inverting the plurality of initial images to generate a plurality of inverted images; An image preprocessing unit for generating a plurality of first pre-processing images processed to display the position of both eyes of the user in each of the plurality of initial images using the plurality of initial images and the plurality of inverted images; And an eye position tracking unit for tracking the positions of both eyes of the user based on the plurality of first pre-processing images.
바람직하게는, 상기 제1 전처리 이미지를 생성하는 단계는 하기의 (수학식 1)에 의거하여 상기 제1 전처리 이미지의 픽셀 값을 산출할 수 있다. Preferably, the step of generating the first preprocessed image may calculate the pixel value of the first preprocessed image based on the following equation (1).
(수학식 1)(1)
이때, Upper는 초기 이미지의 픽셀 값, Lower는 반전 이미지의 픽셀 값, MAX_BIT는 상기 초기 이미지의 해당 비트로 표현할 수 있는 최대 픽셀 값이다. Here, Upper is the pixel value of the initial image, Lower is the pixel value of the inverted image, and MAX_BIT is the maximum pixel value that can be expressed by the corresponding bits of the initial image.
본 발명의 일 실시예에 따르면, 안구 식별 장치 및 추적 장치의 가격을 저렴하게 하면서도 무게를 가볍게 구성할 수 있게 해주는 효과가 있다. According to an embodiment of the present invention, it is possible to reduce the cost of the eyeball discriminating apparatus and the tracking apparatus, while making it possible to construct the weight lightly.
또한, 본 발명의 다른 실시예에 따르면 추가적인 광원 없이 안구 위치를 검출할 수 있게 해주어 사용자의 피로를 최소화할 있는 효과가 있다. According to another embodiment of the present invention, it is possible to detect an eye position without an additional light source, thereby minimizing fatigue of a user.
도 1은 종래의 안구 추적 방법을 설명하기 위하여 도시한 도면이다.
도 2는 본 발명의 일 실시예에 따른 안구 식별 장치를 설명하기 위하여 도시한 도면이다
도 3은 본 발명의 일 실시예에 따른 안구 식별 방법을 설명하기 위하여 도시한 흐름도이다
도 4는 본 발명의 다른 실시예에 따른 안구 식별 방법을 설명하기 위하여 도시한 흐름도이다
도 5는 본 발명의 일 실시예에 따른 카메라의 구성을 설명하기 위하여 도시한 도면이다.
도 6은 본 발명의 일 실시예에 따른 안구 식별 방법을 나타내는 의사 코드를 도시한 도면이다.
도 7은 본 발명의 일 실시예에 따른 전처리 이미지를 설명하기 위하여 도시한 도면이다.
도 8은 본 발명의 일 실시예에 따른 안구 추적 장치를 설명하기 위하여 도시한 도면이다.
도 9는 본 발명의 일 실시예에 따른 안구 추적 방법을 설명하기 위하여 도시한 흐름도이다. 1 is a view illustrating a conventional eye tracking method.
2 is a view for explaining an eyeball discriminating apparatus according to an embodiment of the present invention
FIG. 3 is a flowchart illustrating an eyeball discriminating method according to an embodiment of the present invention
FIG. 4 is a flowchart illustrating an eyeball discriminating method according to another embodiment of the present invention
5 is a diagram illustrating a configuration of a camera according to an embodiment of the present invention.
6 is a diagram showing a pseudo code representing an eyeball discriminating method according to an embodiment of the present invention.
7 is a view for explaining a pre-processed image according to an embodiment of the present invention.
8 is a view for explaining an eye tracking apparatus according to an embodiment of the present invention.
9 is a flowchart illustrating an eye tracking method according to an embodiment of the present invention.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다. While the invention is susceptible to various modifications and alternative forms, specific embodiments thereof are shown by way of example in the drawings and will herein be described in detail. It should be understood, however, that the invention is not intended to be limited to the particular embodiments, but includes all modifications, equivalents, and alternatives falling within the spirit and scope of the invention. Like reference numerals are used for like elements in describing each drawing.
제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다. The terms first, second, A, B, etc. may be used to describe various elements, but the elements should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, the first component may be referred to as a second component, and similarly, the second component may also be referred to as a first component. And / or < / RTI > includes any combination of a plurality of related listed items or any of a plurality of related listed items.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. It is to be understood that when an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, . On the other hand, when an element is referred to as being "directly connected" or "directly connected" to another element, it should be understood that there are no other elements in between.
본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used in this application is used only to describe a specific embodiment and is not intended to limit the invention. The singular expressions include plural expressions unless the context clearly dictates otherwise. In the present application, the terms "comprises" or "having" and the like are used to specify that there is a feature, a number, a step, an operation, an element, a component or a combination thereof described in the specification, But do not preclude the presence or addition of one or more other features, integers, steps, operations, elements, components, or combinations thereof.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms such as those defined in commonly used dictionaries are to be interpreted as having a meaning consistent with the contextual meaning of the related art and are to be interpreted as either ideal or overly formal in the sense of the present application Do not.
이하, 본 발명에 따른 바람직한 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.Hereinafter, preferred embodiments according to the present invention will be described in detail with reference to the accompanying drawings.
도 2는 본 발명의 일 실시예에 따른 안구 식별 장치를 설명하기 위하여 도시한 도면이다. 2 is a view for explaining an eyeball discriminating apparatus according to an embodiment of the present invention.
도 2를 참조하면, 본 발명의 일 실시예에 따른 안구 식별 장치(200)는 카메라(210), 이미지 획득부(220), 반전 이미지 생성부(230), 이미지 전처리부(240) 및 안구 위치 식별부(250)를 포함한다. 2, an eyeball
카메라(210)는 사용자에게 부착시 사용자의 양쪽 안구 사이에 위치하도록 구성된다. The
이때, 카메라(210)는 사용자의 양쪽 안구의 가운데에 위치함으로써, 무게 중심을 맞춰줄 수 있다. At this time, the
상기 카메라(210)에 탑재된 렌즈는 사용자의 양쪽 안구를 촬영할 수 있는 시야각을 가지는 어안렌즈 또는 양쪽 안구의 촬영을 목적으로 하는 특수 목적 렌즈일 수 있다.The lens mounted on the
바람직하게는, 카메라(210)에 탑재된 렌즈는 사용자의 양쪽 안구를 촬영할 수 있는 시야각을 가지는 어안렌즈일 수 있는데, 이를 통해 하나의 카메라(210)를 통해서도 사용자의 양쪽 안구를 촬영할 수 있게 되어 안구 위치 식별 장치(200)의 가격 및 무게를 줄일 수 있게 되는 효과가 있다. Preferably, the lens mounted on the
이미지 획득부(220)는 카메라(210)를 이용하여 사용자의 양쪽 안구에 대한 이미지인 초기 이미지를 획득한다. The
이때, 초기 이미지는 흑백 이미지일 수도 있고, 컬러 이미지일 수도 있다. At this time, the initial image may be a monochrome image or a color image.
반전 이미지 생성부(230)는 초기 이미지를 반전 처리하여 반전 이미지를 생성한다. The inverse
이미지 전처리부(240)는 초기 이미지 및 반전 이미지를 이용하여 초기 이미지에서의 사용자의 양쪽 안구의 위치를 구분하여 표시하도록 처리된 제1 전처리 이미지를 생성한다. The
안구 위치 식별부(250)는 제1 전처리 이미지에 기초하여 사용자의 양쪽 안구의 위치를 식별한다. The eye
이와 같이, 본 발명의 일 실시예는 이미지 전처리를 통해 생성된 제1 전처리 이미지를 이용하여 사용자의 양쪽 안구의 위치를 정확히 식별할 수 있으므로, 추가적인 광원 없이 안구 위치를 검출할 수 있게 되어 사용자의 피로를 최소화할 수 있는 효과가 있다. As described above, according to an embodiment of the present invention, since the positions of both eyes of a user can be accurately identified using the first preprocessed image generated through image preprocessing, the eye position can be detected without additional light source, Can be minimized.
도 3은 본 발명의 일 실시예에 따른 안구 식별 방법을 설명하기 위하여 도시한 흐름도이다 FIG. 3 is a flowchart illustrating an eyeball discriminating method according to an embodiment of the present invention
단계 310에서는, 안구 식별 장치(200)가 사용자의 양쪽 안구 사이에 위치한 카메라를 이용하여 사용자의 양쪽 안구에 대한 초기 이미지를 획득한다. In step 310, the
이때, 안구 식별 장치(200)에 탑재된 카메라는 사용자에게 부착시 사용자의 양쪽 안구 사이에 위치하도록 구성될 수 있다. At this time, the camera mounted on the
단계 320에서는, 안구 식별 장치(200)가 초기 이미지를 반전 처리하여 반전 이미지를 생성한다. In step 320, the
단계 330에서는, 안구 식별 장치(200)가 초기 이미지 및 반전 이미지를 이용하여 초기 이미지에서의 사용자의 양쪽 안구의 위치를 구분하여 표시하도록 처리된 제1 전처리 이미지를 생성한다. In step 330, the
이때, 안구 식별 장치(200)는 초기 이미지에서의 사용자의 양쪽 안구 영역은 상대적으로 밝은 영역으로 변환하여 표시하고, 사용자의 양쪽 안구 영역을 제외한 나머지 영역은 상대적으로 어두운 영역으로 표시하는 전처리를 수행함으로써 제1 전처리 이미지를 생성할 수 있다. At this time, the
예컨대, 제1 전처리 이미지에 포함되는 픽셀들의 픽셀 값은 하기의 수학식 1에 의하여 생성될 수 있다. For example, the pixel value of the pixels included in the first preprocessed image can be generated by the following Equation (1).
이때, Upper는 초기 이미지의 픽셀 값, Lower는 반전 이미지의 픽셀 값, MAX_BIT는 초기 이미지의 해당 비트로 표현할 수 있는 최대 픽셀 값을 나타낸다. 만일, 초기 이미지의 해당 비트가 8비트라면 MAX_BIT는 255가 되고, 16비트라면 MAX_BIT는 65535가 될 것이다. Here, Upper represents the pixel value of the initial image, Lower represents the pixel value of the inverted image, and MAX_BIT represents the maximum pixel value that can be represented by the corresponding bit of the initial image. If the corresponding bit of the initial image is 8 bits, MAX_BIT will be 255, and if it is 16 bits, MAX_BIT will be 65535.
수학식 1에 따르면, 초기 이미지에서 0에 근접한 픽셀 값을 가지는 픽셀들은 제1 전처리 이미지에서 최대 픽셀값에 근접한 픽셀 값을 가지게 되고, 초기 이미지에서 최대 픽셀값에 근접한 픽셀 값을 가지는 픽셀들은 제1 전처리 이미지에서 0에 근접한 픽셀 값을 가지게 된다. According to Equation (1), pixels having pixel values close to 0 in the initial image have pixel values close to the maximum pixel value in the first preprocessed image, and pixels having pixel values close to the maximum pixel value in the initial image are The preprocessed image has pixel values close to zero.
보다 구체적으로는, 수학식 1에 따르면 초기 이미지에서 0에 매우 가까운 픽셀 값을 가지는 픽셀들만 제1 전처리 이미지에서 높은 픽셀 값을 가지게 되어 밝게 표시된다. 즉, 초기 이미지에서 사용자의 안구 영역의 동공은 까만색으로 표시되므로 제1 전처리 이미지에서 안구 영역의 동공만 밝게 표시되고 나머지 영역은 어둡게 표시된다. More specifically, according to Equation (1), only pixels having a pixel value very close to 0 in the initial image have a high pixel value in the first preprocessed image, and are brightly displayed. That is, since the pupil of the user's eyeball region is displayed in black in the initial image, only the pupil of the eyeball region is brightly displayed in the first preprocessed image, and the remaining region is displayed in darkness.
단계 340에서는, 제1 전처리 이미지에 기초하여 사용자의 양쪽 안구의 위치를 식별한다. In step 340, the position of both eyes of the user is identified based on the first pre-processing image.
이와 같이, 본 발명의 일 실시예는 이미지 전처리를 통해 사용자 안구 영역을 식별하게 되므로 추가정인 광원 없이 사용자 안구를 식별할 수 있는 효과가 있다. As described above, according to the embodiment of the present invention, since the user's eye area is identified through the image preprocessing, it is possible to identify the user's eye without an additional light source.
도 4는 본 발명의 다른 실시예에 따른 안구 식별 방법을 설명하기 위하여 도시한 흐름도이다 FIG. 4 is a flowchart illustrating an eyeball discriminating method according to another embodiment of the present invention
단계 410에서는, 안구 식별 장치(200)가 사용자의 양쪽 안구 사이에 위치한 카메라를 이용하여 사용자의 양쪽 안구에 대한 초기 이미지를 획득한다.In step 410, the
단계 420에서는, 안구 식별 장치(200)가 그 획득된 초기 이미지에서 카메라 렌즈의 특성에 의해 발생한 왜곡을 보상한다. In step 420, the
즉, 카메라 렌즈의 특성에 따라 카메라로 촬영된 이미지에 왜곡이 발생하게 되는데, 이와 같이 카메라 렌즈의 특성에 의해 발생된 이미지의 왜곡을 보상하는 것이다.That is, according to the characteristics of the camera lens, distortion occurs in the image taken by the camera. In this way, the distortion of the image caused by the characteristics of the camera lens is compensated.
바람직하게는, 본 발명의 일 실시예에 따른 안구 식별 장치(200)가 이미지 획득부(220)를 통해 획득된 초기 이미지에서 카메라(210)에 탑재된 렌즈의 특성에 의해 발생한 왜곡을 보상하는 왜곡 보상부(미도시)를 더 포함할 수 있다. Preferably, the
한편, 다른 실시예에서는 단계 420이 생략될 수 있다. On the other hand, in another embodiment, step 420 may be omitted.
단계 430에서는, 안구 식별 장치(200)가 왜곡이 보상된 초기 이미지를 반전 처리하여 반전 이미지를 생성한다. In step 430, the
만일, 단계 420이 생략된 경우에는 안구 식별 장치(200)가 왜곡이 보상되지 않은 제1 이미지를 반전 처리하여 반전 이미지를 생성할 수 있다. If step 420 is omitted, the
단계 440에서는, 안구 식별 장치(200)가 왜곡이 보상된 초기 이미지 및 반전 이미지를 이용하여 제1 전처리 이미지를 생성한다. In step 440, the
단계 450에서는, 안구 식별 장치(200)가 제1 전처리 이미지와 반전 이미지를 이용하여 제2 전처리 이미지를 생성한다. In step 450, the
이때, 제2 전처리 이미지는 수학식 1에 의하여 생성될 수 있는데, 수학식 1의 Upper에는 제1 전처리 이미지의 픽셀 값이 대입되고, Lower에는 반전 이미지의 픽셀 값이 대입되고, MAX_BIT에는 제1 전처리 이미지의 해당 비트로 표현할 수 있는 최대 픽셀 값이 대입됨으로써, 제2 전처리 이미지가 생성될 수 있다. At this time, the second pre-processing image can be generated by Equation 1, where the pixel value of the first pre-processing image is substituted for Upper of Equation 1, the pixel value of the inverted image is substituted for Lower, The second preprocessed image can be generated by substituting the maximum pixel value that can be represented by the corresponding bit of the image.
이와 같이, 제1 전처리 이미지와 반전 이미지를 이용하여 생성된 제2 전처리 이미지는 제1 전처리 이미지에 비해 사용자 양쪽 안구 영역이 보다 명확히 구분되어 표시된다. As described above, the second pre-processed image generated using the first pre-processed image and the inverted image is more clearly distinguished from the first pre-processed image.
단계 470에서는, 안구 식별 장치(200)가 제2 전처리 이미지에 기초하여 사용자의 양쪽 안구의 위치를 식별한다. In step 470, the
도 5는 본 발명의 일 실시예에 따른 카메라의 구성을 설명하기 위하여 도시한 도면이다. 5 is a diagram illustrating a configuration of a camera according to an embodiment of the present invention.
도 5(a)는 사용자의 안구를 본 발명의 일 실시예에 따른 카메라를 이용하여 촬영하는 장면을 옆에서 바라본 도면으로, 본 발명의 일 실시예에 따른 카메라에 넓은 시야각을 갖는 렌즈가 탑재되어 있으므로 카메라가 사용자의 안구와 동일한 선상에서 촬영하게 되어 사용자의 피로감이 줄어들게 된다. 5 (a) is a side view of a scene in which a user's eyeball is photographed using a camera according to an embodiment of the present invention, and a lens having a wide viewing angle is mounted on a camera according to an embodiment of the present invention Therefore, the camera is photographed on the same line as the eyeball of the user, and the fatigue of the user is reduced.
도 5(b)에서는 본 발명의 일 실시예에 따른 카메라가 사용자의 양쪽 안구 가운데에 위치하는 것을 도시하고 있는데, 본 발명의 일 실시예에 따른 카메라에 넓은 시야각을 갖는 렌즈가 탑재되어 있어 한개의 카메라로 사용자의 양쪽 안구를 모두 촬영할 수 있게 된다. 5B illustrates that the camera according to the embodiment of the present invention is located in the center of both eyes of the user. In the camera according to the embodiment of the present invention, a lens having a wide viewing angle is mounted, The camera will be able to capture both eyes of the user.
이와 같이, 본 발명의 일 실시예에 따른 카메라는 한개의 카메라로 사용자의 양쪽 안구를 촬영할 수 있게 되어 안구 식별 장치(200)의 가격 및 무게를 줄일 수 있게 해주는 효과가 있다. As described above, the camera according to an embodiment of the present invention can photograph both eyes of a user with a single camera, thereby reducing the price and weight of the
도 6은 본 발명의 일 실시예에 따른 안구 식별 방법을 나타내는 의사 코드를 도시한 도면이다. 6 is a diagram showing a pseudo code representing an eyeball discriminating method according to an embodiment of the present invention.
도 6을 참조하면, 첫번째 줄에서 초기 이미지(Original)가 8비트 이미지임을 나타낸다. Referring to FIG. 6, the first line indicates that the original image is an 8-bit image.
두번째 줄에서 사용자의 양쪽 안구에 대한 초기 이미지의 픽셀 값들을 입력 받는다. In the second line, the pixel values of the initial image for both eyes of the user are input.
세번째 줄에서는, 최대 픽셀값 255에서 초기 이미지의 픽셀 값을 감산함으로써 반전 이미지의 픽셀 값들을 생성한다. In the third row, pixel values of the inverse image are generated by subtracting the pixel value of the initial image from the maximum pixel value of 255. [
네번째 줄에서는, 초기 이미지와 반전 이미지를 이용하여 제1 전처리 이미지(Burn)의 픽셀 값들을 생성한다.In the fourth line, pixel values of the first preprocessed image (Burn) are generated using the initial image and the inverted image.
다섯 번째 줄에서는, 제1 전처리 이미지의 픽셀 값이 255를 초과하면 제1 전처리 이미지의 픽셀 값을 255로 설정하고, 그 외의 경우에는 제1 전처리 이미지의 픽셀 값을 그대로 사용한다. In the fifth line, if the pixel value of the first preprocessed image exceeds 255, the pixel value of the first preprocessed image is set to 255, otherwise, the pixel value of the first preprocessed image is used as it is.
여섯 번째 줄에서는, 제1 전처리 이미지(Burn)와 반전 이미지(Inverse)를 이용하여 제2 전처리 이미지(DBurn)의 픽셀 값들을 생성한다. In the sixth line, pixel values of the second preprocessed image DBurn are generated using the first preprocessed image Burn and the inverted image.
일곱 번째 줄에서는, 제2 전처리 이미지(DBurn)의 픽셀 값이 255를 초과하면 제2 전처리 이미지의 픽셀 값을 255로 설정하고, 그 외의 경우에는 제2 전처리 이미지의 픽셀 값을 제2 전처리 이미지의 최종 픽셀 값으로 결정한다. In the seventh line, if the pixel value of the second preprocessed image DBurn exceeds 255, the pixel value of the second preprocessed image is set to 255; otherwise, the pixel value of the second preprocessed image is set to 255 As the final pixel value.
도 7은 본 발명의 일 실시예에 따른 전처리 이미지를 설명하기 위하여 도시한 도면이다. 7 is a view for explaining a pre-processed image according to an embodiment of the present invention.
도 7(a)는 본 발명의 일 실시예에 따른 사용자 양쪽 안구에 대한 초기 이미지를 도시한 것으로, 한개의 카메라로 촬영을 하여 한장의 초기 이미지에 사용자의 양쪽 안구가 모두 표시된 것을 확인할 수 있다. 7A shows an initial image of both eyes of a user according to an embodiment of the present invention. It can be seen that both eyes of a user are displayed on a single initial image by photographing with one camera.
도 7(b)는 본 발명의 일 실시예에 따른 사용자 양쪽 안구에 대한 제2 전처리 이미지를 도시한 것으로, 사용자의 양쪽 안구 영역은 밝게 표시되고 나머지 영역들은 모두 어둡게 표시됨으로써, 사용자 양쪽 안구 영역이 명확히 식별되는 것을 확인할 수 있다. 7B shows a second pre-processing image for both eyes of a user according to an embodiment of the present invention, wherein both ocular regions of the user are brightly displayed and all of the remaining regions are darkly displayed, It can be confirmed that it is clearly identified.
도 8은 본 발명의 일 실시예에 따른 안구 추적 장치를 설명하기 위하여 도시한 도면이다. 도 8을 참조하면, 본 발명의 일 실시예에 따른 안구 추적 장치(202)는 카메라(210), 이미지 획득부(220), 반전 이미지 생성부(230), 이미지 전처리부(240) 및 안구 위치 추적부(252)를 포함한다. 8 is a view for explaining an eye tracking apparatus according to an embodiment of the present invention. 8, an
카메라(210)는 사용자에게 부착시 사용자의 양쪽 안구 사이에 위치하도록 구성된다.The
이미지 획득부(220)는 카메라(210)를 이용하여 소정 시간 간격으로 사용자의 양쪽 안구에 대한 복수의 초기 이미지를 획득한다. The
반전 이미지 생성부(230)는 복수의 초기 이미지를 반전 처리하여 복수의 반전 이미지를 생성한다. The inverse
이미지 전처리부(240)는 복수의 초기 이미지 및 복수의 반전 이미지를 이용하여 복수의 초기 이미지 각각에서의 사용자의 양쪽 안구의 위치를 구분하여 표시하도록 처리된 복수의 제1 전처리 이미지를 생성한다. The
안구 위치 추적부(250)는 복수의 제1 전처리 이미지에 기초하여 사용자의 양쪽 안구의 위치를 추적한다. The eye
즉, 안구 위치 추적부(250)는 복수의 제1 전처리 이미지를 시간별로 분석하여 사용자의 안구의 위치가 어떻게 변동되는지를 분석함으로써 사용자의 양쪽 안구의 위치를 추적하게 된다. That is, the eye
도 9는 본 발명의 일 실시예에 따른 안구 추적 방법을 설명하기 위하여 도시한 흐름도이다. 9 is a flowchart illustrating an eye tracking method according to an embodiment of the present invention.
단계 910에서는, 안구 추적 장치(202)가 사용자의 양쪽 안구 사이에 위치한 카메라를 이용하여 소정 시간 간격으로 사용자의 양쪽 안구에 대한 복수의 초기 이미지를 획득한다. In step 910, the
단계 920에서는, 안구 추적 장치(202)가 복수의 초기 이미지를 반전 처리하여 복수의 반전 이미지를 생성한다. In step 920, the
단계 930에서는, 안구 추적 장치(202)가 복수의 초기 이미지 및 복수의 반전 이미지를 이용하여 복수의 초기 이미지 각각에서의 사용자의 양쪽 안구의 위치를 구분하여 표시하도록 처리된 복수의 제1 전처리 이미지를 생성한다. In step 930, the
단계 940에서는, 안구 추적 장치(202)가 복수의 제1 전처리 이미지에 기초하여 사용자의 양쪽 안구의 위치를 추적한다. In step 940, the
한편, 상술한 본 발명의 실시예들은 컴퓨터에서 실행될 수 있는 프로그램으로 작성가능하고, 컴퓨터로 읽을 수 있는 기록매체를 이용하여 상기 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다.The above-described embodiments of the present invention can be embodied in a general-purpose digital computer that can be embodied as a program that can be executed by a computer and operates the program using a computer-readable recording medium.
상기 컴퓨터로 읽을 수 있는 기록매체는 마그네틱 저장매체(예를 들면, 롬, 플로피 디스크, 하드디스크 등), 광학적 판독 매체(예를 들면, 시디롬, 디브이디 등) 를 포함한다.The computer readable recording medium includes a magnetic storage medium (e.g., ROM, floppy disk, hard disk, etc.), optical reading medium (e.g., CD ROM, DVD, etc.).
이제까지 본 발명에 대하여 그 바람직한 실시예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.The present invention has been described with reference to the preferred embodiments. It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the appended claims. Therefore, the disclosed embodiments should be considered in an illustrative rather than a restrictive sense. The scope of the present invention is defined by the appended claims rather than by the foregoing description, and all differences within the scope of equivalents thereof should be construed as being included in the present invention.
Claims (12)
상기 초기 이미지를 반전 처리하여 반전 이미지를 생성하는 단계;
상기 초기 이미지 및 상기 반전 이미지를 이용하여 상기 초기 이미지에서의 상기 사용자의 양쪽 안구의 위치를 구분하여 표시하도록 처리된 제1 전처리 이미지를 생성하는 단계; 및
상기 제1 전처리 이미지에 기초하여 상기 사용자의 양쪽 안구의 위치를 식별하는 단계를 포함하고,
상기 제1 전처리 이미지를 생성하는 단계는
하기의 (수학식 1)에 의거하여 상기 제1 전처리 이미지의 픽셀 값을 산출하는 것을 특징으로 하는 안구 식별 방법.
(수학식 1)
이때, Upper는 초기 이미지의 픽셀 값, Lower는 반전 이미지의 픽셀 값, MAX_BIT는 상기 초기 이미지의 해당 비트로 표현할 수 있는 최대 픽셀 값임.Obtaining an initial image that is an image of both eyes of the user using a camera positioned between both eyes of the user;
Inverting the initial image to generate an inverted image;
Generating a first pre-processing image that is processed to separately display positions of both eyes of the user in the initial image using the initial image and the inverted image; And
Identifying the position of both eyes of the user based on the first pre-processing image,
The step of generating the first pre-
Wherein the pixel value of the first preprocessed image is calculated based on the following equation (1).
(1)
Here, Upper is the pixel value of the initial image, Lower is the pixel value of the inverted image, and MAX_BIT is the maximum pixel value that can be expressed by the corresponding bits of the initial image.
상기 제1 전처리 이미지를 생성하는 단계는
상기 초기 이미지에서의 상기 사용자의 양쪽 안구 영역은 상대적으로 밝은 영역으로 변환하여 표시하고, 상기 사용자의 양쪽 안구 영역을 제외한 나머지 영역은 상대적으로 어두운 영역으로 표시하는 전처리를 수행함으로써 상기 제1 전처리 이미지를 생성하는 것을 특징으로 하는 안구 식별 방법.The method according to claim 1,
The step of generating the first pre-
Processing the image of both eyes of the user in the initial image by converting the image into a relatively bright region and displaying the remaining region except for both ocular regions of the user as a relatively dark region, Wherein the at least one eye distinguishes the at least one eye.
상기 제1 전처리 이미지와 상기 반전 이미지를 이용하여 상기 제1 전처리 이미지에서의 상기 사용자의 양쪽 안구의 위치를 구분하여 표시하도록 처리된 제2 전처리 이미지를 생성하는 단계를 더 포함하는 것을 특징으로 하는 안구 식별 방법.The method according to claim 1,
Further comprising generating a second pre-processing image processed to display the positions of both eyes of the user in the first pre-processing image using the first pre-processing image and the inverted image, Identification method.
상기 카메라는
상기 사용자의 양쪽 안구의 가운데에 위치하는 것을 특징으로 하는 안구 식별 방법.The method according to claim 1,
The camera
Wherein the eyeball is positioned at the center of both eyes of the user.
상기 카메라에 탑재된 렌즈는
상기 사용자의 양쪽 안구를 촬영할 수 있는 시야각을 가지는 어안렌즈 또는 양쪽 안구의 촬영을 목적으로 하는 특수 목적 렌즈인 것을 특징으로 하는 안구 식별 방법.The method according to claim 1,
The lens mounted on the camera
A fisheye lens having a viewing angle at which both eyes of the user can be photographed or a special-purpose lens for photographing both eyes.
상기 카메라를 이용하여 상기 사용자의 양쪽 안구에 대한 이미지인 초기 이미지를 획득하는 이미지 획득부;
상기 초기 이미지를 반전 처리하여 반전 이미지를 생성하는 반전 이미지 생성부;
상기 초기 이미지 및 상기 반전 이미지를 이용하여 상기 초기 이미지에서의 상기 사용자의 양쪽 안구의 위치를 구분하여 표시하도록 처리된 제1 전처리 이미지를 생성하는 이미지 전처리부; 및
상기 제1 전처리 이미지에 기초하여 상기 사용자의 양쪽 안구의 위치를 식별하는 안구 위치 식별부를 포함하고,
상기 이미지 전처리부는
하기의 (수학식 1)에 의거하여 상기 제1 전처리 이미지의 픽셀 값을 산출하는 것을 특징으로 하는 안구 식별 장치.
(수학식 1)
이때, Upper는 초기 이미지의 픽셀 값, Lower는 반전 이미지의 픽셀 값, MAX_BIT는 상기 초기 이미지의 해당 비트로 표현할 수 있는 최대 픽셀 값임.A camera configured to be positioned between both eyes of the user upon attachment to the user;
An image obtaining unit that obtains an initial image that is an image of both eyes of the user using the camera;
An inverted image generating unit for inverting the initial image to generate an inverted image;
An image preprocessing unit for generating a first pre-processing image processed to display the positions of both eyes of the user in the initial image by using the initial image and the inverted image; And
And an eye position identifying unit for identifying positions of both eyes of the user based on the first pre-processing image,
The image pre-
Wherein the pixel value of the first preprocessed image is calculated on the basis of the following equation (1).
(1)
Here, Upper is the pixel value of the initial image, Lower is the pixel value of the inverted image, and MAX_BIT is the maximum pixel value that can be expressed by the corresponding bits of the initial image.
상기 이미지 전처리부는
상기 초기 이미지에서의 상기 사용자의 양쪽 안구 영역은 상대적으로 밝은 영역으로 변환하여 표시하고, 상기 사용자의 양쪽 안구 영역을 제외한 나머지 영역은 상대적으로 어두운 영역으로 표시하는 전처리를 수행함으로써 상기 제1 전처리 이미지를 생성하는 것을 특징으로 하는 안구 식별 장치.The method according to claim 6,
The image pre-
Processing the image of both eyes of the user in the initial image by converting the image into a relatively bright region and displaying the remaining region except for both ocular regions of the user as a relatively dark region, Wherein the eye recognition device generates an eyeball.
상기 이미지 전처리부는
상기 제1 전처리 이미지와 상기 반전 이미지를 이용하여 상기 제1 전처리 이미지에서의 상기 사용자의 양쪽 안구의 위치를 구분하여 표시하도록 처리된 제2 전처리 이미지를 생성하는 동작을 더 수행하는 것을 특징으로 하는 안구 식별 장치.The method according to claim 6,
The image pre-
Further comprising the step of generating a second pre-processing image processed to display the positions of both eyes of the user in the first pre-processing image using the first pre-processing image and the inverted image, Identification device.
상기 카메라는
상기 사용자의 양쪽 안구의 가운데에 위치하는 것을 특징으로 하는 안구 식별 장치.The method according to claim 6,
The camera
Wherein the eyeball is positioned at the center of both eyes of the user.
상기 카메라에 탑재된 렌즈는
상기 사용자의 양쪽 안구를 촬영할 수 있는 시야각을 가지는 어안렌즈 또는 양쪽 안구의 촬영을 목적으로 하는 특수 목적 렌즈인 것을 특징으로 하는 안구 식별 장치.The method according to claim 6,
The lens mounted on the camera
A fisheye lens having a viewing angle at which both eyes of the user can be photographed, or a special-purpose lens for photographing both eyes.
상기 복수의 초기 이미지를 반전 처리하여 복수의 반전 이미지를 생성하는 단계;
상기 복수의 초기 이미지 및 상기 복수의 반전 이미지를 이용하여 상기 복수의 초기 이미지 각각에서의 상기 사용자의 양쪽 안구의 위치를 구분하여 표시하도록 처리된 복수의 제1 전처리 이미지를 생성하는 단계; 및
상기 복수의 제1 전처리 이미지에 기초하여 상기 사용자의 양쪽 안구의 위치를 추적하는 단계를 포함하고,
상기 제1 전처리 이미지를 생성하는 단계는
하기의 (수학식 1)에 의거하여 상기 제1 전처리 이미지의 픽셀 값을 산출하는 것을 특징으로 하는 안구 추적 방법.
(수학식 1)
이때, Upper는 초기 이미지의 픽셀 값, Lower는 반전 이미지의 픽셀 값, MAX_BIT는 상기 초기 이미지의 해당 비트로 표현할 수 있는 최대 픽셀 값임.Acquiring a plurality of initial images that are a plurality of images for both eyes of the user at predetermined time intervals using a camera positioned between both eyes of the user;
Inverting the plurality of initial images to generate a plurality of inverted images;
Generating a plurality of first pre-processing images processed to display the positions of both eyes of the user in each of the plurality of initial images using the plurality of initial images and the plurality of inverted images; And
And tracking the position of both eyes of the user based on the plurality of first pre-processing images,
The step of generating the first pre-
Wherein the pixel value of the first preprocessed image is calculated based on the following equation (1).
(1)
Here, Upper is the pixel value of the initial image, Lower is the pixel value of the inverted image, and MAX_BIT is the maximum pixel value that can be expressed by the corresponding bits of the initial image.
상기 카메라를 이용하여 소정 시간 간격으로 상기 사용자의 양쪽 안구에 대한 복수의 이미지인 복수의 초기 이미지를 획득하는 이미지획득부;
상기 복수의 초기 이미지를 반전 처리하여 복수의 반전 이미지를 생성하는 반전 이미지 생성부;
상기 복수의 초기 이미지 및 상기 복수의 반전 이미지를 이용하여 상기 복수의 초기 이미지 각각에서의 상기 사용자의 양쪽 안구의 위치를 구분하여 표시하도록 처리된 복수의 제1 전처리 이미지를 생성하는 이미지 전처리부; 및
상기 복수의 제1 전처리 이미지에 기초하여상기 사용자의 양쪽 안구의 위치를 추적하는 안구 위치 추적부를 포함하고,
상기 이미지 전처리부는
하기의 (수학식 1)에 의거하여 상기 제1 전처리 이미지의 픽셀 값을 산출하는 것을 특징으로 하는 안구 추적 장치.
(수학식 1)
이때, Upper는 초기 이미지의 픽셀 값, Lower는 반전 이미지의 픽셀 값, MAX_BIT는 상기 초기 이미지의 해당 비트로 표현할 수 있는 최대 픽셀 값임.
A camera configured to be positioned between both eyes of the user upon attachment to the user;
An image obtaining unit that obtains a plurality of initial images, which are a plurality of images for both eyes of the user, at predetermined time intervals using the camera;
An inverted image generating unit for inverting the plurality of initial images to generate a plurality of inverted images;
An image preprocessing unit for generating a plurality of first pre-processing images processed to display the position of both eyes of the user in each of the plurality of initial images using the plurality of initial images and the plurality of inverted images; And
And an eye position tracking unit for tracking the positions of both eyes of the user based on the plurality of first pre-processing images,
The image pre-
And calculates a pixel value of the first preprocessed image based on the following equation (1).
(1)
Here, Upper is the pixel value of the initial image, Lower is the pixel value of the inverted image, and MAX_BIT is the maximum pixel value that can be expressed by the corresponding bits of the initial image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160053342A KR101643724B1 (en) | 2016-04-29 | 2016-04-29 | Method and Apparatus for identifying eyeball position, Method and Apparatus for tracking eyeball position |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160053342A KR101643724B1 (en) | 2016-04-29 | 2016-04-29 | Method and Apparatus for identifying eyeball position, Method and Apparatus for tracking eyeball position |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020140029651A Division KR20150107157A (en) | 2014-03-13 | 2014-03-13 | Method and Apparatus for identifying eyeball position, Method and Apparatus for tracking eyeball position |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20160057360A true KR20160057360A (en) | 2016-05-23 |
KR101643724B1 KR101643724B1 (en) | 2016-07-29 |
Family
ID=56104282
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020160053342A KR101643724B1 (en) | 2016-04-29 | 2016-04-29 | Method and Apparatus for identifying eyeball position, Method and Apparatus for tracking eyeball position |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101643724B1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111309138A (en) * | 2018-12-12 | 2020-06-19 | 简韶逸 | Method for reducing eyeball tracking operation and eye movement tracking device thereof |
EP3653107A4 (en) * | 2017-07-12 | 2020-07-08 | Sony Corporation | Image processing device, ophthalmic observation apparatus, and ophthalmic observation system |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20040092461A (en) * | 2003-04-25 | 2004-11-03 | 캐논 가부시끼가이샤 | Ophthalmologic image pickup system |
KR20060105271A (en) * | 2005-04-04 | 2006-10-11 | 엘지전자 주식회사 | Assuming system of eyeball position using 3-dimension position information and assuming method of eyeball position |
KR20110038568A (en) * | 2009-10-08 | 2011-04-14 | 한국전자통신연구원 | Apparatus and mehtod for tracking eye |
-
2016
- 2016-04-29 KR KR1020160053342A patent/KR101643724B1/en active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20040092461A (en) * | 2003-04-25 | 2004-11-03 | 캐논 가부시끼가이샤 | Ophthalmologic image pickup system |
KR20060105271A (en) * | 2005-04-04 | 2006-10-11 | 엘지전자 주식회사 | Assuming system of eyeball position using 3-dimension position information and assuming method of eyeball position |
KR20110038568A (en) * | 2009-10-08 | 2011-04-14 | 한국전자통신연구원 | Apparatus and mehtod for tracking eye |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3653107A4 (en) * | 2017-07-12 | 2020-07-08 | Sony Corporation | Image processing device, ophthalmic observation apparatus, and ophthalmic observation system |
CN111309138A (en) * | 2018-12-12 | 2020-06-19 | 简韶逸 | Method for reducing eyeball tracking operation and eye movement tracking device thereof |
Also Published As
Publication number | Publication date |
---|---|
KR101643724B1 (en) | 2016-07-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11948282B2 (en) | Image processing apparatus, image processing method, and storage medium for lighting processing on image using model data | |
US11281288B2 (en) | Eye and head tracking | |
US10304164B2 (en) | Image processing apparatus, image processing method, and storage medium for performing lighting processing for image data | |
US10825157B2 (en) | Glare reduction in captured images | |
JP5397059B2 (en) | Image processing apparatus and method, program, and recording medium | |
TWI431549B (en) | Image processing apparatus and method and computer program product | |
JP2022036179A (en) | Image processing apparatus and control method therefor and program | |
KR102048411B1 (en) | Wearable device and image processing method thereof | |
US20150304625A1 (en) | Image processing device, method, and recording medium | |
JP5779089B2 (en) | Edge detection apparatus, edge detection program, and edge detection method | |
JP2017209280A (en) | Skin diagnostic device and skin diagnostic method | |
CN111738241A (en) | Pupil detection method and device based on double cameras | |
JP6221292B2 (en) | Concentration determination program, concentration determination device, and concentration determination method | |
KR101643724B1 (en) | Method and Apparatus for identifying eyeball position, Method and Apparatus for tracking eyeball position | |
US9323981B2 (en) | Face component extraction apparatus, face component extraction method and recording medium in which program for face component extraction method is stored | |
EP3671541B1 (en) | Classification of glints using an eye tracking system | |
JP6896811B2 (en) | Image processing equipment, image processing methods, and programs | |
JP2009244944A (en) | Image-recovering apparatus and photographing apparatus | |
WO2018159037A1 (en) | Facial detection device, and control method and program for same | |
KR20150107157A (en) | Method and Apparatus for identifying eyeball position, Method and Apparatus for tracking eyeball position | |
CN115039147A (en) | Eye detection method, eye detection device, and eye detection program | |
JP4831344B2 (en) | Eye position detection method | |
EP4372672A1 (en) | Extended depth-of-field correction using reconstructed depth map | |
US20240031545A1 (en) | Information processing apparatus, information processing method, and storage medium | |
Hsieh et al. | Pixel-based multi-focus image fusion by color appearance model |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A107 | Divisional application of patent | ||
A201 | Request for examination | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |