KR101673694B1 - Gaze tracking apparatus and method for detecting glint thereof - Google Patents
Gaze tracking apparatus and method for detecting glint thereof Download PDFInfo
- Publication number
- KR101673694B1 KR101673694B1 KR1020140155649A KR20140155649A KR101673694B1 KR 101673694 B1 KR101673694 B1 KR 101673694B1 KR 1020140155649 A KR1020140155649 A KR 1020140155649A KR 20140155649 A KR20140155649 A KR 20140155649A KR 101673694 B1 KR101673694 B1 KR 101673694B1
- Authority
- KR
- South Korea
- Prior art keywords
- reflection
- point
- pair
- candidate
- points
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
- G06V20/597—Recognising the driver's state or behaviour, e.g. attention or drowsiness
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/40—Software arrangements specially adapted for pattern recognition, e.g. user interfaces or toolboxes therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Human Computer Interaction (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Eye Examination Apparatus (AREA)
Abstract
본 발명은 시선추적장치 및 그의 반사점 검출 방법에 관한 것으로, 카메라를 통해 눈 영상을 획득하고, 상기 눈 영상에서 둘 이상의 조명에 의해 반사되는 후보 반사점을 추출하며, 상기 후보 반사점 중 일정 개씩 후보 반사점을 선정하여 하나 이상의 반사점쌍을 생성하고, 상기 둘 이상의 광원들의 배치정보에 근거하여 상기 하나 이상의 반사점쌍 중 어느 하나의 반사점쌍을 선택하며, 상기 선택한 반사점쌍을 구성하는 각 반사점의 대표점을 결정하고, 그 반사점의 대표점과 동공 중심점을 이용하여 시선을 추적한다.The present invention relates to a line-of-sight tracking apparatus and a method of detecting a reflection point of the line-of-sight tracing apparatus. The line-of-sight tracing apparatus and the reflection point detecting method of the present invention are characterized by obtaining eye images through a camera, extracting candidate reflection points reflected by two or more lights in the eye image, Selects one of the pair of reflection points of the at least one reflection point pair based on the arrangement information of the two or more light sources, determines a representative point of each reflection point constituting the selected reflection point pair , And the gaze is traced using the representative point of the reflection point and the pupil center point.
Description
본 발명은 시선 추적 시 조명위치를 고려하여 동공에서 반사되는 반사점을 검출하는 시선추적장치 및 그의 반사점 검출 방법에 관한 것이다.The present invention relates to a line-of-sight tracking apparatus for detecting a reflection point reflected by a pupil in consideration of an illumination position in line-of-sight tracking, and a reflection point detecting method therefor.
시선추적기술은 HCI(Human Computer Interaction) 분야에서 새로운 사용자 입력기술로 각광받고 있다. 이러한 시선추적기술은 손발의 움직임이 불편한 장애인이 컴퓨터를 사용할 수 있도록 개발되어 상용화되고 있다. 사람의 시선은 특별한 관심이나 생체 변화 등을 반영한다. 따라서, 시선추적기술을 AUI(Attentive User Interface) 및 졸음운전 방지를 위한 안전 시스템(Safety System) 등의 분야에 적용하기 위하여 많은 연구가 진행되고 있다.Eye tracking technology is attracting attention as a new user input technology in HCI (Human Computer Interaction) field. Such eye tracking technology has been developed and commercialized so that the disabled can use the computer. A person's gaze reflects special interest or biological change. Therefore, much research has been conducted to apply the eye tracking technology to the fields of Attendive User Interface (AUI) and Safety System for preventing drowsiness.
종래에는 동공에서 반사되는 반사점(glint)를 이용하여 사용자의 시선을 추적하는 기술이 소개되고 있다. 이러한 종래의 시선추적기술은 카메라를 통해 촬영한 눈 영상 내 존재하는 반사점들 중 가장 밝은(intensity) 반사점을 검출한다. 그러나, 종래와 같이 반사점의 밝기만을 이용하여 반사점을 검출하는 경우 노이즈가 많이 발생하게 된다. 예를 들어, 사용자가 안경을 착용한 경우에는 안경에 맺히는 반사점(노이즈)으로 인해 반사점 오인식이 일어날 가능성이 높다.Conventionally, a technique of tracking a user's gaze using a glint reflected from a pupil has been introduced. This conventional line-of-sight tracking technology detects the brightest reflection point among the reflection points existing in the eye image photographed through the camera. However, when a reflection point is detected using only the brightness of the reflection point as in the conventional art, a lot of noise is generated. For example, when a user wears glasses, there is a high possibility that a reflection point is mistaken due to a reflection point (noise) formed in the glasses.
본 발명은 상기한 종래기술의 문제점을 해결하기 위하여 안출된 것으로, 시선 추적 시 조명 위치를 고려하여 동공에서 반사되는 반사점을 정확하게 검출하는 시선추적장치 및 그의 반사점 검출 방법을 제공하는데 그 목적이 있다.SUMMARY OF THE INVENTION It is an object of the present invention to provide a line-of-sight tracking apparatus for accurately detecting a reflection point reflected by a pupil in consideration of an illumination position in line-of-sight tracking, and a reflection point detecting method thereof.
상기한 과제를 해결하기 위하여, 본 발명의 일 실시예에 따른 시선추적장치의 반사점 검출 방법은 카메라를 통해 눈 영상을 획득하는 단계와, 상기 눈 영상에서 둘 이상의 광원들에 의해 반사되는 후보 반사점을 추출하는 단계와, 상기 후보 반사점 중 일정 개씩 후보 반사점을 선정하여 하나 이상의 반사점쌍을 생성하는 단계와, 상기 둘 이상의 광원들의 배치정보에 근거하여 상기 하나 이상의 반사점쌍 중 어느 하나의 반사점쌍을 선택하는 단계와, 상기 선택한 반사점쌍을 구성하는 각 반사점의 대표점을 결정하는 단계를 포함하는 것을 특징으로 한다.According to another aspect of the present invention, there is provided a method of detecting a reflection point of a line-of-sight tracking apparatus, comprising: acquiring an eye image through a camera; Selecting one or more pairs of reflection points of the at least one pair of reflection points on the basis of the arrangement information of the two or more light sources; And determining a representative point of each reflection point constituting the selected reflection point pair.
또한, 상기 후보 반사점 추출 단계는, 상기 눈 영상으로부터 기준 밝기 이상인 픽셀들의 윤곽을 추출하는 것을 특징으로 한다.In addition, the candidate refracting point extracting step may extract an outline of pixels having a reference brightness or more from the eye image.
또한, 상기 반사점쌍 생성 단계는, 상기 조명의 개수에 따라 상기 반사점쌍을 구성하는 후보 반사점의 개수를 결정하는 것을 특징으로 한다.Further, the reflec- tion point pair generation step is characterized by determining the number of candidate reflections constituting the reflec- tion point pair according to the number of the illuminations.
또한, 상기 반사점쌍 선택 단계는, 상기 둘 이상의 광원들의 배치정보와 일정 비율이상 일치하게 배치된 후보 반사점들로 구성되는 반사점쌍을 선택하는 것을 특징으로 한다.The reflec- tion point pair selecting step selects a reflec- tion point pair composed of candidate reflections that are arranged to coincide with the arrangement information of the two or more light sources at a predetermined ratio or more.
또한, 상기 배치정보는, 상기 둘 이상의 광원들 간의 기준 축 거리인 것을 특징으로 한다.The arrangement information is a reference axis distance between the two or more light sources.
또한, 상기 배치정보는, 상기 둘 이상의 광원들 간의 X축 거리와 Y축 거리의 비율인 것을 특징으로 한다.The arrangement information may be a ratio of an X-axis distance and a Y-axis distance between the two or more light sources.
또한, 상기 반사점 선택 단계는, 상기 반사점쌍을 구성하는 각 후보 반사점 중 가장 밝은 값을 가지는 픽셀을 대표점으로 결정하는 것을 특징으로 한다.In addition, the refracting point selecting step determines a pixel having the brightest value among the candidate refracting points constituting the refracting point pair as a representative point.
한편, 본 발명의 일 실시예에 따른 시선추적장치는 적외선을 발하는 둘 이상의 광원들로 구성되는 조명과, 눈 영상을 취득하는 카메라와, 상기 눈 영상에서 상기 조명에 의해 생성되는 후보 반사점을 추출하고 그 추출한 후보 반사점을 일정 개씩 묶어 반사점쌍을 생성한 후, 반사점쌍의 후보 반사점들의 배치가 상기 둘 이상의 광원들의 배치정보와 일정 비율이상 일치하면 해당 반사점쌍을 선택하고, 상기 선택한 반사점쌍을 구성하는 각 반사점의 대표점을 결정하는 처리부를 포함하는 것을 특징으로 한다.Meanwhile, the eye tracking apparatus according to an embodiment of the present invention includes a light source configured to emit infrared light, a camera configured to acquire an eye image, a candidate reflex point generated by the illumination in the eye image, Selecting a pair of reflection points when the arrangement of the candidate reflection points of the pair of reflection points is equal to or more than a certain ratio with the arrangement information of the two or more light sources, And a processing unit for determining representative points of the respective reflection points.
또한, 상기 광원은, 적외선 발광다이오드 및 적외선 램프와 같이 적외선을 발하는 광원으로 구현되는 것을 특징으로 한다.In addition, the light source is realized as a light source emitting infrared rays such as an infrared ray emitting diode and an infrared ray lamp.
또한, 상기 카메라는, 적외선 필터를 포함하는 것을 특징으로 한다.Further, the camera is characterized by including an infrared filter.
또한, 상기 배치정보는, 상기 둘 이상의 광원들 간의 기준 축 거리인 것을 특징으로 한다.The arrangement information is a reference axis distance between the two or more light sources.
또한, 상기 배치정보는, 상기 둘 이상의 광원들 간의 X축 거리와 Y축 거리의 비율인 것을 특징으로 한다.The arrangement information may be a ratio of an X-axis distance and a Y-axis distance between the two or more light sources.
또한, 상기 처리부는, 상기 각 반사점의 대표점과 동공 중심점을 이용하여 시선을 추적하는 것을 특징을 한다.Further, the processing unit tracks the line of sight using the representative point of each reflection point and the pupil center point.
본 발명은 시선 추적 시 조명 위치를 고려하여 동공에서 반사되는 반사점을 정확하게 검출할 수 있으므로, 노이즈에 강인하며 정확도를 높일 수 있다.The present invention can accurately detect a reflection point reflected by a pupil in consideration of an illumination position in line-of-sight tracking, thereby being robust against noise and improving accuracy.
도 1은 본 발명의 일 실시예에 따른 시선추적장치를 도시한 블록구성도.
도 2는 본 발명과 관련된 조명 및 카메라의 배치를 도시한 예시도.
도 3 및 도 4는 본 발명과 관련된 조명위치와 반사점 위치의 관계를 도시한 도면.
도 5는 본 발명의 일 실시예에 따른 시선추적장치의 반사점 검출 방법을 도시한 흐름도.
도 6은 본 발명의 일 실시예에 따른 반사점 검출 과정을 도시한 예시도.1 is a block diagram showing a gaze tracking apparatus according to an embodiment of the present invention;
2 is an exemplary view showing the arrangement of a light and a camera associated with the present invention;
Figs. 3 and 4 are diagrams showing the relationship between the illumination position and the reflection point position in relation to the present invention; Fig.
5 is a flowchart illustrating a method of detecting a reflection point of a gaze tracking apparatus according to an embodiment of the present invention.
6 is a diagram illustrating an example of a reflection point detection process according to an embodiment of the present invention.
본 명세서에 기재된 "포함하다", "구성하다", "가지다" 등의 용어는 특별히 반대되는 기재가 없는 한 해당 구성요소가 내재될 수 있음을 의미하는 것이므로 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.The terms "comprises", "comprising", "having", and the like are used herein to mean that a component can be implanted unless otherwise specifically stated, Quot; element ".
또한, 본 명세서에 기재된 "…부", "…기", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다. 또한, "일", "하나" 및 "그" 등의 관사는 본 발명을 기술하는 문맥에 있어서 본 명세서에 달리 지시되거나 문맥에 의해 분명하게 반박되지 않는 한, 단수 및 복수 모두를 포함하는 의미로 사용될 수 있다.Also, the terms " part, "" module, " and" module ", as used herein, refer to a unit that processes at least one function or operation and may be implemented as hardware or software or a combination of hardware and software . It is also to be understood that the articles "a", "an", "an" and "the" Can be used.
이하, 첨부한 도면들을 참조하여 본 발명의 실시예를 상세하게 설명한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.
도 1은 본 발명의 일 실시예에 따른 시선추적장치를 도시한 블록구성도이고, 도 2는 본 발명과 관련된 조명 및 카메라의 배치를 도시한 예시도이다.FIG. 1 is a block diagram illustrating a gaze tracking apparatus according to an exemplary embodiment of the present invention, and FIG. 2 is an exemplary view illustrating an arrangement of a lighting and a camera associated with the present invention.
도 1에 도시된 바와 같이, 시선추적장치는 조명(10), 카메라(20), 처리부(30)를 포함한다.As shown in Fig. 1, the gaze tracking device includes a
조명(10)은 2개 이상의 광원(10a, 10b)으로 구성된다. 여기서, 광원(10a, 10b)은 적외선(Infrared Ray, IR)을 발하는 IR LED(Light Emitting Diode) 또는 IR 램프 등으로 구현될 수 있다. 본 실시예에서는 도 1 및 도 2에 도시된 바와 같이 2개의 광원(10a, 10b)으로 구성된 조명(10)을 예로 들어 설명하고 있으나, 이에 한정되지 않는다.The
카메라(20)는 렌즈가 사용자(예: 운전자)를 향하도록 설치되며 사용자에 대한 영상정보를 획득한다. 카메라(20)는 이미지 센서와 IR 필터로 구성되는 적외선 카메라로 구현될 수 있다.The
조명(10)과 카메라(20)는 도 2에 도시된 바와 같이 사용자의 눈을 향하도록 배치되고 카메라(20)는 조명(10) 점등 시 사용자 얼굴의 특정 영역(예: 눈 영역)을 촬영한다.The
처리부(30)는 카메라(20)를 통해 눈 영상을 획득하고, 그 눈 영상으로부터 동공을 검출한다. 그리고, 처리부(30)는 눈 영상 내 후보 반사점(glint)을 추출한다. 반사점은 일정 밝기 이상인 픽셀들의 집합이다. 처리부(30)는 후보 반사점을 검출하기 위해 눈 영상 내에서 기준 밝기(intensity) 이상인 픽셀들의 윤곽(contour)을 추출한다. 또는, 처리부(30)는 고역 필터(high pass filter)를 적용하여 후보 반사점을 검출할 수도 있다.The
처리부(30)는 추출한 후보 반사점들에 대해서 일정 개씩 쌍(pair)을 구성한다. 여기서, 한 쌍을 구성하는 후보 반사점의 개수는 광원 개수와 동일하다. 예를 들어, 광원의 개수가 2개이고, 반사점이 A, B, C, D로 4개이면, 2개씩 쌍을 구성하여 (A, B), (A, C), (A, D), (B, C), (B, D), (C, D) 총 6개의 쌍이 생성된다.The
처리부(30)는 한 쌍을 구성하는 후보 반사점들 간의 거리, 한 쌍으로 구성되는 후보 반사점 각각과 동공 중심점 사이의 거리, 한 쌍을 구성하는 후보 반사점 각각의의 사이즈(길이)를 연산한다. 즉, 처리부(30)는 각 쌍을 구성하는 후보 반사점들에 대한 정보를 산출한다.The
예컨대, 반사점 A와 B가 한 쌍으로 구성되는 경우, 반사점 A와 반사점 B 사이의 거리, 동공 중심점과 반사점 A 간의 거리, 동공 중심점과 반사점 B의 거리, 반사점 A의 사이즈 및 반사점 B의 사이즈를 연산한다.For example, when the reflection points A and B constitute a pair, the distance between the reflection point A and the reflection point B, the distance between the center point of the pupil and the reflection point A, the distance between the center point of the pupil and the reflection point B, do.
제1광원(10a) 및 제2광원(10b)이 동일 축(Y 축)에 설치되는 경우, 그 광원들(10a, 10b)에 의한 반사점들은 광원들(10a, 10b)와 같은 축에 맺힐 가능성이 높다. 따라서, 한 쌍을 구성하는 후보 반사점들 사이의 동일 축(Y 축)으로 떨어진 거리(Y축 거리)를 각각 연산하고, 그 연산한 거리가 0에 가까운 쌍에 가중치를 부여한다.When the
또한, 처리부(30)는 동공 중심점과 후보 반사점 간의 거리를 계산하고 그 거리에 따라 가중치를 적용한다. 이때, 처리부(30)는 거리 함수 또는 가우시안 함수를 이용하여 가중치를 적용할 수도 있다.In addition, the
처리부(30)는 실제 반사점이 작게 맺히므로, 각 후보 반사점의 크기(size)를 계산한다. 처리부(30)는 계산된 각 후보 반사점의 크기에 따라 가중치를 부여한다.The
이와 같이, 처리부(30)는 각 쌍의 후보 반사점들에 대한 정보를 산출하고, 그 산출한 정보에 따라 해당 정보에 가중치를 부여한다.In this way, the
처리부(30)는 가중치를 부여한 후보 반사점 정보를 더하여 최소값을 가지는 한 쌍의 후보 반사점을 반사점쌍으로 선택한다.The
그리고, 처리부(30)는 선택한 반사점쌍에서 가장 밝은 값을 가지는 픽셀을 각 반사값의 대표값으로 결정한다. 처리부(30)는 이렇게 검출한 반사점과 동공 중심점을 이용하여 시선을 추적한다.Then, the
도 3 및 도 4는 본 발명과 관련된 조명위치와 반사점 위치의 관계를 도시한 도면이다.Figs. 3 and 4 are diagrams showing the relationship between the illumination position and the reflection point position according to the present invention. Fig.
도면에 도시된 바와 같이, 광원들(10a 또는 10b)은 같은 높이에 설치되거나 또는 서로 다른 높이에 설치될 수 있다.As shown in the figure, the
도 3에 도시된 바와 같이, 제1광원(10a)과 제2광원(10b)이 동일한 높이에 배치되면 영상 내에 반사되는 반사점(g1, g2)의 위치도 일치한다. 다시 말해서, 예컨대, 도 3에 도시된 바와 같이 광원들(10a, 10b)이 동일 축에 나란하게 배치되는 경우, 광원들(10a, 10b)에 의한 반사점들(g1, g2)도 광원들(10a, 10b)과 동일한 축에 나란하게 배치된다. 이에, 처리부(30)는 한 쌍을 구성하는 후보 반사점들의 배치가 광원들(10a, 10b)의 실제 배치와 일정 비율(예: 90%)이상 유사한 반사점쌍을 선택한다.3, when the first
또한, 도 4에 도시된 바와 같이, 제1광원(10a)과 제2광원(10b)이 서로 다른 높이에 설치된 경우 제1광원(10a)과 제2광원(10b) 간의 높이(수직거리)) H1 및 폭(수평거리) W1의 비율과 영상에 맺히는 반사점의 높이 H2 및 폭 W2의 비율이 같다.4, when the first
그러므로, 본 발명의 일 실시예에 따른 시선추적장치는 조명의 상대적인 위치 비율을 구한 뒤 영상에서도 같은 비율을 가지는 반사점을 찾을 경우 노이즈를 제거하고 정확하게 반사점을 찾을 수 있다.Therefore, the eye-gaze tracking apparatus according to an embodiment of the present invention finds the relative position ratio of the illumination, and then finds a reflection point having the same ratio in the image.
또한, 본 발명은 광원이 3개 이상일 경우에도 각 조명들의 상대적인 위치를 이용하여 적용 가능하다.In addition, the present invention can be applied by using the relative positions of the respective lights even when there are three or more light sources.
도 5는 본 발명의 일 실시예에 따른 시선추적장치의 반사점 검출 방법을 도시한 흐름도이고, 도 6은 본 발명의 일 실시예에 따른 반사점 검출 과정을 도시한 예시도이다.FIG. 5 is a flowchart illustrating a method of detecting a reflection point of a line-of-sight tracking apparatus according to an exemplary embodiment of the present invention, and FIG. 6 is an exemplary view illustrating a reflection point detection process according to an exemplary embodiment of the present invention.
먼저, 처리부(30)는 카메라(20)를 통해 눈 영상을 획득한다(S11). 이때, 처리부(30)는 조명(10)을 제어하여 사용자의 얼굴로 적외선을 조사한다. 예컨대, 도 6의 (a)에 도시된 바와 같이 눈 영상을 획득한다.First, the
처리부(30)는 눈 영상에서 동공을 검출한다(S12). 처리부(30)는 도 6의 (b)에 도시된 바와 같이 동공 중심의 눈 영상을 추출한다.The
처리부(30)는 눈 영상에서 동공을 검출한 후 눈 영상에서 후보 반사점을 추출한다(S13). 처리부(30)는 눈 영상에서 기준 밝기 이상을 가지는 픽셀들의 윤곽을 추출한다. 또는, 도 6의 (c)에 도시된 바와 같이 눈 영상에서 고주파 성분을 검출한다.The
처리부(30)는 추출한 후보 반사점들 중 일정 개의 후보 반사점들로 구성 가능한 반사점쌍을 생성한다(S14). 예컨대, 광원이 2개인 경우, 처리부(30)는 추출한 후보 반사점들 중 2개씩 후보 반사점을 선택하여 구성 가능한 반사점쌍을 생성한다.The
처리부(30)는 각 반사점쌍을 구성하는 후보 반사점들에 대한 정보를 산출한다(S15). 여기서, 후보 반사점들에 대한 정보는 각 반사점쌍을 구성하는 후보 반사점들 간의 거리, 동공 중심점으로부터 각 후보 반사점까지의 거리, 각 후보 반사점들의 사이즈를 포함한다. 처리부(30)는 산출한 정보에 따라 해당 정보에 가중치를 부여한다.The
처리부(30)는 생성한 반사점쌍들 중 하나의 반사점쌍을 선택한다(S16). 처리부(30)는 각 쌍을 구성하는 후보 반사점들에 대한 정보에 가중치를 부여하여 합한 값이 최소인 반사점쌍을 선택한다. 이때, 처리부(30)는 조명(10)을 구성하는 광원들(10a, 10b)의 배치정보와 유사하게 배치된 후보 반사점들로 구성된 반사점쌍에 가중치를 부여한다.The
처리부(30)는 선택한 반사점쌍을 구성하는 반사점에서 가장 밝은 값을 갖는 픽셀을 해당 반사점의 대표점으로 결정한다(S17).The
이후, 처리부(30)는 동공과 반사점을 이용하여 시선을 추적한다.Then, the
이상에서 설명된 실시예들은 본 발명의 구성요소들과 특징들이 소정 형태로 결합된 것들이다. 각 구성요소 또는 특징은 별도의 명시적 언급이 없는 한 선택적인 것으로 고려되어야 한다. 각 구성요소 또는 특징은 다른 구성요소나 특징과 결합되지 않은 형태로 실시될 수 있다. 또한, 일부 구성요소들 및/또는 특징들을 결합하여 본 발명의 실시예를 구성하는 것도 가능하다. 본 발명의 실시예들에서 설명되는 동작들의 순서는 변경될 수 있다. 어느 실시예의 일부 구성이나 특징은 다른 실시예에 포함될 수 있고, 또는 다른 실시예의 대응하는 구성 또는 특징과 교체될 수 있다. 특허청구범위에서 명시적인 인용 관계가 있지 않은 청구항들을 결합하여 실시예를 구성하거나 출원 후의 보정에 의해 새로운 청구항으로 포함시킬 수 있음은 자명하다.The embodiments described above are those in which the elements and features of the present invention are combined in a predetermined form. Each component or feature shall be considered optional unless otherwise expressly stated. Each component or feature may be implemented in a form that is not combined with other components or features. It is also possible to construct embodiments of the present invention by combining some of the elements and / or features. The order of the operations described in the embodiments of the present invention may be changed. Some configurations or features of certain embodiments may be included in other embodiments, or may be replaced with corresponding configurations or features of other embodiments. It is clear that the claims that are not expressly cited in the claims may be combined to form an embodiment or be included in a new claim by an amendment after the application.
본 발명에 따른 실시예는 다양한 수단, 예를 들어, 하드웨어, 펌웨어(firmware), 소프트웨어 또는 그것들의 결합 등에 의해 구현될 수 있다. 하드웨어에 의한 구현의 경우, 본 발명의 일 실시예는 하나 또는 그 이상의 ASICs(application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 프로세서, 콘트롤러, 마이크로 콘트롤러, 마이크로 프로세서 등에 의해 구현될 수 있다.Embodiments in accordance with the present invention may be implemented by various means, for example, hardware, firmware, software, or a combination thereof. In the case of hardware implementation, an embodiment of the present invention may include one or more application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs) field programmable gate arrays, processors, controllers, microcontrollers, microprocessors, and the like.
펌웨어나 소프트웨어에 의한 구현의 경우, 본 발명의 일 실시예는 이상에서 설명된 기능 또는 동작들을 수행하는 모듈, 절차, 함수 등의 형태로 구현될 수 있다. 소프트웨어 코드는 메모리 유닛에 저장되어 프로세서에 의해 구동될 수 있다. 메모리 유닛은 프로세서 내부 또는 외부에 위치하여, 이미 공지된 다양한 수단에 의해 프로세서와 데이터를 주고 받을 수 있다.In the case of an implementation by firmware or software, an embodiment of the present invention may be implemented in the form of a module, a procedure, a function, or the like which performs the functions or operations described above. The software code can be stored in a memory unit and driven by the processor. The memory unit is located inside or outside the processor, and can exchange data with the processor by various known means.
본 발명은 본 발명의 특징을 벗어나지 않는 범위에서 다른 특정한 형태로 구체화될 수 있음은 당업자에게 자명하다. 따라서, 상술한 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.It will be apparent to those skilled in the art that the present invention may be embodied in other specific forms without departing from the spirit of the invention. Accordingly, the foregoing detailed description is to be considered in all respects illustrative and not restrictive. The scope of the present invention should be determined by rational interpretation of the appended claims, and all changes within the scope of equivalents of the present invention are included in the scope of the present invention.
10: 조명
10a: 제1광원
10b: 제2광원
20: 카메라
30: 처리부10: Lighting
10a: a first light source
10b: a second light source
20: Camera
30:
Claims (13)
상기 눈 영상에서 둘 이상의 광원들에 의해 반사되는 후보 반사점을 추출하는 단계와,
상기 후보 반사점 중 일정 개씩 후보 반사점을 선정하여 하나 이상의 반사점쌍을 생성하는 단계와,
상기 둘 이상의 광원들의 배치정보에 근거하여 상기 하나 이상의 반사점쌍 중 어느 하나의 반사점쌍을 선택하는 단계와,
상기 선택한 반사점쌍을 구성하는 각 반사점의 대표점을 결정하는 단계를 포함하고,
상기 반사점쌍 선택 단계는, 각 반사점쌍을 구성하는 후보 반사점들에 대한 정보를 산출하고 산출한 후보 반사점들에 대한 정보에 이용하여 반사점쌍을 선택하는 것을 특징으로 하는 것을 특징으로 하는 시선추적장치의 반사점 검출 방법.Acquiring an eye image through a camera;
Extracting a candidate reflex point reflected by at least two light sources in the eye image;
Selecting one or more candidate reflex points among the candidate reflex points to generate one or more pairs of reflex points;
Selecting one of the one or more reflection point pairs based on the arrangement information of the two or more light sources;
Determining a representative point of each reflection point constituting the selected reflection point pair,
Wherein the selecting of the pair of reflection points is performed by calculating information on candidate reflection points constituting each pair of reflection points and using the information on the calculated candidate reflection points to select pairs of reflection points A method for detecting a reflection point.
상기 후보 반사점 추출 단계는,
상기 눈 영상으로부터 기준 밝기 이상인 픽셀들의 윤곽을 추출하는 것을 특징으로 하는 시선추적장치의 반사점 검출 방법.The method according to claim 1,
The candidate refracting point extraction step may include:
And extracting an outline of pixels having a reference brightness or more from the eye image.
상기 반사점쌍 생성 단계는,
상기 광원의 개수에 따라 상기 반사점쌍을 구성하는 후보 반사점의 개수를 결정하는 것을 특징으로 하는 시선추적장치의 반사점 검출 방법.The method according to claim 1,
The reflection point pair generation step includes:
Wherein the number of candidate reflection points constituting the pair of reflection points is determined according to the number of the light sources.
상기 반사점쌍 선택 단계는,
상기 둘 이상의 광원들의 배치정보와 일정 비율이상 일치하게 배치된 후보 반사점들로 구성되는 반사점쌍을 선택하는 것을 특징으로 하는 시선추적장치의 반사점 검출 방법.The method according to claim 1,
The reflection point pair selection step includes:
Wherein a pair of reflection points constituted by candidate reflection points arranged so as to coincide with arrangement information of the two or more light sources at a predetermined ratio or more is selected.
상기 배치정보는,
상기 둘 이상의 광원들 간의 기준 축 거리인 것을 특징으로 하는 시선추적장치의 반사점 검출 방법.5. The method of claim 4,
The arrangement information includes:
Wherein the reference point is a reference axis distance between the two or more light sources.
상기 배치정보는,
상기 둘 이상의 광원들 간의 X축 거리와 Y축 거리의 비율인 것을 특징으로 하는 시선추적장치의 반사점 검출 방법.5. The method of claim 4,
The arrangement information includes:
Axis distance between the at least two light sources and the Y-axis distance between the at least two light sources.
상기 반사점의 대표점을 결정하는 단계는,
상기 반사점쌍을 구성하는 각 후보 반사점 중 가장 밝은 값을 가지는 픽셀을 대표점으로 결정하는 것을 특징으로 하는 시선추적장치의 반사점 검출 방법.The method according to claim 1,
Wherein the step of determining representative points of the reflection points comprises:
Wherein a pixel having the brightest value among the candidate reflex points constituting the pair of reflex points is determined as a representative point.
눈 영상을 취득하는 카메라와,
상기 눈 영상에서 상기 조명에 의해 생성되는 후보 반사점을 추출하고 그 추출한 후보 반사점을 일정 개씩 묶어 반사점쌍을 생성한 후, 반사점쌍의 후보 반사점들의 배치가 상기 둘 이상의 광원들의 배치정보와 일정 비율이상 일치하면 해당 반사점쌍을 선택하고, 상기 선택한 반사점쌍을 구성하는 각 반사점의 대표점을 결정하는 처리부를 포함하고,
상기 처리부는 각 반사점쌍을 구성하는 후보 반사점들에 대한 정보를 산출하고 산출한 후보 반사점들에 대한 정보에 이용하여 반사점쌍을 선택하는 것을 특징으로 하는 시선추적장치.A light consisting of two or more light sources emitting infrared rays,
A camera for acquiring an eye image,
A candidate reflection point generated by the illumination is extracted from the eye image, and pairs of the candidate reflection points are grouped into a plurality of pairs of reflection points to generate a pair of reflection points. The arrangement of the candidate reflection points of the pair of reflection points matches the arrangement information of the two or more light sources And a processing unit for selecting a corresponding reflection point pair and determining a representative point of each reflection point constituting the selected reflection point pair,
Wherein the processing unit calculates information on candidate reflections constituting each pair of reflections and uses the information on the calculated reflections to select the pair of reflections.
상기 광원은,
적외선 발광다이오드 및 적외선 램프와 같이 적외선을 발하는 광원으로 구현되는 것을 특징으로 하는 시선추적장치.9. The method of claim 8,
The light source includes:
An infrared ray emitting diode, and an infrared ray lamp.
상기 카메라는,
적외선 필터를 포함하는 것을 특징으로 하는 시선추적장치.9. The method of claim 8,
The camera comprises:
And an infrared ray filter.
상기 배치정보는,
상기 둘 이상의 광원들 간의 기준 축 거리인 것을 특징으로 하는 시선추적장치.9. The method of claim 8,
The arrangement information includes:
Wherein the reference point is a reference axis distance between the two or more light sources.
상기 배치정보는,
상기 둘 이상의 광원들 간의 X축 거리와 Y축 거리의 비율인 것을 특징으로 하는 시선추적장치.9. The method of claim 8,
The arrangement information includes:
Axis distance and the Y-axis distance between the two or more light sources.
상기 처리부는,
상기 각 반사점의 대표점과 동공 중심점을 이용하여 시선을 추적하는 것을 특징으로 하는 시선추적장치.9. The method of claim 8,
Wherein,
Wherein the line of sight is tracked using a representative point of each reflection point and a pupil center point.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020140155649A KR101673694B1 (en) | 2014-11-10 | 2014-11-10 | Gaze tracking apparatus and method for detecting glint thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020140155649A KR101673694B1 (en) | 2014-11-10 | 2014-11-10 | Gaze tracking apparatus and method for detecting glint thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20160055621A KR20160055621A (en) | 2016-05-18 |
KR101673694B1 true KR101673694B1 (en) | 2016-11-07 |
Family
ID=56113440
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020140155649A KR101673694B1 (en) | 2014-11-10 | 2014-11-10 | Gaze tracking apparatus and method for detecting glint thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101673694B1 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108762511B (en) * | 2018-06-14 | 2020-08-25 | 北京七鑫易维信息技术有限公司 | Light source control method and device |
KR20220137428A (en) * | 2021-04-02 | 2022-10-12 | 삼성전자주식회사 | Electronic apparatus and operaintg method thereof |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010244156A (en) * | 2009-04-02 | 2010-10-28 | Toyota Motor Corp | Image feature amount detection device and view line direction detection device using the same |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5613014A (en) * | 1994-10-12 | 1997-03-18 | Martin Marietta Corp. | Fingerprint matching system |
KR100820639B1 (en) * | 2006-07-25 | 2008-04-10 | 한국과학기술연구원 | System and method for 3-dimensional interaction based on gaze and system and method for tracking 3-dimensional gaze |
-
2014
- 2014-11-10 KR KR1020140155649A patent/KR101673694B1/en active IP Right Grant
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010244156A (en) * | 2009-04-02 | 2010-10-28 | Toyota Motor Corp | Image feature amount detection device and view line direction detection device using the same |
Also Published As
Publication number | Publication date |
---|---|
KR20160055621A (en) | 2016-05-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9924866B2 (en) | Compact remote eye tracking system including depth sensing capacity | |
JP6930223B2 (en) | Pupil detection computer program, pupil detection device and pupil detection method | |
CN110266916B (en) | Method and system for processing glare in eye tracking | |
RU2705432C2 (en) | Eye tracking through eyeglasses | |
JP6577454B2 (en) | On-axis gaze tracking system and method | |
US20170286771A1 (en) | Gaze detection apparatus and gaze detection method | |
CN103827920B (en) | It is determined according to the object distance of image | |
US20150070273A1 (en) | User interface based on optical sensing and tracking of user's eye movement and position | |
US20130127705A1 (en) | Apparatus for touching projection of 3d images on infrared screen using single-infrared camera | |
JP6322986B2 (en) | Image processing apparatus, image processing method, and image processing program | |
JP2014174833A (en) | Operation detection device and operation detection method | |
KR101619651B1 (en) | Driver Monitoring Apparatus and Method for Controlling Lighting thereof | |
KR20140125713A (en) | Apparatus and method of gaze tracking based on camera array | |
US10552675B2 (en) | Method and apparatus for eye detection from glints | |
JP5621456B2 (en) | Gaze detection device, gaze detection method, computer program for gaze detection, and portable terminal | |
KR20150075906A (en) | Apparatus and mehtod for eye tracking | |
US20170116736A1 (en) | Line of sight detection system and method | |
KR20130107981A (en) | Device and method for tracking sight line | |
JP6870474B2 (en) | Gaze detection computer program, gaze detection device and gaze detection method | |
CN104434022A (en) | optical array system and method for performing pupil tracking using retro-reflectivity | |
US20210012105A1 (en) | Method and system for 3d cornea position estimation | |
WO2018164104A1 (en) | Eye image processing device | |
KR101673694B1 (en) | Gaze tracking apparatus and method for detecting glint thereof | |
KR101619656B1 (en) | Gaze Tracking Apparatus and Method for Detecting Pupil thereof | |
US20130127704A1 (en) | Spatial touch apparatus using single infrared camera |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20191029 Year of fee payment: 4 |