KR101673694B1 - Gaze tracking apparatus and method for detecting glint thereof - Google Patents

Gaze tracking apparatus and method for detecting glint thereof Download PDF

Info

Publication number
KR101673694B1
KR101673694B1 KR1020140155649A KR20140155649A KR101673694B1 KR 101673694 B1 KR101673694 B1 KR 101673694B1 KR 1020140155649 A KR1020140155649 A KR 1020140155649A KR 20140155649 A KR20140155649 A KR 20140155649A KR 101673694 B1 KR101673694 B1 KR 101673694B1
Authority
KR
South Korea
Prior art keywords
reflection
point
pair
candidate
points
Prior art date
Application number
KR1020140155649A
Other languages
Korean (ko)
Other versions
KR20160055621A (en
Inventor
김선아
이재호
Original Assignee
현대자동차주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대자동차주식회사 filed Critical 현대자동차주식회사
Priority to KR1020140155649A priority Critical patent/KR101673694B1/en
Publication of KR20160055621A publication Critical patent/KR20160055621A/en
Application granted granted Critical
Publication of KR101673694B1 publication Critical patent/KR101673694B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/40Software arrangements specially adapted for pattern recognition, e.g. user interfaces or toolboxes therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

본 발명은 시선추적장치 및 그의 반사점 검출 방법에 관한 것으로, 카메라를 통해 눈 영상을 획득하고, 상기 눈 영상에서 둘 이상의 조명에 의해 반사되는 후보 반사점을 추출하며, 상기 후보 반사점 중 일정 개씩 후보 반사점을 선정하여 하나 이상의 반사점쌍을 생성하고, 상기 둘 이상의 광원들의 배치정보에 근거하여 상기 하나 이상의 반사점쌍 중 어느 하나의 반사점쌍을 선택하며, 상기 선택한 반사점쌍을 구성하는 각 반사점의 대표점을 결정하고, 그 반사점의 대표점과 동공 중심점을 이용하여 시선을 추적한다.The present invention relates to a line-of-sight tracking apparatus and a method of detecting a reflection point of the line-of-sight tracing apparatus. The line-of-sight tracing apparatus and the reflection point detecting method of the present invention are characterized by obtaining eye images through a camera, extracting candidate reflection points reflected by two or more lights in the eye image, Selects one of the pair of reflection points of the at least one reflection point pair based on the arrangement information of the two or more light sources, determines a representative point of each reflection point constituting the selected reflection point pair , And the gaze is traced using the representative point of the reflection point and the pupil center point.

Description

시선추적장치 및 그의 반사점 검출 방법{GAZE TRACKING APPARATUS AND METHOD FOR DETECTING GLINT THEREOF}TECHNICAL FIELD [0001] The present invention relates to a gaze tracking apparatus and a method for detecting a reflection point of the gaze tracking apparatus,

본 발명은 시선 추적 시 조명위치를 고려하여 동공에서 반사되는 반사점을 검출하는 시선추적장치 및 그의 반사점 검출 방법에 관한 것이다.The present invention relates to a line-of-sight tracking apparatus for detecting a reflection point reflected by a pupil in consideration of an illumination position in line-of-sight tracking, and a reflection point detecting method therefor.

시선추적기술은 HCI(Human Computer Interaction) 분야에서 새로운 사용자 입력기술로 각광받고 있다. 이러한 시선추적기술은 손발의 움직임이 불편한 장애인이 컴퓨터를 사용할 수 있도록 개발되어 상용화되고 있다. 사람의 시선은 특별한 관심이나 생체 변화 등을 반영한다. 따라서, 시선추적기술을 AUI(Attentive User Interface) 및 졸음운전 방지를 위한 안전 시스템(Safety System) 등의 분야에 적용하기 위하여 많은 연구가 진행되고 있다.Eye tracking technology is attracting attention as a new user input technology in HCI (Human Computer Interaction) field. Such eye tracking technology has been developed and commercialized so that the disabled can use the computer. A person's gaze reflects special interest or biological change. Therefore, much research has been conducted to apply the eye tracking technology to the fields of Attendive User Interface (AUI) and Safety System for preventing drowsiness.

종래에는 동공에서 반사되는 반사점(glint)를 이용하여 사용자의 시선을 추적하는 기술이 소개되고 있다. 이러한 종래의 시선추적기술은 카메라를 통해 촬영한 눈 영상 내 존재하는 반사점들 중 가장 밝은(intensity) 반사점을 검출한다. 그러나, 종래와 같이 반사점의 밝기만을 이용하여 반사점을 검출하는 경우 노이즈가 많이 발생하게 된다. 예를 들어, 사용자가 안경을 착용한 경우에는 안경에 맺히는 반사점(노이즈)으로 인해 반사점 오인식이 일어날 가능성이 높다.Conventionally, a technique of tracking a user's gaze using a glint reflected from a pupil has been introduced. This conventional line-of-sight tracking technology detects the brightest reflection point among the reflection points existing in the eye image photographed through the camera. However, when a reflection point is detected using only the brightness of the reflection point as in the conventional art, a lot of noise is generated. For example, when a user wears glasses, there is a high possibility that a reflection point is mistaken due to a reflection point (noise) formed in the glasses.

본 발명은 상기한 종래기술의 문제점을 해결하기 위하여 안출된 것으로, 시선 추적 시 조명 위치를 고려하여 동공에서 반사되는 반사점을 정확하게 검출하는 시선추적장치 및 그의 반사점 검출 방법을 제공하는데 그 목적이 있다.SUMMARY OF THE INVENTION It is an object of the present invention to provide a line-of-sight tracking apparatus for accurately detecting a reflection point reflected by a pupil in consideration of an illumination position in line-of-sight tracking, and a reflection point detecting method thereof.

상기한 과제를 해결하기 위하여, 본 발명의 일 실시예에 따른 시선추적장치의 반사점 검출 방법은 카메라를 통해 눈 영상을 획득하는 단계와, 상기 눈 영상에서 둘 이상의 광원들에 의해 반사되는 후보 반사점을 추출하는 단계와, 상기 후보 반사점 중 일정 개씩 후보 반사점을 선정하여 하나 이상의 반사점쌍을 생성하는 단계와, 상기 둘 이상의 광원들의 배치정보에 근거하여 상기 하나 이상의 반사점쌍 중 어느 하나의 반사점쌍을 선택하는 단계와, 상기 선택한 반사점쌍을 구성하는 각 반사점의 대표점을 결정하는 단계를 포함하는 것을 특징으로 한다.According to another aspect of the present invention, there is provided a method of detecting a reflection point of a line-of-sight tracking apparatus, comprising: acquiring an eye image through a camera; Selecting one or more pairs of reflection points of the at least one pair of reflection points on the basis of the arrangement information of the two or more light sources; And determining a representative point of each reflection point constituting the selected reflection point pair.

또한, 상기 후보 반사점 추출 단계는, 상기 눈 영상으로부터 기준 밝기 이상인 픽셀들의 윤곽을 추출하는 것을 특징으로 한다.In addition, the candidate refracting point extracting step may extract an outline of pixels having a reference brightness or more from the eye image.

또한, 상기 반사점쌍 생성 단계는, 상기 조명의 개수에 따라 상기 반사점쌍을 구성하는 후보 반사점의 개수를 결정하는 것을 특징으로 한다.Further, the reflec- tion point pair generation step is characterized by determining the number of candidate reflections constituting the reflec- tion point pair according to the number of the illuminations.

또한, 상기 반사점쌍 선택 단계는, 상기 둘 이상의 광원들의 배치정보와 일정 비율이상 일치하게 배치된 후보 반사점들로 구성되는 반사점쌍을 선택하는 것을 특징으로 한다.The reflec- tion point pair selecting step selects a reflec- tion point pair composed of candidate reflections that are arranged to coincide with the arrangement information of the two or more light sources at a predetermined ratio or more.

또한, 상기 배치정보는, 상기 둘 이상의 광원들 간의 기준 축 거리인 것을 특징으로 한다.The arrangement information is a reference axis distance between the two or more light sources.

또한, 상기 배치정보는, 상기 둘 이상의 광원들 간의 X축 거리와 Y축 거리의 비율인 것을 특징으로 한다.The arrangement information may be a ratio of an X-axis distance and a Y-axis distance between the two or more light sources.

또한, 상기 반사점 선택 단계는, 상기 반사점쌍을 구성하는 각 후보 반사점 중 가장 밝은 값을 가지는 픽셀을 대표점으로 결정하는 것을 특징으로 한다.In addition, the refracting point selecting step determines a pixel having the brightest value among the candidate refracting points constituting the refracting point pair as a representative point.

한편, 본 발명의 일 실시예에 따른 시선추적장치는 적외선을 발하는 둘 이상의 광원들로 구성되는 조명과, 눈 영상을 취득하는 카메라와, 상기 눈 영상에서 상기 조명에 의해 생성되는 후보 반사점을 추출하고 그 추출한 후보 반사점을 일정 개씩 묶어 반사점쌍을 생성한 후, 반사점쌍의 후보 반사점들의 배치가 상기 둘 이상의 광원들의 배치정보와 일정 비율이상 일치하면 해당 반사점쌍을 선택하고, 상기 선택한 반사점쌍을 구성하는 각 반사점의 대표점을 결정하는 처리부를 포함하는 것을 특징으로 한다.Meanwhile, the eye tracking apparatus according to an embodiment of the present invention includes a light source configured to emit infrared light, a camera configured to acquire an eye image, a candidate reflex point generated by the illumination in the eye image, Selecting a pair of reflection points when the arrangement of the candidate reflection points of the pair of reflection points is equal to or more than a certain ratio with the arrangement information of the two or more light sources, And a processing unit for determining representative points of the respective reflection points.

또한, 상기 광원은, 적외선 발광다이오드 및 적외선 램프와 같이 적외선을 발하는 광원으로 구현되는 것을 특징으로 한다.In addition, the light source is realized as a light source emitting infrared rays such as an infrared ray emitting diode and an infrared ray lamp.

또한, 상기 카메라는, 적외선 필터를 포함하는 것을 특징으로 한다.Further, the camera is characterized by including an infrared filter.

또한, 상기 배치정보는, 상기 둘 이상의 광원들 간의 기준 축 거리인 것을 특징으로 한다.The arrangement information is a reference axis distance between the two or more light sources.

또한, 상기 배치정보는, 상기 둘 이상의 광원들 간의 X축 거리와 Y축 거리의 비율인 것을 특징으로 한다.The arrangement information may be a ratio of an X-axis distance and a Y-axis distance between the two or more light sources.

또한, 상기 처리부는, 상기 각 반사점의 대표점과 동공 중심점을 이용하여 시선을 추적하는 것을 특징을 한다.Further, the processing unit tracks the line of sight using the representative point of each reflection point and the pupil center point.

본 발명은 시선 추적 시 조명 위치를 고려하여 동공에서 반사되는 반사점을 정확하게 검출할 수 있으므로, 노이즈에 강인하며 정확도를 높일 수 있다.The present invention can accurately detect a reflection point reflected by a pupil in consideration of an illumination position in line-of-sight tracking, thereby being robust against noise and improving accuracy.

도 1은 본 발명의 일 실시예에 따른 시선추적장치를 도시한 블록구성도.
도 2는 본 발명과 관련된 조명 및 카메라의 배치를 도시한 예시도.
도 3 및 도 4는 본 발명과 관련된 조명위치와 반사점 위치의 관계를 도시한 도면.
도 5는 본 발명의 일 실시예에 따른 시선추적장치의 반사점 검출 방법을 도시한 흐름도.
도 6은 본 발명의 일 실시예에 따른 반사점 검출 과정을 도시한 예시도.
1 is a block diagram showing a gaze tracking apparatus according to an embodiment of the present invention;
2 is an exemplary view showing the arrangement of a light and a camera associated with the present invention;
Figs. 3 and 4 are diagrams showing the relationship between the illumination position and the reflection point position in relation to the present invention; Fig.
5 is a flowchart illustrating a method of detecting a reflection point of a gaze tracking apparatus according to an embodiment of the present invention.
6 is a diagram illustrating an example of a reflection point detection process according to an embodiment of the present invention.

본 명세서에 기재된 "포함하다", "구성하다", "가지다" 등의 용어는 특별히 반대되는 기재가 없는 한 해당 구성요소가 내재될 수 있음을 의미하는 것이므로 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.The terms "comprises", "comprising", "having", and the like are used herein to mean that a component can be implanted unless otherwise specifically stated, Quot; element ".

또한, 본 명세서에 기재된 "…부", "…기", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다. 또한, "일", "하나" 및 "그" 등의 관사는 본 발명을 기술하는 문맥에 있어서 본 명세서에 달리 지시되거나 문맥에 의해 분명하게 반박되지 않는 한, 단수 및 복수 모두를 포함하는 의미로 사용될 수 있다.Also, the terms " part, "" module, " and" module ", as used herein, refer to a unit that processes at least one function or operation and may be implemented as hardware or software or a combination of hardware and software . It is also to be understood that the articles "a", "an", "an" and "the" Can be used.

이하, 첨부한 도면들을 참조하여 본 발명의 실시예를 상세하게 설명한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 시선추적장치를 도시한 블록구성도이고, 도 2는 본 발명과 관련된 조명 및 카메라의 배치를 도시한 예시도이다.FIG. 1 is a block diagram illustrating a gaze tracking apparatus according to an exemplary embodiment of the present invention, and FIG. 2 is an exemplary view illustrating an arrangement of a lighting and a camera associated with the present invention.

도 1에 도시된 바와 같이, 시선추적장치는 조명(10), 카메라(20), 처리부(30)를 포함한다.As shown in Fig. 1, the gaze tracking device includes a light source 10, a camera 20, and a processing unit 30.

조명(10)은 2개 이상의 광원(10a, 10b)으로 구성된다. 여기서, 광원(10a, 10b)은 적외선(Infrared Ray, IR)을 발하는 IR LED(Light Emitting Diode) 또는 IR 램프 등으로 구현될 수 있다. 본 실시예에서는 도 1 및 도 2에 도시된 바와 같이 2개의 광원(10a, 10b)으로 구성된 조명(10)을 예로 들어 설명하고 있으나, 이에 한정되지 않는다.The illumination 10 is composed of two or more light sources 10a and 10b. Here, the light sources 10a and 10b may be implemented by an IR LED (Light Emitting Diode) or an IR lamp that emits infrared rays (IR). In the present embodiment, as shown in FIGS. 1 and 2, the illumination 10 including two light sources 10a and 10b is described as an example, but the present invention is not limited thereto.

카메라(20)는 렌즈가 사용자(예: 운전자)를 향하도록 설치되며 사용자에 대한 영상정보를 획득한다. 카메라(20)는 이미지 센서와 IR 필터로 구성되는 적외선 카메라로 구현될 수 있다.The camera 20 is installed so that the lens faces the user (e.g. driver) and acquires image information for the user. The camera 20 may be implemented by an infrared camera composed of an image sensor and an IR filter.

조명(10)과 카메라(20)는 도 2에 도시된 바와 같이 사용자의 눈을 향하도록 배치되고 카메라(20)는 조명(10) 점등 시 사용자 얼굴의 특정 영역(예: 눈 영역)을 촬영한다.The illumination 10 and the camera 20 are arranged to face the user's eyes as shown in Fig. 2 and the camera 20 photographs a specific area (e.g., an eye area) of the user's face when the illumination 10 is lit .

처리부(30)는 카메라(20)를 통해 눈 영상을 획득하고, 그 눈 영상으로부터 동공을 검출한다. 그리고, 처리부(30)는 눈 영상 내 후보 반사점(glint)을 추출한다. 반사점은 일정 밝기 이상인 픽셀들의 집합이다. 처리부(30)는 후보 반사점을 검출하기 위해 눈 영상 내에서 기준 밝기(intensity) 이상인 픽셀들의 윤곽(contour)을 추출한다. 또는, 처리부(30)는 고역 필터(high pass filter)를 적용하여 후보 반사점을 검출할 수도 있다.The processing unit 30 acquires the eye image through the camera 20, and detects the pupil from the eye image. Then, the processing unit 30 extracts a candidate reflex point (glint) in the eye image. The reflection point is a set of pixels with a certain brightness or more. The processing unit 30 extracts a contour of pixels having a reference intensity or more within the eye image to detect a candidate reflection point. Alternatively, the processing unit 30 may detect a candidate reflex point by applying a high pass filter.

처리부(30)는 추출한 후보 반사점들에 대해서 일정 개씩 쌍(pair)을 구성한다. 여기서, 한 쌍을 구성하는 후보 반사점의 개수는 광원 개수와 동일하다. 예를 들어, 광원의 개수가 2개이고, 반사점이 A, B, C, D로 4개이면, 2개씩 쌍을 구성하여 (A, B), (A, C), (A, D), (B, C), (B, D), (C, D) 총 6개의 쌍이 생성된다.The processing unit 30 constructs a pair of predetermined reflections with respect to the extracted candidate reflections. Here, the number of candidate reflection points constituting a pair is equal to the number of light sources. For example, if the number of light sources is 2, and the reflection points are 4, A, B, C, and D, B, C), (B, D), and (C, D).

처리부(30)는 한 쌍을 구성하는 후보 반사점들 간의 거리, 한 쌍으로 구성되는 후보 반사점 각각과 동공 중심점 사이의 거리, 한 쌍을 구성하는 후보 반사점 각각의의 사이즈(길이)를 연산한다. 즉, 처리부(30)는 각 쌍을 구성하는 후보 반사점들에 대한 정보를 산출한다.The processing unit 30 calculates the distance between the candidate reflections constituting the pair, the distance between each pair of candidate reflections and the center of the pupil, and the size (length) of each of the candidate reflections constituting the pair. That is, the processing unit 30 calculates information about the candidate reflections constituting each pair.

예컨대, 반사점 A와 B가 한 쌍으로 구성되는 경우, 반사점 A와 반사점 B 사이의 거리, 동공 중심점과 반사점 A 간의 거리, 동공 중심점과 반사점 B의 거리, 반사점 A의 사이즈 및 반사점 B의 사이즈를 연산한다.For example, when the reflection points A and B constitute a pair, the distance between the reflection point A and the reflection point B, the distance between the center point of the pupil and the reflection point A, the distance between the center point of the pupil and the reflection point B, do.

제1광원(10a) 및 제2광원(10b)이 동일 축(Y 축)에 설치되는 경우, 그 광원들(10a, 10b)에 의한 반사점들은 광원들(10a, 10b)와 같은 축에 맺힐 가능성이 높다. 따라서, 한 쌍을 구성하는 후보 반사점들 사이의 동일 축(Y 축)으로 떨어진 거리(Y축 거리)를 각각 연산하고, 그 연산한 거리가 0에 가까운 쌍에 가중치를 부여한다.When the first light source 10a and the second light source 10b are installed on the same axis (Y axis), the reflection points of the light sources 10a and 10b are likely to be formed on the same axis as the light sources 10a and 10b Is high. Therefore, the distance (Y-axis distance) on the same axis (Y-axis) between the candidate reflections constituting the pair is calculated, and a weight is assigned to the pair whose calculated distance is close to zero.

또한, 처리부(30)는 동공 중심점과 후보 반사점 간의 거리를 계산하고 그 거리에 따라 가중치를 적용한다. 이때, 처리부(30)는 거리 함수 또는 가우시안 함수를 이용하여 가중치를 적용할 수도 있다.In addition, the processing unit 30 calculates the distance between the pupil center point and the candidate reflection point, and applies a weight according to the distance. At this time, the processing unit 30 may apply a weight value using a distance function or a Gaussian function.

처리부(30)는 실제 반사점이 작게 맺히므로, 각 후보 반사점의 크기(size)를 계산한다. 처리부(30)는 계산된 각 후보 반사점의 크기에 따라 가중치를 부여한다.The processing unit 30 calculates the size (size) of each candidate reflection point because the actual reflection point is small. The processing unit 30 assigns weights according to the sizes of the calculated candidate reflection points.

이와 같이, 처리부(30)는 각 쌍의 후보 반사점들에 대한 정보를 산출하고, 그 산출한 정보에 따라 해당 정보에 가중치를 부여한다.In this way, the processing unit 30 calculates information about each pair of candidate reflections, and assigns a weight to the information according to the calculated information.

처리부(30)는 가중치를 부여한 후보 반사점 정보를 더하여 최소값을 가지는 한 쌍의 후보 반사점을 반사점쌍으로 선택한다.The processing unit 30 adds the weighted candidate reflection point information and selects a pair of candidate reflection points having the minimum value as a pair of reflection points.

그리고, 처리부(30)는 선택한 반사점쌍에서 가장 밝은 값을 가지는 픽셀을 각 반사값의 대표값으로 결정한다. 처리부(30)는 이렇게 검출한 반사점과 동공 중심점을 이용하여 시선을 추적한다.Then, the processing unit 30 determines a pixel having the brightest value in the selected reflection point pair as a representative value of each reflection value. The processing unit (30) tracks the line of sight using the detected reflection point and pupil center point.

도 3 및 도 4는 본 발명과 관련된 조명위치와 반사점 위치의 관계를 도시한 도면이다.Figs. 3 and 4 are diagrams showing the relationship between the illumination position and the reflection point position according to the present invention. Fig.

도면에 도시된 바와 같이, 광원들(10a 또는 10b)은 같은 높이에 설치되거나 또는 서로 다른 높이에 설치될 수 있다.As shown in the figure, the light sources 10a or 10b may be installed at the same height or at different heights.

도 3에 도시된 바와 같이, 제1광원(10a)과 제2광원(10b)이 동일한 높이에 배치되면 영상 내에 반사되는 반사점(g1, g2)의 위치도 일치한다. 다시 말해서, 예컨대, 도 3에 도시된 바와 같이 광원들(10a, 10b)이 동일 축에 나란하게 배치되는 경우, 광원들(10a, 10b)에 의한 반사점들(g1, g2)도 광원들(10a, 10b)과 동일한 축에 나란하게 배치된다. 이에, 처리부(30)는 한 쌍을 구성하는 후보 반사점들의 배치가 광원들(10a, 10b)의 실제 배치와 일정 비율(예: 90%)이상 유사한 반사점쌍을 선택한다.3, when the first light source 10a and the second light source 10b are disposed at the same height, the positions of the reflection points g1 and g2 reflected in the image also coincide with each other. In other words, for example, when the light sources 10a and 10b are arranged on the same axis as shown in FIG. 3, the reflection points g1 and g2 by the light sources 10a and 10b are also reflected by the light sources 10a and 10b And 10b, respectively. Thus, the processing unit 30 selects a pair of reflection points whose arrangement of candidate reflection points constituting a pair is similar to or more than a certain ratio (for example, 90%) to the actual arrangement of the light sources 10a and 10b.

또한, 도 4에 도시된 바와 같이, 제1광원(10a)과 제2광원(10b)이 서로 다른 높이에 설치된 경우 제1광원(10a)과 제2광원(10b) 간의 높이(수직거리)) H1 및 폭(수평거리) W1의 비율과 영상에 맺히는 반사점의 높이 H2 및 폭 W2의 비율이 같다.4, when the first light source 10a and the second light source 10b are installed at different heights, the height (vertical distance) between the first light source 10a and the second light source 10b) The ratio of the height H1 and the width (horizontal distance) W1 and the height H2 and the width W2 of the reflection points formed on the image are the same.

그러므로, 본 발명의 일 실시예에 따른 시선추적장치는 조명의 상대적인 위치 비율을 구한 뒤 영상에서도 같은 비율을 가지는 반사점을 찾을 경우 노이즈를 제거하고 정확하게 반사점을 찾을 수 있다.Therefore, the eye-gaze tracking apparatus according to an embodiment of the present invention finds the relative position ratio of the illumination, and then finds a reflection point having the same ratio in the image.

또한, 본 발명은 광원이 3개 이상일 경우에도 각 조명들의 상대적인 위치를 이용하여 적용 가능하다.In addition, the present invention can be applied by using the relative positions of the respective lights even when there are three or more light sources.

도 5는 본 발명의 일 실시예에 따른 시선추적장치의 반사점 검출 방법을 도시한 흐름도이고, 도 6은 본 발명의 일 실시예에 따른 반사점 검출 과정을 도시한 예시도이다.FIG. 5 is a flowchart illustrating a method of detecting a reflection point of a line-of-sight tracking apparatus according to an exemplary embodiment of the present invention, and FIG. 6 is an exemplary view illustrating a reflection point detection process according to an exemplary embodiment of the present invention.

먼저, 처리부(30)는 카메라(20)를 통해 눈 영상을 획득한다(S11). 이때, 처리부(30)는 조명(10)을 제어하여 사용자의 얼굴로 적외선을 조사한다. 예컨대, 도 6의 (a)에 도시된 바와 같이 눈 영상을 획득한다.First, the processing unit 30 acquires a snow image through the camera 20 (S11). At this time, the processing unit 30 controls the illumination 10 to irradiate the infrared rays with the user's face. For example, the eye image is obtained as shown in Fig. 6 (a).

처리부(30)는 눈 영상에서 동공을 검출한다(S12). 처리부(30)는 도 6의 (b)에 도시된 바와 같이 동공 중심의 눈 영상을 추출한다.The processing unit 30 detects the pupil in the eye image (S12). The processing unit 30 extracts the eye image of the center of the pupil as shown in FIG. 6 (b).

처리부(30)는 눈 영상에서 동공을 검출한 후 눈 영상에서 후보 반사점을 추출한다(S13). 처리부(30)는 눈 영상에서 기준 밝기 이상을 가지는 픽셀들의 윤곽을 추출한다. 또는, 도 6의 (c)에 도시된 바와 같이 눈 영상에서 고주파 성분을 검출한다.The processing unit 30 detects the pupil from the eye image and extracts the candidate reflection point from the eye image (S13). The processing unit 30 extracts outlines of pixels having a reference brightness or more in the eye image. Alternatively, as shown in FIG. 6 (c), a high frequency component is detected from the eye image.

처리부(30)는 추출한 후보 반사점들 중 일정 개의 후보 반사점들로 구성 가능한 반사점쌍을 생성한다(S14). 예컨대, 광원이 2개인 경우, 처리부(30)는 추출한 후보 반사점들 중 2개씩 후보 반사점을 선택하여 구성 가능한 반사점쌍을 생성한다.The processing unit 30 generates a pair of reflection points that can be composed of certain candidate reflections among the extracted candidate reflections (S14). For example, when there are two light sources, the processing unit 30 selects two candidate reflection points from the extracted candidate reflection points to generate configurable reflection point pairs.

처리부(30)는 각 반사점쌍을 구성하는 후보 반사점들에 대한 정보를 산출한다(S15). 여기서, 후보 반사점들에 대한 정보는 각 반사점쌍을 구성하는 후보 반사점들 간의 거리, 동공 중심점으로부터 각 후보 반사점까지의 거리, 각 후보 반사점들의 사이즈를 포함한다. 처리부(30)는 산출한 정보에 따라 해당 정보에 가중치를 부여한다.The processing unit 30 calculates information about candidate reflections constituting each pair of reflection points (S15). Here, the information on the candidate reflections includes the distance between the candidate reflections constituting each reflections pair, the distance from the pupil center point to each reflections, and the size of each candidate reflections. The processing section (30) assigns a weight to the information according to the calculated information.

처리부(30)는 생성한 반사점쌍들 중 하나의 반사점쌍을 선택한다(S16). 처리부(30)는 각 쌍을 구성하는 후보 반사점들에 대한 정보에 가중치를 부여하여 합한 값이 최소인 반사점쌍을 선택한다. 이때, 처리부(30)는 조명(10)을 구성하는 광원들(10a, 10b)의 배치정보와 유사하게 배치된 후보 반사점들로 구성된 반사점쌍에 가중치를 부여한다.The processing unit 30 selects one reflection point pair among the generated reflection point pairs (S16). The processing unit 30 assigns weights to information about candidate reflections constituting each pair, and selects a reflec- tion point pair having a minimum sum. At this time, the processing unit 30 weights the pair of reflection points composed of candidate reflection points arranged similarly to the arrangement information of the light sources 10a and 10b constituting the illumination 10. [

처리부(30)는 선택한 반사점쌍을 구성하는 반사점에서 가장 밝은 값을 갖는 픽셀을 해당 반사점의 대표점으로 결정한다(S17).The processing unit 30 determines the pixel having the brightest value at the reflection point constituting the selected reflection point pair as the representative point of the reflection point (S17).

이후, 처리부(30)는 동공과 반사점을 이용하여 시선을 추적한다.Then, the processing unit 30 tracks the line of sight using the pupil and the reflection point.

이상에서 설명된 실시예들은 본 발명의 구성요소들과 특징들이 소정 형태로 결합된 것들이다. 각 구성요소 또는 특징은 별도의 명시적 언급이 없는 한 선택적인 것으로 고려되어야 한다. 각 구성요소 또는 특징은 다른 구성요소나 특징과 결합되지 않은 형태로 실시될 수 있다. 또한, 일부 구성요소들 및/또는 특징들을 결합하여 본 발명의 실시예를 구성하는 것도 가능하다. 본 발명의 실시예들에서 설명되는 동작들의 순서는 변경될 수 있다. 어느 실시예의 일부 구성이나 특징은 다른 실시예에 포함될 수 있고, 또는 다른 실시예의 대응하는 구성 또는 특징과 교체될 수 있다. 특허청구범위에서 명시적인 인용 관계가 있지 않은 청구항들을 결합하여 실시예를 구성하거나 출원 후의 보정에 의해 새로운 청구항으로 포함시킬 수 있음은 자명하다.The embodiments described above are those in which the elements and features of the present invention are combined in a predetermined form. Each component or feature shall be considered optional unless otherwise expressly stated. Each component or feature may be implemented in a form that is not combined with other components or features. It is also possible to construct embodiments of the present invention by combining some of the elements and / or features. The order of the operations described in the embodiments of the present invention may be changed. Some configurations or features of certain embodiments may be included in other embodiments, or may be replaced with corresponding configurations or features of other embodiments. It is clear that the claims that are not expressly cited in the claims may be combined to form an embodiment or be included in a new claim by an amendment after the application.

본 발명에 따른 실시예는 다양한 수단, 예를 들어, 하드웨어, 펌웨어(firmware), 소프트웨어 또는 그것들의 결합 등에 의해 구현될 수 있다. 하드웨어에 의한 구현의 경우, 본 발명의 일 실시예는 하나 또는 그 이상의 ASICs(application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 프로세서, 콘트롤러, 마이크로 콘트롤러, 마이크로 프로세서 등에 의해 구현될 수 있다.Embodiments in accordance with the present invention may be implemented by various means, for example, hardware, firmware, software, or a combination thereof. In the case of hardware implementation, an embodiment of the present invention may include one or more application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs) field programmable gate arrays, processors, controllers, microcontrollers, microprocessors, and the like.

펌웨어나 소프트웨어에 의한 구현의 경우, 본 발명의 일 실시예는 이상에서 설명된 기능 또는 동작들을 수행하는 모듈, 절차, 함수 등의 형태로 구현될 수 있다. 소프트웨어 코드는 메모리 유닛에 저장되어 프로세서에 의해 구동될 수 있다. 메모리 유닛은 프로세서 내부 또는 외부에 위치하여, 이미 공지된 다양한 수단에 의해 프로세서와 데이터를 주고 받을 수 있다.In the case of an implementation by firmware or software, an embodiment of the present invention may be implemented in the form of a module, a procedure, a function, or the like which performs the functions or operations described above. The software code can be stored in a memory unit and driven by the processor. The memory unit is located inside or outside the processor, and can exchange data with the processor by various known means.

본 발명은 본 발명의 특징을 벗어나지 않는 범위에서 다른 특정한 형태로 구체화될 수 있음은 당업자에게 자명하다. 따라서, 상술한 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.It will be apparent to those skilled in the art that the present invention may be embodied in other specific forms without departing from the spirit of the invention. Accordingly, the foregoing detailed description is to be considered in all respects illustrative and not restrictive. The scope of the present invention should be determined by rational interpretation of the appended claims, and all changes within the scope of equivalents of the present invention are included in the scope of the present invention.

10: 조명
10a: 제1광원
10b: 제2광원
20: 카메라
30: 처리부
10: Lighting
10a: a first light source
10b: a second light source
20: Camera
30:

Claims (13)

카메라를 통해 눈 영상을 획득하는 단계와,
상기 눈 영상에서 둘 이상의 광원들에 의해 반사되는 후보 반사점을 추출하는 단계와,
상기 후보 반사점 중 일정 개씩 후보 반사점을 선정하여 하나 이상의 반사점쌍을 생성하는 단계와,
상기 둘 이상의 광원들의 배치정보에 근거하여 상기 하나 이상의 반사점쌍 중 어느 하나의 반사점쌍을 선택하는 단계와,
상기 선택한 반사점쌍을 구성하는 각 반사점의 대표점을 결정하는 단계를 포함하고,
상기 반사점쌍 선택 단계는, 각 반사점쌍을 구성하는 후보 반사점들에 대한 정보를 산출하고 산출한 후보 반사점들에 대한 정보에 이용하여 반사점쌍을 선택하는 것을 특징으로 하는 것을 특징으로 하는 시선추적장치의 반사점 검출 방법.
Acquiring an eye image through a camera;
Extracting a candidate reflex point reflected by at least two light sources in the eye image;
Selecting one or more candidate reflex points among the candidate reflex points to generate one or more pairs of reflex points;
Selecting one of the one or more reflection point pairs based on the arrangement information of the two or more light sources;
Determining a representative point of each reflection point constituting the selected reflection point pair,
Wherein the selecting of the pair of reflection points is performed by calculating information on candidate reflection points constituting each pair of reflection points and using the information on the calculated candidate reflection points to select pairs of reflection points A method for detecting a reflection point.
제1항에 있어서,
상기 후보 반사점 추출 단계는,
상기 눈 영상으로부터 기준 밝기 이상인 픽셀들의 윤곽을 추출하는 것을 특징으로 하는 시선추적장치의 반사점 검출 방법.
The method according to claim 1,
The candidate refracting point extraction step may include:
And extracting an outline of pixels having a reference brightness or more from the eye image.
제1항에 있어서,
상기 반사점쌍 생성 단계는,
상기 광원의 개수에 따라 상기 반사점쌍을 구성하는 후보 반사점의 개수를 결정하는 것을 특징으로 하는 시선추적장치의 반사점 검출 방법.
The method according to claim 1,
The reflection point pair generation step includes:
Wherein the number of candidate reflection points constituting the pair of reflection points is determined according to the number of the light sources.
제1항에 있어서,
상기 반사점쌍 선택 단계는,
상기 둘 이상의 광원들의 배치정보와 일정 비율이상 일치하게 배치된 후보 반사점들로 구성되는 반사점쌍을 선택하는 것을 특징으로 하는 시선추적장치의 반사점 검출 방법.
The method according to claim 1,
The reflection point pair selection step includes:
Wherein a pair of reflection points constituted by candidate reflection points arranged so as to coincide with arrangement information of the two or more light sources at a predetermined ratio or more is selected.
제4항에 있어서,
상기 배치정보는,
상기 둘 이상의 광원들 간의 기준 축 거리인 것을 특징으로 하는 시선추적장치의 반사점 검출 방법.
5. The method of claim 4,
The arrangement information includes:
Wherein the reference point is a reference axis distance between the two or more light sources.
제4항에 있어서,
상기 배치정보는,
상기 둘 이상의 광원들 간의 X축 거리와 Y축 거리의 비율인 것을 특징으로 하는 시선추적장치의 반사점 검출 방법.
5. The method of claim 4,
The arrangement information includes:
Axis distance between the at least two light sources and the Y-axis distance between the at least two light sources.
제1항에 있어서,
상기 반사점의 대표점을 결정하는 단계는,
상기 반사점쌍을 구성하는 각 후보 반사점 중 가장 밝은 값을 가지는 픽셀을 대표점으로 결정하는 것을 특징으로 하는 시선추적장치의 반사점 검출 방법.
The method according to claim 1,
Wherein the step of determining representative points of the reflection points comprises:
Wherein a pixel having the brightest value among the candidate reflex points constituting the pair of reflex points is determined as a representative point.
적외선을 발하는 둘 이상의 광원들로 구성되는 조명과,
눈 영상을 취득하는 카메라와,
상기 눈 영상에서 상기 조명에 의해 생성되는 후보 반사점을 추출하고 그 추출한 후보 반사점을 일정 개씩 묶어 반사점쌍을 생성한 후, 반사점쌍의 후보 반사점들의 배치가 상기 둘 이상의 광원들의 배치정보와 일정 비율이상 일치하면 해당 반사점쌍을 선택하고, 상기 선택한 반사점쌍을 구성하는 각 반사점의 대표점을 결정하는 처리부를 포함하고,
상기 처리부는 각 반사점쌍을 구성하는 후보 반사점들에 대한 정보를 산출하고 산출한 후보 반사점들에 대한 정보에 이용하여 반사점쌍을 선택하는 것을 특징으로 하는 시선추적장치.
A light consisting of two or more light sources emitting infrared rays,
A camera for acquiring an eye image,
A candidate reflection point generated by the illumination is extracted from the eye image, and pairs of the candidate reflection points are grouped into a plurality of pairs of reflection points to generate a pair of reflection points. The arrangement of the candidate reflection points of the pair of reflection points matches the arrangement information of the two or more light sources And a processing unit for selecting a corresponding reflection point pair and determining a representative point of each reflection point constituting the selected reflection point pair,
Wherein the processing unit calculates information on candidate reflections constituting each pair of reflections and uses the information on the calculated reflections to select the pair of reflections.
제8항에 있어서,
상기 광원은,
적외선 발광다이오드 및 적외선 램프와 같이 적외선을 발하는 광원으로 구현되는 것을 특징으로 하는 시선추적장치.
9. The method of claim 8,
The light source includes:
An infrared ray emitting diode, and an infrared ray lamp.
제8항에 있어서,
상기 카메라는,
적외선 필터를 포함하는 것을 특징으로 하는 시선추적장치.
9. The method of claim 8,
The camera comprises:
And an infrared ray filter.
제8항에 있어서,
상기 배치정보는,
상기 둘 이상의 광원들 간의 기준 축 거리인 것을 특징으로 하는 시선추적장치.
9. The method of claim 8,
The arrangement information includes:
Wherein the reference point is a reference axis distance between the two or more light sources.
제8항에 있어서,
상기 배치정보는,
상기 둘 이상의 광원들 간의 X축 거리와 Y축 거리의 비율인 것을 특징으로 하는 시선추적장치.
9. The method of claim 8,
The arrangement information includes:
Axis distance and the Y-axis distance between the two or more light sources.
제8항에 있어서,
상기 처리부는,
상기 각 반사점의 대표점과 동공 중심점을 이용하여 시선을 추적하는 것을 특징으로 하는 시선추적장치.
9. The method of claim 8,
Wherein,
Wherein the line of sight is tracked using a representative point of each reflection point and a pupil center point.
KR1020140155649A 2014-11-10 2014-11-10 Gaze tracking apparatus and method for detecting glint thereof KR101673694B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140155649A KR101673694B1 (en) 2014-11-10 2014-11-10 Gaze tracking apparatus and method for detecting glint thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140155649A KR101673694B1 (en) 2014-11-10 2014-11-10 Gaze tracking apparatus and method for detecting glint thereof

Publications (2)

Publication Number Publication Date
KR20160055621A KR20160055621A (en) 2016-05-18
KR101673694B1 true KR101673694B1 (en) 2016-11-07

Family

ID=56113440

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140155649A KR101673694B1 (en) 2014-11-10 2014-11-10 Gaze tracking apparatus and method for detecting glint thereof

Country Status (1)

Country Link
KR (1) KR101673694B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108762511B (en) * 2018-06-14 2020-08-25 北京七鑫易维信息技术有限公司 Light source control method and device
KR20220137428A (en) * 2021-04-02 2022-10-12 삼성전자주식회사 Electronic apparatus and operaintg method thereof

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010244156A (en) * 2009-04-02 2010-10-28 Toyota Motor Corp Image feature amount detection device and view line direction detection device using the same

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5613014A (en) * 1994-10-12 1997-03-18 Martin Marietta Corp. Fingerprint matching system
KR100820639B1 (en) * 2006-07-25 2008-04-10 한국과학기술연구원 System and method for 3-dimensional interaction based on gaze and system and method for tracking 3-dimensional gaze

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010244156A (en) * 2009-04-02 2010-10-28 Toyota Motor Corp Image feature amount detection device and view line direction detection device using the same

Also Published As

Publication number Publication date
KR20160055621A (en) 2016-05-18

Similar Documents

Publication Publication Date Title
US9924866B2 (en) Compact remote eye tracking system including depth sensing capacity
JP6930223B2 (en) Pupil detection computer program, pupil detection device and pupil detection method
CN110266916B (en) Method and system for processing glare in eye tracking
RU2705432C2 (en) Eye tracking through eyeglasses
JP6577454B2 (en) On-axis gaze tracking system and method
US20170286771A1 (en) Gaze detection apparatus and gaze detection method
CN103827920B (en) It is determined according to the object distance of image
US20150070273A1 (en) User interface based on optical sensing and tracking of user's eye movement and position
US20130127705A1 (en) Apparatus for touching projection of 3d images on infrared screen using single-infrared camera
JP6322986B2 (en) Image processing apparatus, image processing method, and image processing program
JP2014174833A (en) Operation detection device and operation detection method
KR101619651B1 (en) Driver Monitoring Apparatus and Method for Controlling Lighting thereof
KR20140125713A (en) Apparatus and method of gaze tracking based on camera array
US10552675B2 (en) Method and apparatus for eye detection from glints
JP5621456B2 (en) Gaze detection device, gaze detection method, computer program for gaze detection, and portable terminal
KR20150075906A (en) Apparatus and mehtod for eye tracking
US20170116736A1 (en) Line of sight detection system and method
KR20130107981A (en) Device and method for tracking sight line
JP6870474B2 (en) Gaze detection computer program, gaze detection device and gaze detection method
CN104434022A (en) optical array system and method for performing pupil tracking using retro-reflectivity
US20210012105A1 (en) Method and system for 3d cornea position estimation
WO2018164104A1 (en) Eye image processing device
KR101673694B1 (en) Gaze tracking apparatus and method for detecting glint thereof
KR101619656B1 (en) Gaze Tracking Apparatus and Method for Detecting Pupil thereof
US20130127704A1 (en) Spatial touch apparatus using single infrared camera

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20191029

Year of fee payment: 4