KR101628542B1 - Eye Tracking Apparatus and Method - Google Patents

Eye Tracking Apparatus and Method Download PDF

Info

Publication number
KR101628542B1
KR101628542B1 KR1020140165613A KR20140165613A KR101628542B1 KR 101628542 B1 KR101628542 B1 KR 101628542B1 KR 1020140165613 A KR1020140165613 A KR 1020140165613A KR 20140165613 A KR20140165613 A KR 20140165613A KR 101628542 B1 KR101628542 B1 KR 101628542B1
Authority
KR
South Korea
Prior art keywords
information
eye
image
camera
cameras
Prior art date
Application number
KR1020140165613A
Other languages
Korean (ko)
Other versions
KR20160062619A (en
Inventor
김선아
Original Assignee
현대자동차주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대자동차주식회사 filed Critical 현대자동차주식회사
Priority to KR1020140165613A priority Critical patent/KR101628542B1/en
Publication of KR20160062619A publication Critical patent/KR20160062619A/en
Application granted granted Critical
Publication of KR101628542B1 publication Critical patent/KR101628542B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K28/00Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions
    • B60K28/02Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/11Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for measuring interpupillary distance or diameter of pupils
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T90/00Enabling technologies or technologies with a potential or indirect contribution to GHG emissions mitigation
    • Y02T90/10Technologies relating to charging of electric vehicles
    • Y02T90/16Information or communication technologies improving the operation of electric vehicles

Abstract

본 발명은 시선추적장치 및 방법에 관한 것으로, 둘 이상의 카메라를 이용한 사용자의 시선추적 중 어느 하나의 카메라를 통해 사용자의 눈 정보 검출이 불가하면 나머지 카메라를 통해 취득한 현재 영상에서 눈 정보를 검출하는 단계와, 상기 현재 영상에서 얼굴 정보를 산출하는 단계와, 상기 얼굴 정보에 대응되는 상기 나머지 카메라를 통해 취득한 이전 영상의 변위 정보를 룩업테이블로부터 추출하는 단계와, 상기 변위 정보를 이용하여 시선벡터를 연산하는 단계를 포함한다.The present invention relates to a line-of-sight tracking apparatus and method, and more particularly, to a line-of-sight tracing apparatus and method for detecting eye information of a user using two or more cameras, Extracting displacement information of a previous image acquired through the remaining camera corresponding to the face information from a look-up table; calculating a line-of-sight vector using the displacement information; .

Description

시선추적장치 및 방법{Eye Tracking Apparatus and Method}Eye Tracking Apparatus and Method

본 발명은 시선추적기법에 관한 것으로, 더욱 상세하게는 둘 이상의 카메라 중 어느 하나의 카메라 렌즈가 장애물에 의해 가려져 사용자의 눈 정보 검출이 불가능한 경우 이전 영상정보를 이용하여 시선벡터를 연산하는 시선추적장치 및 방법에 관한 것이다.The present invention relates to a line-of-sight tracking method, and more particularly, to a line-of-sight tracking method for calculating a line-of-sight vector using previous image information when any one of two or more cameras is blocked by an obstacle, And methods.

일반적으로, 시선추적장치는 2대의 카메라를 통해 취득한 영상을 이용하여 시선을 추적한다. 이에, 2대의 카메라 중 어느 하나의 카메라 렌즈가 운전자의 손동작이나 핸들 등과 같은 장애물에 의해 가려져 사용자의 눈 정보 검출을 할 수 없는 경우 시선 추적을 할 수 없다.Generally, the gaze tracking device tracks the gaze using images acquired through two cameras. Thus, when any one of the two cameras is blocked by an obstacle such as a driver's hand or a steering wheel or the like, the eye tracking can not be performed when the user can not detect the eye information.

특히, 종래에는 시선벡터를 계산하기 위하여 스테레오 카메라의 영상 및 카메라 정보(camera projection matrix 등)를 필요로 한다. 이를 통해서 양 카메라의 상관관계를 통해서 시선벡터를 계산하므로, 두 카메라 중 어느 하나의 카메라를 통해 사용자의 눈 영상을 취득할 수 없는 경우 시선벡터를 계산할 수 없다.In particular, conventionally, a stereo camera camera and a camera projection matrix are required to calculate a line-of-sight vector. Since the eye vector is calculated through the correlation between the two cameras, the eye vector can not be calculated if the eye image of the user can not be acquired through any one of the two cameras.

본 발명은 상기한 종래기술의 문제점을 해결하기 위하여 안출된 것으로, 둘 이상의 카메라 중 어느 하나의 카메라 렌즈가 장애물에 의해 가려져 사용자의 눈 정보 검출이 불가능한 경우 이전 영상정보를 이용하여 시선벡터를 연산하는 시선추적장치 및 방법을 제공하고자 한다.SUMMARY OF THE INVENTION The present invention has been conceived to solve the above-described problems of the conventional art, and it is an object of the present invention to provide a method and a system for calculating eyeball vectors by using previous image information when any one of two or more cameras is obstructed by an obstacle, Eye gaze tracking apparatus and method.

상기 과제를 해결하기 위하여, 본 발명의 일 실시예에 따른 시선추적방법은 둘 이상의 카메라를 이용한 사용자의 시선추적 중 어느 하나의 카메라를 통해 사용자의 눈 정보 검출이 불가하면 나머지 카메라를 통해 취득한 현재 영상에서 눈 정보를 검출하는 단계와, 상기 현재 영상에서 얼굴 정보를 산출하는 단계와, 상기 얼굴 정보에 대응되는 상기 나머지 카메라를 통해 취득한 이전 영상의 변위 정보를 룩업테이블로부터 추출하는 단계와, 상기 변위 정보를 이용하여 시선벡터를 연산하는 단계를 포함하는 것을 특징으로 한다.According to an aspect of the present invention, there is provided a method of tracking a line of sight of a user using two or more cameras, The method comprising the steps of: detecting eye information in the current image; calculating face information in the current image; extracting displacement information of a previous image acquired through the remaining camera corresponding to the face information from a lookup table; And calculating a line-of-sight vector using the line-of-sight vector.

또한, 상기 얼굴 정보는, 얼굴 크기, 눈 크기, 코 크기, 입 크기 중 하나 이상을 포함하는 것을 특징으로 한다.The face information may include at least one of face size, eye size, nose size, and mouth size.

또한, 상기 변위 정보는, 눈 영역 내에서의 깊이 정보인 것을 특징으로 한다.The displacement information is depth information in the eye region.

또한, 상기 시선벡터 연산 단계는, 상기 변위 정보를 이용하여 상기 이전 영상의 눈 정보의 월드좌표를 연산하는 단계와, 상기 눈 정보의 월드좌표 및 상기 현재 영상에서 검출한 눈 정보를 이용하여 시선벡터를 연산하는 단계를 포함하는 것을 특징으로 한다.The eye vector calculation step may further include calculating world coordinates of the eye information of the previous image using the displacement information, calculating eye coordinates of the eyes using the world coordinates of the eye information and eye information detected from the current image, And a step of calculating a difference between the first and second values.

또한, 상기 눈 정보는, 동공 및 조명반사점 중 하나 이상을 포함하는 것을 특징으로 한다.Further, the eye information may include at least one of a pupil and an illumination reflex point.

한편, 본 발명의 일 실시예에 따른 시선추적장치는 둘 이상의 카메라로 구성되어 사용자의 영상을 취득하는 스테레오 카메라와, 상기 둘 이상의 카메라를 통해 취득한 이전 영상에 대한 정보로 구성되는 룩업테이블이 저장되어 있는 메모리와, 상기 둘 이상의 카메라 중 어느 하나의 카메라에 가림 현상이 발생하는 경우 가림 현상이 발생하지 않은 나머지 카메라를 통해 취득한 현재 영상과 이전 영상을 이용하여 시선벡터를 연산하는 제어부를 포함하는 것을 특징으로 한다.Meanwhile, the gaze tracking apparatus according to an embodiment of the present invention may include a stereo camera configured by two or more cameras to acquire an image of a user, and a lookup table composed of information on previous images acquired through the two or more cameras And a control unit for calculating a line-of-sight vector using a current image and a previous image acquired through a remaining camera in which no blur occurs when a blurring phenomenon occurs in any one of the cameras of the two or more cameras .

또한, 상기 가림 현상은, 장애물에 의해 카메라 렌즈가 가려짐에 따라 상기 사용자의 영상 취득이 불가능한 상태인 것을 특징으로 한다.In addition, the blurring phenomenon is a state in which the user can not acquire an image as the camera lens is covered by the obstacle.

또한, 상기 룩업테이블은, 얼굴 정보 및 눈 영역 내 변위정보를 포함하는 것을 특징으로 한다.The lookup table may include face information and displacement information in the eye region.

또한, 상기 제어부는, 상기 현재 영상에서 얼굴 정보를 산출하고, 그 얼굴 정보에 대응되는 상기 나머지 카메라를 통해 취득한 이전 영상의 변위 정보를 상기 룩업테이블로부터 추출하는 것을 특징으로 한다.The control unit may calculate face information from the current image and extract displacement information of a previous image acquired through the remaining camera corresponding to the face information from the lookup table.

또한, 상기 제어부는, 상기 변위 정보를 이용하여 상기 이전 영상의 눈 정보의 월드좌표를 연산하고 상기 이전 영상의 눈 정보의 월드좌표와 상기 현재 영상에서 검출한 눈 정보를 이용하여 시선벡터를 연산하는 것을 특징으로 한다.The controller calculates the world coordinates of the eye information of the previous image using the displacement information and calculates the eye vector using the world coordinates of the eye information of the previous image and the eye information detected in the current image .

본 발명에 따른 시선추적장치는 둘 이상의 카메라 중 어느 하나의 카메라 렌즈가 장애물에 의해 가려져 사용자의 눈 정보 검출이 불가능한 경우 이전 영상정보를 이용하여 시선벡터를 연산할 수 있다. 따라서, 본 발명에 따른 시선추적장치는 핸들과 같은 장애물에 의해 하나의 카메라에 가림 현상이 발생하여도 지속적으로 시선추적이 가능하게 한다.The gaze tracking apparatus according to the present invention can calculate the gaze vector using the previous image information when any one of the two or more cameras is obstructed by the obstacle and the eye information of the user can not be detected. Therefore, the eye-gaze tracking apparatus according to the present invention enables continuous tracking of a gaze even when a blur occurs in one camera due to an obstacle such as a steering wheel.

또한, 본 발명에 따른 시선추적방법은 차량 내에서 운전자의 착석 특성과 시선추적장치의 위치정보를 결합하여 차량에 특화된 시선추적이 가능하다.In addition, the line-of-sight tracking method according to the present invention combines the driver's seating characteristics and the position information of the line-of-sight tracking device in the vehicle, thereby enabling the line-of-sight tracking specific to the vehicle.

또한, 시선추적장치는 특정 사용자만을 위한 눈 정보 룩업테이블을 생성할 경우 하나의 카메라만을 사용하여 사용자의 시선을 추적할 수 있다. 따라서, 하드웨어 절감효과를 기대할 수 있다.In addition, the gaze tracking device can track a user's gaze using only one camera when generating an eye information lookup table for only a specific user. Therefore, a hardware saving effect can be expected.

도 1은 본 발명의 일 실시예에 따른 시선추적장치의 블록구성도.
도 2는 본 발명의 일 실시예에 따른 시선추적방법을 도시한 흐름도.
도 3은 도 2에 도시된 룩업테이블 생성과정을 설명하기 위한 도면.
도 4는 본 발명의 다른 실시예에 따른 시선추적방법을 도시한 흐름도.
도 5는 도 4에서 이전 영상정보를 추출하는 과정을 설명하기 위한 도면.
1 is a block diagram of a gaze tracking apparatus according to an embodiment of the present invention;
FIG. 2 is a flowchart illustrating a gaze tracking method according to an embodiment of the present invention; FIG.
FIG. 3 is a diagram for explaining a lookup table generation process shown in FIG. 2; FIG.
4 is a flowchart illustrating a gaze tracking method according to another embodiment of the present invention.
FIG. 5 is a view for explaining a process of extracting previous image information in FIG. 4; FIG.

본 명세서에 기재된 "포함하다", "구성하다", "가지다" 등의 용어는 특별히 반대되는 기재가 없는 한 해당 구성요소가 내재될 수 있음을 의미하는 것이므로 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.The terms "comprises", "comprising", "having", and the like are used herein to mean that a component can be implanted unless otherwise specifically stated, Quot; element ".

또한, 본 명세서에 기재된 "…부", "…기", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다. 또한, "일", "하나" 및 "그" 등의 관사는 본 발명을 기술하는 문맥에 있어서 본 명세서에 달리 지시되거나 문맥에 의해 분명하게 반박되지 않는 한, 단수 및 복수 모두를 포함하는 의미로 사용될 수 있다.Also, the terms " part, "" module, " and" module ", as used herein, refer to a unit that processes at least one function or operation and may be implemented as hardware or software or a combination of hardware and software . It is also to be understood that the articles "a", "an", "an" and "the" Can be used.

이하, 첨부한 도면들을 참조하여 본 발명의 실시예를 상세하게 설명한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

본 명세서에서 제안하는 시선추적장치 및 방법은 차량 내 시트가 고정된 상태에서 운전자가 상체만 움직일 경우 얼굴의 크기 또는 얼굴 내의 특정 부분(눈, 코, 입)의 크기를 이용하여 카메라로부터 운전자까지의 거리를 계산할 수 있다는 점에서 착안된 것이다. 이에, 본 발명은 둘 이상의 카메라를 통해 취득한 영상으로부터 눈 정보(동공 및/또는 조명반사점)를 검출한 후 각 영상 내 얼굴 크기 및/또는 얼굴 내 특정 부분의 크기를 계산하고 눈 영역 내에서의 변위도를 산출한다. 그리고, 본 발명은 얼굴 크기 및/또는 얼굴 내 특정 부분의 크기 및 눈 영역 내 변위도를 이용하여 룩업테이블(look up table, LUT)을 생성한다. 룩업테이블은 둘 이상의 카메라 중 어느 하나의 카메라에서 가림 현상이 발생하는 경우 이전 영상(프레임)정보를 확인하는데 사용된다.
The eye-gaze tracking apparatus and method proposed in the present specification can be applied to a line-of-sight tracking apparatus and a line-of-sight tracking apparatus in a vehicle in which a driver's body moves only with a seat in a vehicle, It is pointed out that the distance can be calculated. Accordingly, the present invention detects eye information (a pupil and / or an illumination reflex point) from an image acquired through two or more cameras, calculates a face size in each image and / or a size of a specific portion in the face, ≪ / RTI > Further, the present invention generates a look up table (LUT) using the face size and / or the size of a specific portion in the face and the in-eye displacement. The lookup table is used to check previous image (frame) information when a blurring occurs in any one of two or more cameras.

도 1은 본 발명의 일 실시예에 따른 시선추적장치의 블록구성도이다.1 is a block diagram of a gaze tracking apparatus according to an embodiment of the present invention.

도 1에 도시된 바와 같이, 시선추적장치(100)는 스테레오 카메라(110), 조명부(120), 메모리(130), 제어부(140)를 포함한다.1, the eye-gaze tracking apparatus 100 includes a stereo camera 110, an illumination unit 120, a memory 130, and a control unit 140. As shown in FIG.

스테레오 카메라(110)는 제1카메라(111) 및 제2카메라(112)를 포함한다. 본 실시예에서는 시선추적장치(100)가 두 개의 카메라를 구비하는 경우를 예로 들어 설명하고 있으나, 이에 한정되지 않고 3개 이상의 카메라를 구비할 수도 있다.The stereo camera 110 includes a first camera 111 and a second camera 112. In the present embodiment, the gaze tracking apparatus 100 includes two cameras. However, the present invention is not limited to this, and three or more cameras may be provided.

스테레오 카메라(110)는 제1카메라(111) 및 제2카메라(112)를 통해 동일한 피사체(사용자)에 대한 영상을 동시에 취득한다. 카메라(111, 112)는 CCD(charge coupled device) 영상센서(image sensor), CMOS(complementary metal oxide semi-conductor) 영상센서, CPD(charge priming device) 영상센서 및 CID(charge injection device) 영상센서, 적외선 영상센서 등과 같은 영상센서들 중 어느 하나의 영상센서로 구현될 수 있다.The stereo camera 110 simultaneously acquires an image of the same subject (user) through the first camera 111 and the second camera 112. The cameras 111 and 112 may be a CCD (charge coupled device) image sensor, a complementary metal oxide semiconductor (CMOS) image sensor, a charge priming device (CPD) And an image sensor such as an infrared image sensor or the like.

조명부(120)는 피사체(사용자)를 향해 빛(예: 적외선)을 발산한다. 조명부(120)는 하나 이상의 적외선 발광소자(IR LED)로 구현될 수 있다.The illumination unit 120 emits light (e.g., infrared rays) toward a subject (user). The illumination unit 120 may be implemented with one or more infrared light emitting devices (IR LEDs).

메모리(130)는 시선추적을 수행하기 위한 제반 프로그램 및 각종 데이터들을 저장한다. 메모리(130)는 스테레오 카메라(110)를 통해 취득한 각 영상(프레임)의 정보를 이용하여 생성한 룩업테이블을 저장한다. 여기서, 영상정보는 얼굴 크기, 눈 크기, 입 크기, 코 크기 중 하나 이상을 포함하는 얼굴정보 및 눈 영역에서의 변위 정보(disparity)(깊이 정보)를 포함한다. 본 실시예에서는 눈 영역 내 변위정보를 이용하는 것을 설명하고 있으나, 이에 한정되지 않고 전체 영상 또는 동공영역의 대표값 등을 이용하도록 구현할 수도 있다.The memory 130 stores various programs and various data for performing eye tracking. The memory 130 stores a lookup table generated by using the information of each image (frame) acquired through the stereo camera 110. Here, the image information includes face information including at least one of face size, eye size, mouth size, and nose size, and disparity (depth information) in the eye area. In the present embodiment, it is described that the intra-eye area displacement information is used. However, the present invention is not limited to this, and a representative value of a whole image or a pupil area may be used.

제어부(140)는 스테레오 카메라(110)를 구성하는 두 카메라(111, 112) 중 어느 하나의 카메라(111 또는 112)에서 가림 현상이 발생하는 경우, 이전 영상(프레임)정보를 이용하여 시선벡터를 연산한다. 다시 말해서, 제1카메라(111) 또는 제2카메라(112)의 렌즈가 핸들이나 사용자 손 등과 같은 장애물에 의해 가려지는 경우, 제어부(140)는 가림 현상이 발생하지 않은 카메라(111 또는 112)를 통해 이전에 취득한 영상정보를 이용하여 시선벡터를 연산한다.The control unit 140 controls the display unit 110 to display a gaze vector using the previous image (frame) information when a blurring occurs in any one of the cameras 111 and 112 of the stereo camera 110 . In other words, when the lens of the first camera 111 or the second camera 112 is blocked by an obstacle such as a handle or a user's hand, the controller 140 controls the camera 111 or 112 The line-of-sight vector is calculated using the previously obtained image information.

이러한 제어부(140)는 눈 검출모듈(141), 동공 검출모듈(143), 조명반사점 검출모듈(145), 시선벡터 연산모듈(147)을 포함한다.The control unit 140 includes an eye detection module 141, a pupil detection module 143, an illumination reflection point detection module 145, and a gaze vector calculation module 147.

눈 검출모듈(141)는 두 카메라(111, 112)로부터 출력되는 각 영상으로부터 얼굴영역을 검출한다. 이때, 눈 검출모듈(141)는 아다부스트(adaboost) 및 서포트 벡터 머신(support vector machine, SVM), 신경망(neural network) 등의 얼굴 검출 알고리즘을 이용한다. 그리고, 눈 검출모듈(141)은 검출한 얼굴 영역의 크기를 산출할 수도 있다.The eye detection module 141 detects face regions from the respective images output from the two cameras 111 and 112. At this time, the eye detection module 141 uses face detection algorithms such as adaboost, support vector machine (SVM), and neural network. Then, the eye detection module 141 may calculate the size of the detected face area.

눈 검출모듈(141)는 검출한 얼굴영역에서 눈 영역을 검출한다. 눈 검출모듈(141)는 아다부스트, 적응적 템플릿 정합(adaptive template matching), 캠시프트(CAMShift), 급속 안구 검출 알고리즘(rapid eye detection method) 등의 눈 검출 알고리즘을 이용한다.The eye detection module 141 detects the eye region in the detected face region. The eye detection module 141 uses eye detection algorithms such as an adaboost, adaptive template matching, CAMShift, and a rapid eye detection method.

또한, 눈 검출모듈(141)은 검출한 눈 영역의 크기를 계산하여 메모리(130)에 저장한다.Further, the eye detection module 141 calculates the size of the detected eye region and stores the calculated size in the memory 130.

동공 검출모듈(143)은 눈 영역에서 동공 영역을 검출한다. 이때, 동공 검출모듈(143)는 원 피팅(circle fitting) 및 타원 피팅(ellipse fitting) 등의 동공 검출 알고리즘을 이용하여 동공 영역을 검출한다.The pupil detection module 143 detects the pupil region in the eye region. At this time, the pupil detection module 143 detects a pupil region using a pupil detection algorithm such as a circle fitting and an ellipse fitting.

조명반사점 검출모듈(145)는 동공 영역으로부터 조명반사점을 추출한다. 여기서, 조명반사점 검출모듈(145)는 템플릿 정합, 원 피팅, 타원 피팅 등의 알고리즘을 이용하여 동공영역 내 조명반사점을 검출한다.The illumination reflection point detection module 145 extracts illumination reflection points from the pupil region. Here, the illumination reflection point detection module 145 detects an illumination reflection point in the pupil area using algorithms such as template matching, circle fitting, and elliptic fitting.

시선벡터 연산모듈(147)은 각 카메라(111, 112)를 통해 취득한 영상으로부터 검출한 동공 및 조명반사점 중 하나 이상을 이용하여 시선벡터(3D vector)를 연산한다. 이때, 시선벡터 연산모듈(147)은 카메라 프로젝션 메트리스(camera projection matrix) 등의 카메라 정보를 이용한다.The line-of-sight vector computing module 147 computes a line-of-sight vector (3D vector) using at least one of the pupil and the illumination reflection points detected from the image obtained through the cameras 111 and 112. At this time, the line of sight vector calculation module 147 uses camera information such as a camera projection matrix.

시선벡터 연산모듈(147)은 가림 현상이 발생하지 않는 구간에서 두 카메라(111, 112)를 통해 동일한 피사체를 동시에 촬영한 두 영상을 입력받고, 카메라 상관관계를 이용하여 각 영상에 대한 변위도(disparity map)를 생성하고 눈 영역 내에서의 변위 정보(깊이 정보)를 얼굴 정보와 함께 저장하여 룩업테이블을 생성한다. 시선벡터 연산모듈(147)은 일정 영상(프레임) 이상에 대한 영상정보를 생성하여 룩업테이블에 등록한다. 예컨대, 룩업테이블은 최소 5프레임 이상의 영상정보를 포함한다.The line-of-sight vector computing module 147 receives two images of the same subject simultaneously captured through the two cameras 111 and 112 in a section where no blur occurs, and calculates a displacement map for each image using the camera correlation disparity map) and stores the displacement information (depth information) in the eye region together with the face information to generate a lookup table. The line-of-sight vector calculation module 147 generates image information for a predetermined image (frame) or more and registers the image information in the look-up table. For example, the lookup table includes image information of at least five frames.

시선벡터 연산모듈(147)은 두 카메라(111, 112) 중 어느 하나의 카메라(111 또는 112)를 통해 취득한 영상으로부터 눈 정보(동공 및/또는 조명반사점) 검출이 불가능하면, 눈 정보 검출이 가능한 카메라(111 또는 112)를 통해 취득한 이전 영상정보를 이용하여 시선벡터를 연산한다. 예를 들어, 두 카메라(111, 112) 중 어느 하나의 카메라(111 또는 112)의 렌즈가 핸들 또는 사용자의 손 등의 장애물에 의해 가져지는 가림 현상이 발생하는 경우, 가림 현상이 발생하지 않는 카메라(111 또는 112)를 통해 취득한 이전 영상과 현재 영상을 이용하여 시선벡터를 연산한다.If the eye vector calculation module 147 can not detect the eye information (pupil and / or illumination reflection point) from the image obtained through the camera 111 or 112 of either of the two cameras 111 and 112, And calculates a line-of-sight vector using the previous image information acquired through the camera 111 or 112. For example, when a blind phenomenon occurs in which the lens of any one of the cameras 111 and 112 is held by an obstacle such as a handle or a user's hand, And calculates a line-of-sight vector using the previous image and the current image acquired through the image processing unit (111 or 112).

이때, 시선벡터 연산모듈(147)은 가림 현상이 발생하지 않은 카메라(111, 112)를 통해 취득한 영상에서 얼굴 정보를 산출한 후 룩업테이블로부터 산출한 얼굴 정보에 대응되는 변위정보를 독출한다. 그리고, 시선벡터 연산모듈(147)은 독출한 변위정보 및 눈 정보 검출이 가능한 카메라(111 또는 112)를 통해 취득한 영상으로부터 검출한 눈 정보를 이용하여 시선벡터를 연산한다. 눈 정보는 동공 및/또는 조명반사점의 중심점 좌표일 수 있다.
At this time, the line-of-sight vector calculation module 147 calculates face information from the image obtained through the cameras 111 and 112 without occurrence of the blurring, and reads the displacement information corresponding to the face information calculated from the look-up table. Then, the line-of-sight vector computing module 147 computes the line-of-sight vector using the eye information detected from the image obtained through the camera displacement information and the camera 111 or 112 capable of detecting eye information. The eye information may be the center point coordinates of the pupil and / or the illumination reflex point.

도 2는 본 발명의 일 실시예에 따른 시선추적방법을 도시한 흐름도이고, 도 3은 도 2에 도시된 룩업테이블 생성과정을 설명하기 위한 도면이다. 본 실시예는 두 카메라(111, 112)에 가림 현상이 발생하지 않은 경우를 예로 들어 설명한다.FIG. 2 is a flowchart illustrating a gaze tracking method according to an embodiment of the present invention. FIG. 3 is a diagram for explaining a lookup table generation process shown in FIG. The present embodiment will be described taking as an example a case where no blurring occurs in the two cameras 111 and 112.

먼저, 제어부(140)는 제1카메라(111) 및 제2카메라(112)를 통해 각각 영상을 취득한다(S101). 즉, 제1카메라(111) 및 제2카메라(112)는 동시에 동일한 피사체(예: 사용자)를 촬영한다.First, the control unit 140 acquires an image through the first camera 111 and the second camera 112, respectively (S101). That is, the first camera 111 and the second camera 112 simultaneously photograph the same subject (e.g., a user).

제어부(140)는 제1카메라(111) 및 제2카메라(112)를 통해 취득한 각 영상에서 얼굴 영역을 검출하고, 그 검출한 얼굴 영역에서 눈 영역을 검출한다(S103).The control unit 140 detects a face region in each image acquired through the first camera 111 and the second camera 112, and detects an eye region in the detected face region (S103).

제어부(140)는 원 피팅 및 타원 피팅과 같은 동공 검출 알고리즘을 이용하여 눈 영역에서 동공 영역을 검출한다(S105).The control unit 140 detects a pupil region in the eye region using a pupil detection algorithm such as a circle fitting and an elliptic fitting (S105).

제어부(140)는 동공 영역 내 조명반사점을 검출한다(S107).The control unit 140 detects an illumination reflection point in the pupil region (S107).

제어부(140)는 조명반사점을 이용하여 시선벡터를 연산한다(S109). 예를 들어, 제어부(140)는 조명반사점의 중심에 수직한 방향을 시선벡터로 산출한다.The control unit 140 calculates the line-of-sight vector using the illumination reflection point (S109). For example, the control unit 140 calculates a gaze vector as a direction perpendicular to the center of the illumination reflection point.

제어부(140)는 제1카메라(111) 및 제2카메라(112)를 통해 취득한 각 영상으로부터 얼굴 정보 및 눈 영역내 변위 정보를 산출하고 그 산출한 얼굴 정보 및 눈 영역 내 변위 정보를 이용하여 룩업테이블을 생성한다(S111).The control unit 140 calculates face information and intra-eye area displacement information from each image acquired through the first camera 111 and the second camera 112 and uses the calculated face information and in-eye area displacement information to perform lookup And creates a table (S111).

도 3에 도시된 바와 같이 시선추적장치(100)는 제1카메라(111)과 제2카메라(112)는 사용자(U)의 영상(Nth LImg, Nth RImg)을 동시에 취득한다. 그리고, 시선추적장치(100)는 각 영상으로부터 얼굴 크기 및 눈 영역 내 깊이값을 산출한다. 여기서, 얼굴 크기는 얼굴의 길이 및 폭을 포함한다. 시선추적장치(100)는 제1카메라(111)를 통해 획득한 영상에서 추출한 얼굴 크기 및 깊이값으로 룩업테이블(Left Img LUT)을 생성하고, 제2카메라(112)를 통해 취득한 영상에서 추출한 얼굴 크기 및 깊이값으로 룩업테이블(Right Img LUT)를 생성한다. 또한, 시선추적장치(100)는 두 카메라(111, 112)를 통해 취득하는 매 영상마다 얼굴 크기 및 깊이값를 추출하여 룩업테이블에 등록한다.
3, the first camera 111 and the second camera 112 acquire images (Nth LImg, Nth RImg) of the user U at the same time as the gaze tracking apparatus 100. Then, the gaze tracking device 100 calculates the face size and the depth value in the eye area from each image. Here, the face size includes the length and the width of the face. The gaze tracking apparatus 100 generates a look-up table (Left Img LUT) with the face size and depth value extracted from the image acquired through the first camera 111, and extracts the face extracted from the image acquired through the second camera 112 Creates a look-up table (Right Img LUT) with size and depth values. In addition, the gaze tracking device 100 extracts the face size and depth value for each image acquired through the two cameras 111 and 112, and registers the extracted face size and depth value in the lookup table.

도 4는 본 발명의 다른 실시예에 따른 시선추적방법을 도시한 흐름도이고, 도 5는 도 4에서 이전 영상정보를 추출하는 과정을 설명하기 위한 도면이다. 본 실시예는 두 카메라(111, 112) 중 하나의 카메라(111 또는 112)의 렌즈를 핸들 또는 사용자 손 등의 장애물이 가리는 가림 현상이 발생하는 경우를 예로 들어 설명한다. 이런 경우, 가림 현상이 발생한 카메라(111 또는 112)를 통해 눈 정보(동공 및 조명반사점)을 검출할 수 없다.FIG. 4 is a flowchart illustrating a gaze tracking method according to another embodiment of the present invention. FIG. 5 illustrates a process of extracting previous image information in FIG. In this embodiment, a case where a lens of one of the cameras 111 and 112 is blocked by an obstacle such as a handle or a user's hand will be described as an example. In this case, eye information (pupil and illumination reflex points) can not be detected through the camera 111 or 112 where the blurring has occurred.

먼저, 제어부(140)는 가림 현상이 발생하지 않은 카메라(111 또는 112)를 통해 영상을 취득하고 그 취득한 영상에서 눈 정보(동공 및/또는 조명반사점)을 검출한다(S121). 제어부(140)는 도 2에 도시된 동공 및 조명반사점 검출과정을 통해 눈 정보를 검출한다.First, the control unit 140 acquires an image through the camera 111 or 112 that has not undergone the blurring, and detects eye information (pupil and / or illumination reflection point) from the acquired image (S121). The control unit 140 detects the eye information through the pupil and illumination reflection point detection process shown in FIG.

제어부(140)는 가림 현상이 발생하지 않은 카메라(111 또는 112)를 통해 취득한 현재 영상에서 얼굴 정보를 산출한다(S123). 여기서, 얼굴 정보는 얼굴 크기, 눈 크기, 입 크기, 코 크기 중 하나 이상을 포함하고, 크기는 길이 및 폭 정보를 포함한다. The control unit 140 calculates face information from the current image acquired through the camera 111 or 112 that has not caused the blur (S123). Here, the face information includes at least one of face size, eye size, mouth size, and nose size, and the size includes length and width information.

제어부(140)는 산출한 얼굴 정보에 대응되는 이전 영상의 변위 정보를 룩업테이블로부터 추출한다(S125). 여기서, 변위 정보는 깊이 정보를 의미한다.The control unit 140 extracts the displacement information of the previous image corresponding to the calculated face information from the look-up table (S125). Here, the displacement information means depth information.

제어부(140)는 변위정보를 이용하여 이전 영상 내 눈 정보의 월드좌표를 연산한다(S127).The controller 140 calculates the world coordinates of the eye information in the previous image using the displacement information (S127).

제어부(140)는 이전 영상 내 눈 정보의 월드좌표 및 현재 영상에서 검출한 눈 정보를 이용하여 시선벡터를 연산한다(S129).The control unit 140 calculates a line-of-sight vector using the world coordinates of the eye information in the previous image and the eye information detected in the current image (S129).

예를 들어, 도 5에 도시된 바와 같이 제1카메라(111)는 사용자(U)의 영상을 취득할 수 있으나, 제2카메라(112)는 장애물(O)이 렌즈를 가려 사용자(U)의 영상을 취득할 수 없다. 이 경우, 시선추적장치(100)는 제1카메라(111)를 통해 취득한 현재 영상(LImg)에서 사용자(U)의 얼굴 크기(폭, 길이)를 연산한다. 시선추적장치(100)는 얼굴의 폭이 3이고 길이가 4인 경우, 제1카메라(111)를 통해 획득한 영상에 대한 정보가 저장된 룩업테이블(Left Img LUT)에서 얼굴 크기가 (3,4)일 때 깊이값 4를 추출한다. 시선추적장치(100)는 추출한 깊이값을 이용하여 시선벡터(3D vector)를 산출한다. For example, as shown in FIG. 5, the first camera 111 may acquire an image of the user U, but the second camera 112 may acquire the image of the user U by obstructing the obstacle O The image can not be acquired. In this case, the gaze tracking device 100 calculates the face size (width, length) of the user U from the current image LImg acquired through the first camera 111. [ The gaze tracking apparatus 100 has a face size of 3 and a length of 4 in a look-up table (Left Img LUT) in which information about an image acquired through the first camera 111 is stored, ), The depth value 4 is extracted. The gaze tracking device 100 calculates a gaze vector (3D vector) using the extracted depth value.

이상에서 설명된 실시예들은 본 발명의 구성요소들과 특징들이 소정 형태로 결합된 것들이다. 각 구성요소 또는 특징은 별도의 명시적 언급이 없는 한 선택적인 것으로 고려되어야 한다. 각 구성요소 또는 특징은 다른 구성요소나 특징과 결합되지 않은 형태로 실시될 수 있다. 또한, 일부 구성요소들 및/또는 특징들을 결합하여 본 발명의 실시예를 구성하는 것도 가능하다. 본 발명의 실시예들에서 설명되는 동작들의 순서는 변경될 수 있다. 어느 실시예의 일부 구성이나 특징은 다른 실시예에 포함될 수 있고, 또는 다른 실시예의 대응하는 구성 또는 특징과 교체될 수 있다. 특허청구범위에서 명시적인 인용 관계가 있지 않은 청구항들을 결합하여 실시예를 구성하거나 출원 후의 보정에 의해 새로운 청구항으로 포함시킬 수 있음은 자명하다.The embodiments described above are those in which the elements and features of the present invention are combined in a predetermined form. Each component or feature shall be considered optional unless otherwise expressly stated. Each component or feature may be implemented in a form that is not combined with other components or features. It is also possible to construct embodiments of the present invention by combining some of the elements and / or features. The order of the operations described in the embodiments of the present invention may be changed. Some configurations or features of certain embodiments may be included in other embodiments, or may be replaced with corresponding configurations or features of other embodiments. It is clear that the claims that are not expressly cited in the claims may be combined to form an embodiment or be included in a new claim by an amendment after the application.

본 발명에 따른 실시예는 다양한 수단, 예를 들어, 하드웨어, 펌웨어(firmware), 소프트웨어 또는 그것들의 결합 등에 의해 구현될 수 있다. 하드웨어에 의한 구현의 경우, 본 발명의 일 실시예는 하나 또는 그 이상의 ASICs(application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 프로세서, 콘트롤러, 마이크로 콘트롤러, 마이크로 프로세서 등에 의해 구현될 수 있다.Embodiments in accordance with the present invention may be implemented by various means, for example, hardware, firmware, software, or a combination thereof. In the case of hardware implementation, an embodiment of the present invention may include one or more application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs) field programmable gate arrays, processors, controllers, microcontrollers, microprocessors, and the like.

펌웨어나 소프트웨어에 의한 구현의 경우, 본 발명의 일 실시예는 이상에서 설명된 기능 또는 동작들을 수행하는 모듈, 절차, 함수 등의 형태로 구현될 수 있다. 소프트웨어 코드는 메모리 유닛에 저장되어 프로세서에 의해 구동될 수 있다. 메모리 유닛은 프로세서 내부 또는 외부에 위치하여, 이미 공지된 다양한 수단에 의해 프로세서와 데이터를 주고 받을 수 있다.In the case of an implementation by firmware or software, an embodiment of the present invention may be implemented in the form of a module, a procedure, a function, or the like which performs the functions or operations described above. The software code can be stored in a memory unit and driven by the processor. The memory unit is located inside or outside the processor, and can exchange data with the processor by various known means.

본 발명은 본 발명의 특징을 벗어나지 않는 범위에서 다른 특정한 형태로 구체화될 수 있음은 당업자에게 자명하다. 따라서, 상술한 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.It will be apparent to those skilled in the art that the present invention may be embodied in other specific forms without departing from the spirit of the invention. Accordingly, the foregoing detailed description is to be considered in all respects illustrative and not restrictive. The scope of the present invention should be determined by rational interpretation of the appended claims, and all changes within the scope of equivalents of the present invention are included in the scope of the present invention.

100: 시선추적장치
110: 스테레오 카메라
111: 제1카메라
112: 제2카메라
120: 조명부
130: 메모리
140: 제어부
141: 눈 검출모듈
143: 동공 검출모듈
145: 조명반사점 검출모듈
147: 시선벡터 연산모듈
100: eye tracking device
110: Stereo camera
111: First camera
112: Second camera
120:
130: memory
140:
141: eye detection module
143: pupil detection module
145: Illumination Reflection Point Detection Module
147: eye vector operation module

Claims (10)

둘 이상의 카메라를 이용한 사용자의 시선추적 중 어느 하나의 카메라를 통해 사용자의 눈 정보 검출이 불가하면 나머지 카메라를 통해 취득한 현재 영상에서 눈 정보를 검출하는 단계와,
상기 현재 영상에서 얼굴 정보를 산출하는 단계와,
상기 얼굴 정보에 대응되는 상기 나머지 카메라를 통해 취득한 이전 영상의 변위 정보를 룩업테이블로부터 추출하는 단계와,
상기 변위 정보를 이용하여 시선벡터를 연산하는 단계를 포함하는 것을 특징으로 하는 시선추적방법.
Detecting eye information in a current image acquired through a remaining camera when the eye information of the user can not be detected through any one of the cameras during the eye tracking using the two or more cameras;
Calculating face information from the current image;
Extracting displacement information of a previous image acquired through the remaining camera corresponding to the face information from a lookup table;
And calculating a line-of-sight vector using the displacement information.
제1항에 있어서,
상기 얼굴 정보는,
얼굴 크기, 눈 크기, 코 크기, 입 크기 중 하나 이상을 포함하는 것을 특징으로 하는 시선추적방법.
The method according to claim 1,
Wherein the face information comprises:
Face size, eye size, nose size, mouth size, and the like.
제1항에 있어서,
상기 변위 정보는,
눈 영역 내에서의 깊이 정보인 것을 특징으로 하는 시선추적방법.
The method according to claim 1,
The displacement information,
Wherein the depth information is depth information in an eye area.
제1항에 있어서,
상기 시선벡터 연산 단계는,
상기 변위 정보를 이용하여 상기 이전 영상의 눈 정보의 월드좌표를 연산하는 단계와,
상기 눈 정보의 월드좌표 및 상기 현재 영상에서 검출한 눈 정보를 이용하여 시선벡터를 연산하는 단계를 포함하는 것을 특징으로 하는 시선추적방법.
The method according to claim 1,
The line-of-
Calculating world coordinates of eye information of the previous image using the displacement information,
And calculating a line-of-sight vector using the world coordinates of the eye information and the eye information detected in the current image.
제4항에 있어서,
상기 눈 정보는,
동공 및 조명반사점 중 하나 이상을 포함하는 것을 특징으로 하는 시선추적방법.
5. The method of claim 4,
The eye information includes:
A pupil, and an illumination reflex point.
둘 이상의 카메라로 구성되어 사용자의 영상을 취득하는 스테레오 카메라와,
상기 둘 이상의 카메라를 통해 취득한 이전 영상에 대한 정보로 구성되는 룩업테이블이 저장되어 있는 메모리와,
상기 둘 이상의 카메라 중 어느 하나의 카메라에 가림 현상이 발생하는 경우 가림 현상이 발생하지 않은 나머지 카메라를 통해 취득한 현재 영상과 이전 영상을 이용하여 시선벡터를 연산하는 제어부를 포함하는 것을 특징으로 하는 시선추적장치.
A stereo camera which is composed of two or more cameras and acquires a user's image,
A memory for storing a lookup table including information on previous images acquired through the two or more cameras;
And a control unit for calculating a line-of-sight vector using a current image and a previous image acquired through a remaining camera in which no occlusion phenomenon occurs when a blurring phenomenon occurs in any one of the cameras of the two or more cameras, Device.
제6항에 있어서,
상기 가림 현상은,
장애물에 의해 카메라 렌즈가 가려짐에 따라 상기 사용자의 영상 취득이 불가능한 상태인 것을 특징으로 하는 시선추적장치.
The method according to claim 6,
The above-
Wherein the camera is in a state in which the user can not acquire an image as the camera lens is blocked by an obstacle.
제6항에 있어서,
상기 룩업테이블은,
얼굴 정보 및 눈 영역 내 변위정보를 포함하는 것을 특징으로 하는 시선추적장치.
The method according to claim 6,
The look-
Face information, and intra-eye area displacement information.
제6항에 있어서,
상기 제어부는,
상기 현재 영상에서 얼굴 정보를 산출하고, 그 얼굴 정보에 대응되는 상기 나머지 카메라를 통해 취득한 이전 영상의 변위 정보를 상기 룩업테이블로부터 추출하는 것을 특징으로 하는 시선추적장치.
The method according to claim 6,
Wherein,
Wherein the face information is calculated from the current image and the displacement information of the previous image acquired through the remaining camera corresponding to the face information is extracted from the lookup table.
제9항에 있어서,
상기 제어부는,
상기 변위 정보를 이용하여 상기 이전 영상의 눈 정보의 월드좌표를 연산하고 상기 이전 영상의 눈 정보의 월드좌표와 상기 현재 영상에서 검출한 눈 정보를 이용하여 시선벡터를 연산하는 것을 특징으로 하는 시선추적장치.
10. The method of claim 9,
Wherein,
Calculating world coordinates of the eye information of the previous image by using the displacement information, and calculating eye coordinates by using the world coordinates of the eye information of the previous image and the eye information detected by the current image, Device.
KR1020140165613A 2014-11-25 2014-11-25 Eye Tracking Apparatus and Method KR101628542B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140165613A KR101628542B1 (en) 2014-11-25 2014-11-25 Eye Tracking Apparatus and Method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140165613A KR101628542B1 (en) 2014-11-25 2014-11-25 Eye Tracking Apparatus and Method

Publications (2)

Publication Number Publication Date
KR20160062619A KR20160062619A (en) 2016-06-02
KR101628542B1 true KR101628542B1 (en) 2016-06-08

Family

ID=56135734

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140165613A KR101628542B1 (en) 2014-11-25 2014-11-25 Eye Tracking Apparatus and Method

Country Status (1)

Country Link
KR (1) KR101628542B1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005071041A (en) 2003-08-22 2005-03-17 Nissan Motor Co Ltd Device and system for detecting visual object of driver

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120006819A (en) * 2010-07-13 2012-01-19 한국기초과학지원연구원 Gaze detection method and system adopting the same
KR101961266B1 (en) * 2012-07-26 2019-03-25 엘지이노텍 주식회사 Gaze Tracking Apparatus and Method

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005071041A (en) 2003-08-22 2005-03-17 Nissan Motor Co Ltd Device and system for detecting visual object of driver

Also Published As

Publication number Publication date
KR20160062619A (en) 2016-06-02

Similar Documents

Publication Publication Date Title
CN106547341B (en) Gaze tracker and method for tracking gaze thereof
WO2019149061A1 (en) Gesture-and gaze-based visual data acquisition system
JP5230748B2 (en) Gaze direction determination device and gaze direction determination method
US9454226B2 (en) Apparatus and method for tracking gaze of glasses wearer
JP6346525B2 (en) Gaze detection device
WO2016038784A1 (en) Driver state determination apparatus
US11128817B2 (en) Parallax correction using cameras of different modalities
EP3671313A2 (en) Gaze tracking using mapping of pupil center position
JP7369184B2 (en) Driver attention state estimation
WO2016027627A1 (en) Corneal reflection position estimation system, corneal reflection position estimation method, corneal reflection position estimation program, pupil detection system, pupil detection method, pupil detection program, gaze detection system, gaze detection method, gaze detection program, face orientation detection system, face orientation detection method, and face orientation detection program
JP2021501517A (en) Systems and methods for improving the signal-to-noise ratio in object tracking under low illumination conditions
JP2007004448A (en) Line-of-sight detecting apparatus
JP6855872B2 (en) Face recognition device
JP2020048971A (en) Eyeball information estimation device, eyeball information estimation method, and eyeball information estimation program
JP4313717B2 (en) Gaze detection device
KR101628542B1 (en) Eye Tracking Apparatus and Method
US9830512B2 (en) Method and apparatus for tracking gaze
JP4451195B2 (en) Gaze detection device
US10997861B2 (en) Luminance control device, luminance control system, and luminance control method
KR20190071280A (en) Apparatus and method for processing user image of vehicle
KR20160061691A (en) Gaze Tracker and Method for Detecting Pupil thereof
KR101628543B1 (en) Gaze tracking apparatus and method for measuring tracking accuracy of the same
JP6359866B2 (en) Subject presence range estimation device and subject presence range estimation method
KR101655620B1 (en) Apparatus and Method for Measuring Distance in Vehicle
CN117456513A (en) Sight line estimation device, storage medium, and method

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20190528

Year of fee payment: 4