KR101819164B1 - Apparatus and method for gaze tracking - Google Patents
Apparatus and method for gaze tracking Download PDFInfo
- Publication number
- KR101819164B1 KR101819164B1 KR1020160097396A KR20160097396A KR101819164B1 KR 101819164 B1 KR101819164 B1 KR 101819164B1 KR 1020160097396 A KR1020160097396 A KR 1020160097396A KR 20160097396 A KR20160097396 A KR 20160097396A KR 101819164 B1 KR101819164 B1 KR 101819164B1
- Authority
- KR
- South Korea
- Prior art keywords
- eye
- feature points
- tracking
- information
- gaze
- Prior art date
Links
Images
Classifications
-
- H04N13/0484—
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
- H04N13/383—Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
-
- G06K9/00241—
-
- G06K9/0061—
-
- G06K9/481—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/469—Contour-based spatial representations, e.g. vector-coding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/164—Detection; Localisation; Normalisation using holistic features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/193—Preprocessing; Feature extraction
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Signal Processing (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Ophthalmology & Optometry (AREA)
- Eye Examination Apparatus (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
Description
본 발명은 시선 추적 장치 및 방법에 관한 것으로서, 구체적으로는 3D 영상 센서 기반으로 사용자의 얼굴 기반 시선 정보와 눈 기반 시선 정보를 통합하여 사용자의 시선을 추적하는 시선 추적 장치 및 방법에 관한 것이다. The present invention relates to a gaze tracking apparatus and method, and more particularly, to a gaze tracking apparatus and method for tracking a user's gaze by integrating a user's face-based gaze information and eye-based gaze information based on a 3D image sensor.
시선 위치 추적이란 사용자가 쳐다보고 있는 위치를 파악하는 연구이다. 기존에 시선 위치 추적은 사용자가 모니터 상의 한 지점을 쳐다볼 때 발생하는 얼굴의 3차원 위치 및 움직임을 파악하지 않고 입력된 2D 얼굴 영상으로부터 직접 모니터 상의 시선 위치를 계산하였다. 이러한 경우는 모니터와 사용자 얼굴 사이의 3차원 거리(depth)를 고정시켜야 하고, 제한된 범위의 얼굴 움직임만 허용하는 문제점이 있다.Eye-gaze tracking is a study that grasps the location the user is looking at. Conventionally, gaze position tracking directly calculates the gaze position on the monitor from the inputted 2D facial image without grasping the 3D position and movement of the face when the user looks at a point on the monitor. In such a case, the three-dimensional distance between the monitor and the user's face must be fixed, and only a limited range of face movements is allowed.
이러한 문제점을 해결하기 위해 평면상의 시선의 위치뿐만 아니라, 사용자의 눈으로부터 얼마나 멀리 떨어진 물체를 응시하는지도 함께 파악함으로써, (X, Y, Z) 3차원 좌표로 표현 가능한 시선의 위치를 파악하는 3차원적 시선 추적연구가 진행되었다. In order to solve these problems, it is necessary to grasp not only the position of the line of sight on the plane but also the way of gazing at an object far away from the user's eye, thereby determining the position of the line of sight which can be represented by (X, Y, Z) Dimensional eye tracking studies were conducted.
이러한 기존의 시선 위치 추적 방법은 눈 주변에 전극을 부착하여 망막과 각막 사이의 전위차를 측정하여 응시 위치를 계산하는 방법, 헤드 밴드 또는 헬멧 밑에 작은 카메라를 장착하여 응시위치를 계산하는 방법, 및 외부에 회전할 수 있는 카메라나 줌 기능을 가지는 카메라와 조명을 장치하여 응시 위치를 계산하는 방법이 있다. This conventional method of locating the eye position includes a method of calculating the gaze position by measuring the potential difference between the retina and the cornea by attaching electrodes around the eyes, a method of calculating the gaze position by attaching a small camera under the head band or the helmet, There is a method of calculating a gazing position by installing a camera and a camera having a zoom function and a camera capable of rotating the camera.
하지만, 이러한 방법은 시선 추적을 위한 카메라, 조명 등 별도의 장치가 필요하고, 시선 추적 계산의 복잡성으로 인해 처리 속도가 저하될 뿐만 아니라, 사용자의 움직임에 의해 시선 추적의 정확성을 결여하기 쉽다. However, this method requires a separate device such as a camera and illumination for eye tracking, and not only the processing speed is lowered due to the complexity of eye tracking calculation, but also it is easy to miss the accuracy of eye tracking due to the user's motion.
본 발명은 3D 영상 센서 기반으로 사용자의 얼굴 기반 시선 정보와 눈 기반 시선 정보를 통합하여 사용자의 시선을 추적함으로써, 보다 빠르고 정확한 시선 추적 장치 및 방법을 제공하는 것이다.The present invention provides a quick and accurate gaze tracking apparatus and method by integrating a user's face-based gaze information and eye-based gaze information based on a 3D image sensor and tracking a user's gaze.
본 발명의 목적은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 명확하게 이해될 수 있을 것이다.The objects of the present invention are not limited to the above-mentioned objects, and other objects not mentioned can be clearly understood from the following description.
본 발명의 일 측면에 따르면, 시선 추적 장치가 제공된다.According to an aspect of the present invention, a gaze tracking apparatus is provided.
본 발명의 일 실시 예에 따른 시선 추적 장치는 사용자의 얼굴 영상을 획득하는 영상 획득부, 획득된 얼굴 영상에서 얼굴의 특징점을 추출하는 얼굴 특징점 추출부, 추출된 얼굴 특징점에서 눈 및 입의 특징점을 추출하고, 이를 기반으로 얼굴 평면 및 얼굴 평면의 법선 벡터를 계산하여 얼굴 정보 기반 시선 벡터를 추적하는 제1 시선 정보 추적부, 추출된 얼굴 특징점에서 눈 경계 특징점을 추출하고, 이를 기반으로 안구의 회전 중심 및 홍채의 중심을 계산하여 눈 정보 기반 시선 벡터를 추적하는 제2 시선 정보 추적부, 추적된 제1 및 제2 시선 정보를 통합하는 시선 정보 통합부, 통합된 시선 정보를 이용하여 시선 추적을 수행하는 시선 추적 수행부를 포함하는 시선 추적 장치가 제공될 수 있다.The eye tracking apparatus according to an embodiment of the present invention includes an image obtaining unit for obtaining a face image of a user, a facial feature point extracting unit for extracting facial feature points from the obtained facial image, A first eye information tracking unit for tracking face information based eye vectors by calculating a normal vector of face planes and face planes based on the extracted eye plane feature points, extracting eye boundary feature points from extracted face feature points, A second eye information tracking unit for tracking an eye information based eyeball vector by calculating the center of the iris and a center of sight, a eye information integrator for integrating the first eyeball information and the second eyeball information, A line-of-sight tracking apparatus including a line-of-sight tracking performing unit may be provided.
본 발명의 다른 측면에 따르면, 시선 추적 방법이 제공된다.According to another aspect of the present invention, a gaze tracking method is provided.
본 발명의 일 실시 예에 따른 시선 추적 방법은 사용자의 얼굴 영상을 획득하는 단계, 획득된 얼굴 영상에서 얼굴의 특징점을 추출하는 단계, 추출된 얼굴 특징점에서 눈 및 입의 특징점을 추출하는 단계, 추출된 눈 및 입의 특징점을 기반으로 얼굴 평면을 계산하는 단계, 계산된 얼굴 평면의 법선 벡터를 계산하는 단계, 계산된 법선 벡터를 이용하여 얼굴 정보 기반 제1 시선 벡터를 추적하는 단계, 추출된 얼굴 특징점에서 눈 경계 특징점을 추출하는 단계, 추출된 눈 경계 특징점을 기반으로 안구의 회전 중심을 계산하는 단계, 추출된 눈 경계 특징점을 기반으로 홍채의 중심을 계산하는 단계, 계산된 안구의 회전 중심 및 홍채의 중심을 이용하여 눈 정보 기반 제2 시선 벡터를 추적하는 단계, 추적된 제1 및 제2 시선 벡터를 통합하는 단계, 통합된 시선 벡터를 이용하여 시선 추적을 수행하는 시선 추적 수행부를 포함할 수 있다.The eye tracking method according to an embodiment of the present invention includes the steps of acquiring a face image of a user, extracting feature points of the face from the obtained face image, extracting feature points of eyes and mouth from the extracted face feature points, Calculating face planes based on feature points of the eyes and mouth, calculating normal vectors of the calculated face planes, tracking the first eye vector based on the face information using the calculated normal vectors, Calculating the center of rotation of the eye based on the extracted eye boundary features, calculating the center of the iris based on the extracted eye boundary features, calculating the center of rotation of the eye, Tracking an eye information based second line vector using the center of the iris, integrating the traced first and second line of sight vectors, And a line-of-sight tracking unit for performing line-of-sight tracking using a vector.
본 발명은 3D 영상 센서 기반으로 사용자의 얼굴 정보 기반 시선 정보와 눈 기반 시선 정보를 통합하여 사용자의 시선을 추적함으로써, 보다 빠르고 사용자 얼굴의 3차원 위치 및 자연스러운 움직임(회전 및 이동)에 강인한 시선 추적이 가능하다.The present invention integrates user's face information based eye information and eye based eye information based on a 3D image sensor to track a user's gaze, thereby enabling quicker and more accurate tracking of three-dimensional position and natural motion (rotation and movement) This is possible.
또한, 본 발명은 초기 사용자에 의한 캘리브레이션(calibration) 과정을 필요로 하지 않으므로 사용이 용이하다. In addition, since the present invention does not require a calibration process by the initial user, it is easy to use.
도 1 내지 도 3은 본 발명의 일 실시 예에 따른 시선 추적 장치를 예시한 도면들.
도 4는 내지 도 12는 본 발명의 일 실시 예에 따른 시선 추적 방법을 설명하기 위한 도면들.1 to 3 are views illustrating a gaze tracking apparatus according to an embodiment of the present invention.
4 to 12 are views for explaining a gaze tracking method according to an embodiment of the present invention.
아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시 예를 상세히 설명하도록 한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다. 또한, 어떤 부분이 어떤 구성 요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것을 의미한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art can easily carry out the present invention. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. Also, when a part is referred to as "including " an element, it is to be understood that it may include other elements as well, without departing from the other elements unless specifically stated otherwise.
제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성 요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.The terms first, second, etc. may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another.
이하, 첨부된 도면을 참고하여 본 발명의 실시를 위한 구체적인 내용을 설명하도록 한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Reference will now be made in detail to embodiments of the present invention, examples of which are illustrated in the accompanying drawings.
도 1 내지 도 3은 본 발명의 일 실시 예에 따른 시선 추적 장치를 예시한 도면들이다.1 to 3 are views illustrating a gaze tracking apparatus according to an embodiment of the present invention.
도 1을 참조하면, 시선 추적 장치(100)는 얼굴 영상 획득부(110), 얼굴 특징점 추출부(120), 제1 시선 정보 추적부(130), 제2 시선 정보 추적부(140), 제1 및 제2 시선 정보를 통합하는 시선 정보 통합부(150), 시선 추적 수행부(160)를 포함한다.1, the
얼굴 영상 획득부(110)는 3D 센서로 촬영된 영상으로부터 사용자의 얼굴 영상을 획득한다. The face
얼굴 특징점 추출부(120)는 획득된 얼굴 영상에서 얼굴 특징점의 3차원 정보를 획득한다. The facial feature
제1 시선 정보 추적부(130)는 얼굴 특징점 추출부(120)에서 추출한 얼굴 특징점에서 눈 및 입의 특징점을 추출하고, 이를 기반으로 얼굴 평면 및 얼굴 평면의 법선 벡터를 계산하여 얼굴 정보 기반 시선 벡터를 추적한다.The first line of sight
제2 시선 정보 추적부(140)는 얼굴 특징점 추출부(120)에서 추출한 얼굴 특징점에서 눈 경계 특징점을 추출하고, 이를 기반으로 안구의 회전 중심 및 홍채의 중심을 계산하여 눈 정보 기반 시선 벡터를 추적한다.The second line-of-sight
시선 정보 통합부(150)는 제1 시선 정보 및 제2 시선 정보를 통합한다. 이 때, 시선 정보 통합부(150)는 상대적으로 고해상도의 얼굴 영상에서 추적된 제1 시선 정보와 저해상도의 눈 영상에서 추적된 제2 시선 정보를 고려하여 각각의 시선 정보에 가중치를 추가한다. The gaze
시선 추적 수행부(160)는 시선 정보 통합부(150)에서 통합된 시선 정보를 이용하여 시선 추적을 수행한다.The line-of-sight
도 2를 참조하면, 본 발명의 일 실시예에 따른 시선 추적 장치(100)의 제1 시선 정보 추적부(130)는 눈 및 입 특징점 추출부(131), 얼굴 평면 계산부(132), 얼굴 평면의 법선 벡터 계산부(133) 및 얼굴 정보 기반 시선 벡터 추적부(134)를 포함한다.2, the first eye-gaze
눈 및 입 특징점 추출부(131)는 획득된 얼굴 특징점의 3차원 정보에서 눈 및 입의 특징점을 추출한다.The eye and mouth feature
얼굴 평면 계산부(132)는 추출된 눈 및 입의 특징점을 이용하여 특징점을 지나는 얼굴 평면을 계산한다.The face
얼굴 평면의 법선 벡터 계산부(133)는 얼굴 평면 계산부(132)에서 계산된 얼굴 평면을 통과하는 법선 벡터를 계산한다.The normal
얼굴 정보 기반 시선 벡터 추적부(134)는 얼굴 평면의 법선 벡터 계산부(133)에서 계산된 법선 벡터를 제 1 시선 정보로 추적한다.The face information based eyeball
도 3을 참조하면, 본 발명의 일 실시예에 따른 시선 추적 장치(100)의 제2 시선 정보 추적부(140)는 눈 경계 특징점 추출부(141), 안구의 회전 중심 계산부(142), 홍채의 중심 계산부(143), 눈 정보 기반 시선 벡터 추적부(144)를 포함한다.3, the second gaze
눈 경계 특징점 추출부(141)는 얼굴 특징점 추출부(120)에서 획득한 얼굴 특징점의 3차원 정보로부터 눈 경계의 특징점을 추출한다.The eye boundary feature
안구의 회전 중심 계산부(142)는 눈 경계 특징점 추출부(141)에서 추출된 눈 경계 특징점 및 최소 평균 제곱법(least-mean-squares: LMS)을 이용하여 안구의 회전 중심을 계산한다. The eye rotation
홍채의 중심 계산부(143)는 얼굴 영상 획득부(110)에서 RGB 카메라에 의해 획득한 얼굴 영상과 뎁스 센서에 의해 획득한 얼굴 영상을 이용하여 3차원 홍채의 중심 좌표를 계산한다. The iris
눈 정보 기반 시선 벡터 추적부(144)는 안구의 회전 중심 계산부(142)에서 계산된 안구의 회전 중심 좌표와 홍채의 중심 계산부(143)에서 계산된 홍채의 중심 좌표를 연결하는 시선 벡터를 제2 시선 정보로 추적한다.The eye information based eyeball
시선 정보 통합부(150)는 제1 시선 정보 및 제2 시선 정보를 통합한다. 이 때, 시선 정보 통합부(150)는 상대적으로 고해상도의 얼굴 영상에서 추적된 제1 시선 정보와 저해상도의 눈 영상에서 추적된 제2 시선 정보를 고려하여 각각의 시선 정보에 가중치를 추가한다. The gaze
시선 추적 수행부(160)는 시선 정보 통합부(150)에서 통합된 시선 정보를 이용하여 시선 추적을 수행한다.The line-of-sight
도 4 내지 도 12는 본 발명의 일 실시 예에 따른 시선 추적 방법을 설명하기 위한 도면들이다.4 to 12 are views for explaining a gaze tracking method according to an embodiment of the present invention.
도 4를 참조하면, 본 발명의 일 실시 예에 따른 시선 추적 방법(400)은 사용자의 얼굴 영상을 획득하는 단계(S405), 획득된 얼굴 영상에서 얼굴의 특징점을 추출하는 단계(S410), 추출된 얼굴 특징점에서 눈 및 입의 특징점을 추출하는 단계(S415), 추출된 눈 및 입의 특징점을 기반으로 얼굴 평면을 계산하는 단계(S420), 계산된 얼굴 평면의 법선 벡터를 계산하는 단계(S425), 계산된 법선 벡터를 이용하여 얼굴 정보 기반 제1 시선 벡터를 추적하는 단계(S430), 추출된 얼굴 특징점에서 눈 경계 특징점을 추출하는 단계(S435), 추출된 눈 경계 특징점을 기반으로 안구의 회전 중심을 계산하는 단계(S440), 추출된 눈 경계 특징점을 기반으로 홍채의 중심을 계산하는 단계(S445), 계산된 안구의 회전 중심 및 홍채의 중심을 이용하여 눈 정보 기반 제2 시선 벡터를 추적하는 단계(S450), 추적된 제1 및 제2 시선 벡터를 통합하는 단계(S455), 통합된 시선 벡터를 이용하여 시선 추적을 수행하는 시선 추적 수행부(S460)를 포함한다. Referring to FIG. 4, a
단계 S405에서 시선 추적 방법(400)은 RGB 카메라 및 뎁스(depth) 센서를 이용하여 사용자의 얼굴 영상을 획득한다. In step S405, the
도 5를 참조하면, 일 실시예에 따른 시선 추적 방법(400)은 사용자가 일정 거리만큼 떨어진 모니터 상의 한 지점을 응시할 때, RGB 카메라 및 뎁스(depth) 센서를 이용하여 사용자의 얼굴 영상을 획득할 수 있다.Referring to FIG. 5, the
단계 S410에서 시선 추적 방법(400)은 단계 S405에서 획득된 얼굴 영상에서 얼굴의 특징점을 추출한다. 여기서 얼굴 특징점은 RGB 카메라에 의해 얻어진 임의의 픽셀 좌표(x값 ,y값) 및 뎁스 센서에 의해 얻어진 임의의 z값을 포함한다. In step S410, the
도 6을 참조하면, 일 실시예에 따른 시선 추적 방법(400)은 키넥트(Kinect v2)에 의해 제공되는 HD 얼굴 모델(Face Model)을 사용하여 1,436개의 얼굴 특징점을 추출할 수 있다.Referring to FIG. 6, the
단계 S415에서 일 실시예에 따른 시선 추적 방법(400)은 단계 S410에서 추출된 얼굴 특징점으로부터 눈 및 입의 특징점을 추출한다.In step S415, the
도 7을 참조하면, 일 실시예에 따른 시선 추적 방법(400)은 710과 같이 눈 주변의 특징점 8개(오른쪽 눈 4개, 왼쪽 눈 4개) 및 입 주변의 특징점 6개를 추출하고, 720과 같이 추출된 특징점의 평균 좌표로 눈 및 입의 특징점을 설정할 수 있다.Referring to FIG. 7, the
단계 S420에서 시선 추적 방법(400)은 단계 S415에서 추출된 눈 및 입의 특징점을 기반으로 얼굴 평면을 계산한다. In step S420, the
다시 도 7을 참조하면, 일 실시예에 따른 시선 추적 방법(400)은 단계 S420에서 추출된 눈 및 입의 특징점을 이용하여 세 개의 특징점(721, 722 및 723)을 지나는 얼굴 평면을 계산할 수 있다.Referring again to FIG. 7, the
단계 S425에서 시선 추적 방법(400)은 단계 S420에서 계산된 얼굴 평면을 통과하는 법선 벡터를 계산한다. In step S425, the
단계 S430에서 시선 추적 방법(400)은 단계 S425에서 계산된 법선 벡터를 이용하여 얼굴 정보 기반 제1 시선 벡터를 추적한다. In step S430, the
도 8을 참조하면, 일 실시예에 따른 시선 추적 방법(400)은 얼굴 평면(811)과 수직하는 법선 벡터(812)를 제 1 시선 정보로 추적할 수 있다.Referring to FIG. 8, the line-of-
단계 S435에서 시선 추적 방법(400)은 추출된 얼굴 특징점에서 눈 경계 특징점을 추출한다.In step S435, the
도 9를 참조하면, 일 실시예에 따른 시선 추적 방법(400)은 911 내지 914와 같이 눈 경계 특징점을 추출할 수 있다. Referring to FIG. 9, the
단계 S440에서 시선 추적 방법(400)은 추출된 눈 경계 특징점을 기반으로 수학식 1을 이용하여 안구의 회전 중심을 계산한다. In step S440, the
수학식 1에서 X c , Y c , Z c 는 안구의 회전 중심 좌표이고, X ic , Y ic , Z ic 는 가상의 안구 구조에서 눈 경계 특징점 중 하나의 좌표로 설정한다. X c, Y c, Z c in equation (1) Is the rotation center coordinate of the eyeball, and X ic , Y ic , Z ic is the coordinate of one of the eye boundary feature points in the virtual eye structure.
일반적으로 안구의 회전 중심은 각막의 표면에서 13.5mm 떨어진 곳에 위치한다. 또한, 사람의 눈은 눈의 전면에 하나의 조명이 위치할 때, 눈의 4개의 광학 면(각막 안쪽 및 바깥쪽 면, 수정체 안쪽 및 바깥쪽 면)에서 조명 반사광이 발생한다. 이러한 조명 반사광은 사용자가 얼마나 멀리 있는 위치를 응시하는지에 따라 수정체의 두께변화에 의해 그 위치가 바뀌므로, 조명 반사광 간의 거리는 사용자의 눈과 응시위치까지의 뎁스 정보에 의존적이다. In general, the center of rotation of the eyeball is located 13.5mm from the surface of the cornea. In addition, when one light is placed on the front face of the human eye, illumination reflection light is generated on the four optical surfaces of the eye (inside and outside of the cornea, inside and outside of the lens). Since the position of the illumination reflected light changes depending on the thickness of the lens depending on how far the user looks at the position of the user, the distance between the illuminated reflected light depends on the depth information from the user's eye to the gazing position.
따라서 사람 눈의 구조적인 특성에 기반을 두어, 뎁스 정보를 포함하는 3차원 시선 위치(좌우, 상하 및 뎁스 방향 시선 위치)를 추적할 수 있다.Therefore, based on the structural characteristics of the human eye, it is possible to track the three-dimensional sight line position (left, right, up and down, and depth direction eye line positions) including the depth information.
도 10을 참조하면, 일 실시예에 따른 시선 추적 방법(400)은 1000과 같이 반지름이 13.5mm이고, 네 개의 눈 경계 특징점(911 내지 914)을 포함하는 가상의 안구 구조를 구성함으로써 안구의 회전 중심을 계산할 수 있다.Referring to FIG. 10, the
단계 S445에서 시선 추적 방법(400)은 추출된 눈 경계 특징점을 기반으로 홍채의 중심을 계산한다. 일 실시예에 따른 시선 추적 방법(400)은 RGB 카메라에 의해 획득한 얼굴 영상과 뎁스 센서에 의해 획득한 얼굴 영상을 이용하여 홍채의 3차원 중심 좌표를 계산할 수 있다. In step S445, the
단계 S450에서 시선 추적 방법(400)은 단계 S444 내지 단계 S445에서 계산된 안구의 회전 중심 및 홍채의 중심을 기반으로 수학식 2를 이용하여 눈 정보 기반 제2 시선 벡터를 추적한다.In step S450, the
수학식 2에서 는 안구의 회전 중심 좌표이고, 는 홍채 중심 좌표이다. In Equation 2, Is the rotation center coordinate of the eyeball, Is the iris center coordinate.
도 11을 참조하면, 일 실시예에 따른 시선 추적 방법(400)은 1101 영상과 같이 RGB 카메라에 의해 획득한 얼굴 영상에서 눈 영역을 검출하여, 1102 영상과 같이 1101 영상을 이진화한다. 이진화된 영상(1102)에서 1103 내지 1106과 같이 모폴로지 연산(morphological operations)을 수행하여 영상의 잡음(noise)이 제거된 홍채의 영역을 검출한다. 그리고, 1107 영상과 같이 검출된 홍채 영역을 포함하는 사각형의 중심을 계산하여, 1108 영상과 같이 계산된 사각형의 중심을 홍채의 중심 좌표(x값 및 y값)로 설정할 수 있다. Referring to FIG. 11, a line-of-
또한, 일 실시예에 따른 시선 추적 방법(400)은 뎁스 센서에 의해 획득한 뎁스 얼굴 영상을 이용하여, 도 11의 1108 영상의 홍채의 중심 좌표(x값 및 y값)와 일치하는 z값을 추출하여 3차원 홍채의 중심 좌표(1109)를 설정할 수 있다.In addition, the
단계 S455에서 시선 추적 방법(400)은 단계 S430 및 단계 S450에서 추적된 제1 및 제2 시선 벡터를 수학식 3을 이용하여 통합한다.In step S455, the line-of-
수학식 3에서 V는 통합된 시선 정보 벡터, V F 는 얼굴 정보 기반 제1 시선 정보 벡터, VE는 눈 정보 기반 제2 시선 정보 벡터, 및 는 가중치이다.In Equation (3), V denotes an integrated gaze information vector, V F is a face information based first line information vector, V E is an eye information based second line information vector, And Is the weight.
단계 S460에서 시선 추적 방법(400)은 단계 S455에서 통합된 시선 벡터를 이용하여 시선 추적을 수행한다.In step S460, the line-of-
도 12를 참조하면, 일 실시예에 따른 시선 추적 방법(400)은 통합된 시선 정보(1203)를 이용하여 사용자의 시선 위치(1204)를 추적할 수 있다.Referring to FIG. 12, the line-of-
본 발명의 다양한 실시 예에 따른 시선 추적 방법은 다양한 서버 등의 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현될 수 있다. 또한, 본 발명에 따른 시선 추적 방법을 실행하는 프로그램 및 애플리케이션은 컴퓨터 수단에 설치되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 컴퓨터 판독 가능 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 분야 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media) 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. The gaze tracking method according to various embodiments of the present invention may be implemented in the form of a program command that can be executed through various means such as a server. Further, a program and an application for executing the gaze tracking method according to the present invention may be installed in a computer means and recorded in a computer-readable medium. The computer readable medium may include program instructions, data files, data structures, and the like, alone or in combination. Program instructions to be recorded on a computer-readable medium may be those specially designed and constructed for the present invention or may be available to those skilled in the computer software arts. Examples of computer-readable media include magnetic media such as hard disks, floppy disks and magnetic tape; optical media such as CD-ROMs and DVDs; magnetic media such as floppy disks; Includes hardware devices specifically configured to store and execute program instructions such as magneto-optical media and ROM, RAM, flash memory, and the like.
이제까지 본 발명에 대하여 그 실시 예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시 예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.The embodiments of the present invention have been described above. It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the appended claims. Therefore, the disclosed embodiments should be considered in an illustrative rather than a restrictive sense. The scope of the present invention is defined by the appended claims rather than by the foregoing description, and all differences within the scope of equivalents thereof should be construed as being included in the present invention.
100: 시선 추적 장치
110: 얼굴 영상 획득부
120: 얼굴 특징점 추출부
130: 제1 시선 정보 추적부
140: 제2 시선 정보 추적부
150: 시선 정보 통합부
160: 시선 추적 수행부 100: eye tracking device
110: facial image acquiring unit
120: facial feature point extracting unit
130: First line of sight information tracking unit
140: second line of sight information tracking unit
150: eye information integration unit
160: eye tracking execution unit
Claims (15)
획득한 얼굴 영상에서 복수개의 얼굴 특징점을 추출하는 얼굴 특징점 추출부;
상기 복수개의 얼굴 특징점에서 양 눈 및 입의 특징점을 추출하고, 추출한 양 눈 및 입의 특징점을 기반으로 얼굴 평면 및 얼굴 평면의 법선 벡터를 계산하여 얼굴 정보 기반 시선 벡터를 추적하는 제1 시선 정보 추적부;
상기 복수개의 얼굴 특징점에서 눈 경계 특징점을 추출하고, 추출한 눈 경계 특징점을 기반으로 안구의 회전 중심 좌표를 계산하고, 상기 눈 경계 특징점을 포함하는 눈 영역에서 홍채 중심 좌표를 계산하고, 상기 안구의 회전 중심 좌표 및 상기 홍채 중심 좌표를 이용하여 눈 정보 기반 시선 벡터를 추적하는 제2 시선 정보 추적부;
추적된 제1 시선 정보 및 제2 시선 정보에 상기 얼굴 영상 및 상기 눈 영역의 해상도에 따라 가중치를 적용하여 상기 제1 시선 정보 및 상기 제2 시선 정보를 통합하는 시선 정보 통합부; 및
통합한 시선 벡터를 이용하여 시선 추적을 수행하는 시선 추적 수행부;를 포함하는 시선 추적 장치.
An image obtaining unit for obtaining a face image including three-dimensional information;
A facial feature point extracting unit for extracting a plurality of facial feature points from the acquired facial image;
A first eye information tracking method for extracting feature points of both eyes and mouth from the plurality of facial feature points and calculating normal vectors of the face planes and face planes based on the extracted feature points of eyes and mouth, part;
Extracting eye boundary feature points from the plurality of facial feature points, calculating rotation center coordinates of the eye based on the extracted eye boundary feature points, calculating iris center coordinates in the eye region including the eye boundary feature points, A second eye information tracking unit for tracking an eye information based eyeball vector using the center coordinates and the iris center coordinates;
A line-of-sight information integration unit for combining the first line-of-sight information and the second line-of-sight information by applying a weight to the tracked first line of sight information and second line of sight information according to the resolution of the face image and the eye region; And
And a line-of-sight tracking unit for performing line-of-sight tracking using the integrated line-of-sight vector.
상기 추출한 얼굴 특징점의 3차원 정보에서 양 눈 및 입의 특징점을 추출하는 눈 및 입 특징점 추출부;
상기 추출한 양 눈 및 입 특징점을 지나는 얼굴 평면을 계산하는 얼굴 평면 계산부;
상기 얼굴 평면을 통과하는 법선 벡터를 계산하는 얼굴 평면의 법선 벡터 계산부; 및
상기 얼굴 평면의 법선 벡터를 이용하여 사용자의 시선을 추적하는 얼굴 정보 기반 시선 벡터 추적부;를 더 포함하는 시선 추적 장치.
The apparatus according to claim 1, wherein the first eye-gaze information tracking unit
Eye and mouth feature point extracting units for extracting feature points of both eyes and mouth from the extracted three-dimensional information of the facial feature points;
A face plane calculation unit for calculating a face plane passing through the extracted both eyes and the mouth feature points;
A normal vector calculation unit for calculating a normal vector passing through the face plane; And
And a face information based eye vector tracking unit for tracking a user's eye using a normal vector of the face plane.
상기 추출한 얼굴 특징점의 3차원 정보에서 상기 양 눈 및 입 주변에 위치한 복수의 특징점을 추출하고, 추출한 특징점들의 평균 좌표값으로 상기 양 눈 및 입 특징점의 위치를 설정하는 시선 추적 장치.
3. The apparatus of claim 2, wherein the eye and mouth feature extraction unit
Extracting a plurality of feature points located in the vicinity of the eyes and the mouth from the extracted three-dimensional information of the facial feature points, and setting the positions of the both eyes and mouth feature points as average coordinate values of the extracted feature points.
상기 추출한 얼굴 특징점의 3차원 정보로부터 눈 경계의 특징점을 추출하는 눈 경계 특징점 추출부;
상기 추출한 눈 경계 특징점을 이용하여 안구의 회전 중심 좌표를 계산하는 안구의 회전 중심 계산부;
상기 추출한 눈 경계 특징점을 이용하여 홍채의 중심 좌표를 계산하는 홍채의 중심 계산부; 및
상기 안구의 회전 중심 좌표 및 상기 홍채의 중심 좌표를 이용하여 사용자의 시선을 추적하는 눈 정보 기반 시선 벡터 추적부;를 더 포함하는 시선 추적 장치.
The apparatus according to claim 1, wherein the second eye-gaze information tracking unit
An eye boundary feature point extraction unit for extracting feature points of an eye boundary from the extracted three-dimensional information of the facial feature points;
An eyeball rotation center calculation unit for calculating the rotation center coordinates of the eyeball using the extracted eye boundary feature points;
An iris center calculating unit for calculating the center coordinates of the iris using the extracted eye boundary feature points; And
And an eye information based eyeball vector tracking unit for tracking a user's eye line by using the rotation center coordinates of the eyeball and the center coordinates of the iris.
반지름이 13.5mm이고 상기 눈 경계 특징점을 포함하는 가상의 안구 구조를 이용하여 안구의 회전 중심을 계산하는 것을 포함하는 시선 추적 장치.
5. The apparatus according to claim 4, wherein the rotation center calculation unit
Calculating a center of rotation of the eye using a virtual eye structure having a radius of 13.5 mm and including the eye boundary feature points.
상기 눈 경계 특징점 및 최소 평균 제곱법(least-mean-squares: LMS)을 이용하여 안구의 회전 중심을 계산하는 것을 포함하는 시선 추적 장치.
5. The apparatus according to claim 4, wherein the rotation center calculation unit
And calculating the center of rotation of the eye using the eye-boundary feature point and least-mean-squares (LMS).
RGB 카메라에 의해 획득한 얼굴 영상에서 눈 영역을 검출하고, 검출된 눈 영역을 모폴로지 연산(morphological operations)에 의해 홍채 영역을 검출하여, 상기 홍채 영역을 포함하는 사각형의 중심 좌표를 계산하고, 뎁스(depth) 센서에 의해 획득한 얼굴 영상을 이용하여 3차원 홍채의 중심 좌표를 획득하는 것을 포함하는 시선 추적 장치.
5. The apparatus according to claim 4, wherein the center calculation unit
An eye region is detected in the face image acquired by the RGB camera, the iris region is detected by morphological operations of the detected eye region, the center coordinates of the rectangle including the iris region are calculated, dimensional iris using a face image acquired by a depth sensor.
3차원 정보를 포함하는 얼굴 영상을 획득하는 단계;
상기 획득한 얼굴 영상에서 복수개의 얼굴 특징점을 추출하는 단계;
추출한 얼굴 특징점에서 양 눈 및 입의 특징점을 추출하는 단계;
추출한 양 눈 및 입의 특징점을 기반으로 얼굴 평면을 계산하는 단계;
상기 얼굴 평면의 법선 벡터를 계산하는 단계;
상기 법선 벡터를 이용하여 얼굴 정보 기반 제1 시선 벡터를 추적하는 단계;
상기 추출한 얼굴 특징점에서 눈 경계 특징점을 추출하는 단계;
상기 눈 경계 특징점을 기반으로 안구의 회전 중심을 계산하는 단계;
상기 얼굴 영상에서 눈 영역을 검출하고 영상처리를 통해 홍채의 중심을 계산하는 단계;
상기 안구의 회전 중심 및 상기 홍채의 중심을 이용하여 눈 정보 기반 제2 시선 벡터를 추적하는 단계;
상기 제1 시선 벡터 및 제2 시선 벡터에 상기 얼굴 영상 및 상기 눈 영역의 해상도에 따라 가중치를 적용하여 상기 제1 시선 벡터 및 제2 시선 벡터를 통합하는 단계; 및
상기 통합된 시선 벡터를 이용하여 시선 추적을 수행하는 단계;를 포함하는 시선 추적 방법.
A method for tracking a user's gaze in a gaze tracking device,
Obtaining a face image including three-dimensional information;
Extracting a plurality of facial feature points from the obtained facial image;
Extracting feature points of both eyes and mouth from the extracted facial feature points;
Calculating face planes based on the extracted feature points of eyes and mouth;
Calculating a normal vector of the face plane;
Tracking the first eye vector based on the face information using the normal vector;
Extracting eye boundary feature points from the extracted facial feature points;
Calculating a rotation center of the eye based on the eye boundary feature point;
Detecting an eye region in the face image and calculating the center of the iris through image processing;
Tracking an eye information based second eye vector using the center of rotation of the eyeball and the center of the iris;
Integrating the first gaze vector and the second gaze vector by applying a weight to the first gaze vector and the second gaze vector according to the resolution of the face image and the eye region; And
And performing line-of-sight tracking using the integrated line-of-sight vector.
상기 추출한 얼굴 특징점의 3차원 정보에서 상기 양 눈 및 입 주변에 위치한 복수의 특징점을 추출하고, 추출한 특징점들의 평균 좌표값으로 상기 양 눈 및 입 특징점의 위치를 설정하는 시선 추적 방법.
10. The method according to claim 9, wherein extracting feature points of both eyes and mouth from the extracted facial feature points comprises:
Extracting a plurality of feature points located in the vicinity of both eyes and mouth from the extracted three-dimensional information of the facial feature points, and setting positions of the both eyes and mouth feature points as average coordinate values of the extracted feature points.
상기 눈 경계 특징점 및 최소 평균 제곱법(least-mean-squares: LMS)을 이용하여 안구의 회전 중심을 계산하는 것을 포함하는 시선 추적 방법.
10. The method of claim 9, wherein calculating the center of rotation of the eye based on the extracted eye boundary feature points comprises:
And calculating the center of rotation of the eye using the eye-boundary feature point and least-mean-squares (LMS).
RGB 카메라에 의해 획득한 얼굴 영상에서 눈 영역을 검출하고, 검출한 눈 영역에서 모폴로지 연산(morphological operations)에 의해 홍채 영역 검출하여, 상기 홍채 영역을 포함하는 사각형의 중심 좌표를 계산하고, 뎁스 센서에 의해 획득한 얼굴 영상을 이용하여 3차원 홍채의 중심 좌표를 하는 것을 포함하는 시선 추적 방법.
10. The method of claim 9, wherein calculating the center of the iris based on the eye boundary feature point comprises:
An eye region is detected in the face image acquired by the RGB camera and the iris region is detected by morphological operations in the detected eye region to calculate the center coordinates of the rectangle including the iris region, Dimensional iris using a facial image acquired by the facial image acquired by the facial image acquiring unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160097396A KR101819164B1 (en) | 2016-07-29 | 2016-07-29 | Apparatus and method for gaze tracking |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160097396A KR101819164B1 (en) | 2016-07-29 | 2016-07-29 | Apparatus and method for gaze tracking |
Publications (1)
Publication Number | Publication Date |
---|---|
KR101819164B1 true KR101819164B1 (en) | 2018-01-17 |
Family
ID=61026105
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020160097396A KR101819164B1 (en) | 2016-07-29 | 2016-07-29 | Apparatus and method for gaze tracking |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101819164B1 (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190096189A (en) * | 2018-02-08 | 2019-08-19 | 삼성전자주식회사 | Method for detecting region of interest based on line of sight and electronic device thereof |
US10915736B2 (en) | 2018-12-04 | 2021-02-09 | Samsung Electronics Co., Ltd. | Image processing method and apparatus |
CN112541400A (en) * | 2020-11-20 | 2021-03-23 | 小米科技(武汉)有限公司 | Behavior recognition method and device based on sight estimation, electronic equipment and storage medium |
WO2022215952A1 (en) * | 2021-04-08 | 2022-10-13 | 주식회사 이모코그 | Machine-learning-based eye tracking device and method |
CN115294320A (en) * | 2022-10-08 | 2022-11-04 | 平安银行股份有限公司 | Method and device for determining image rotation angle, electronic equipment and storage medium |
CN116610219A (en) * | 2023-07-21 | 2023-08-18 | 广州宏途数字科技有限公司 | Intelligent interactive reading method and device, computing equipment and storage medium |
WO2024034924A1 (en) * | 2022-08-12 | 2024-02-15 | 주식회사 아이트 | Pointing method and system using stereo camera-based eye tracking |
-
2016
- 2016-07-29 KR KR1020160097396A patent/KR101819164B1/en active IP Right Grant
Non-Patent Citations (1)
Title |
---|
박강령, "적외선 조명 카메라를 이용한 시선 위치 추적 시스템", 한국통신학회논문지 29(4C), pp. 494-504, 2004. 04.* |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190096189A (en) * | 2018-02-08 | 2019-08-19 | 삼성전자주식회사 | Method for detecting region of interest based on line of sight and electronic device thereof |
KR102565977B1 (en) * | 2018-02-08 | 2023-08-11 | 삼성전자주식회사 | Method for detecting region of interest based on line of sight and electronic device thereof |
US11538277B2 (en) | 2018-12-04 | 2022-12-27 | Samsung Electronics Co., Ltd. | Image processing method and apparatus |
US10915736B2 (en) | 2018-12-04 | 2021-02-09 | Samsung Electronics Co., Ltd. | Image processing method and apparatus |
US11972634B2 (en) | 2018-12-04 | 2024-04-30 | Samsung Electronics Co., Ltd. | Image processing method and apparatus |
CN112541400A (en) * | 2020-11-20 | 2021-03-23 | 小米科技(武汉)有限公司 | Behavior recognition method and device based on sight estimation, electronic equipment and storage medium |
WO2022215952A1 (en) * | 2021-04-08 | 2022-10-13 | 주식회사 이모코그 | Machine-learning-based eye tracking device and method |
KR102587813B1 (en) * | 2021-04-08 | 2023-10-12 | 주식회사 이모코그 | Apparatus and method for gaze tracking based on machine learning |
KR20220139592A (en) * | 2021-04-08 | 2022-10-17 | 주식회사 이모코그 | Apparatus and method for gaze tracking based on machine learning |
WO2024034924A1 (en) * | 2022-08-12 | 2024-02-15 | 주식회사 아이트 | Pointing method and system using stereo camera-based eye tracking |
CN115294320A (en) * | 2022-10-08 | 2022-11-04 | 平安银行股份有限公司 | Method and device for determining image rotation angle, electronic equipment and storage medium |
CN116610219A (en) * | 2023-07-21 | 2023-08-18 | 广州宏途数字科技有限公司 | Intelligent interactive reading method and device, computing equipment and storage medium |
CN116610219B (en) * | 2023-07-21 | 2024-01-12 | 广州宏途数字科技有限公司 | Intelligent interactive reading method and device, computing equipment and storage medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101819164B1 (en) | Apparatus and method for gaze tracking | |
US11749025B2 (en) | Eye pose identification using eye features | |
US10535160B2 (en) | Markerless augmented reality (AR) system | |
US10282913B2 (en) | Markerless augmented reality (AR) system | |
JP6374107B2 (en) | Improved calibration for eye tracking system | |
US10521661B2 (en) | Detailed eye shape model for robust biometric applications | |
Venkateswarlu | Eye gaze estimation from a single image of one eye | |
CA2685976C (en) | Methods and apparatus for estimating point-of-gaze in three dimensions | |
Thompson et al. | Detecting moving objects | |
US10664983B2 (en) | Method for providing virtual reality interface by analyzing image acquired by single camera and apparatus for the same | |
US20220100268A1 (en) | Eye tracking device and a method thereof | |
JP2008146356A (en) | Visual line direction predicting device and visual line direction predicting method | |
KR101628493B1 (en) | Apparatus and method for tracking gaze of glasses wearer | |
JP2010123019A (en) | Device and method for recognizing motion | |
Pires et al. | Unwrapping the eye for visible-spectrum gaze tracking on wearable devices | |
WO2020032254A1 (en) | Attention target estimating device, and attention target estimating method | |
JP2002366958A (en) | Method and device for recognizing image | |
Qin et al. | A novel pupil detection algorithm for infrared eye image | |
JP5559749B2 (en) | POSITION DETECTION DEVICE, POSITION DETECTION METHOD, AND COMPUTER PROGRAM | |
Tsai et al. | Gaze direction estimation using only a depth camera | |
JP2017227687A (en) | Camera assembly, finger shape detection system using camera assembly, finger shape detection method using camera assembly, program implementing detection method, and recording medium of program | |
Mbouna et al. | Pupil center detection with a single webcam for gaze tracking | |
KR102294029B1 (en) | Apparatus and method for gaze tracking by detecting pupil and using eyelid curvature | |
Alinaghi et al. | Consider the head movements! saccade computation in mobile eye-tracking | |
JP2010038879A (en) | System and method for recognizing object shape |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |