KR101819164B1 - Apparatus and method for gaze tracking - Google Patents

Apparatus and method for gaze tracking Download PDF

Info

Publication number
KR101819164B1
KR101819164B1 KR1020160097396A KR20160097396A KR101819164B1 KR 101819164 B1 KR101819164 B1 KR 101819164B1 KR 1020160097396 A KR1020160097396 A KR 1020160097396A KR 20160097396 A KR20160097396 A KR 20160097396A KR 101819164 B1 KR101819164 B1 KR 101819164B1
Authority
KR
South Korea
Prior art keywords
eye
feature points
tracking
information
gaze
Prior art date
Application number
KR1020160097396A
Other languages
Korean (ko)
Inventor
이의철
김병철
고대준
장우혁
한재현
Original Assignee
상명대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 상명대학교산학협력단 filed Critical 상명대학교산학협력단
Priority to KR1020160097396A priority Critical patent/KR101819164B1/en
Application granted granted Critical
Publication of KR101819164B1 publication Critical patent/KR101819164B1/en

Links

Images

Classifications

    • H04N13/0484
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/383Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
    • G06K9/00241
    • G06K9/0061
    • G06K9/481
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/469Contour-based spatial representations, e.g. vector-coding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/164Detection; Localisation; Normalisation using holistic features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Ophthalmology & Optometry (AREA)
  • Eye Examination Apparatus (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

The present invention relates to an apparatus and a method for gaze tracking. An aspect of the present invention provides the apparatus for gaze tracking, comprising: an image acquiring unit acquiring a face image of a user; a face feature point extraction unit extracting face feature points from the acquired face image; a first gaze information tracking unit extracting feature points of the eyes and the mouth from the extracted face image and calculating a face plane and a normal vector of the face plane based thereon to track a face information based gaze vector; a second gaze information tracking unit extracting eye boundary feature points from the extracted face feature points and calculating the rotational center of an eyeball and the center of an iris based thereon to track an eye information based gaze vector; a gaze information integration unit integrating the tracked first and second gaze information; and a gaze tracking performing unit performing the gaze tracking by using the integrated gaze information. The present invention can perform more rapid gaze tracking which is tolerant of a three-dimensional position and natural movement of the face.

Description

시선 추적 장치 및 방법{APPARATUS AND METHOD FOR GAZE TRACKING}[0001] APPARATUS AND METHOD FOR GAZE TRACKING [0002]

본 발명은 시선 추적 장치 및 방법에 관한 것으로서, 구체적으로는 3D 영상 센서 기반으로 사용자의 얼굴 기반 시선 정보와 눈 기반 시선 정보를 통합하여 사용자의 시선을 추적하는 시선 추적 장치 및 방법에 관한 것이다. The present invention relates to a gaze tracking apparatus and method, and more particularly, to a gaze tracking apparatus and method for tracking a user's gaze by integrating a user's face-based gaze information and eye-based gaze information based on a 3D image sensor.

시선 위치 추적이란 사용자가 쳐다보고 있는 위치를 파악하는 연구이다. 기존에 시선 위치 추적은 사용자가 모니터 상의 한 지점을 쳐다볼 때 발생하는 얼굴의 3차원 위치 및 움직임을 파악하지 않고 입력된 2D 얼굴 영상으로부터 직접 모니터 상의 시선 위치를 계산하였다. 이러한 경우는 모니터와 사용자 얼굴 사이의 3차원 거리(depth)를 고정시켜야 하고, 제한된 범위의 얼굴 움직임만 허용하는 문제점이 있다.Eye-gaze tracking is a study that grasps the location the user is looking at. Conventionally, gaze position tracking directly calculates the gaze position on the monitor from the inputted 2D facial image without grasping the 3D position and movement of the face when the user looks at a point on the monitor. In such a case, the three-dimensional distance between the monitor and the user's face must be fixed, and only a limited range of face movements is allowed.

이러한 문제점을 해결하기 위해 평면상의 시선의 위치뿐만 아니라, 사용자의 눈으로부터 얼마나 멀리 떨어진 물체를 응시하는지도 함께 파악함으로써, (X, Y, Z) 3차원 좌표로 표현 가능한 시선의 위치를 파악하는 3차원적 시선 추적연구가 진행되었다. In order to solve these problems, it is necessary to grasp not only the position of the line of sight on the plane but also the way of gazing at an object far away from the user's eye, thereby determining the position of the line of sight which can be represented by (X, Y, Z) Dimensional eye tracking studies were conducted.

이러한 기존의 시선 위치 추적 방법은 눈 주변에 전극을 부착하여 망막과 각막 사이의 전위차를 측정하여 응시 위치를 계산하는 방법, 헤드 밴드 또는 헬멧 밑에 작은 카메라를 장착하여 응시위치를 계산하는 방법, 및 외부에 회전할 수 있는 카메라나 줌 기능을 가지는 카메라와 조명을 장치하여 응시 위치를 계산하는 방법이 있다. This conventional method of locating the eye position includes a method of calculating the gaze position by measuring the potential difference between the retina and the cornea by attaching electrodes around the eyes, a method of calculating the gaze position by attaching a small camera under the head band or the helmet, There is a method of calculating a gazing position by installing a camera and a camera having a zoom function and a camera capable of rotating the camera.

하지만, 이러한 방법은 시선 추적을 위한 카메라, 조명 등 별도의 장치가 필요하고, 시선 추적 계산의 복잡성으로 인해 처리 속도가 저하될 뿐만 아니라, 사용자의 움직임에 의해 시선 추적의 정확성을 결여하기 쉽다. However, this method requires a separate device such as a camera and illumination for eye tracking, and not only the processing speed is lowered due to the complexity of eye tracking calculation, but also it is easy to miss the accuracy of eye tracking due to the user's motion.

본 발명은 3D 영상 센서 기반으로 사용자의 얼굴 기반 시선 정보와 눈 기반 시선 정보를 통합하여 사용자의 시선을 추적함으로써, 보다 빠르고 정확한 시선 추적 장치 및 방법을 제공하는 것이다.The present invention provides a quick and accurate gaze tracking apparatus and method by integrating a user's face-based gaze information and eye-based gaze information based on a 3D image sensor and tracking a user's gaze.

본 발명의 목적은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 명확하게 이해될 수 있을 것이다.The objects of the present invention are not limited to the above-mentioned objects, and other objects not mentioned can be clearly understood from the following description.

본 발명의 일 측면에 따르면, 시선 추적 장치가 제공된다.According to an aspect of the present invention, a gaze tracking apparatus is provided.

본 발명의 일 실시 예에 따른 시선 추적 장치는 사용자의 얼굴 영상을 획득하는 영상 획득부, 획득된 얼굴 영상에서 얼굴의 특징점을 추출하는 얼굴 특징점 추출부, 추출된 얼굴 특징점에서 눈 및 입의 특징점을 추출하고, 이를 기반으로 얼굴 평면 및 얼굴 평면의 법선 벡터를 계산하여 얼굴 정보 기반 시선 벡터를 추적하는 제1 시선 정보 추적부, 추출된 얼굴 특징점에서 눈 경계 특징점을 추출하고, 이를 기반으로 안구의 회전 중심 및 홍채의 중심을 계산하여 눈 정보 기반 시선 벡터를 추적하는 제2 시선 정보 추적부, 추적된 제1 및 제2 시선 정보를 통합하는 시선 정보 통합부, 통합된 시선 정보를 이용하여 시선 추적을 수행하는 시선 추적 수행부를 포함하는 시선 추적 장치가 제공될 수 있다.The eye tracking apparatus according to an embodiment of the present invention includes an image obtaining unit for obtaining a face image of a user, a facial feature point extracting unit for extracting facial feature points from the obtained facial image, A first eye information tracking unit for tracking face information based eye vectors by calculating a normal vector of face planes and face planes based on the extracted eye plane feature points, extracting eye boundary feature points from extracted face feature points, A second eye information tracking unit for tracking an eye information based eyeball vector by calculating the center of the iris and a center of sight, a eye information integrator for integrating the first eyeball information and the second eyeball information, A line-of-sight tracking apparatus including a line-of-sight tracking performing unit may be provided.

본 발명의 다른 측면에 따르면, 시선 추적 방법이 제공된다.According to another aspect of the present invention, a gaze tracking method is provided.

본 발명의 일 실시 예에 따른 시선 추적 방법은 사용자의 얼굴 영상을 획득하는 단계, 획득된 얼굴 영상에서 얼굴의 특징점을 추출하는 단계, 추출된 얼굴 특징점에서 눈 및 입의 특징점을 추출하는 단계, 추출된 눈 및 입의 특징점을 기반으로 얼굴 평면을 계산하는 단계, 계산된 얼굴 평면의 법선 벡터를 계산하는 단계, 계산된 법선 벡터를 이용하여 얼굴 정보 기반 제1 시선 벡터를 추적하는 단계, 추출된 얼굴 특징점에서 눈 경계 특징점을 추출하는 단계, 추출된 눈 경계 특징점을 기반으로 안구의 회전 중심을 계산하는 단계, 추출된 눈 경계 특징점을 기반으로 홍채의 중심을 계산하는 단계, 계산된 안구의 회전 중심 및 홍채의 중심을 이용하여 눈 정보 기반 제2 시선 벡터를 추적하는 단계, 추적된 제1 및 제2 시선 벡터를 통합하는 단계, 통합된 시선 벡터를 이용하여 시선 추적을 수행하는 시선 추적 수행부를 포함할 수 있다.The eye tracking method according to an embodiment of the present invention includes the steps of acquiring a face image of a user, extracting feature points of the face from the obtained face image, extracting feature points of eyes and mouth from the extracted face feature points, Calculating face planes based on feature points of the eyes and mouth, calculating normal vectors of the calculated face planes, tracking the first eye vector based on the face information using the calculated normal vectors, Calculating the center of rotation of the eye based on the extracted eye boundary features, calculating the center of the iris based on the extracted eye boundary features, calculating the center of rotation of the eye, Tracking an eye information based second line vector using the center of the iris, integrating the traced first and second line of sight vectors, And a line-of-sight tracking unit for performing line-of-sight tracking using a vector.

본 발명은 3D 영상 센서 기반으로 사용자의 얼굴 정보 기반 시선 정보와 눈 기반 시선 정보를 통합하여 사용자의 시선을 추적함으로써, 보다 빠르고 사용자 얼굴의 3차원 위치 및 자연스러운 움직임(회전 및 이동)에 강인한 시선 추적이 가능하다.The present invention integrates user's face information based eye information and eye based eye information based on a 3D image sensor to track a user's gaze, thereby enabling quicker and more accurate tracking of three-dimensional position and natural motion (rotation and movement) This is possible.

또한, 본 발명은 초기 사용자에 의한 캘리브레이션(calibration) 과정을 필요로 하지 않으므로 사용이 용이하다. In addition, since the present invention does not require a calibration process by the initial user, it is easy to use.

도 1 내지 도 3은 본 발명의 일 실시 예에 따른 시선 추적 장치를 예시한 도면들.
도 4는 내지 도 12는 본 발명의 일 실시 예에 따른 시선 추적 방법을 설명하기 위한 도면들.
1 to 3 are views illustrating a gaze tracking apparatus according to an embodiment of the present invention.
4 to 12 are views for explaining a gaze tracking method according to an embodiment of the present invention.

아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시 예를 상세히 설명하도록 한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다. 또한, 어떤 부분이 어떤 구성 요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것을 의미한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art can easily carry out the present invention. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. Also, when a part is referred to as "including " an element, it is to be understood that it may include other elements as well, without departing from the other elements unless specifically stated otherwise.

제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성 요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.The terms first, second, etc. may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another.

이하, 첨부된 도면을 참고하여 본 발명의 실시를 위한 구체적인 내용을 설명하도록 한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Reference will now be made in detail to embodiments of the present invention, examples of which are illustrated in the accompanying drawings.

도 1 내지 도 3은 본 발명의 일 실시 예에 따른 시선 추적 장치를 예시한 도면들이다.1 to 3 are views illustrating a gaze tracking apparatus according to an embodiment of the present invention.

도 1을 참조하면, 시선 추적 장치(100)는 얼굴 영상 획득부(110), 얼굴 특징점 추출부(120), 제1 시선 정보 추적부(130), 제2 시선 정보 추적부(140), 제1 및 제2 시선 정보를 통합하는 시선 정보 통합부(150), 시선 추적 수행부(160)를 포함한다.1, the gaze tracking apparatus 100 includes a face image obtaining unit 110, a facial feature point extracting unit 120, a first gaze information tracing unit 130, a second gaze information tracing unit 140, A sight line information integrating unit 150 for integrating the first and second line of sight information, and a line-of-sight tracking performing unit 160.

얼굴 영상 획득부(110)는 3D 센서로 촬영된 영상으로부터 사용자의 얼굴 영상을 획득한다. The face image obtaining unit 110 obtains a user's face image from the image photographed by the 3D sensor.

얼굴 특징점 추출부(120)는 획득된 얼굴 영상에서 얼굴 특징점의 3차원 정보를 획득한다. The facial feature point extracting unit 120 acquires three-dimensional information of the facial feature points on the obtained facial image.

제1 시선 정보 추적부(130)는 얼굴 특징점 추출부(120)에서 추출한 얼굴 특징점에서 눈 및 입의 특징점을 추출하고, 이를 기반으로 얼굴 평면 및 얼굴 평면의 법선 벡터를 계산하여 얼굴 정보 기반 시선 벡터를 추적한다.The first line of sight information tracking unit 130 extracts the minutiae of the eyes and mouth from the facial feature points extracted by the facial feature point extracting unit 120 and calculates the normal vectors of the face planes and the face planes based on the extracted minutiae points, ≪ / RTI >

제2 시선 정보 추적부(140)는 얼굴 특징점 추출부(120)에서 추출한 얼굴 특징점에서 눈 경계 특징점을 추출하고, 이를 기반으로 안구의 회전 중심 및 홍채의 중심을 계산하여 눈 정보 기반 시선 벡터를 추적한다.The second line-of-sight information tracking unit 140 extracts the eye boundary feature points from the facial feature points extracted by the facial feature point extracting unit 120, calculates the center of rotation of the eyeball and the center of the iris, do.

시선 정보 통합부(150)는 제1 시선 정보 및 제2 시선 정보를 통합한다. 이 때, 시선 정보 통합부(150)는 상대적으로 고해상도의 얼굴 영상에서 추적된 제1 시선 정보와 저해상도의 눈 영상에서 추적된 제2 시선 정보를 고려하여 각각의 시선 정보에 가중치를 추가한다. The gaze information integrating unit 150 integrates the first gaze information and the second gaze information. At this time, the eye-gaze information integrating unit 150 adds weights to the respective gaze information in consideration of the first gaze information tracked in the relatively high-resolution face image and the second gaze information tracked in the low-resolution eye image.

시선 추적 수행부(160)는 시선 정보 통합부(150)에서 통합된 시선 정보를 이용하여 시선 추적을 수행한다.The line-of-sight tracking performing unit 160 performs line-of-sight tracking using the line-of-sight information integrated in the line-of-sight information integrating unit 150.

도 2를 참조하면, 본 발명의 일 실시예에 따른 시선 추적 장치(100)의 제1 시선 정보 추적부(130)는 눈 및 입 특징점 추출부(131), 얼굴 평면 계산부(132), 얼굴 평면의 법선 벡터 계산부(133) 및 얼굴 정보 기반 시선 벡터 추적부(134)를 포함한다.2, the first eye-gaze information tracking unit 130 of the eye-gaze tracking apparatus 100 according to an embodiment of the present invention includes an eye and mouth feature point extracting unit 131, a face-plane calculating unit 132, Plane normal vector calculation unit 133 and a face information-based eye-line vector tracking unit 134.

눈 및 입 특징점 추출부(131)는 획득된 얼굴 특징점의 3차원 정보에서 눈 및 입의 특징점을 추출한다.The eye and mouth feature point extracting unit 131 extracts feature points of eyes and mouth from the obtained three-dimensional information of the face feature points.

얼굴 평면 계산부(132)는 추출된 눈 및 입의 특징점을 이용하여 특징점을 지나는 얼굴 평면을 계산한다.The face plane calculation unit 132 calculates the face planes passing through the feature points using the extracted eye and mouth feature points.

얼굴 평면의 법선 벡터 계산부(133)는 얼굴 평면 계산부(132)에서 계산된 얼굴 평면을 통과하는 법선 벡터를 계산한다.The normal vector calculation unit 133 of the face plane calculates a normal vector passing through the face plane calculated by the face plane calculation unit 132.

얼굴 정보 기반 시선 벡터 추적부(134)는 얼굴 평면의 법선 벡터 계산부(133)에서 계산된 법선 벡터를 제 1 시선 정보로 추적한다.The face information based eyeball vector tracking unit 134 tracks the normal vector calculated by the face vector normal vector calculation unit 133 as the first eyeball information.

도 3을 참조하면, 본 발명의 일 실시예에 따른 시선 추적 장치(100)의 제2 시선 정보 추적부(140)는 눈 경계 특징점 추출부(141), 안구의 회전 중심 계산부(142), 홍채의 중심 계산부(143), 눈 정보 기반 시선 벡터 추적부(144)를 포함한다.3, the second gaze information tracking unit 140 of the gaze tracking apparatus 100 according to an embodiment of the present invention includes an eye boundary feature point extracting unit 141, an eyeball rotation center calculating unit 142, An iris center calculation unit 143, and an eye information based eye vector tracking unit 144.

눈 경계 특징점 추출부(141)는 얼굴 특징점 추출부(120)에서 획득한 얼굴 특징점의 3차원 정보로부터 눈 경계의 특징점을 추출한다.The eye boundary feature point extracting unit 141 extracts feature points of the eye boundary from the three-dimensional information of the facial feature points acquired by the facial feature point extracting unit 120.

안구의 회전 중심 계산부(142)는 눈 경계 특징점 추출부(141)에서 추출된 눈 경계 특징점 및 최소 평균 제곱법(least-mean-squares: LMS)을 이용하여 안구의 회전 중심을 계산한다. The eye rotation center calculation unit 142 calculates the rotation center of the eye using the eye boundary feature point extracted by the eye boundary feature point extraction unit 141 and least-mean-squares (LMS).

홍채의 중심 계산부(143)는 얼굴 영상 획득부(110)에서 RGB 카메라에 의해 획득한 얼굴 영상과 뎁스 센서에 의해 획득한 얼굴 영상을 이용하여 3차원 홍채의 중심 좌표를 계산한다. The iris center calculation unit 143 calculates the center coordinates of the 3D iris using the face image acquired by the RGB camera and the face image acquired by the depth sensor in the face image acquisition unit 110.

눈 정보 기반 시선 벡터 추적부(144)는 안구의 회전 중심 계산부(142)에서 계산된 안구의 회전 중심 좌표와 홍채의 중심 계산부(143)에서 계산된 홍채의 중심 좌표를 연결하는 시선 벡터를 제2 시선 정보로 추적한다.The eye information based eyeball vector tracking unit 144 calculates eyeball vectors that connect the rotation center coordinates of the eye calculated by the rotation center calculation unit 142 of the eyeball and the center coordinates of the iris calculated by the center calculation unit 143 Track with second line of sight information.

시선 정보 통합부(150)는 제1 시선 정보 및 제2 시선 정보를 통합한다. 이 때, 시선 정보 통합부(150)는 상대적으로 고해상도의 얼굴 영상에서 추적된 제1 시선 정보와 저해상도의 눈 영상에서 추적된 제2 시선 정보를 고려하여 각각의 시선 정보에 가중치를 추가한다. The gaze information integrating unit 150 integrates the first gaze information and the second gaze information. At this time, the eye-gaze information integrating unit 150 adds weights to the respective gaze information in consideration of the first gaze information tracked in the relatively high-resolution face image and the second gaze information tracked in the low-resolution eye image.

시선 추적 수행부(160)는 시선 정보 통합부(150)에서 통합된 시선 정보를 이용하여 시선 추적을 수행한다.The line-of-sight tracking performing unit 160 performs line-of-sight tracking using the line-of-sight information integrated in the line-of-sight information integrating unit 150.

도 4 내지 도 12는 본 발명의 일 실시 예에 따른 시선 추적 방법을 설명하기 위한 도면들이다.4 to 12 are views for explaining a gaze tracking method according to an embodiment of the present invention.

도 4를 참조하면, 본 발명의 일 실시 예에 따른 시선 추적 방법(400)은 사용자의 얼굴 영상을 획득하는 단계(S405), 획득된 얼굴 영상에서 얼굴의 특징점을 추출하는 단계(S410), 추출된 얼굴 특징점에서 눈 및 입의 특징점을 추출하는 단계(S415), 추출된 눈 및 입의 특징점을 기반으로 얼굴 평면을 계산하는 단계(S420), 계산된 얼굴 평면의 법선 벡터를 계산하는 단계(S425), 계산된 법선 벡터를 이용하여 얼굴 정보 기반 제1 시선 벡터를 추적하는 단계(S430), 추출된 얼굴 특징점에서 눈 경계 특징점을 추출하는 단계(S435), 추출된 눈 경계 특징점을 기반으로 안구의 회전 중심을 계산하는 단계(S440), 추출된 눈 경계 특징점을 기반으로 홍채의 중심을 계산하는 단계(S445), 계산된 안구의 회전 중심 및 홍채의 중심을 이용하여 눈 정보 기반 제2 시선 벡터를 추적하는 단계(S450), 추적된 제1 및 제2 시선 벡터를 통합하는 단계(S455), 통합된 시선 벡터를 이용하여 시선 추적을 수행하는 시선 추적 수행부(S460)를 포함한다. Referring to FIG. 4, a gaze tracking method 400 according to an exemplary embodiment of the present invention includes a step S405 of obtaining a user's face image, a step S410 of extracting feature points of a face from the obtained face image, A step S420 of calculating a face vector based on the extracted feature points of eyes and mouths S420, a step S425 of calculating a normal vector of the calculated face planes S425 A step S430 of tracking the first eye vector based on the face information using the calculated normal vector, a step S435 of extracting eye boundary feature points from the extracted facial feature points, Calculating the center of rotation based on the extracted eye boundary feature points (S445), calculating the eye information based second eye vector using the center of rotation of the eye and the center of the iris Tracking stage (S450), using a step (S455), the integrated line of sight vector to integrate the tracking first and second line of sight vector and a gaze detection execution unit (S460) for performing eye tracking.

단계 S405에서 시선 추적 방법(400)은 RGB 카메라 및 뎁스(depth) 센서를 이용하여 사용자의 얼굴 영상을 획득한다. In step S405, the gaze tracking method 400 acquires a user's face image using an RGB camera and a depth sensor.

도 5를 참조하면, 일 실시예에 따른 시선 추적 방법(400)은 사용자가 일정 거리만큼 떨어진 모니터 상의 한 지점을 응시할 때, RGB 카메라 및 뎁스(depth) 센서를 이용하여 사용자의 얼굴 영상을 획득할 수 있다.Referring to FIG. 5, the eye tracking method 400 according to an exemplary embodiment of the present invention acquires a face image of a user using an RGB camera and a depth sensor when a user gazes at a point on a monitor separated by a predetermined distance .

단계 S410에서 시선 추적 방법(400)은 단계 S405에서 획득된 얼굴 영상에서 얼굴의 특징점을 추출한다. 여기서 얼굴 특징점은 RGB 카메라에 의해 얻어진 임의의 픽셀 좌표(x값 ,y값) 및 뎁스 센서에 의해 얻어진 임의의 z값을 포함한다. In step S410, the gaze tracking method 400 extracts feature points of the face from the face image obtained in step S405. Here, the facial feature points include arbitrary pixel coordinates (x value, y value) obtained by the RGB camera and arbitrary z values obtained by the depth sensor.

도 6을 참조하면, 일 실시예에 따른 시선 추적 방법(400)은 키넥트(Kinect v2)에 의해 제공되는 HD 얼굴 모델(Face Model)을 사용하여 1,436개의 얼굴 특징점을 추출할 수 있다.Referring to FIG. 6, the eye tracking method 400 according to an exemplary embodiment may extract 1,436 facial feature points using the HD face model provided by Kinect v2.

단계 S415에서 일 실시예에 따른 시선 추적 방법(400)은 단계 S410에서 추출된 얼굴 특징점으로부터 눈 및 입의 특징점을 추출한다.In step S415, the gaze tracking method 400 according to an exemplary embodiment extracts feature points of eyes and mouth from the facial feature points extracted in step S410.

도 7을 참조하면, 일 실시예에 따른 시선 추적 방법(400)은 710과 같이 눈 주변의 특징점 8개(오른쪽 눈 4개, 왼쪽 눈 4개) 및 입 주변의 특징점 6개를 추출하고, 720과 같이 추출된 특징점의 평균 좌표로 눈 및 입의 특징점을 설정할 수 있다.Referring to FIG. 7, the eye tracking method 400 according to an exemplary embodiment extracts 8 feature points (4 eyes on the right eye, 4 eyes on the left eye) and 6 feature points around the eyes, as in 710, The minutiae points of the eyes and mouth can be set as the average coordinates of the extracted minutiae.

단계 S420에서 시선 추적 방법(400)은 단계 S415에서 추출된 눈 및 입의 특징점을 기반으로 얼굴 평면을 계산한다. In step S420, the gaze tracking method 400 calculates a face plane based on the eye and mouth feature points extracted in step S415.

다시 도 7을 참조하면, 일 실시예에 따른 시선 추적 방법(400)은 단계 S420에서 추출된 눈 및 입의 특징점을 이용하여 세 개의 특징점(721, 722 및 723)을 지나는 얼굴 평면을 계산할 수 있다.Referring again to FIG. 7, the eye tracking method 400 according to an exemplary embodiment may calculate a face plane passing through three feature points 721, 722, and 723 using eye and mouth feature points extracted in step S420 .

단계 S425에서 시선 추적 방법(400)은 단계 S420에서 계산된 얼굴 평면을 통과하는 법선 벡터를 계산한다. In step S425, the gaze tracking method 400 calculates a normal vector passing through the face plane calculated in step S420.

단계 S430에서 시선 추적 방법(400)은 단계 S425에서 계산된 법선 벡터를 이용하여 얼굴 정보 기반 제1 시선 벡터를 추적한다. In step S430, the gaze tracking method 400 tracks the first gaze vector based on the face information using the normal vector calculated in step S425.

도 8을 참조하면, 일 실시예에 따른 시선 추적 방법(400)은 얼굴 평면(811)과 수직하는 법선 벡터(812)를 제 1 시선 정보로 추적할 수 있다.Referring to FIG. 8, the line-of-sight tracking method 400 according to an exemplary embodiment may track a normal vector 812 perpendicular to the face plane 811 as first line-of-sight information.

단계 S435에서 시선 추적 방법(400)은 추출된 얼굴 특징점에서 눈 경계 특징점을 추출한다.In step S435, the gaze tracking method 400 extracts eye boundary feature points from the extracted facial feature points.

도 9를 참조하면, 일 실시예에 따른 시선 추적 방법(400)은 911 내지 914와 같이 눈 경계 특징점을 추출할 수 있다. Referring to FIG. 9, the eye tracking method 400 according to an exemplary embodiment may extract eye boundary feature points, such as 911 to 914.

단계 S440에서 시선 추적 방법(400)은 추출된 눈 경계 특징점을 기반으로 수학식 1을 이용하여 안구의 회전 중심을 계산한다. In step S440, the gaze tracking method 400 calculates the center of rotation of the eyeball using Equation 1 based on the extracted eye boundary feature points.

Figure 112016074271248-pat00001
Figure 112016074271248-pat00001

수학식 1에서 X c , Y c , Z c 는 안구의 회전 중심 좌표이고, X ic , Y ic , Z ic 는 가상의 안구 구조에서 눈 경계 특징점 중 하나의 좌표로 설정한다. X c, Y c, Z c in equation (1) Is the rotation center coordinate of the eyeball, and X ic , Y ic , Z ic is the coordinate of one of the eye boundary feature points in the virtual eye structure.

일반적으로 안구의 회전 중심은 각막의 표면에서 13.5mm 떨어진 곳에 위치한다. 또한, 사람의 눈은 눈의 전면에 하나의 조명이 위치할 때, 눈의 4개의 광학 면(각막 안쪽 및 바깥쪽 면, 수정체 안쪽 및 바깥쪽 면)에서 조명 반사광이 발생한다. 이러한 조명 반사광은 사용자가 얼마나 멀리 있는 위치를 응시하는지에 따라 수정체의 두께변화에 의해 그 위치가 바뀌므로, 조명 반사광 간의 거리는 사용자의 눈과 응시위치까지의 뎁스 정보에 의존적이다. In general, the center of rotation of the eyeball is located 13.5mm from the surface of the cornea. In addition, when one light is placed on the front face of the human eye, illumination reflection light is generated on the four optical surfaces of the eye (inside and outside of the cornea, inside and outside of the lens). Since the position of the illumination reflected light changes depending on the thickness of the lens depending on how far the user looks at the position of the user, the distance between the illuminated reflected light depends on the depth information from the user's eye to the gazing position.

따라서 사람 눈의 구조적인 특성에 기반을 두어, 뎁스 정보를 포함하는 3차원 시선 위치(좌우, 상하 및 뎁스 방향 시선 위치)를 추적할 수 있다.Therefore, based on the structural characteristics of the human eye, it is possible to track the three-dimensional sight line position (left, right, up and down, and depth direction eye line positions) including the depth information.

도 10을 참조하면, 일 실시예에 따른 시선 추적 방법(400)은 1000과 같이 반지름이 13.5mm이고, 네 개의 눈 경계 특징점(911 내지 914)을 포함하는 가상의 안구 구조를 구성함으로써 안구의 회전 중심을 계산할 수 있다.Referring to FIG. 10, the eye tracking method 400 according to an exemplary embodiment includes a virtual eyeball structure including a radius of 13.5 mm and four eyeball feature points 911 to 914, such as 1000, The center can be calculated.

단계 S445에서 시선 추적 방법(400)은 추출된 눈 경계 특징점을 기반으로 홍채의 중심을 계산한다. 일 실시예에 따른 시선 추적 방법(400)은 RGB 카메라에 의해 획득한 얼굴 영상과 뎁스 센서에 의해 획득한 얼굴 영상을 이용하여 홍채의 3차원 중심 좌표를 계산할 수 있다. In step S445, the gaze tracking method 400 calculates the center of the iris based on the extracted eye boundary feature points. The line-of-sight tracking method 400 according to an embodiment can calculate the three-dimensional center coordinates of the iris by using the face image acquired by the RGB camera and the face image acquired by the depth sensor.

단계 S450에서 시선 추적 방법(400)은 단계 S444 내지 단계 S445에서 계산된 안구의 회전 중심 및 홍채의 중심을 기반으로 수학식 2를 이용하여 눈 정보 기반 제2 시선 벡터를 추적한다.In step S450, the gaze tracking method 400 tracks the gaze-based second gaze vector using Equation 2 based on the center of rotation of the eye and the center of the iris calculated in steps S444 to S445.

Figure 112016074271248-pat00002
Figure 112016074271248-pat00002

수학식 2에서

Figure 112016074271248-pat00003
는 안구의 회전 중심 좌표이고,
Figure 112016074271248-pat00004
는 홍채 중심 좌표이다. In Equation 2,
Figure 112016074271248-pat00003
Is the rotation center coordinate of the eyeball,
Figure 112016074271248-pat00004
Is the iris center coordinate.

도 11을 참조하면, 일 실시예에 따른 시선 추적 방법(400)은 1101 영상과 같이 RGB 카메라에 의해 획득한 얼굴 영상에서 눈 영역을 검출하여, 1102 영상과 같이 1101 영상을 이진화한다. 이진화된 영상(1102)에서 1103 내지 1106과 같이 모폴로지 연산(morphological operations)을 수행하여 영상의 잡음(noise)이 제거된 홍채의 영역을 검출한다. 그리고, 1107 영상과 같이 검출된 홍채 영역을 포함하는 사각형의 중심을 계산하여, 1108 영상과 같이 계산된 사각형의 중심을 홍채의 중심 좌표(x값 및 y값)로 설정할 수 있다. Referring to FIG. 11, a line-of-sight tracking method 400 according to an exemplary embodiment detects an eye region in a face image acquired by an RGB camera, such as a 1101 image, and binarizes the 1101 image as in the 1102 image. In the binarized image 1102, morphological operations such as 1103 to 1106 are performed to detect an iris region from which noise of an image has been removed. Then, the center of the rectangle including the detected iris region as the 1107 image is calculated, and the center of the rectangle calculated as the 1108 image can be set as the center coordinates (x value and y value) of the iris.

또한, 일 실시예에 따른 시선 추적 방법(400)은 뎁스 센서에 의해 획득한 뎁스 얼굴 영상을 이용하여, 도 11의 1108 영상의 홍채의 중심 좌표(x값 및 y값)와 일치하는 z값을 추출하여 3차원 홍채의 중심 좌표(1109)를 설정할 수 있다.In addition, the gaze tracking method 400 according to an embodiment uses the depth face image acquired by the depth sensor to calculate a z-value that coincides with the iris center coordinates (x value and y value) of the image 1108 in Fig. 11 And the center coordinates 1109 of the three-dimensional iris can be set.

단계 S455에서 시선 추적 방법(400)은 단계 S430 및 단계 S450에서 추적된 제1 및 제2 시선 벡터를 수학식 3을 이용하여 통합한다.In step S455, the line-of-sight tracking method 400 integrates the first and second line-of-sight vectors traced in steps S430 and S450 using Equation (3).

Figure 112016074271248-pat00005
Figure 112016074271248-pat00005

수학식 3에서 V는 통합된 시선 정보 벡터, V F 는 얼굴 정보 기반 제1 시선 정보 벡터, VE는 눈 정보 기반 제2 시선 정보 벡터,

Figure 112016074271248-pat00006
Figure 112016074271248-pat00007
는 가중치이다.In Equation (3), V denotes an integrated gaze information vector, V F is a face information based first line information vector, V E is an eye information based second line information vector,
Figure 112016074271248-pat00006
And
Figure 112016074271248-pat00007
Is the weight.

단계 S460에서 시선 추적 방법(400)은 단계 S455에서 통합된 시선 벡터를 이용하여 시선 추적을 수행한다.In step S460, the line-of-sight tracking method 400 performs line-of-sight tracking using the integrated line-of-sight vector in step S455.

도 12를 참조하면, 일 실시예에 따른 시선 추적 방법(400)은 통합된 시선 정보(1203)를 이용하여 사용자의 시선 위치(1204)를 추적할 수 있다.Referring to FIG. 12, the line-of-sight tracking method 400 according to an exemplary embodiment may track the line-of-sight position 1204 of the user using the integrated line-of-sight information 1203.

본 발명의 다양한 실시 예에 따른 시선 추적 방법은 다양한 서버 등의 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현될 수 있다. 또한, 본 발명에 따른 시선 추적 방법을 실행하는 프로그램 및 애플리케이션은 컴퓨터 수단에 설치되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 컴퓨터 판독 가능 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 분야 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media) 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. The gaze tracking method according to various embodiments of the present invention may be implemented in the form of a program command that can be executed through various means such as a server. Further, a program and an application for executing the gaze tracking method according to the present invention may be installed in a computer means and recorded in a computer-readable medium. The computer readable medium may include program instructions, data files, data structures, and the like, alone or in combination. Program instructions to be recorded on a computer-readable medium may be those specially designed and constructed for the present invention or may be available to those skilled in the computer software arts. Examples of computer-readable media include magnetic media such as hard disks, floppy disks and magnetic tape; optical media such as CD-ROMs and DVDs; magnetic media such as floppy disks; Includes hardware devices specifically configured to store and execute program instructions such as magneto-optical media and ROM, RAM, flash memory, and the like.

이제까지 본 발명에 대하여 그 실시 예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시 예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.The embodiments of the present invention have been described above. It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the appended claims. Therefore, the disclosed embodiments should be considered in an illustrative rather than a restrictive sense. The scope of the present invention is defined by the appended claims rather than by the foregoing description, and all differences within the scope of equivalents thereof should be construed as being included in the present invention.

100: 시선 추적 장치
110: 얼굴 영상 획득부
120: 얼굴 특징점 추출부
130: 제1 시선 정보 추적부
140: 제2 시선 정보 추적부
150: 시선 정보 통합부
160: 시선 추적 수행부
100: eye tracking device
110: facial image acquiring unit
120: facial feature point extracting unit
130: First line of sight information tracking unit
140: second line of sight information tracking unit
150: eye information integration unit
160: eye tracking execution unit

Claims (15)

3차원 정보를 포함하는 얼굴 영상을 획득하는 영상 획득부;
획득한 얼굴 영상에서 복수개의 얼굴 특징점을 추출하는 얼굴 특징점 추출부;
상기 복수개의 얼굴 특징점에서 양 눈 및 입의 특징점을 추출하고, 추출한 양 눈 및 입의 특징점을 기반으로 얼굴 평면 및 얼굴 평면의 법선 벡터를 계산하여 얼굴 정보 기반 시선 벡터를 추적하는 제1 시선 정보 추적부;
상기 복수개의 얼굴 특징점에서 눈 경계 특징점을 추출하고, 추출한 눈 경계 특징점을 기반으로 안구의 회전 중심 좌표를 계산하고, 상기 눈 경계 특징점을 포함하는 눈 영역에서 홍채 중심 좌표를 계산하고, 상기 안구의 회전 중심 좌표 및 상기 홍채 중심 좌표를 이용하여 눈 정보 기반 시선 벡터를 추적하는 제2 시선 정보 추적부;
추적된 제1 시선 정보 및 제2 시선 정보에 상기 얼굴 영상 및 상기 눈 영역의 해상도에 따라 가중치를 적용하여 상기 제1 시선 정보 및 상기 제2 시선 정보를 통합하는 시선 정보 통합부; 및
통합한 시선 벡터를 이용하여 시선 추적을 수행하는 시선 추적 수행부;를 포함하는 시선 추적 장치.
An image obtaining unit for obtaining a face image including three-dimensional information;
A facial feature point extracting unit for extracting a plurality of facial feature points from the acquired facial image;
A first eye information tracking method for extracting feature points of both eyes and mouth from the plurality of facial feature points and calculating normal vectors of the face planes and face planes based on the extracted feature points of eyes and mouth, part;
Extracting eye boundary feature points from the plurality of facial feature points, calculating rotation center coordinates of the eye based on the extracted eye boundary feature points, calculating iris center coordinates in the eye region including the eye boundary feature points, A second eye information tracking unit for tracking an eye information based eyeball vector using the center coordinates and the iris center coordinates;
A line-of-sight information integration unit for combining the first line-of-sight information and the second line-of-sight information by applying a weight to the tracked first line of sight information and second line of sight information according to the resolution of the face image and the eye region; And
And a line-of-sight tracking unit for performing line-of-sight tracking using the integrated line-of-sight vector.
제 1항에 있어서, 제1 시선 정보 추적부는
상기 추출한 얼굴 특징점의 3차원 정보에서 양 눈 및 입의 특징점을 추출하는 눈 및 입 특징점 추출부;
상기 추출한 양 눈 및 입 특징점을 지나는 얼굴 평면을 계산하는 얼굴 평면 계산부;
상기 얼굴 평면을 통과하는 법선 벡터를 계산하는 얼굴 평면의 법선 벡터 계산부; 및
상기 얼굴 평면의 법선 벡터를 이용하여 사용자의 시선을 추적하는 얼굴 정보 기반 시선 벡터 추적부;를 더 포함하는 시선 추적 장치.
The apparatus according to claim 1, wherein the first eye-gaze information tracking unit
Eye and mouth feature point extracting units for extracting feature points of both eyes and mouth from the extracted three-dimensional information of the facial feature points;
A face plane calculation unit for calculating a face plane passing through the extracted both eyes and the mouth feature points;
A normal vector calculation unit for calculating a normal vector passing through the face plane; And
And a face information based eye vector tracking unit for tracking a user's eye using a normal vector of the face plane.
제 2항에 있어서, 눈 및 입 특징점 추출부는
상기 추출한 얼굴 특징점의 3차원 정보에서 상기 양 눈 및 입 주변에 위치한 복수의 특징점을 추출하고, 추출한 특징점들의 평균 좌표값으로 상기 양 눈 및 입 특징점의 위치를 설정하는 시선 추적 장치.
3. The apparatus of claim 2, wherein the eye and mouth feature extraction unit
Extracting a plurality of feature points located in the vicinity of the eyes and the mouth from the extracted three-dimensional information of the facial feature points, and setting the positions of the both eyes and mouth feature points as average coordinate values of the extracted feature points.
제 1항에 있어서, 제2 시선 정보 추적부는
상기 추출한 얼굴 특징점의 3차원 정보로부터 눈 경계의 특징점을 추출하는 눈 경계 특징점 추출부;
상기 추출한 눈 경계 특징점을 이용하여 안구의 회전 중심 좌표를 계산하는 안구의 회전 중심 계산부;
상기 추출한 눈 경계 특징점을 이용하여 홍채의 중심 좌표를 계산하는 홍채의 중심 계산부; 및
상기 안구의 회전 중심 좌표 및 상기 홍채의 중심 좌표를 이용하여 사용자의 시선을 추적하는 눈 정보 기반 시선 벡터 추적부;를 더 포함하는 시선 추적 장치.
The apparatus according to claim 1, wherein the second eye-gaze information tracking unit
An eye boundary feature point extraction unit for extracting feature points of an eye boundary from the extracted three-dimensional information of the facial feature points;
An eyeball rotation center calculation unit for calculating the rotation center coordinates of the eyeball using the extracted eye boundary feature points;
An iris center calculating unit for calculating the center coordinates of the iris using the extracted eye boundary feature points; And
And an eye information based eyeball vector tracking unit for tracking a user's eye line by using the rotation center coordinates of the eyeball and the center coordinates of the iris.
제 4항에 있어서, 안구의 회전 중심 계산부는
반지름이 13.5mm이고 상기 눈 경계 특징점을 포함하는 가상의 안구 구조를 이용하여 안구의 회전 중심을 계산하는 것을 포함하는 시선 추적 장치.
5. The apparatus according to claim 4, wherein the rotation center calculation unit
Calculating a center of rotation of the eye using a virtual eye structure having a radius of 13.5 mm and including the eye boundary feature points.
제 4항에 있어서, 안구의 회전 중심 계산부는
상기 눈 경계 특징점 및 최소 평균 제곱법(least-mean-squares: LMS)을 이용하여 안구의 회전 중심을 계산하는 것을 포함하는 시선 추적 장치.
5. The apparatus according to claim 4, wherein the rotation center calculation unit
And calculating the center of rotation of the eye using the eye-boundary feature point and least-mean-squares (LMS).
제 4항에 있어서, 홍채의 중심 계산부는
RGB 카메라에 의해 획득한 얼굴 영상에서 눈 영역을 검출하고, 검출된 눈 영역을 모폴로지 연산(morphological operations)에 의해 홍채 영역을 검출하여, 상기 홍채 영역을 포함하는 사각형의 중심 좌표를 계산하고, 뎁스(depth) 센서에 의해 획득한 얼굴 영상을 이용하여 3차원 홍채의 중심 좌표를 획득하는 것을 포함하는 시선 추적 장치.
5. The apparatus according to claim 4, wherein the center calculation unit
An eye region is detected in the face image acquired by the RGB camera, the iris region is detected by morphological operations of the detected eye region, the center coordinates of the rectangle including the iris region are calculated, dimensional iris using a face image acquired by a depth sensor.
삭제delete 시선 추적 장치에서 사용자의 시선을 추적 방법에 있어서,
3차원 정보를 포함하는 얼굴 영상을 획득하는 단계;
상기 획득한 얼굴 영상에서 복수개의 얼굴 특징점을 추출하는 단계;
추출한 얼굴 특징점에서 양 눈 및 입의 특징점을 추출하는 단계;
추출한 양 눈 및 입의 특징점을 기반으로 얼굴 평면을 계산하는 단계;
상기 얼굴 평면의 법선 벡터를 계산하는 단계;
상기 법선 벡터를 이용하여 얼굴 정보 기반 제1 시선 벡터를 추적하는 단계;
상기 추출한 얼굴 특징점에서 눈 경계 특징점을 추출하는 단계;
상기 눈 경계 특징점을 기반으로 안구의 회전 중심을 계산하는 단계;
상기 얼굴 영상에서 눈 영역을 검출하고 영상처리를 통해 홍채의 중심을 계산하는 단계;
상기 안구의 회전 중심 및 상기 홍채의 중심을 이용하여 눈 정보 기반 제2 시선 벡터를 추적하는 단계;
상기 제1 시선 벡터 및 제2 시선 벡터에 상기 얼굴 영상 및 상기 눈 영역의 해상도에 따라 가중치를 적용하여 상기 제1 시선 벡터 및 제2 시선 벡터를 통합하는 단계; 및
상기 통합된 시선 벡터를 이용하여 시선 추적을 수행하는 단계;를 포함하는 시선 추적 방법.
A method for tracking a user's gaze in a gaze tracking device,
Obtaining a face image including three-dimensional information;
Extracting a plurality of facial feature points from the obtained facial image;
Extracting feature points of both eyes and mouth from the extracted facial feature points;
Calculating face planes based on the extracted feature points of eyes and mouth;
Calculating a normal vector of the face plane;
Tracking the first eye vector based on the face information using the normal vector;
Extracting eye boundary feature points from the extracted facial feature points;
Calculating a rotation center of the eye based on the eye boundary feature point;
Detecting an eye region in the face image and calculating the center of the iris through image processing;
Tracking an eye information based second eye vector using the center of rotation of the eyeball and the center of the iris;
Integrating the first gaze vector and the second gaze vector by applying a weight to the first gaze vector and the second gaze vector according to the resolution of the face image and the eye region; And
And performing line-of-sight tracking using the integrated line-of-sight vector.
제 9항에 있어서, 상기 추출한 얼굴 특징점에서 양 눈 및 입의 특징점을 추출하는 단계는
상기 추출한 얼굴 특징점의 3차원 정보에서 상기 양 눈 및 입 주변에 위치한 복수의 특징점을 추출하고, 추출한 특징점들의 평균 좌표값으로 상기 양 눈 및 입 특징점의 위치를 설정하는 시선 추적 방법.
10. The method according to claim 9, wherein extracting feature points of both eyes and mouth from the extracted facial feature points comprises:
Extracting a plurality of feature points located in the vicinity of both eyes and mouth from the extracted three-dimensional information of the facial feature points, and setting positions of the both eyes and mouth feature points as average coordinate values of the extracted feature points.
제 9항에 있어서, 상기 추출한 눈 경계 특징점을 기반으로 안구의 회전 중심을 계산하는 단계는
상기 눈 경계 특징점 및 최소 평균 제곱법(least-mean-squares: LMS)을 이용하여 안구의 회전 중심을 계산하는 것을 포함하는 시선 추적 방법.
10. The method of claim 9, wherein calculating the center of rotation of the eye based on the extracted eye boundary feature points comprises:
And calculating the center of rotation of the eye using the eye-boundary feature point and least-mean-squares (LMS).
삭제delete 제 9항에 있어서, 상기 눈 경계 특징점을 기반으로 홍채의 중심을 계산하는 단계는
RGB 카메라에 의해 획득한 얼굴 영상에서 눈 영역을 검출하고, 검출한 눈 영역에서 모폴로지 연산(morphological operations)에 의해 홍채 영역 검출하여, 상기 홍채 영역을 포함하는 사각형의 중심 좌표를 계산하고, 뎁스 센서에 의해 획득한 얼굴 영상을 이용하여 3차원 홍채의 중심 좌표를 하는 것을 포함하는 시선 추적 방법.
10. The method of claim 9, wherein calculating the center of the iris based on the eye boundary feature point comprises:
An eye region is detected in the face image acquired by the RGB camera and the iris region is detected by morphological operations in the detected eye region to calculate the center coordinates of the rectangle including the iris region, Dimensional iris using a facial image acquired by the facial image acquired by the facial image acquiring unit.
삭제delete 제 9항 내지 제 11항 및 제13항 중 어느 하나의 시선 추적 방법을 실행하기 위하여 컴퓨터가 판독 가능한 기록매체에 기록된 컴퓨터 프로그램.A computer program recorded on a computer-readable recording medium for executing a gaze tracking method according to any one of claims 9 to 11 and claim 13.
KR1020160097396A 2016-07-29 2016-07-29 Apparatus and method for gaze tracking KR101819164B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160097396A KR101819164B1 (en) 2016-07-29 2016-07-29 Apparatus and method for gaze tracking

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160097396A KR101819164B1 (en) 2016-07-29 2016-07-29 Apparatus and method for gaze tracking

Publications (1)

Publication Number Publication Date
KR101819164B1 true KR101819164B1 (en) 2018-01-17

Family

ID=61026105

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160097396A KR101819164B1 (en) 2016-07-29 2016-07-29 Apparatus and method for gaze tracking

Country Status (1)

Country Link
KR (1) KR101819164B1 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190096189A (en) * 2018-02-08 2019-08-19 삼성전자주식회사 Method for detecting region of interest based on line of sight and electronic device thereof
US10915736B2 (en) 2018-12-04 2021-02-09 Samsung Electronics Co., Ltd. Image processing method and apparatus
CN112541400A (en) * 2020-11-20 2021-03-23 小米科技(武汉)有限公司 Behavior recognition method and device based on sight estimation, electronic equipment and storage medium
WO2022215952A1 (en) * 2021-04-08 2022-10-13 주식회사 이모코그 Machine-learning-based eye tracking device and method
CN115294320A (en) * 2022-10-08 2022-11-04 平安银行股份有限公司 Method and device for determining image rotation angle, electronic equipment and storage medium
CN116610219A (en) * 2023-07-21 2023-08-18 广州宏途数字科技有限公司 Intelligent interactive reading method and device, computing equipment and storage medium
WO2024034924A1 (en) * 2022-08-12 2024-02-15 주식회사 아이트 Pointing method and system using stereo camera-based eye tracking

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
박강령, "적외선 조명 카메라를 이용한 시선 위치 추적 시스템", 한국통신학회논문지 29(4C), pp. 494-504, 2004. 04.*

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190096189A (en) * 2018-02-08 2019-08-19 삼성전자주식회사 Method for detecting region of interest based on line of sight and electronic device thereof
KR102565977B1 (en) * 2018-02-08 2023-08-11 삼성전자주식회사 Method for detecting region of interest based on line of sight and electronic device thereof
US11538277B2 (en) 2018-12-04 2022-12-27 Samsung Electronics Co., Ltd. Image processing method and apparatus
US10915736B2 (en) 2018-12-04 2021-02-09 Samsung Electronics Co., Ltd. Image processing method and apparatus
US11972634B2 (en) 2018-12-04 2024-04-30 Samsung Electronics Co., Ltd. Image processing method and apparatus
CN112541400A (en) * 2020-11-20 2021-03-23 小米科技(武汉)有限公司 Behavior recognition method and device based on sight estimation, electronic equipment and storage medium
WO2022215952A1 (en) * 2021-04-08 2022-10-13 주식회사 이모코그 Machine-learning-based eye tracking device and method
KR102587813B1 (en) * 2021-04-08 2023-10-12 주식회사 이모코그 Apparatus and method for gaze tracking based on machine learning
KR20220139592A (en) * 2021-04-08 2022-10-17 주식회사 이모코그 Apparatus and method for gaze tracking based on machine learning
WO2024034924A1 (en) * 2022-08-12 2024-02-15 주식회사 아이트 Pointing method and system using stereo camera-based eye tracking
CN115294320A (en) * 2022-10-08 2022-11-04 平安银行股份有限公司 Method and device for determining image rotation angle, electronic equipment and storage medium
CN116610219A (en) * 2023-07-21 2023-08-18 广州宏途数字科技有限公司 Intelligent interactive reading method and device, computing equipment and storage medium
CN116610219B (en) * 2023-07-21 2024-01-12 广州宏途数字科技有限公司 Intelligent interactive reading method and device, computing equipment and storage medium

Similar Documents

Publication Publication Date Title
KR101819164B1 (en) Apparatus and method for gaze tracking
US11749025B2 (en) Eye pose identification using eye features
US10535160B2 (en) Markerless augmented reality (AR) system
US10282913B2 (en) Markerless augmented reality (AR) system
JP6374107B2 (en) Improved calibration for eye tracking system
US10521661B2 (en) Detailed eye shape model for robust biometric applications
Venkateswarlu Eye gaze estimation from a single image of one eye
CA2685976C (en) Methods and apparatus for estimating point-of-gaze in three dimensions
Thompson et al. Detecting moving objects
US10664983B2 (en) Method for providing virtual reality interface by analyzing image acquired by single camera and apparatus for the same
US20220100268A1 (en) Eye tracking device and a method thereof
JP2008146356A (en) Visual line direction predicting device and visual line direction predicting method
KR101628493B1 (en) Apparatus and method for tracking gaze of glasses wearer
JP2010123019A (en) Device and method for recognizing motion
Pires et al. Unwrapping the eye for visible-spectrum gaze tracking on wearable devices
WO2020032254A1 (en) Attention target estimating device, and attention target estimating method
JP2002366958A (en) Method and device for recognizing image
Qin et al. A novel pupil detection algorithm for infrared eye image
JP5559749B2 (en) POSITION DETECTION DEVICE, POSITION DETECTION METHOD, AND COMPUTER PROGRAM
Tsai et al. Gaze direction estimation using only a depth camera
JP2017227687A (en) Camera assembly, finger shape detection system using camera assembly, finger shape detection method using camera assembly, program implementing detection method, and recording medium of program
Mbouna et al. Pupil center detection with a single webcam for gaze tracking
KR102294029B1 (en) Apparatus and method for gaze tracking by detecting pupil and using eyelid curvature
Alinaghi et al. Consider the head movements! saccade computation in mobile eye-tracking
JP2010038879A (en) System and method for recognizing object shape

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant