KR101706992B1 - Apparatus and method for tracking gaze, recording medium for performing the method - Google Patents
Apparatus and method for tracking gaze, recording medium for performing the method Download PDFInfo
- Publication number
- KR101706992B1 KR101706992B1 KR1020160009822A KR20160009822A KR101706992B1 KR 101706992 B1 KR101706992 B1 KR 101706992B1 KR 1020160009822 A KR1020160009822 A KR 1020160009822A KR 20160009822 A KR20160009822 A KR 20160009822A KR 101706992 B1 KR101706992 B1 KR 101706992B1
- Authority
- KR
- South Korea
- Prior art keywords
- region
- eye
- center
- face
- detecting
- Prior art date
Links
Images
Classifications
-
- G06K9/00604—
-
- G06K9/00281—
-
- G06K9/00288—
-
- G06K9/00617—
-
- H04N5/23219—
Landscapes
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
Description
본 발명은 시선 추적 장치 및 방법, 이를 수행하기 위한 기록매체에 관한 발명으로서, 보다 상세하게는 PTZ 카메라를 통해 획득한 영상으로부터 사람의 시선을 추적하는 시선 추적 장치 및 방법, 이를 수행하기 위한 기록매체에 관한 것이다.The present invention relates to a gaze tracking apparatus and method, and a recording medium for performing the same, and more particularly, to a gaze tracking apparatus and method for tracking a gaze of a person from an image acquired through a PTZ camera, .
스마트 기기의 사용이 활성화됨에 따라 제스처인식, 음성인식, 시선인식 등의 비접촉 방식으로 스마트 기기를 제어하는 기술의 개발이 지속적으로 이루어지고 있다. 특히, 시선인식을 통하여 비접촉 방식으로 스마트 기기를 제어하는 기술에 있어서, 사람의 얼굴 영상을 획득하고, 얼굴 영상으로부터 시선을 추적하는 기술이 핵심 기술이라 할 수 있다.As the use of smart devices becomes more active, the development of technologies for controlling smart devices by non-contact methods such as gesture recognition, speech recognition, and gaze recognition has been continuously carried out. Particularly, in the technique of controlling the smart device in a non-contact manner through the visual recognition, a technique of acquiring a face image of a person and tracking a line of sight from a face image is a core technology.
이러한, 시선 추적 기술로는, 일반적으로 광각 카메라와 협각 카메라의 두 개의 카메라 모듈을 이용하며, 광각 카메라로는 사람의 위치를 감지하고, 협각 카메라로 고해상도의 눈 영상을 획득하여 시선 추적을 수행한다. As such eye tracking technology, generally, two camera modules such as a wide-angle camera and a narrow-angle camera are used, a human's position is detected with a wide-angle camera, and a high-resolution eye image is acquired with a narrow- .
그러나, 위와 같은 경우 카메라와 시선 추적 대상의 거리가 멀어질수록 시선 추적을 위한 고해상도의 영상을 획득하기 위해서는 보다 많은 개수의 카메라가 필요하며, 이러한 경우, 복수의 카메라를 동시에 제어하는 데 어려움이 있다. However, in the above case, as the distance between the camera and the line-of-sight tracking object increases, a larger number of cameras are required to obtain a high-resolution image for tracking the line of sight. In such a case, .
또한, 종래에는 고해상도의 눈 영상으로부터 홍채 또는 동공 중심의 움직임을 산출하고 그에 따라 사람의 시선 방향을 예측하였으나, 이러한 시선 추적 방법은 카메라와 시선 추적 대상의 거리가 멀어질수록 홍채 또는 동공 중심을 정확하게 산출하는 데 어려움이 있어 시선 추적 결과의 정확도가 다소 떨어진다는 문제점이 있다.Conventionally, the motion of the iris or the pupil center is calculated from the high-resolution eye image and the direction of the human eye is predicted according to the motion of the iris or the pupil center. However, There is a problem that the accuracy of the eye tracking result is somewhat deteriorated.
본 발명의 일측면은 시선 추적 장치 및 방법, 이를 수행하기 위한 기록매체에 관한 것으로서, 사람의 얼굴 포즈 각도로부터 안구 중심을 검출하고 이를 반영하여 사람의 시선을 추적하는 시선 추적 장치 및 방법, 이를 수행하기 위한 기록매체를 제공한다.One aspect of the present invention relates to a gaze tracking apparatus and method, and a recording medium for performing the gaze tracking apparatus and method, and more particularly, to a gaze tracking apparatus and method for tracking a person's gaze by detecting an ocular center from a person's pose angle A recording medium is provided.
본 발명의 일측면은 시선 추적 장치에 있어서, 광각 모드 또는 협각 모드 중 하나의 촬영 모드로 주변 영상을 획득하는 촬영부 및 상기 촬영부에서 획득하는 주변 영상과 미리 저장된 얼굴 영역, 눈 영역 및 코 영역에 대한 학습 영상을 비교하여 상기 주변 영상에 나타나는 사람의 얼굴 영역, 눈 영역 및 코 영역을 검출하고, 상기 눈 영역으로부터 홍채 영역을 검출하고 상기 홍채 영역에서 동공 영역을 분리하여 그 중심을 검출하며, 상기 얼굴 영역에서의 상기 눈 영역 및 상기 코 영역의 위치 정보로부터 상기 사람의 얼굴 포즈의 각도를 산출하여 상기 사람의 얼굴 포즈의 각도에 따른 안구 중심을 검출하고, 상기 동공 영역의 중심과 상기 안구 중심을 연결하여 상기 사람의 시선 방향을 검출하는 제어부를 포함한다.According to an aspect of the present invention, there is provided a gaze tracking apparatus, comprising: a photographing unit for obtaining a surrounding image in one photographing mode of a wide angle mode or a narrow angle mode; Eye region and a nose region appearing in the peripheral image, detecting an iris region from the eye region, separating the pupil region from the iris region, detecting the center of the pupil region, Calculating an angle of a face pose of the person from the position information of the eye region and the nose region in the face region to detect an eyeball center according to an angle of the face pose of the person, And a control unit for detecting the gaze direction of the person.
한편, 상기 제어부에 의해 복수의 캘리브레이션 포인트가 설정되고, 상기 제어부의 제어에 따라 상기 사람의 시선 방향에 대응하는 지점에 점을 출력하는 출력부를 더 포함하고, 상기 제어부는, 상기 출력부에서 상기 사람의 시선 방향에 대응하는 지점에 점을 출력하는 과정을 반복 수행하고, 상기 출력부에 출력되는 점과 상기 복수의 캘리브레이션 포인트를 비교하는 방식으로 상기 사람의 시선 방향에 대한 캘리브레이션을 수행할 수 있다.The control unit may further include an output unit that sets a plurality of calibration points by the control unit and outputs a point at a point corresponding to the direction of the human eye according to the control of the control unit, And outputting a point to a point corresponding to the line of sight of the user, and performing calibration of the line of sight of the person by comparing the point output to the output unit with the plurality of calibration points.
또한, 상기 제어부는, 미리 저장된 학습영상으로부터 MCT 및 아다부스트(Adaboost) 기법을 이용하여 상기 얼굴 영역, 눈 영역 및 코 영역 분류기를 생성하고, 상기 촬영부에서 획득하는 주변 영상에 상기 얼굴 영역, 눈 영역 및 코 영역 분류기를 적용하여 상기 주변 영상에 나타나는 사람의 얼굴 영역, 눈 영역 및 코 영역을 검출하는 얼굴 요소 검출부를 포함할 수 있다.Also, the controller may generate the face region, the eye region, and the nose region classifier using MCT and Adaboost techniques from a previously stored learning image, and add the face region, eye region, And a face element detecting unit for detecting a face region, an eye region, and a nose region of a person appearing in the peripheral image by applying a region and a nose region classifier.
또한, 상기 제어부는, 상기 촬영부의 촬영 모드를 광각 모드로 제어하여 상기 주변 영상을 획득하고, 상기 광각 모드에서 촬영되는 주변 영상에 나타나는 사람의 얼굴 영역, 눈 영역 및 코 영역을 검출하면, 상기 광각 모드에서 촬영되는 영상의 중심에서 상기 얼굴 영역이 검출될 수 있도록 상기 촬영부를 팬(Pan) 또는 틸트(Tilt) 제어하고, 상기 얼굴 영역의 영상을 확대하여 획득할 수 있도록 상기 촬영부의 촬영 모드를 협각 모드로 전환하는 촬영 제어부를 포함할 수 있다.The control unit may control the photographing mode of the photographing unit to be a wide angle mode to obtain the peripheral image, and when the face region, the eye region, and the nose region of the person appearing in the surrounding image photographed in the wide angle mode are detected, Mode or the tilt control of the photographing unit so that the face region can be detected at the center of the image photographed in the photographing mode, Mode, which is a mode of operation of the camera.
또한, 상기 제어부는, 상기 눈 영역의 영상에 가변 템플릿을 매칭하여 홍채 영역을 검출하고, K-평균 알고리즘을 적용하여 상기 홍채 영역에서 상기 동공 영역을 분리하며, 상기 동공 영역의 무게중심을 상기 동공 영역의 중심으로 검출하는 동공 중심 검출부를 포함할 수 있다.The controller may detect an iris region by matching a variable template to an image of the eye region, apply a K-means algorithm to separate the pupil region from the iris region, And a pupil center detecting unit for detecting the center of the region.
또한, 상기 제어부는, 상기 눈 영역 및 상기 코 영역의 위치 정보를 이용하여 피치(Pitch), 롤(Roll), 요(Yaw)의 상기 사람의 얼굴 포즈의 각도를 산출하는 얼굴 포즈 검출부 및 상기 눈 영역의 영상에 로버트 에지 검출기를 적용하고, 레이블링을 수행하여 눈 코너점을 검출하며, 상기 눈 코너점 및 상기 사람의 얼굴 포즈의 각도를 이용하여 상기 안구 중심을 검출하는 안구 중심 검출부를 더 포함할 수 있다.The controller may further include a face pose detecting unit for calculating an angle of a face pose of the person in a pitch, roll, and yaw using the position information of the eye region and the nose region, Further comprising an eye center detecting unit for detecting the eye center by applying a Robert edge detector to the image of the region, performing labeling to detect an eye corner point, and using the angle of the eye corner point and the face pose of the person .
한편, 본 발명의 다른 측면은 시선 추적 방법에 있어서, 주변 영상을 획득하고 미리 저장된 얼굴 영역, 눈 영역 및 코 영역에 대한 학습 영상과 비교하여 상기 주변 영상에 나타나는 사람의 얼굴 영역, 눈 영역 및 코 영역을 검출하고, 상기 눈 영역으로부터 홍채 영역을 검출하고, 상기 홍채 영역에서 동공 영역을 분리하여 그 중심을 검출하며, 상기 얼굴 영역에서의 상기 눈 영역 및 상기 코 영역의 위치 정보로부터 상기 사람의 얼굴 포즈의 각도를 산출하여 상기 사람의 얼굴 포즈의 각도에 따른 안구 중심을 검출하고, 상기 동공 영역의 중심과 상기 안구 중심을 연결하여 상기 사람의 시선 방향을 검출한다.According to another aspect of the present invention, there is provided a gaze tracking method comprising: acquiring a peripheral image and comparing it with a learning image of a previously stored face area, an eye area, and a nose area, Detecting an iris region from the eye region, separating the pupil region from the iris region and detecting the center thereof, detecting the center of the eye region and the nose region from the position information of the eye region and the nose region in the face region, The center of the eyeball is detected according to the angle of the face pose of the person by calculating the angle of the pose, and the sight line direction of the person is detected by connecting the center of the pupil region and the center of the eyeball.
한편, 복수의 캘리브레이션 포인트를 설정하고, 상기 사람의 시선 방향에 대응하는 지점과 상기 복수의 캘리브레이션 포인트를 비교하는 방식으로 상기 사람의 시선 방향에 대한 캘리브레이션을 수행하는 것을 더 포함할 수 있다.The method may further include setting a plurality of calibration points and performing calibration with respect to the gaze direction of the person by comparing the plurality of calibration points with points corresponding to the gaze direction of the person.
또한, 상기 주변 영상에 나타나는 사람의 얼굴 영역, 눈 영역 및 코 영역을 검출하는 것은, 미리 저장된 학습영상으로부터 MCT 및 아다부스트(Adaboost) 기법을 이용하여 얼굴 영역, 눈 영역 및 코 영역 분류기를 생성하고, 상기 주변 영상에 상기 얼굴 영역, 눈 영역 및 코 영역 분류기를 적용하여 상기 주변 영상에 나타나는 사람의 얼굴 영역, 눈 영역 및 코 영역을 검출하는 것일 수 있다.In order to detect a face region, an eye region, and a nose region of a person appearing in the peripheral image, a face region, an eye region, and a nose region classifier are generated using MCT and Adaboost technique from a previously stored learning image Eye region, a nose region, and a nose region appearing in the peripheral image by applying the face region, the eye region, and the nose region classifier to the peripheral image.
또한, 상기 눈 영역으로부터 홍채 영역을 검출하고, 상기 홍채 영역에서 동공 영역을 분리하여 그 중심을 검출하는 것은, 상기 눈 영역의 영상에 가변 템플릿을 매칭하여 홍채 영역을 검출하고, K-평균 알고리즘을 적용하여 상기 홍채 영역에서 상기 동공 영역을 분리하며, 상기 동공 영역의 무게중심을 상기 동공 중심으로 검출하는 것일 수 있다.The detection of the iris region from the eye region, the separation of the pupil region in the iris region and the detection of the center thereof may be performed by detecting an iris region by matching a variable template to the image of the eye region, To separate the pupil region from the iris region, and to detect the center of gravity of the pupil region as the center of the pupil.
또한, 상기 얼굴 영역에서의 상기 눈 영역 및 상기 코 영역의 위치 정보로부터 상기 사람의 얼굴 포즈의 각도를 산출하여 상기 사람의 얼굴 포즈의 각도에 따른 안구 중심을 검출하는 것은, 상기 눈 영역 및 상기 코 영역의 위치 정보를 이용하여 피치(Pitch), 롤(Roll), 요(Yaw)의 상기 사람의 얼굴 포즈의 각도를 산출하고, 상기 눈 영역의 영상에 로버트 에지 검출기를 적용하고, 레이블링을 수행하여 눈 코너점을 검출하며, 상기 눈 코너점 및 상기 사람의 얼굴 포즈의 각도를 이용하여 상기 안구 중심을 검출하는 것일 수 있다.It is preferable that the angle of the face pose of the person is calculated from the position information of the eye region and the nose region in the face region and the eye center corresponding to the angle of the face pose of the person is detected, The angle of the face pose of the person in the pitch, the roll and the yaw is calculated by using the position information of the area, the Robert edge detector is applied to the image of the eye area, and the labeling is performed Detecting the eye corner point, and detecting the eye center using the angle of the eye corner point and the face pose of the person.
또한, 시선 추적 방법을 수행하기 위한, 컴퓨터 프로그램이 기록된 컴퓨터로 판독 가능한 기록 매체일 수 있다.In addition, it may be a computer-readable recording medium on which a computer program is recorded, for performing the gaze tracking method.
상술한 본 발명의 일측면에 따르면, 사람의 얼굴 포즈 각도로부터 안구 중심을 검출하고 이를 반영하여 사람의 시선을 추적함으로써, 카메라와 시선 추적 대상의 거리가 멀어지는 경우에도 시선 추적의 정확도를 높일 수 있다.According to one aspect of the present invention, the eye center is detected from the face pose angle of a person, and the eye line is traced by reflecting the center of the eye, thereby improving the accuracy of eye tracking even when the distance between the camera and the eye tracking object is distant .
도 1은 본 발명의 일 실시예에 따른 시선 추적 장치의 제어 블록도이다.
도 2는 도 1에 도시된 제어부의 세부 블록도이다.
도 3은 본 발명의 일 실시예에 따른 얼굴 요소 검출 방법을 설명하기 위한 도면이다.
도 4는 본 발명의 일 실시예에 따른 촬영부의 PTZ(Pan-Tilt-Zoom)제어 방법을 설명하기 위한 도면이다.
도 5는 핀홀 카메라 모델의 일 예를 도시한 도면이다.
도 6 및 도 7은 본 발명의 일 실시예에 따른 촬영부의 PTZ(Pan-Tilt-Zoom)제어 방법을 설명하기 위한 도면이다.
도 8은 본 발명의 일 실시예에 따른 홍채 영역 검출 방법을 설명하기 위한 도면이다.
도 9는 본 발명의 일 실시예에 따른 동공 중심 검출 방법을 설명하기 위한 도면이다.
도 10 및 도 11은 본 발명의 일 실시예에 따른 얼굴 포즈 각도의 검출 방법을 설명하기 위한 도면이다.
도 12는 본 발명의 일 실시예에 따른 눈 코너점 검출 방법을 설명하기 위한 도면이다.
도 13은 본 발명의 일 실시예에 따른 안구 중심 검출 방법을 설명하기 위한 도면이다.
도 14는 본 발명의 일 실시예에 따른 시선 방향 산출을 위한 눈 모델의 일 예를 도시한 도면이다.
도 15는 본 발명의 일 실시예에 따른 출력부의 일 예를 도시한 도면이다.
도 16은 본 발명의 일 실시예에 따른 시선 추적 방법을 설명하기 위한 순서도이다.1 is a control block diagram of a gaze tracking apparatus according to an embodiment of the present invention.
2 is a detailed block diagram of the control unit shown in FIG.
FIG. 3 is a view for explaining a face element detecting method according to an embodiment of the present invention.
4 is a view for explaining a PTZ (Pan-Tilt-Zoom) control method of a photographing unit according to an embodiment of the present invention.
5 is a diagram showing an example of a pinhole camera model.
6 and 7 are views for explaining a PTZ (Pan-Tilt-Zoom) control method of the photographing unit according to an embodiment of the present invention.
8 is a diagram for explaining an iris region detection method according to an embodiment of the present invention.
9 is a view for explaining a pupil center detection method according to an embodiment of the present invention.
10 and 11 are views for explaining a method of detecting a face pose angle according to an embodiment of the present invention.
12 is a view for explaining an eye corner point detecting method according to an embodiment of the present invention.
13 is a diagram for explaining an eye center detection method according to an embodiment of the present invention.
FIG. 14 is a diagram illustrating an eye model for calculating a gaze direction according to an embodiment of the present invention.
15 is a diagram illustrating an example of an output unit according to an embodiment of the present invention.
16 is a flowchart for explaining a line-of-sight tracking method according to an embodiment of the present invention.
후술하는 본 발명에 대한 상세한 설명은, 본 발명이 실시될 수 있는 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시예는 당업자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다. 본 발명의 다양한 실시예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시예와 관련하여 본 발명의 정신 및 범위를 벗어나지 않으면서 다른 실시예로 구현될 수 있다. 또한, 각각의 개시된 실시예 내의 개별 구성요소의 위치 또는 배치는 본 발명의 정신 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니며, 본 발명의 범위는, 적절하게 설명된다면, 그 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다.The following detailed description of the invention refers to the accompanying drawings, which illustrate, by way of illustration, specific embodiments in which the invention may be practiced. These embodiments are described in sufficient detail to enable those skilled in the art to practice the invention. It should be understood that the various embodiments of the present invention are different, but need not be mutually exclusive. For example, certain features, structures, and characteristics described herein may be implemented in other embodiments without departing from the spirit and scope of the invention in connection with an embodiment. It is also to be understood that the position or arrangement of the individual components within each disclosed embodiment may be varied without departing from the spirit and scope of the invention. The following detailed description is, therefore, not to be taken in a limiting sense, and the scope of the present invention is to be limited only by the appended claims, along with the full scope of equivalents to which such claims are entitled, if properly explained. In the drawings, like reference numerals refer to the same or similar functions throughout the several views.
이하, 도면들을 참조하여 본 발명의 바람직한 실시예들을 보다 상세하게 설명하기로 한다.Hereinafter, preferred embodiments of the present invention will be described in more detail with reference to the drawings.
도 1은 본 발명의 일 실시예에 따른 시선 추적 장치의 제어 블록도이다.1 is a control block diagram of a gaze tracking apparatus according to an embodiment of the present invention.
도 1을 참조하면, 본 발명의 일 실시예에 따른 시선 추적 장치(1)는 촬영부(100), 제어부(200), 출력부(300) 및 메모리부(400)를 포함할 수 있다. 본 발명의 일 실시예에 따른 시선 추적 장치(1)는 도 1에 도시된 구성요소보다 많은 구성요소에 의해 구현되거나, 그보다 적은 구성요소에 의해 구현될 수 있다. 이하, 상술한 구성요소들에 대해 구체적으로 설명하기로 한다.Referring to FIG. 1, a
촬영부(100)는 주변 영상을 획득할 수 있으며, 바람직하게는, 특정 컨텐츠를 응시하는 사람의 얼굴 영역을 검출하기 위한 주변 영상을 획득할 수 있다. 이를 위해, 촬영부(100)는 광각 모드 또는 협각 모드 중 하나의 촬영 모드로 동작하는 단일의 PTZ(Pan-Tilt-Zoom) 카메라로 구현될 수 있다. The photographing
구체적으로는, 촬영부(100)는 제어부(200)에 의해 설정되는 카메라의 렌즈 초점 거리에 따라 줌(Zoom) 동작을 수행하여 확대 또는 축소된 주변 영상을 획득할 수 있다. 다시 말하면, 촬영부(100)는 후술하는 제어부(200)의 제어에 따라 광각 모드 또는 협각 모드 중 하나의 촬영 모드에 따라 동작하여 주변 영상을 획득할 수 있다. 여기서, 광각 모드란, 카메라의 렌즈 초점 거리가 미리 정해진 기준값 이하로 설정되어 상대적으로 넓은 시야의 주변 영상을 획득하기 위한 촬영 모드를 의미하고, 협각 모드란, 카메라의 렌즈 초점 거리가 미리 정해진 기준값 이상으로 설정되어 상대적으로 좁은 시야의 주변 영상을 획득하기 위한 촬영 모드를 의미하며, 일반적으로, 광각 모드에서의 렌즈 초점 거리는 24~50mm 로 설정되고, 협각 모드에서의 렌즈 초점 거리는 80~120mm 로 설정될 수 있다. Specifically, the
또한, 촬영부(100)는 제어부(200)의 제어에 따라 좌우로 움직이는 팬(Pan) 동작 또는 상하로 움직이는 틸트(Tilt) 동작을 수행하며 주변 영상을 획득할 수 있다.In addition, the
이처럼, 촬영부(100)는 먼저, 주변의 사람을 검출할 수 있도록 광각 모드로 동작하여 넓은 시야의 주변 영상을 획득하고, 제어부(200)에 의해 획득한 영상에 사람의 얼굴 영역이 검출되는 경우, 팬(Pan) 또는 틸트(Tilt) 동작한 뒤, 협각 모드로 전환되어 고해상도의 확대된 얼굴 영역의 영상을 획득할 수 있다. 이와 관련하여 구체적인 설명은 후술하기로 한다.As described above, the photographing
제어부(200)는 촬영부(100)를 제어하여 얼굴 영역의 영상을 획득하고, 촬영부(100)로부터 획득한 얼굴 영역의 영상을 이용하여 시선을 추적할 수 있다. 이와 관련하여 도 2 내지 도 14를 참조하여 설명하기로 한다.The
도 2는 도 1에 도시된 제어부의 세부 블록도이고, 도 3 내지 도 14는 도 1에 도시된 제어부에서 얼굴 영역의 영상으로부터 시선을 추적하는 방법을 설명하기 위한 도면이다.FIG. 2 is a detailed block diagram of the control unit shown in FIG. 1, and FIGS. 3 to 14 are views for explaining a method of tracking a line of sight from an image of a face region in the control unit shown in FIG.
먼저, 도 2를 참조하면, 제어부(200)는 얼굴 요소 검출부(210), 촬영 제어부(220), 동공 중심 검출부(230), 얼굴 포즈 검출부(240), 안구 중심 검출부(250) 및 시선 방향 검출부(260)를 포함할 수 있다. 제어부(200)는 도 2에 도시된 구성요소보다 많은 구성요소에 의해 구현되거나, 그보다 적은 구성요소에 의해 구현될 수 있다. 이하, 상술한 구성요소들에 대해 구체적으로 설명하기로 한다.2, the
얼굴 요소 검출부(210)는 촬영부(100)에서 획득하는 주변 영상에 사람이 나타날 경우, 사람의 얼굴 영역 및 눈, 코 영역의 얼굴 요소를 검출할 수 있다. 이때, 촬영부(100)는 후술하는 촬영 제어부(220)에 의해 광각 모드로 설정된 상태일 수 있으며, 이로 인해, 촬영부(100)는 넓은 시야의 주변 영상을 획득할 수 있다. The face
구체적으로는, 도 3을 참조하면, 얼굴 요소 검출부(210)는 촬영부(100)에서 획득하는 주변 영상으로부터 사람의 얼굴 영역, 눈 영역 및 코 영역을 검출할 수 있다. 이를 위해, 얼굴 요소 검출부(210)는 학습영상에 MCT(Modified Census Transform) 변환 전처리 과정을 수행한 뒤, 아다부스트(Adaboost) 기법으로 얼굴 영역, 눈 영역 및 코 영역 검출 분류기를 생성할 수 있다. 여기서, 학습영상에 MCT 변환 전처리 과정을 수행하는 것은 조명 변화에 대한 강인성을 위함이며, 아다부스트(Adaboost) 기법이란 템플릿 매칭의 한 종류로서, 특징 값들을 분류할 수 있다. 또한, 학습영상은 메모리부(400)에 미리 저장되어 있는 다양한 자세 또는 모양의 얼굴, 눈 및 코 영상일 수 있으며, 예를 들어, 좌측, 정면, 우측으로 분류 가능한 복수의 얼굴 및 코 영상과, 뜬 눈, 감은 눈으로 분류 가능한 복수의 눈 영상을 포함할 수 있다.3, the facial
이처럼, 얼굴 요소 검출부(210)는 MCT 및 아다부스트(Adaboost) 기법을 통해 얼굴 영역, 눈 영역 및 코 영역 검출 분류기를 생성하고, 촬영부(100)에서 획득하는 주변 영상에 얼굴 영역, 눈 영역 및 코 영역 검출 분류기를 적용함으로써 영상에 포함되는 사람의 얼굴 영역, 눈 영역 및 코 영역을 검출할 수 있다. As described above, the facial
한편, 본 발명의 일 실시예에 따른 시선 추적 장치(1)는 사람의 얼굴 영상으로부터 동공 중심 및 안구 중심을 검출하고, 이를 이용하여 사람의 시선을 추적하는데, 이때, 얼굴 요소 검출부(210)에서 검출한 얼굴 영역과 얼굴 영역에 포함되는 눈 영역 및 코 영역은 촬영부(100)가 광각 모드인 상태에서 획득한 주변 영상으로부터 검출하였으므로, 그 해상도가 낮아 동공 중심 및 안구 중심을 정확하게 검출하는 데 어려움이 있을 수 있으며, 이에 검출한 얼굴 영역에 대하여 보다 고해상도의 확대된 영상을 필요로 할 수 있다.Meanwhile, the eye-
이에 따라, 촬영 제어부(220)는 얼굴 요소 검출부(210)에서 검출한 얼굴 영역에 대하여 보다 고해상도의 영상을 획득할 수 있도록 촬영부(100)의 팬(Pan) 또는 틸트(Tilt) 동작을 제어하거나, 촬영부(100)의 촬영 모드를 전환할 수 있다. The photographing
예를 들어, 도 4를 참조하면, 촬영 제어부(220)는 얼굴 요소 검출부(210)에서 검출한 얼굴 영역이 도 4의 (b)와 같이 촬영부(100)에서 촬영하는 영상의 중심에 위치할 수 있도록 촬영부(100)의 팬(Pan) 또는 틸트(Tilt) 동작을 제어한 뒤, 도 4의 (c)와 같이 촬영부(100)의 촬영 모드를 협각 모드로 전환함으로써 확대된 얼굴 영역의 영상을 획득할 수 있다. 이때, 촬영 제어부(220)는 촬영부(100)와 얼굴 요소 검출부(210)에서 검출한 얼굴 영역 사이의 거리를 산출하고, 산출한 거리에 따라 촬영부(100)의 팬(Pan), 틸트(Tilt) 각도 또는 줌(Zoom) 배수를 산출하여 촬영부(100)를 제어할 수 있다. For example, referring to FIG. 4, the photographing
구체적으로는, 촬영 제어부(220)는 핀홀 카메라 모델을 이용하여 촬영부(100)와 얼굴 요소 검출부(210)에서 검출한 얼굴 영역 사이의 거리를 산출할 수 있다. 여기서, 핀홀 카메라 모델이란, 도 5를 참조하면, 삼각형의 성질을 이용하여 카메라와 객체간의 거리를 계산하기 위한 것으로, 초점 거리(focal length)와 센서상의 객체의 높이, 카메라와 객체간의 거리(distance)와 실제 객체(Object)의 높이의 비율을 아래의 수학식 1과 같이 나타낼 수 있다. Specifically, the photographing
수학식 1에서 SObjh 는 센서상의 객체의 높이, RObjh 는 실제 객체의 높이이고, f는 초점 거리, z는 카메라와 객체 간의 거리를 의미한다.In
여기서, 센서상의 객체의 높이 SObjh 는 아래의 수학식 2를 이용하여 구할 수 있다.Here, the height SObj h of the object on the sensor can be obtained by using the following equation (2).
수학식 2에서 SObjh 는 센서상의 객체의 높이를 의미하고, Sh 는 센서의 높이, IObjh 는 영상에 나타난 객체의 높이를 의미하며, Ih 는 영상의 높이를 의미한다.In
최종적으로, 수학식 1에 수학식 2를 적용하여 카메라와 객체 사이의 거리를 산출하기 위한 수학식 3을 도출할 수 있다.Finally, Equation (3) for calculating the distance between the camera and the object can be derived by applying Equation (2) to Equation (1).
수학식 3에서 z는 카메라와 객체 사이의 거리를 의미하고, f는 초점 거리, Ih 는 영상의 높이, RObjh 는 실제 객체의 높이를 의미하며, Sh 는 센서의 높이, IObjh 는 영상에 나타난 객체의 높이를 의미한다.In Equation 3 z is the distance between the camera and the object, and f is the focal length, I h is the height, RObj h of an image refers to the height of the actual object, and, S h is the height of the sensor, IObj h is image The height of the object shown in FIG.
따라서, 촬영 제어부(220)는 수학식 3을 이용하여 촬영부(100)와 얼굴 요소 검출부(210)에서 검출한 얼굴 영역 사이의 거리를 산출할 수 있으며, 산출한 거리를 이용하여 촬영부(100)의 팬(Pan), 틸트(Tilt) 각도 또는 줌(Zoom) 배수를 산출하여 촬영부(100)를 제어할 수 있다. 이때, 촬영 제어부(220)에서 산출한 거리에 따른 화각 정보, 즉, 촬영부(100)의 줌(Zoom) 위치에 따른 화각 정보는 메모리부(400)에 미리 저장될 수 있다. Therefore, the
이와 관련하여, 도 6을 참조하면, 촬영 제어부(220)는 아래의 수학식 4를 이용하여 촬영부(100)의 팬(Pan) 각도를 산출할 수 있으며, 수학식 5를 이용하여 촬영부(100)의 틸트(Tilt) 각도를 산출할 수 있다.6, the photographing
수학식 4에서 p는 촬영부(100)의 팬(Pan) 각도를 의미하고, θw 는 수평의 화각을 의미하고, W는 영상의 가로 픽셀의 수를 의미하며, u는 영상에서 이동하고자 하는 위치를 의미한다.In Equation (4), p denotes the pan angle of the photographing
수학식 5에서 t는 촬영부(100)의 틸트(Tilt) 각도를 의미하고, θh 는 수직의 화각을 의미하고, H는 영상의 세로 픽셀의 수를 의미하며, v는 영상에서 이동하고자 하는 위치를 의미한다.In Equation (5), t denotes a tilt angle of the photographing
이처럼, 촬영 제어부(220)는 수학식 4 및 5를 이용하여 촬영부(100)의 팬(Pan), 틸트(Tilt) 각도를 산출하고 이에 따라 촬영부(100)의 팬(Pan), 틸트(Tilt) 동작을 제어함으로써, 촬영부(100)에서 획득하는 영상의 중심(Icx,Icy)에 얼굴 영역의 중심(u,v)이 위치할 수 있다.As described above, the photographing
또한, 촬영 제어부(220)는 아래의 수학식 6을 이용하여 촬영부(100)의 줌(Zoom) 배수를 산출할 수 있다.Further, the photographing
수학식 6에서 z는 촬영부(100)의 줌(Zoom) 배수를 의미하고, H는 영상의 세로 픽셀의 수를 의미하고, Objh 는 얼굴 영역의 크기를 의미하고, w는 가중치를 의미한다.In Equation (6), z denotes a zoom multiple of the photographing
이와 같이, 촬영 제어부(220)는 수학식 6을 이용하여 촬영부(100)의 줌(Zoom) 배수를 산출하고, 이에 따라 촬영부(100)의 줌(Zoom) 동작을 제어함으로써, 즉, 광각 모드의 촬영부(100)를 협각 모드로 제어함으로써 고해상도의 확대된 얼굴 영역의 영상을 획득할 수 있다. 이때, 촬영 제어부(220)는 촬영부(100)에서 획득하는 영상의 중심에 얼굴 영역이 위치할 수 있도록 촬영부(100)를 팬(Pan) 또는 틸트(Tilt) 제어한 뒤, 촬영부(100)의 줌(Zoom) 배수를 제어함으로써, 고해상도의 확대된 얼굴 영역의 영상을 획득할 수 있다. 이와 관련하여, 도 7을 참조하여 설명하면, 도 7의 (a)와 같이 촬영부(100)의 촬영 모드가 광각 모드인 상태에서 획득한 영상에 사람이 포함될 수 있으며, 이때, 본 발명의 일 실시예에 따른 촬영부(100)는 광각 모드 또는 협각 모드 중 하나의 촬영 모드로 동작하는 단일의 PTZ(Pan-Tilt-Zoom) 카메라로 구현되므로, 촬영 제어부(220)는 촬영부(100)의 촬영 모드가 광각 모드인 상태에서 팬(Pan) 또는 틸트(Tilt) 동작을 제어하지 않고 바로 촬영 모드를 협각 모드로 전환하면, 영상에 포함되는 사람의 얼굴 영역의 확대된 영상이 아닌 주변 배경의 확대된 영상을 획득하게 된다. 따라서, 촬영 제어부(220)는 도 7의 (b)와 같이 촬영부(100)에서 획득하는 영상의 중심에 얼굴 영역이 위치할 수 있도록 촬영부(100)를 팬(Pan) 또는 틸트(Tilt) 제어한 뒤, 촬영부(100)의 촬영 모드를 협각 모드로 전환함으로써, 고해상도의 확대된 얼굴 영역의 영상을 획득할 수 있다.In this manner, the photographing
동공 중심 검출부(230)는 이러한 고해상도의 확대된 얼굴 영역의 영상으로부터 동공 중심을 검출할 수 있다. 이를 위해, 동공 중심 검출부(230)는 먼저 고해상도의 확대된 얼굴 영역의 영상으로부터 홍채를 검출한 뒤, 홍채 영역 안에서 동공 중심을 검출할 수 있다.The pupil
구체적으로는, 도 8을 참조하면, 동공 중심 검출부(230)는 고해상도의 확대된 얼굴 영역의 영상에 포함되는 눈 영역에 대하여 Valley Map을 생성한 뒤, 임의의 임계값을 이용하여 이진화를 수행할 수 있다. 그리고, 동공 중심 검출부(230)는 이진화 영상에 템플릿 매칭을 수행하여 도 8의 (e)와 같이 홍채 영역을 검출할 수 있다. 이때, 동공 중심 검출부(230)는 이진화 영상에 가변 템플릿을 적용하여 홍채 영역을 검출할 수 있다. Specifically, referring to FIG. 8, the pupil
여기서, 가변 템플릿은 J. Y. Deng and F. Lai 에 의해 제안된 방법으로서, 원형 템플릿의 테두리에 작은 윈도우를 배치하여 에너지를 계산하고, 에너지를 최소화하는 방향으로 이동시키고 그 크기를 조절할 수 있다. 이때, 에너지 함수는 아래의 수학식 7과 같이 나타낼 수 있다.Here, the variable template is a method proposed by J. Y. Deng and F. Lai, wherein a small window is arranged at the edge of a circular template to calculate energy, move it in a direction to minimize energy, and adjust its size. At this time, the energy function can be expressed by Equation (7) below.
수학식 7에서 Acircle 은 템플릿 영역에 해당하는 픽셀의 개수를 의미한다.In Equation (7), A circle denotes the number of pixels corresponding to the template region.
수학식 7을 이용하여 윈도우 영역에 대한 에너지를 계산하면, 아래의 수학식 8을 이용하여 윈도우 영역의 크기를 변경시킬 수 있으며, 수학식 9를 이용하여 윈도우 영역을 이동시킬 수 있다.When the energy for the window region is calculated using Equation (7), the size of the window region can be changed using Equation (8) below, and the window region can be moved using Equation (9).
수학식 8에서 fresize 는 윈도우 영역의 크기 변경 계수를 의미하고, fw 는 윈도우 영역을 의미한다.In Equation (8), f resize denotes a size change coefficient of the window region, and f w denotes a window region.
수학식 9에서 fmovex,fmovey 는 윈도우 영역의 이동 계수를 의미하고, fw 는 윈도우 영역을 의미한다.In
한편, 윈도우 영역은 아래의 수학식 10을 이용하여 정규화할 수 있으며, 그 값은 (-255/2, 255/2)로 정규화될 수 있다.On the other hand, the window area can be normalized using the following equation (10), and the value can be normalized to (-255 / 2, 255/2).
또한, 도 9를 참조하면, 동공 중심 검출부(230)는 검출한 홍채 영역 안에서 동공 중심을 검출할 수 있다. 동공 중심 검출부(230)는 홍채 영역에 대하여 Valley Map을 생성한 뒤, 군집화를 수행하여 동공 중심을 검출할 수 있다. 이때, 동공 중심 검출부(230)는 홍채 영역에 대하여 생성한 Valley Map에 두 개의 군집으로 K-평균 알고리즘(K-means Clustering) 알고리즘을 적용하여 홍채 영역과 동공 영역을 분리시킬 수 있다. 그리고, 동공 중심 검출부(230)는 분리된 동공 영역의 무게중심을 동공 중심으로 검출할 수 있다.9, the pupil
한편, 얼굴 포즈 검출부(240)는 고해상도의 확대된 얼굴 영역에서의 눈 영역과 코 영역의 위치 정보로부터 얼굴 포즈를 검출할 수 있다. 여기서, 도 10을 참조하면, 얼굴 포즈 검출부(240)는 y축을 중심으로 얼굴이 회전하는 각도인 피치(Pitch), z축을 중심으로 얼굴이 회전하는 각도인 롤(Roll), x축을 중심으로 얼굴이 회전하는 각도인 요(Yaw)로 정의되는 얼굴 포즈의 각도를 산출할 수 있다. On the other hand, the face pose
구체적으로는, 도 11의 (a)를 참조하면, 얼굴 포즈 검출부(240)는 먼저 아래의 수학식 11을 이용하여 피치(Pitch)를 산출할 수 있다. 피치(Pitch)는 두 눈 영역 사이의 거리(D)와 코 길이의 비율(B)을 이용하여 산출할 수 있다. 이때, 코 길이의 비율(B)은 두 눈 영역 사이의 거리에 0.618을 곱하여 산출할 수 있다. Specifically, referring to FIG. 11A, the face pose
수학식 11에서 D는 두 눈 영역 사이의 거리를 의미하고, dyp 는 코 길이에서 코 끝 위치(Nose tip)의 미분값을 의미한다.In Equation (11), D represents the distance between two eye regions, and dy p represents a derivative value of the nose tip at the nose length.
또한, 도 11의 (b)를 참조하면, 얼굴 포즈 검출부(240)는 아래의 수학식 12를 이용하여 롤(Roll)을 산출할 수 있다. 롤(Roll)은 두 눈 영역의 위치 정보를 이용하여 산출할 수 있다.11 (b), the face pose detecting
수학식 12에서 dyr 은 두 눈 영역 위치의 y축에 대한 미분값을 의미하고, dxr은 두 눈 영역 위치의 x축에 대한 미분값을 의미한다.In Equation (12), dy r means a derivative value with respect to the y axis of two eye region positions, and dx r means a derivative value with respect to the x axis of two eye region positions.
또한, 도 11의 (c)를 참조하면, 얼굴 포즈 검출부(240)는 아래의 수학식 13을 이용하여 요(Yaw)를 산출할 수 있다. 요(Yaw)는 두 눈 영역 사이의 중심점과 코 끝의 위치정보를 이용하여 산출할 수 있다. 여기서, 코 끝의 위치정보는 미리 저장된 코 끝의 위치정보에 대한 학습 정보로부터 검출할 수 있다.11 (c), the face pose
수학식 13에서 dxr은 두 눈 영역 사이의 중심점을 기준으로 코 끝의 위치에 대한 미분값을 의미하고, dyy는 두 눈 영역과 코 끝의 위치의 수직 거리의 미분값을 의미한다.It means a differential value of the position of the nose end relative to the center point between eyes region is r dx in equation (13), and dy y means a differential value of the vertical distance between the position of the eyes and nose area.
한편, 안구 중심 검출부(250)는 고해상도의 확대된 얼굴 영역의 영상으로부터 안구 중심을 검출할 수 있다. 이를 위해, 안구 중심 검출부(250)는 먼저 고해상도의 확대된 얼굴 영역의 영상에 포함되는 눈 영역에서 눈 코너점을 검출한 뒤, 눈 코너점과 얼굴 포즈 검출부(240)에서 산출한 얼굴 포즈의 각도를 이용하여 최종적으로 안구 중심을 검출할 수 있다.On the other hand, the eyeball center detecting unit 250 can detect the center of the eye from the image of the enlarged face region of high resolution. To this end, the eyeball center detecting unit 250 first detects an eye corner point in the eye region included in the image of the enlarged face region of high resolution, and then calculates the angle of the face pose calculated by the eye corner point and the face pose detecting
구체적으로는, 도 12를 참조하면, 안구 중심 검출부(250)는 먼저 고해상도의 확대된 얼굴 영역의 영상에 포함되는 눈 영역에 로버츠 에지 검출기를 적용하여 눈꺼풀을 검출할 수 있다. 여기서, 로버츠 에지 검출기는 계산 속도가 빠른 반면 잡음에 민감하므로, 안구 중심 검출부(250)는 눈 영역의 영상에 가우시안 커널을 적용하여 잡음을 제거한 뒤 로버츠 에지 검출기를 적용하면 도 12의 (c)와 같이 눈꺼풀의 에지를 검출할 수 있다. 그리고, 안구 중심 검출부(250)는 눈꺼풀의 에지가 검출된 영상에 레이블링을 적용하고, 크기가 작은 블록을 제거하여 도 12의 (d)와 같은 영상을 획득할 수 있으며, 레이블링 된 블록들 중에서 눈꺼풀로 추정되는 가로 길이가 가장 긴 블록의 양 끝 점을 도 12의 (e)와 같이 눈 코너점으로 검출할 수 있다.Specifically, referring to FIG. 12, the eyeball center detecting unit 250 may detect an eyelid by applying a Roberts edge detector to an eye region included in an image of a high-resolution enlarged face region. Here, since the Roberts edge detector has a high calculation speed and is sensitive to noise, the eye center detector 250 applies a Gaussian kernel to the image of the eye region, removes noise, and then applies a Roberts edge detector, Similarly, the edge of the eyelid can be detected. In addition, the eyeball center detecting unit 250 may apply the labeling to the image in which the edge of the eyelid is detected and remove the small-sized block to obtain an image as shown in FIG. 12 (d). Among the labeled blocks, The end points of the block having the longest horizontal length estimated as the eye corner point can be detected as shown in (e) of FIG.
이후, 안구 중심 검출부(250)는 검출한 눈 코너점과 얼굴 포즈 각도에 따른 안구 중심을 검출할 수 있다. Then, the eye center detecting unit 250 can detect the center of the eye according to the detected eye corner point and the face pose angle.
구체적으로는, 도 13을 참조하면, E1 및 E2는 각각 눈 코너점을 나타내고, M은 E1 및 E2의 중심점, P는 동공 중심을 나타낸다. 이때, 일반적으로 성인의 안구 크기는 직경 24mm 정도로 거의 구형을 이루고 있다. 따라서, 안구 중심 검출부(250)는 아래의 수학식 14와 같이 얼굴 포즈의 각도를 이용하여 안구 중심을 나타내는 3차원 좌표를 검출할 수 있다.Specifically, referring to Fig. 13, E1 and E2 denote eye corner points, M denotes a center point of E1 and E2, and P denotes a pupil center. At this time, the adult eyeball size is generally spherical with a diameter of about 24 mm. Accordingly, the eyeball center detecting unit 250 can detect the three-dimensional coordinates indicating the center of the eye using the angle of the face pose as shown in Equation (14) below.
수학식 14에서 x’,y’,z’는 안구 중심을 나타내는 눈의 3차원 좌표를 의미하고, tx,ty,tz는 눈 코너점의 중심점(M)에서 안구 중심(O)으로의 이동 행렬, x,y,z는 눈 코너의 중심점(M), α,β,γ는 각각 롤(Roll), 요(Yaw), 피치(Pitch) 각도를 의미한다.In
한편, 시선 방향 검출부(260)는 상술한 동공 중심 검출부(230)에 의해 검출된 동공 중심과, 안구 중심 검출부(250)에 의해 검출된 안구 중심으로부터 시선 방향을 검출할 수 있다.On the other hand, the gaze direction detecting unit 260 can detect the gaze direction from the center of the pupil detected by the pupil
구체적으로는, 시선 방향 검출부(260)는 도 14와 같이 동공 중심 검출부(230)에 의해 검출된 동공 중심과, 안구 중심 검출부(250)에 의해 검출된 안구 중심이 적용된 눈의 기하학적 모델로부터 시선 방향을 검출할 수 있다. 즉, 시선 방향 검출부(260)는 안구 중심(O)과 동공 중심(p)을 지나는 선을 시선 방향 벡터(gaze direction)로 검출할 수 있다.Specifically, the gaze direction detecting unit 260 detects the gaze direction from the geometric model of the eye, to which the center of the pupil detected by the pupil
또한, 시선 방향 검출부(260)는 후술하는 출력부(300)에 복수의 캘리브레이션 포인트를 설정하고, 시선 방향 벡터에 대응하는 위치에 점을 출력한 뒤 복수의 캘리브레이션 포인트와 비교하는 방식으로 사람의 시선 방향에 대한 캘리브레이션을 수행할 수 있다.The gaze direction detecting unit 260 sets a plurality of calibration points in an
구체적으로는, 촬영부(100)에서 획득하는 주변 영상에 나타나는 사람은 특정 컨텐츠를 응시하는 상태일 수 있다. 여기서, 특정 컨텐츠는, 출력부(300)에서 출력되는 컨텐츠일 수 있으며, 또는, 출력부(300)와는 별도의 출력 모듈을 통해 출력되는 컨텐츠일 수 있다. Specifically, a person appearing in the peripheral image acquired by the photographing
예를 들어, 도 15를 참조하면, 시선 방향 검출부(260)는 출력부(300)에 일정한 간격에 따른 복수의 캘리브레이션 포인트를 설정할 수 있다. 도 15의 (a)에서는, 15개의 캘리브레이션 포인트가 설정된 것을 예로 들어 도시하였다. 시선 방향 검출부(260)는 도 15의 (b)와 같이 출력부(300)에 시선 방향 벡터에 대응하는 점을 출력할 수 있도록 아래의 수학식 15 또는 16을 이용하여 교정 계수를 산출할 수 있다. 도 15의 (b)의 경우, 촬영부(100)에서 획득하는 주변 영상에 나타나는 사람의 시선이 출력부(300) 또는 별도의 출력 모듈을 통해 출력되는 컨텐츠의 4개의 모서리 부분(캘리브레이션 포인트 : 1,5,11,15)과 중심 부분(캘리브레이션 포인트 : 8)에 일정 시간 동안 머무른 것으로 확인할 수 있다.For example, referring to FIG. 15, the gaze direction detecting unit 260 may set a plurality of calibration points in the
수학식 15 및 16에서, Xscreen 및 Yscreen은 출력부(300) 상의 x,y 좌표를 의미하고, N은 캘리브레이션 포인트 개수를 의미하며, X 및 Y는 시선 방향 벡터, αi 및 βi 는 계수를 의미한다.In equation 15 and 16, X screen and Y screen refers to the x, y coordinates on the
다시, 도 1을 참조하면, 출력부(300)는 제어부(200)의 제어에 의해 일정한 간격에 따른 복수의 캘리브레이션 포인트가 설정되고, 사람의 시선 방향 벡터에 대응하는 점을 출력할 수 있다. 이때, 출력부(300)는 상술한 바와 같이 특정 컨텐츠를 출력하거나, 출력부(300)에서 특정 컨텐츠를 출력하지 않고, 별도의 출력 모듈을 통해 특정 컨텐츠가 출력되는 경우에도, 출력부(300)는 별도의 출력 모듈을 응시하는 사람의 시선 방향 벡터에 대응하는 점을 출력할 수 있다. 이러한, 출력부(300)는 LCD(Liquid Crystal Display), 유기 발광 디스플레이 패널(OLED), 전기 영동 디스플레이 패널(EDD) 또는 터치스크린 등 다양한 형태의 디스플레이 수단으로 구현될 수 있다.Referring again to FIG. 1, a plurality of calibration points according to a predetermined interval are set by an
또한, 메모리부(400)는 시선 추적 장치(1)의 처리 및 제어를 위한 프로그램이 저장될 수 있으며, 입/출력되는 데이터들의 임시 저장을 위한 기능을 수행할 수 있다. 특히, 메모리부(400)는 상술한 바와 같이, 얼굴 영역, 눈 영역 및 코 영역 검출 분류기의 생성을 위한 학습영상이 저장될 수 있으며, 제어부(200)에 의해 얼굴 영역, 눈 영역 및 코 영역이 검출될 때마다 검출한 얼굴 영역, 눈 영역 및 코 영역에 대한 영상을 학습영상으로 업데이트 하여 저장할 수 있다. In addition, the
또한, 메모리부(400)는 촬영부(100)의 줌(Zoom) 위치에 따른 화각 정보를 저장할 수 있다.In addition, the
이하에서는, 도 16을 참조하여 본 발명의 일 실시예에 따른 시선 추적 방법을 설명하기로 한다.Hereinafter, a gaze tracking method according to an embodiment of the present invention will be described with reference to FIG.
도 16은 본 발명의 일 실시예에 따른 시선 추적 방법을 설명하기 위한 순서도이다.16 is a flowchart for explaining a line-of-sight tracking method according to an embodiment of the present invention.
본 발명의 일 실시예에 따른 시선 추적 방법은, 도 1에 도시된 시선 추적 장치(1)와 실질적으로 동일한 구성에서 진행될 수 있다. 따라서, 도 1의 시선 추적 장치(1)와 동일한 구성요소는 동일한 도면부호를 부여하고, 반복되는 설명은 생략한다.The gaze tracking method according to an embodiment of the present invention can be performed in substantially the same configuration as the
도 16을 참조하면, 광각 모드의 촬영부(100)로부터 주변 영상을 획득할 수 있다(500). 촬영부(100)는 제어부(200)의 제어에 따라 광각 모드로 설정되어, 넓은 시야의 주변 영상을 획득할 수 있다.Referring to FIG. 16, a surrounding image can be acquired from the photographing
또한, 획득한 영상에서 사람의 얼굴 영역, 눈 영역 및 코 영역을 검출할 수 있다(510). 제어부(200)는 촬영부(100)에서 획득한 영상에 얼굴 영역, 눈 영역 및 코 영역 분류기를 적용할 수 있으며, 따라서, 촬영부(100)에서 획득하는 영상에 사람이 나타난 경우, 제어부(200)는 얼굴 영역, 눈 영역 및 코 영역을 검출할 수 있다.In addition, a face region, an eye region, and a nose region of a person can be detected from the acquired image (510). The
또한, 검출한 얼굴 영역이 촬영부(100)에서 획득하는 영상의 중심에 위치할 수 있도록, 촬영부(100)를 팬(Pan) 또는 틸트(Tilt) 제어할 수 있다(520). 이를 위해, 제어부(200)는 촬영부(100)와 검출한 사람의 얼굴 영역 사이의 거리를 산출하고, 이를 이용하여, 촬영부(100)의 팬(Pan) 또는 틸트(Tilt) 각도를 산출하여, 검출한 얼굴 영역이 촬영부(100)에서 획득하는 영상의 중심에 위치할 수 있도록, 촬영부(100)를 팬(Pan) 또는 틸트(Tilt) 제어할 수 있다.In addition, the photographing
또한, 촬영부(100)의 촬영모드를 협각 모드로 전환하여 고해상도의 확대된 얼굴 영역의 영상을 획득할 수 있다(530). 제어부(200)는 촬영부(100)와 검출한 사람의 얼굴 영역 사이의 거리를 이용하여 촬영부(100)의 줌(Zoom) 배수를 산출하고, 줌(Zoom) 배수에 따라 촬영부(100)를 제어함으로써 보다 고해상도의 확대된 얼굴 영역의 영상을 획득할 수 있다.In addition, the image of the enlarged face region of high resolution can be acquired by switching the photographing mode of the photographing
이후, 고해상도의 확대된 얼굴 영역의 영상으로부터 홍채 영역을 검출하고, 홍채 영역 안에서 동공 중심을 검출할 수 있다(540). 제어부(200)는 고해상도의 확대된 얼굴 영역의 영상에 포함되는 눈 영역에 가변 템플릿을 매칭하여 홍채 영역을 검출할 수 있다. 그리고, 제어부(200)는 검출한 홍채 영역 안에서 K-평균 알고리즘을 적용하여 홍채 영역과 동공 영역을 분리한 뒤, 동공영역의 무게중심을 동공 중심으로 검출할 수 있다.Thereafter, the iris region is detected from the image of the enlarged face region of high resolution, and the center of the pupil is detected in the iris region (540). The
또한, 고해상도의 확대된 얼굴 영역의 영상으로부터 얼굴 포즈를 검출할 수 있다(550). 제어부(200)는 고해상도의 확대된 얼굴 영역의 영상에서의 눈 영역 및 코 영역의 위치 정보로부터 피치(Pitch), 롤(Roll), 요(Yaw)의 얼굴 포즈의 각도를 산출할 수 있다.Further, a face pose can be detected from an image of a high-resolution enlarged face region (550). The
또한, 고해상도의 확대된 얼굴 영역의 영상으로부터 눈 코너점을 검출하고, 눈 코너점과 얼굴 포즈의 각도에 따른 안구 중심을 검출할 수 있다(560). 제어부(200)는 고해상도의 확대된 얼굴 영역의 영상에 포함되는 눈 영역에 로버트 에지 검출기를 적용하고 레이블링을 수행하여 눈 코너점을 검출할 수 있으며, 눈 코너점과 얼굴 포즈의 각도를 상술한 수학식 15에 적용하여 안구 중심을 검출할 수 있다.In addition, an eye corner point can be detected from an image of a high-resolution enlarged face region, and an eye center according to an angle of an eye corner point and a face pose can be detected (560). The
또한, 동공 중심과 안구 중심을 연결하여 시선 방향을 검출할 있다(570). 제어부(200)는 검출한 동공 중심과 안구 중심이 적용된 눈의 기하학적 모델을 생성하고, 안구 중심과 동공 중심을 지나는 선을 시선 방향으로 검출할 수 있다. In addition, the eye direction can be detected by connecting the pupil center and the eyeball center (570). The
마지막으로, 시선 방향에 대한 캘리브레이션을 수행할 수 있다(580). 제어부(200)는, 출력부(300)에 복수의 캘리브레이션 포인트를 설정하고, 사람의 시선 방향에 대응하는 지점과 복수의 캘리브레이션 포인트를 비교하는 방식으로 상기 사람의 시선 방향에 대한 캘리브레이션을 수행할 수 있다.Finally, a calibration for the viewing direction may be performed (580). The
이와 같은, 시선 추적 방법은 애플리케이션으로 구현되거나 다양한 컴퓨터 구성요소를 통하여 수행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다.Such a gaze tracking method may be implemented in an application or may be implemented in the form of program instructions that can be executed through various computer components and recorded in a computer-readable recording medium. The computer-readable recording medium may include program commands, data files, data structures, and the like, alone or in combination.
상기 컴퓨터 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것들이거니와 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수도 있다.The program instructions recorded on the computer-readable recording medium may be ones that are specially designed and configured for the present invention and are known and available to those skilled in the art of computer software.
컴퓨터 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD 와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 ROM, RAM, 플래시 메모리 등과 같은 프로그램 명령어를 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다.Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tape, optical recording media such as CD-ROMs and DVDs, magneto-optical media such as floptical disks, media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like.
프로그램 명령어의 예에는, 컴파일러에 의해 만들어지는 것과 같은 기계어 코드 뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 상기 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.Examples of program instructions include machine language code such as those generated by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware device may be configured to operate as one or more software modules for performing the processing according to the present invention, and vice versa.
이상에서는 실시예들을 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it will be understood by those skilled in the art that various changes and modifications may be made therein without departing from the spirit and scope of the invention as defined in the appended claims. It will be possible.
1: 시선 추적 장치
100: 촬영부
200: 제어부
300: 출력부
400: 메모리부 1: eye tracking device
100:
200:
300:
400:
Claims (12)
상기 촬영부에서 획득하는 주변 영상과 미리 저장된 얼굴 영역, 눈 영역 및 코 영역에 대한 학습 영상을 비교하여 상기 주변 영상에 나타나는 사람의 얼굴 영역, 눈 영역 및 코 영역을 검출하고, 상기 눈 영역으로부터 홍채 영역을 검출하고 상기 홍채 영역에서 동공 영역을 분리하여 그 중심을 검출하며, 상기 얼굴 영역에서의 상기 눈 영역 및 상기 코 영역의 위치 정보로부터 상기 사람의 얼굴 포즈의 각도를 산출하여 상기 사람의 얼굴 포즈의 각도에 따른 안구 중심을 검출하고, 상기 동공 영역의 중심과 상기 안구 중심을 연결하여 상기 사람의 시선 방향을 검출하는 제어부를 포함하되,
상기 제어부에 의해 복수의 캘리브레이션 포인트가 설정되고, 상기 제어부의 제어에 따라 상기 사람의 시선 방향에 대응하는 지점에 점을 출력하는 출력부를 더 포함하고,
상기 제어부는,
상기 출력부에서 상기 사람의 시선 방향에 대응하는 지점에 점을 출력하는 과정을 반복 수행하고, 상기 출력부에 출력되는 점과 상기 복수의 캘리브레이션 포인트를 비교하는 방식으로 상기 사람의 시선 방향에 대한 캘리브레이션을 수행하는 시선 추적 장치.A photographing unit for acquiring a surrounding image in one of a wide angle mode and a narrow angle mode; And
Eye region and a nose region are compared with a learning image of a face region, a snow region, and a nose region stored in advance in the peripheral region, and a face region, an eye region, and a nose region appearing in the peripheral image are detected, Detecting the center of the pupil region in the iris region, calculating the angle of the face pose of the person from the position information of the eye region and the nose region in the face region, And a control unit for detecting a gaze direction of the person by connecting the center of the pupil region and the center of the eyeball,
Further comprising an output unit for setting a plurality of calibration points by the control unit and outputting a point at a point corresponding to the gaze direction of the person under the control of the control unit,
Wherein,
A step of outputting a point at a point corresponding to a direction of the human eye in the output unit is repeatedly performed and a calibration for the gaze direction of the person is performed by a method of comparing points output from the output unit and the plurality of calibration points Of the subject.
상기 제어부는,
미리 저장된 학습영상으로부터 MCT 및 아다부스트(Adaboost) 기법을 이용하여 상기 얼굴 영역, 눈 영역 및 코 영역 분류기를 생성하고, 상기 촬영부에서 획득하는 주변 영상에 상기 얼굴 영역, 눈 영역 및 코 영역 분류기를 적용하여 상기 주변 영상에 나타나는 사람의 얼굴 영역, 눈 영역 및 코 영역을 검출하는 얼굴 요소 검출부를 포함하는 시선 추적 장치.The method according to claim 1,
Wherein,
Eye region and a nose region classifier using MCT and Adaboost techniques from a pre-stored learning image, and generates the face region, eye region, and nose region classifier on a peripheral image acquired by the photographing unit Eye region and a nose region of a person appearing in the peripheral image by applying the face region detecting unit to the face region detecting unit.
상기 제어부는,
상기 촬영부의 촬영 모드를 광각 모드로 제어하여 상기 주변 영상을 획득하고, 상기 광각 모드에서 촬영되는 주변 영상에 나타나는 사람의 얼굴 영역, 눈 영역 및 코 영역을 검출하면, 상기 광각 모드에서 촬영되는 영상의 중심에서 상기 얼굴 영역이 검출될 수 있도록 상기 촬영부를 팬(Pan) 또는 틸트(Tilt) 제어하고, 상기 얼굴 영역의 영상을 확대하여 획득할 수 있도록 상기 촬영부의 촬영 모드를 협각 모드로 전환하는 촬영 제어부를 포함하는 시선 추적 장치.The method according to claim 1,
Wherein,
When a face region, an eye region, and a nose region of a person appearing in a peripheral image photographed in the wide angle mode are detected by controlling the photographing mode of the photographing unit to be a wide angle mode, A photographing control unit for controlling the photographing unit to pan or tilt so that the face region can be detected from the center and for switching the photographing mode of the photographing unit to a narrow- Wherein the gaze tracking device comprises:
상기 제어부는,
상기 눈 영역의 영상에 가변 템플릿을 매칭하여 홍채 영역을 검출하고, K-평균 알고리즘을 적용하여 상기 홍채 영역에서 상기 동공 영역을 분리하며, 상기 동공 영역의 무게중심을 상기 동공 영역의 중심으로 검출하는 동공 중심 검출부를 포함하는 시선 추적 장치.The method according to claim 1,
Wherein,
Detecting an iris region by matching a variable template to an image of the eye region, separating the pupil region from the iris region by applying a K-means algorithm, and detecting a center of gravity of the pupil region as a center of the pupil region And a pupil center detecting unit.
상기 제어부는,
상기 눈 영역 및 상기 코 영역의 위치 정보를 이용하여 피치(Pitch), 롤(Roll), 요(Yaw)의 상기 사람의 얼굴 포즈의 각도를 산출하는 얼굴 포즈 검출부; 및
상기 눈 영역의 영상에 로버트 에지 검출기를 적용하고, 레이블링을 수행하여 눈 코너점을 검출하며, 상기 눈 코너점 및 상기 사람의 얼굴 포즈의 각도를 이용하여 상기 안구 중심을 검출하는 안구 중심 검출부를 더 포함하는 시선 추적 장치.6. The method of claim 5,
Wherein,
A facial pose detecting unit for calculating an angle of the facial pose of the person in a pitch, a roll, and a yaw using the position information of the eye region and the nose region; And
An eye center detecting unit for detecting the eye center by detecting the eye corner point by applying a Robert edge detector to the image of the eye region, performing labeling, and using the angle of the eye corner point and the face pose of the person Includes an eye tracking device.
상기 눈 영역으로부터 홍채 영역을 검출하고, 상기 홍채 영역에서 동공 영역을 분리하여 그 중심을 검출하며,
상기 얼굴 영역에서의 상기 눈 영역 및 상기 코 영역의 위치 정보로부터 상기 사람의 얼굴 포즈의 각도를 산출하여 상기 사람의 얼굴 포즈의 각도에 따른 안구 중심을 검출하고,
상기 동공 영역의 중심과 상기 안구 중심을 연결하여 상기 사람의 시선 방향을 검출하되,
복수의 캘리브레이션 포인트를 설정하고,
상기 사람의 시선 방향에 대응하는 지점과 상기 복수의 캘리브레이션 포인트를 비교하는 방식으로 상기 사람의 시선 방향에 대한 캘리브레이션을 수행하는 것을 더 포함하는 시선 추적 방법.Eye area and a nose area of a person appearing in the surrounding image by comparing with a learning image of a previously stored face area,
Detecting an iris region from the eye region, separating the pupil region from the iris region,
Calculating an angle of the face pose of the person from the position information of the eye region and the nose region in the face region to detect an eyeball center according to an angle of the face pose of the person,
Detecting the gaze direction of the person by connecting the center of the pupil region and the center of the eyeball,
A plurality of calibration points are set,
And performing a calibration for the gaze direction of the person by comparing the plurality of calibration points with a point corresponding to the gaze direction of the person.
상기 주변 영상에 나타나는 사람의 얼굴 영역, 눈 영역 및 코 영역을 검출하는 것은,
미리 저장된 학습영상으로부터 MCT 및 아다부스트(Adaboost) 기법을 이용하여 얼굴 영역, 눈 영역 및 코 영역 분류기를 생성하고, 상기 주변 영상에 상기 얼굴 영역, 눈 영역 및 코 영역 분류기를 적용하여 상기 주변 영상에 나타나는 사람의 얼굴 영역, 눈 영역 및 코 영역을 검출하는 것인 시선 추적 방법.8. The method of claim 7,
The detection of the face region, the eye region and the nose region of the person appearing in the peripheral image,
Eye region and a nose region classifier using MCT and Adaboost technique from pre-stored learning images, applying the face region, eye region, and nose region classifier to the peripheral image, Eye region and a nose region of a person appearing.
상기 눈 영역으로부터 홍채 영역을 검출하고, 상기 홍채 영역에서 동공 영역을 분리하여 그 중심을 검출하는 것은,
상기 눈 영역의 영상에 가변 템플릿을 매칭하여 홍채 영역을 검출하고, K-평균 알고리즘을 적용하여 상기 홍채 영역에서 상기 동공 영역을 분리하며, 상기 동공 영역의 무게중심을 상기 동공 중심으로 검출하는 것인 시선 추적 방법.8. The method of claim 7,
Detecting the iris region from the eye region, separating the pupil region from the iris region, and detecting the center thereof,
Detecting an iris region by matching a variable template to an image of the eye region, separating the pupil region from the iris region by applying a K-means algorithm, and detecting the center of gravity of the pupil region as the pupil center Eye tracking method.
상기 얼굴 영역에서의 상기 눈 영역 및 상기 코 영역의 위치 정보로부터 상기 사람의 얼굴 포즈의 각도를 산출하여 상기 사람의 얼굴 포즈의 각도에 따른 안구 중심을 검출하는 것은,
상기 눈 영역 및 상기 코 영역의 위치 정보를 이용하여 피치(Pitch), 롤(Roll), 요(Yaw)의 상기 사람의 얼굴 포즈의 각도를 산출하고,
상기 눈 영역의 영상에 로버트 에지 검출기를 적용하고, 레이블링을 수행하여 눈 코너점을 검출하며, 상기 눈 코너점 및 상기 사람의 얼굴 포즈의 각도를 이용하여 상기 안구 중심을 검출하는 것인 시선 추적 방법.11. The method of claim 10,
Calculating an angle of the face pose of the person from the position information of the eye region and the nose region in the face region and detecting an eyeball center according to an angle of the face pose of the person,
Calculating an angle of a person's face pose of pitch, roll, and yaw using the position information of the eye region and the nose region,
Wherein a gaze point is detected by applying a Robert edge detector to the image of the eye region, performing labeling to detect an eye corner point, and detecting the center of the eye using an angle of the eye corner point and a face pose of the person .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160009822A KR101706992B1 (en) | 2016-01-27 | 2016-01-27 | Apparatus and method for tracking gaze, recording medium for performing the method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160009822A KR101706992B1 (en) | 2016-01-27 | 2016-01-27 | Apparatus and method for tracking gaze, recording medium for performing the method |
Publications (1)
Publication Number | Publication Date |
---|---|
KR101706992B1 true KR101706992B1 (en) | 2017-02-15 |
Family
ID=58112008
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020160009822A KR101706992B1 (en) | 2016-01-27 | 2016-01-27 | Apparatus and method for tracking gaze, recording medium for performing the method |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101706992B1 (en) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101903127B1 (en) * | 2017-05-12 | 2018-10-01 | 이래에이엠에스 주식회사 | Gaze estimation method and apparatus |
CN109464236A (en) * | 2017-09-08 | 2019-03-15 | 拉碧斯半导体株式会社 | Goggle type display device, method for detecting sight line and Line-of-sight detection systems |
KR20190056642A (en) | 2017-11-17 | 2019-05-27 | 포인드 주식회사 | Eye Tracking Method Using Movement of Pupil and Gap between Eyes and Edge of Face |
KR20190143525A (en) * | 2018-06-08 | 2019-12-31 | 안양대학교 산학협력단 | A Method of Detecting Character Data through a Adaboost Learning Method |
CN111144215A (en) * | 2019-11-27 | 2020-05-12 | 北京迈格威科技有限公司 | Image processing method, image processing device, electronic equipment and storage medium |
CN112419399A (en) * | 2019-08-23 | 2021-02-26 | 北京七鑫易维信息技术有限公司 | Image ranging method, device, equipment and storage medium |
CN112541400A (en) * | 2020-11-20 | 2021-03-23 | 小米科技(武汉)有限公司 | Behavior recognition method and device based on sight estimation, electronic equipment and storage medium |
US11113842B2 (en) | 2018-12-24 | 2021-09-07 | Samsung Electronics Co., Ltd. | Method and apparatus with gaze estimation |
KR20210117798A (en) * | 2020-03-20 | 2021-09-29 | 한국전자통신연구원 | Method and apparatus of active identity verification based on gaze path analysis |
KR20220139592A (en) * | 2021-04-08 | 2022-10-17 | 주식회사 이모코그 | Apparatus and method for gaze tracking based on machine learning |
KR20230052648A (en) * | 2021-10-13 | 2023-04-20 | 상명대학교산학협력단 | method for detection pupil by using a visual-light camera and system using the method |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20110076723A (en) * | 2009-12-29 | 2011-07-06 | 한국전자통신연구원 | Apparatus and method for tracking eye |
KR101533686B1 (en) * | 2014-06-30 | 2015-07-09 | 숭실대학교산학협력단 | Apparatus and method for tracking gaze, recording medium for performing the method |
-
2016
- 2016-01-27 KR KR1020160009822A patent/KR101706992B1/en active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20110076723A (en) * | 2009-12-29 | 2011-07-06 | 한국전자통신연구원 | Apparatus and method for tracking eye |
KR101533686B1 (en) * | 2014-06-30 | 2015-07-09 | 숭실대학교산학협력단 | Apparatus and method for tracking gaze, recording medium for performing the method |
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101903127B1 (en) * | 2017-05-12 | 2018-10-01 | 이래에이엠에스 주식회사 | Gaze estimation method and apparatus |
CN109464236B (en) * | 2017-09-08 | 2022-08-02 | 拉碧斯半导体株式会社 | Goggle type display device, sight line detection method and sight line detection system |
CN109464236A (en) * | 2017-09-08 | 2019-03-15 | 拉碧斯半导体株式会社 | Goggle type display device, method for detecting sight line and Line-of-sight detection systems |
KR20190056642A (en) | 2017-11-17 | 2019-05-27 | 포인드 주식회사 | Eye Tracking Method Using Movement of Pupil and Gap between Eyes and Edge of Face |
KR20190143525A (en) * | 2018-06-08 | 2019-12-31 | 안양대학교 산학협력단 | A Method of Detecting Character Data through a Adaboost Learning Method |
KR102139932B1 (en) * | 2018-06-08 | 2020-08-03 | 안양대학교 산학협력단 | A Method of Detecting Character Data through a Adaboost Learning Method |
US11747898B2 (en) | 2018-12-24 | 2023-09-05 | Samsung Electronics Co., Ltd. | Method and apparatus with gaze estimation |
US11113842B2 (en) | 2018-12-24 | 2021-09-07 | Samsung Electronics Co., Ltd. | Method and apparatus with gaze estimation |
CN112419399A (en) * | 2019-08-23 | 2021-02-26 | 北京七鑫易维信息技术有限公司 | Image ranging method, device, equipment and storage medium |
CN111144215A (en) * | 2019-11-27 | 2020-05-12 | 北京迈格威科技有限公司 | Image processing method, image processing device, electronic equipment and storage medium |
CN111144215B (en) * | 2019-11-27 | 2023-11-24 | 北京迈格威科技有限公司 | Image processing method, device, electronic equipment and storage medium |
KR20210117798A (en) * | 2020-03-20 | 2021-09-29 | 한국전자통신연구원 | Method and apparatus of active identity verification based on gaze path analysis |
KR102534582B1 (en) * | 2020-03-20 | 2023-05-22 | 한국전자통신연구원 | Method and apparatus of active identity verification based on gaze path analysis |
US11709919B2 (en) | 2020-03-20 | 2023-07-25 | Electronics And Telecommunications Research Institute | Method and apparatus of active identity verification based on gaze path analysis |
CN112541400A (en) * | 2020-11-20 | 2021-03-23 | 小米科技(武汉)有限公司 | Behavior recognition method and device based on sight estimation, electronic equipment and storage medium |
KR20220139592A (en) * | 2021-04-08 | 2022-10-17 | 주식회사 이모코그 | Apparatus and method for gaze tracking based on machine learning |
KR102587813B1 (en) * | 2021-04-08 | 2023-10-12 | 주식회사 이모코그 | Apparatus and method for gaze tracking based on machine learning |
KR20230052648A (en) * | 2021-10-13 | 2023-04-20 | 상명대학교산학협력단 | method for detection pupil by using a visual-light camera and system using the method |
KR102583280B1 (en) | 2021-10-13 | 2023-09-26 | 상명대학교산학협력단 | method for detection pupil by using a visual-light camera and system using the method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101706992B1 (en) | Apparatus and method for tracking gaze, recording medium for performing the method | |
KR101533686B1 (en) | Apparatus and method for tracking gaze, recording medium for performing the method | |
US10684681B2 (en) | Neural network image processing apparatus | |
CN107209849B (en) | Eye tracking | |
US11715231B2 (en) | Head pose estimation from local eye region | |
US9733703B2 (en) | System and method for on-axis eye gaze tracking | |
Mehrubeoglu et al. | Real-time eye tracking using a smart camera | |
Rakhmatulin et al. | Deep neural networks for low-cost eye tracking | |
US10254831B2 (en) | System and method for detecting a gaze of a viewer | |
CN110703904A (en) | Augmented virtual reality projection method and system based on sight tracking | |
CN112183200B (en) | Eye movement tracking method and system based on video image | |
US20220206571A1 (en) | Personalized calibration-independent regional fixation prediction for simultaneous users of a digital display | |
KR101914190B1 (en) | Device and method for driver's gaze detection | |
WO2019006985A1 (en) | Virtual image display apparatus, vehicle comprising head-up display apparatus comprising virtual image display apparatus, and method for virtual image display | |
US20190378290A1 (en) | Information processing apparatus and non-transitory computer readable medium storing information processing program | |
Sidenko et al. | Eye-tracking technology for the analysis of dynamic data | |
Cao et al. | Gaze tracking on any surface with your phone | |
US20220028109A1 (en) | Image processing method and apparatus | |
JP6463712B2 (en) | Target search device, target search method, and target search program | |
Khan et al. | A new 3D eyeball tracking system to enhance the usability of page scrolling | |
TWI718410B (en) | Method and apparatus for pre-load display of object information | |
Shahid et al. | Eye-gaze and augmented reality framework for driver assistance | |
KR102305880B1 (en) | User's Gaze Tracking Method, and Medium Being Recorded with Program for Executing the Method | |
Parte et al. | A survey on eye tracking and detection | |
Sun et al. | An auxiliary gaze point estimation method based on facial normal |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20200203 Year of fee payment: 4 |