KR101706992B1 - Apparatus and method for tracking gaze, recording medium for performing the method - Google Patents

Apparatus and method for tracking gaze, recording medium for performing the method Download PDF

Info

Publication number
KR101706992B1
KR101706992B1 KR1020160009822A KR20160009822A KR101706992B1 KR 101706992 B1 KR101706992 B1 KR 101706992B1 KR 1020160009822 A KR1020160009822 A KR 1020160009822A KR 20160009822 A KR20160009822 A KR 20160009822A KR 101706992 B1 KR101706992 B1 KR 101706992B1
Authority
KR
South Korea
Prior art keywords
region
eye
center
face
detecting
Prior art date
Application number
KR1020160009822A
Other languages
Korean (ko)
Inventor
김계영
이희섭
이경주
Original Assignee
숭실대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 숭실대학교산학협력단 filed Critical 숭실대학교산학협력단
Priority to KR1020160009822A priority Critical patent/KR101706992B1/en
Application granted granted Critical
Publication of KR101706992B1 publication Critical patent/KR101706992B1/en

Links

Images

Classifications

    • G06K9/00604
    • G06K9/00281
    • G06K9/00288
    • G06K9/00617
    • H04N5/23219

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

Disclosed is a gaze tracking apparatus including: an imaging unit acquiring a surrounding image in either a wide angle mode or a narrow angle mode, each of the wide angle mode and the narrow angle mode being an imaging mode; and a control unit detecting a face region, an eye region, and a nose region of a person shown in the surrounding image by comparing the surrounding image acquired by the imaging unit to a learning image with respect to the face region, the eye region, and the nose region stored in advance, detecting the center of a pupil region by detecting an iris region from the eye region and separating the pupil region from the iris region, detecting an ocular center depending on the angle of the persons facial pose by calculating the angle of the persons facial pose from position information related to the eye region and the nose region in the face region, and detecting the direction of the persons gaze by connecting the center of the pupil region to the ocular center.

Description

시선 추적 장치 및 방법, 이를 수행하기 위한 기록매체{APPARATUS AND METHOD FOR TRACKING GAZE, RECORDING MEDIUM FOR PERFORMING THE METHOD}BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a gaze tracking apparatus and method,

본 발명은 시선 추적 장치 및 방법, 이를 수행하기 위한 기록매체에 관한 발명으로서, 보다 상세하게는 PTZ 카메라를 통해 획득한 영상으로부터 사람의 시선을 추적하는 시선 추적 장치 및 방법, 이를 수행하기 위한 기록매체에 관한 것이다.The present invention relates to a gaze tracking apparatus and method, and a recording medium for performing the same, and more particularly, to a gaze tracking apparatus and method for tracking a gaze of a person from an image acquired through a PTZ camera, .

스마트 기기의 사용이 활성화됨에 따라 제스처인식, 음성인식, 시선인식 등의 비접촉 방식으로 스마트 기기를 제어하는 기술의 개발이 지속적으로 이루어지고 있다. 특히, 시선인식을 통하여 비접촉 방식으로 스마트 기기를 제어하는 기술에 있어서, 사람의 얼굴 영상을 획득하고, 얼굴 영상으로부터 시선을 추적하는 기술이 핵심 기술이라 할 수 있다.As the use of smart devices becomes more active, the development of technologies for controlling smart devices by non-contact methods such as gesture recognition, speech recognition, and gaze recognition has been continuously carried out. Particularly, in the technique of controlling the smart device in a non-contact manner through the visual recognition, a technique of acquiring a face image of a person and tracking a line of sight from a face image is a core technology.

이러한, 시선 추적 기술로는, 일반적으로 광각 카메라와 협각 카메라의 두 개의 카메라 모듈을 이용하며, 광각 카메라로는 사람의 위치를 감지하고, 협각 카메라로 고해상도의 눈 영상을 획득하여 시선 추적을 수행한다. As such eye tracking technology, generally, two camera modules such as a wide-angle camera and a narrow-angle camera are used, a human's position is detected with a wide-angle camera, and a high-resolution eye image is acquired with a narrow- .

그러나, 위와 같은 경우 카메라와 시선 추적 대상의 거리가 멀어질수록 시선 추적을 위한 고해상도의 영상을 획득하기 위해서는 보다 많은 개수의 카메라가 필요하며, 이러한 경우, 복수의 카메라를 동시에 제어하는 데 어려움이 있다. However, in the above case, as the distance between the camera and the line-of-sight tracking object increases, a larger number of cameras are required to obtain a high-resolution image for tracking the line of sight. In such a case, .

또한, 종래에는 고해상도의 눈 영상으로부터 홍채 또는 동공 중심의 움직임을 산출하고 그에 따라 사람의 시선 방향을 예측하였으나, 이러한 시선 추적 방법은 카메라와 시선 추적 대상의 거리가 멀어질수록 홍채 또는 동공 중심을 정확하게 산출하는 데 어려움이 있어 시선 추적 결과의 정확도가 다소 떨어진다는 문제점이 있다.Conventionally, the motion of the iris or the pupil center is calculated from the high-resolution eye image and the direction of the human eye is predicted according to the motion of the iris or the pupil center. However, There is a problem that the accuracy of the eye tracking result is somewhat deteriorated.

본 발명의 일측면은 시선 추적 장치 및 방법, 이를 수행하기 위한 기록매체에 관한 것으로서, 사람의 얼굴 포즈 각도로부터 안구 중심을 검출하고 이를 반영하여 사람의 시선을 추적하는 시선 추적 장치 및 방법, 이를 수행하기 위한 기록매체를 제공한다.One aspect of the present invention relates to a gaze tracking apparatus and method, and a recording medium for performing the gaze tracking apparatus and method, and more particularly, to a gaze tracking apparatus and method for tracking a person's gaze by detecting an ocular center from a person's pose angle A recording medium is provided.

본 발명의 일측면은 시선 추적 장치에 있어서, 광각 모드 또는 협각 모드 중 하나의 촬영 모드로 주변 영상을 획득하는 촬영부 및 상기 촬영부에서 획득하는 주변 영상과 미리 저장된 얼굴 영역, 눈 영역 및 코 영역에 대한 학습 영상을 비교하여 상기 주변 영상에 나타나는 사람의 얼굴 영역, 눈 영역 및 코 영역을 검출하고, 상기 눈 영역으로부터 홍채 영역을 검출하고 상기 홍채 영역에서 동공 영역을 분리하여 그 중심을 검출하며, 상기 얼굴 영역에서의 상기 눈 영역 및 상기 코 영역의 위치 정보로부터 상기 사람의 얼굴 포즈의 각도를 산출하여 상기 사람의 얼굴 포즈의 각도에 따른 안구 중심을 검출하고, 상기 동공 영역의 중심과 상기 안구 중심을 연결하여 상기 사람의 시선 방향을 검출하는 제어부를 포함한다.According to an aspect of the present invention, there is provided a gaze tracking apparatus, comprising: a photographing unit for obtaining a surrounding image in one photographing mode of a wide angle mode or a narrow angle mode; Eye region and a nose region appearing in the peripheral image, detecting an iris region from the eye region, separating the pupil region from the iris region, detecting the center of the pupil region, Calculating an angle of a face pose of the person from the position information of the eye region and the nose region in the face region to detect an eyeball center according to an angle of the face pose of the person, And a control unit for detecting the gaze direction of the person.

한편, 상기 제어부에 의해 복수의 캘리브레이션 포인트가 설정되고, 상기 제어부의 제어에 따라 상기 사람의 시선 방향에 대응하는 지점에 점을 출력하는 출력부를 더 포함하고, 상기 제어부는, 상기 출력부에서 상기 사람의 시선 방향에 대응하는 지점에 점을 출력하는 과정을 반복 수행하고, 상기 출력부에 출력되는 점과 상기 복수의 캘리브레이션 포인트를 비교하는 방식으로 상기 사람의 시선 방향에 대한 캘리브레이션을 수행할 수 있다.The control unit may further include an output unit that sets a plurality of calibration points by the control unit and outputs a point at a point corresponding to the direction of the human eye according to the control of the control unit, And outputting a point to a point corresponding to the line of sight of the user, and performing calibration of the line of sight of the person by comparing the point output to the output unit with the plurality of calibration points.

또한, 상기 제어부는, 미리 저장된 학습영상으로부터 MCT 및 아다부스트(Adaboost) 기법을 이용하여 상기 얼굴 영역, 눈 영역 및 코 영역 분류기를 생성하고, 상기 촬영부에서 획득하는 주변 영상에 상기 얼굴 영역, 눈 영역 및 코 영역 분류기를 적용하여 상기 주변 영상에 나타나는 사람의 얼굴 영역, 눈 영역 및 코 영역을 검출하는 얼굴 요소 검출부를 포함할 수 있다.Also, the controller may generate the face region, the eye region, and the nose region classifier using MCT and Adaboost techniques from a previously stored learning image, and add the face region, eye region, And a face element detecting unit for detecting a face region, an eye region, and a nose region of a person appearing in the peripheral image by applying a region and a nose region classifier.

또한, 상기 제어부는, 상기 촬영부의 촬영 모드를 광각 모드로 제어하여 상기 주변 영상을 획득하고, 상기 광각 모드에서 촬영되는 주변 영상에 나타나는 사람의 얼굴 영역, 눈 영역 및 코 영역을 검출하면, 상기 광각 모드에서 촬영되는 영상의 중심에서 상기 얼굴 영역이 검출될 수 있도록 상기 촬영부를 팬(Pan) 또는 틸트(Tilt) 제어하고, 상기 얼굴 영역의 영상을 확대하여 획득할 수 있도록 상기 촬영부의 촬영 모드를 협각 모드로 전환하는 촬영 제어부를 포함할 수 있다.The control unit may control the photographing mode of the photographing unit to be a wide angle mode to obtain the peripheral image, and when the face region, the eye region, and the nose region of the person appearing in the surrounding image photographed in the wide angle mode are detected, Mode or the tilt control of the photographing unit so that the face region can be detected at the center of the image photographed in the photographing mode, Mode, which is a mode of operation of the camera.

또한, 상기 제어부는, 상기 눈 영역의 영상에 가변 템플릿을 매칭하여 홍채 영역을 검출하고, K-평균 알고리즘을 적용하여 상기 홍채 영역에서 상기 동공 영역을 분리하며, 상기 동공 영역의 무게중심을 상기 동공 영역의 중심으로 검출하는 동공 중심 검출부를 포함할 수 있다.The controller may detect an iris region by matching a variable template to an image of the eye region, apply a K-means algorithm to separate the pupil region from the iris region, And a pupil center detecting unit for detecting the center of the region.

또한, 상기 제어부는, 상기 눈 영역 및 상기 코 영역의 위치 정보를 이용하여 피치(Pitch), 롤(Roll), 요(Yaw)의 상기 사람의 얼굴 포즈의 각도를 산출하는 얼굴 포즈 검출부 및 상기 눈 영역의 영상에 로버트 에지 검출기를 적용하고, 레이블링을 수행하여 눈 코너점을 검출하며, 상기 눈 코너점 및 상기 사람의 얼굴 포즈의 각도를 이용하여 상기 안구 중심을 검출하는 안구 중심 검출부를 더 포함할 수 있다.The controller may further include a face pose detecting unit for calculating an angle of a face pose of the person in a pitch, roll, and yaw using the position information of the eye region and the nose region, Further comprising an eye center detecting unit for detecting the eye center by applying a Robert edge detector to the image of the region, performing labeling to detect an eye corner point, and using the angle of the eye corner point and the face pose of the person .

한편, 본 발명의 다른 측면은 시선 추적 방법에 있어서, 주변 영상을 획득하고 미리 저장된 얼굴 영역, 눈 영역 및 코 영역에 대한 학습 영상과 비교하여 상기 주변 영상에 나타나는 사람의 얼굴 영역, 눈 영역 및 코 영역을 검출하고, 상기 눈 영역으로부터 홍채 영역을 검출하고, 상기 홍채 영역에서 동공 영역을 분리하여 그 중심을 검출하며, 상기 얼굴 영역에서의 상기 눈 영역 및 상기 코 영역의 위치 정보로부터 상기 사람의 얼굴 포즈의 각도를 산출하여 상기 사람의 얼굴 포즈의 각도에 따른 안구 중심을 검출하고, 상기 동공 영역의 중심과 상기 안구 중심을 연결하여 상기 사람의 시선 방향을 검출한다.According to another aspect of the present invention, there is provided a gaze tracking method comprising: acquiring a peripheral image and comparing it with a learning image of a previously stored face area, an eye area, and a nose area, Detecting an iris region from the eye region, separating the pupil region from the iris region and detecting the center thereof, detecting the center of the eye region and the nose region from the position information of the eye region and the nose region in the face region, The center of the eyeball is detected according to the angle of the face pose of the person by calculating the angle of the pose, and the sight line direction of the person is detected by connecting the center of the pupil region and the center of the eyeball.

한편, 복수의 캘리브레이션 포인트를 설정하고, 상기 사람의 시선 방향에 대응하는 지점과 상기 복수의 캘리브레이션 포인트를 비교하는 방식으로 상기 사람의 시선 방향에 대한 캘리브레이션을 수행하는 것을 더 포함할 수 있다.The method may further include setting a plurality of calibration points and performing calibration with respect to the gaze direction of the person by comparing the plurality of calibration points with points corresponding to the gaze direction of the person.

또한, 상기 주변 영상에 나타나는 사람의 얼굴 영역, 눈 영역 및 코 영역을 검출하는 것은, 미리 저장된 학습영상으로부터 MCT 및 아다부스트(Adaboost) 기법을 이용하여 얼굴 영역, 눈 영역 및 코 영역 분류기를 생성하고, 상기 주변 영상에 상기 얼굴 영역, 눈 영역 및 코 영역 분류기를 적용하여 상기 주변 영상에 나타나는 사람의 얼굴 영역, 눈 영역 및 코 영역을 검출하는 것일 수 있다.In order to detect a face region, an eye region, and a nose region of a person appearing in the peripheral image, a face region, an eye region, and a nose region classifier are generated using MCT and Adaboost technique from a previously stored learning image Eye region, a nose region, and a nose region appearing in the peripheral image by applying the face region, the eye region, and the nose region classifier to the peripheral image.

또한, 상기 눈 영역으로부터 홍채 영역을 검출하고, 상기 홍채 영역에서 동공 영역을 분리하여 그 중심을 검출하는 것은, 상기 눈 영역의 영상에 가변 템플릿을 매칭하여 홍채 영역을 검출하고, K-평균 알고리즘을 적용하여 상기 홍채 영역에서 상기 동공 영역을 분리하며, 상기 동공 영역의 무게중심을 상기 동공 중심으로 검출하는 것일 수 있다.The detection of the iris region from the eye region, the separation of the pupil region in the iris region and the detection of the center thereof may be performed by detecting an iris region by matching a variable template to the image of the eye region, To separate the pupil region from the iris region, and to detect the center of gravity of the pupil region as the center of the pupil.

또한, 상기 얼굴 영역에서의 상기 눈 영역 및 상기 코 영역의 위치 정보로부터 상기 사람의 얼굴 포즈의 각도를 산출하여 상기 사람의 얼굴 포즈의 각도에 따른 안구 중심을 검출하는 것은, 상기 눈 영역 및 상기 코 영역의 위치 정보를 이용하여 피치(Pitch), 롤(Roll), 요(Yaw)의 상기 사람의 얼굴 포즈의 각도를 산출하고, 상기 눈 영역의 영상에 로버트 에지 검출기를 적용하고, 레이블링을 수행하여 눈 코너점을 검출하며, 상기 눈 코너점 및 상기 사람의 얼굴 포즈의 각도를 이용하여 상기 안구 중심을 검출하는 것일 수 있다.It is preferable that the angle of the face pose of the person is calculated from the position information of the eye region and the nose region in the face region and the eye center corresponding to the angle of the face pose of the person is detected, The angle of the face pose of the person in the pitch, the roll and the yaw is calculated by using the position information of the area, the Robert edge detector is applied to the image of the eye area, and the labeling is performed Detecting the eye corner point, and detecting the eye center using the angle of the eye corner point and the face pose of the person.

또한, 시선 추적 방법을 수행하기 위한, 컴퓨터 프로그램이 기록된 컴퓨터로 판독 가능한 기록 매체일 수 있다.In addition, it may be a computer-readable recording medium on which a computer program is recorded, for performing the gaze tracking method.

상술한 본 발명의 일측면에 따르면, 사람의 얼굴 포즈 각도로부터 안구 중심을 검출하고 이를 반영하여 사람의 시선을 추적함으로써, 카메라와 시선 추적 대상의 거리가 멀어지는 경우에도 시선 추적의 정확도를 높일 수 있다.According to one aspect of the present invention, the eye center is detected from the face pose angle of a person, and the eye line is traced by reflecting the center of the eye, thereby improving the accuracy of eye tracking even when the distance between the camera and the eye tracking object is distant .

도 1은 본 발명의 일 실시예에 따른 시선 추적 장치의 제어 블록도이다.
도 2는 도 1에 도시된 제어부의 세부 블록도이다.
도 3은 본 발명의 일 실시예에 따른 얼굴 요소 검출 방법을 설명하기 위한 도면이다.
도 4는 본 발명의 일 실시예에 따른 촬영부의 PTZ(Pan-Tilt-Zoom)제어 방법을 설명하기 위한 도면이다.
도 5는 핀홀 카메라 모델의 일 예를 도시한 도면이다.
도 6 및 도 7은 본 발명의 일 실시예에 따른 촬영부의 PTZ(Pan-Tilt-Zoom)제어 방법을 설명하기 위한 도면이다.
도 8은 본 발명의 일 실시예에 따른 홍채 영역 검출 방법을 설명하기 위한 도면이다.
도 9는 본 발명의 일 실시예에 따른 동공 중심 검출 방법을 설명하기 위한 도면이다.
도 10 및 도 11은 본 발명의 일 실시예에 따른 얼굴 포즈 각도의 검출 방법을 설명하기 위한 도면이다.
도 12는 본 발명의 일 실시예에 따른 눈 코너점 검출 방법을 설명하기 위한 도면이다.
도 13은 본 발명의 일 실시예에 따른 안구 중심 검출 방법을 설명하기 위한 도면이다.
도 14는 본 발명의 일 실시예에 따른 시선 방향 산출을 위한 눈 모델의 일 예를 도시한 도면이다.
도 15는 본 발명의 일 실시예에 따른 출력부의 일 예를 도시한 도면이다.
도 16은 본 발명의 일 실시예에 따른 시선 추적 방법을 설명하기 위한 순서도이다.
1 is a control block diagram of a gaze tracking apparatus according to an embodiment of the present invention.
2 is a detailed block diagram of the control unit shown in FIG.
FIG. 3 is a view for explaining a face element detecting method according to an embodiment of the present invention.
4 is a view for explaining a PTZ (Pan-Tilt-Zoom) control method of a photographing unit according to an embodiment of the present invention.
5 is a diagram showing an example of a pinhole camera model.
6 and 7 are views for explaining a PTZ (Pan-Tilt-Zoom) control method of the photographing unit according to an embodiment of the present invention.
8 is a diagram for explaining an iris region detection method according to an embodiment of the present invention.
9 is a view for explaining a pupil center detection method according to an embodiment of the present invention.
10 and 11 are views for explaining a method of detecting a face pose angle according to an embodiment of the present invention.
12 is a view for explaining an eye corner point detecting method according to an embodiment of the present invention.
13 is a diagram for explaining an eye center detection method according to an embodiment of the present invention.
FIG. 14 is a diagram illustrating an eye model for calculating a gaze direction according to an embodiment of the present invention.
15 is a diagram illustrating an example of an output unit according to an embodiment of the present invention.
16 is a flowchart for explaining a line-of-sight tracking method according to an embodiment of the present invention.

후술하는 본 발명에 대한 상세한 설명은, 본 발명이 실시될 수 있는 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시예는 당업자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다. 본 발명의 다양한 실시예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시예와 관련하여 본 발명의 정신 및 범위를 벗어나지 않으면서 다른 실시예로 구현될 수 있다. 또한, 각각의 개시된 실시예 내의 개별 구성요소의 위치 또는 배치는 본 발명의 정신 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니며, 본 발명의 범위는, 적절하게 설명된다면, 그 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다.The following detailed description of the invention refers to the accompanying drawings, which illustrate, by way of illustration, specific embodiments in which the invention may be practiced. These embodiments are described in sufficient detail to enable those skilled in the art to practice the invention. It should be understood that the various embodiments of the present invention are different, but need not be mutually exclusive. For example, certain features, structures, and characteristics described herein may be implemented in other embodiments without departing from the spirit and scope of the invention in connection with an embodiment. It is also to be understood that the position or arrangement of the individual components within each disclosed embodiment may be varied without departing from the spirit and scope of the invention. The following detailed description is, therefore, not to be taken in a limiting sense, and the scope of the present invention is to be limited only by the appended claims, along with the full scope of equivalents to which such claims are entitled, if properly explained. In the drawings, like reference numerals refer to the same or similar functions throughout the several views.

이하, 도면들을 참조하여 본 발명의 바람직한 실시예들을 보다 상세하게 설명하기로 한다.Hereinafter, preferred embodiments of the present invention will be described in more detail with reference to the drawings.

도 1은 본 발명의 일 실시예에 따른 시선 추적 장치의 제어 블록도이다.1 is a control block diagram of a gaze tracking apparatus according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시예에 따른 시선 추적 장치(1)는 촬영부(100), 제어부(200), 출력부(300) 및 메모리부(400)를 포함할 수 있다. 본 발명의 일 실시예에 따른 시선 추적 장치(1)는 도 1에 도시된 구성요소보다 많은 구성요소에 의해 구현되거나, 그보다 적은 구성요소에 의해 구현될 수 있다. 이하, 상술한 구성요소들에 대해 구체적으로 설명하기로 한다.Referring to FIG. 1, a gaze tracking apparatus 1 according to an embodiment of the present invention may include a photographing unit 100, a controller 200, an output unit 300, and a memory unit 400. The gaze tracking device 1 according to an embodiment of the present invention may be implemented by, or implemented by, more components than the components shown in FIG. Hereinafter, the above-mentioned constituent elements will be described in detail.

촬영부(100)는 주변 영상을 획득할 수 있으며, 바람직하게는, 특정 컨텐츠를 응시하는 사람의 얼굴 영역을 검출하기 위한 주변 영상을 획득할 수 있다. 이를 위해, 촬영부(100)는 광각 모드 또는 협각 모드 중 하나의 촬영 모드로 동작하는 단일의 PTZ(Pan-Tilt-Zoom) 카메라로 구현될 수 있다. The photographing unit 100 may acquire a peripheral image, and preferably acquires a peripheral image for detecting a face region of a person staring at specific contents. For this, the photographing unit 100 may be implemented as a single PTZ (Pan-Tilt-Zoom) camera operating in one of the wide angle mode and the narrow angle mode.

구체적으로는, 촬영부(100)는 제어부(200)에 의해 설정되는 카메라의 렌즈 초점 거리에 따라 줌(Zoom) 동작을 수행하여 확대 또는 축소된 주변 영상을 획득할 수 있다. 다시 말하면, 촬영부(100)는 후술하는 제어부(200)의 제어에 따라 광각 모드 또는 협각 모드 중 하나의 촬영 모드에 따라 동작하여 주변 영상을 획득할 수 있다. 여기서, 광각 모드란, 카메라의 렌즈 초점 거리가 미리 정해진 기준값 이하로 설정되어 상대적으로 넓은 시야의 주변 영상을 획득하기 위한 촬영 모드를 의미하고, 협각 모드란, 카메라의 렌즈 초점 거리가 미리 정해진 기준값 이상으로 설정되어 상대적으로 좁은 시야의 주변 영상을 획득하기 위한 촬영 모드를 의미하며, 일반적으로, 광각 모드에서의 렌즈 초점 거리는 24~50mm 로 설정되고, 협각 모드에서의 렌즈 초점 거리는 80~120mm 로 설정될 수 있다. Specifically, the photographing unit 100 may perform a zoom operation according to a focal length of a lens set by the controller 200 to obtain an enlarged or reduced peripheral image. In other words, the photographing unit 100 may operate according to one of the wide-angle mode or the narrow-angle mode according to the control of the control unit 200 to be described later to acquire a peripheral image. Here, the wide-angle mode means a photographing mode in which the lens focal distance of the camera is set to a predetermined reference value or less to acquire a peripheral image of a relatively wide field of view, and the narrow-angle mode means that the lens focal distance of the camera is equal to or greater than a predetermined reference value The lens focal length in the wide angle mode is set to 24 to 50 mm and the lens focal length in the narrow angle mode is set to 80 to 120 mm .

또한, 촬영부(100)는 제어부(200)의 제어에 따라 좌우로 움직이는 팬(Pan) 동작 또는 상하로 움직이는 틸트(Tilt) 동작을 수행하며 주변 영상을 획득할 수 있다.In addition, the photographing unit 100 may perform a pan operation for moving left and right or a tilt operation for moving up and down under the control of the controller 200, and may acquire a peripheral image.

이처럼, 촬영부(100)는 먼저, 주변의 사람을 검출할 수 있도록 광각 모드로 동작하여 넓은 시야의 주변 영상을 획득하고, 제어부(200)에 의해 획득한 영상에 사람의 얼굴 영역이 검출되는 경우, 팬(Pan) 또는 틸트(Tilt) 동작한 뒤, 협각 모드로 전환되어 고해상도의 확대된 얼굴 영역의 영상을 획득할 수 있다. 이와 관련하여 구체적인 설명은 후술하기로 한다.As described above, the photographing unit 100 first operates in a wide-angle mode to detect a person in the vicinity, acquires a peripheral image of a wide field of view, and when a face region of a person is detected in an image acquired by the control unit 200 Pan, or tilt operation, the user can switch to the narrow-angle mode to acquire an image of a high-resolution enlarged face region. A detailed description thereof will be given later.

제어부(200)는 촬영부(100)를 제어하여 얼굴 영역의 영상을 획득하고, 촬영부(100)로부터 획득한 얼굴 영역의 영상을 이용하여 시선을 추적할 수 있다. 이와 관련하여 도 2 내지 도 14를 참조하여 설명하기로 한다.The control unit 200 can control the photographing unit 100 to acquire an image of a face region and track a line of sight using the image of the face region acquired from the photographing unit 100. [ This will be described with reference to FIG. 2 to FIG.

도 2는 도 1에 도시된 제어부의 세부 블록도이고, 도 3 내지 도 14는 도 1에 도시된 제어부에서 얼굴 영역의 영상으로부터 시선을 추적하는 방법을 설명하기 위한 도면이다.FIG. 2 is a detailed block diagram of the control unit shown in FIG. 1, and FIGS. 3 to 14 are views for explaining a method of tracking a line of sight from an image of a face region in the control unit shown in FIG.

먼저, 도 2를 참조하면, 제어부(200)는 얼굴 요소 검출부(210), 촬영 제어부(220), 동공 중심 검출부(230), 얼굴 포즈 검출부(240), 안구 중심 검출부(250) 및 시선 방향 검출부(260)를 포함할 수 있다. 제어부(200)는 도 2에 도시된 구성요소보다 많은 구성요소에 의해 구현되거나, 그보다 적은 구성요소에 의해 구현될 수 있다. 이하, 상술한 구성요소들에 대해 구체적으로 설명하기로 한다.2, the controller 200 includes a face element detector 210, a photographing controller 220, a pupil center detector 230, a face pose detector 240, an eyeball center detector 250, (260). The control unit 200 may be implemented by, or implemented by, more components than the components shown in FIG. Hereinafter, the above-mentioned constituent elements will be described in detail.

얼굴 요소 검출부(210)는 촬영부(100)에서 획득하는 주변 영상에 사람이 나타날 경우, 사람의 얼굴 영역 및 눈, 코 영역의 얼굴 요소를 검출할 수 있다. 이때, 촬영부(100)는 후술하는 촬영 제어부(220)에 의해 광각 모드로 설정된 상태일 수 있으며, 이로 인해, 촬영부(100)는 넓은 시야의 주변 영상을 획득할 수 있다. The face element detecting unit 210 can detect face components of a face region of a person, an eye region, and a nose region when a person appears in a surrounding image acquired by the photographing unit 100. [ At this time, the photographing unit 100 may be set in the wide angle mode by the photographing control unit 220, which will be described later, so that the photographing unit 100 can acquire a peripheral image of a wide field of view.

구체적으로는, 도 3을 참조하면, 얼굴 요소 검출부(210)는 촬영부(100)에서 획득하는 주변 영상으로부터 사람의 얼굴 영역, 눈 영역 및 코 영역을 검출할 수 있다. 이를 위해, 얼굴 요소 검출부(210)는 학습영상에 MCT(Modified Census Transform) 변환 전처리 과정을 수행한 뒤, 아다부스트(Adaboost) 기법으로 얼굴 영역, 눈 영역 및 코 영역 검출 분류기를 생성할 수 있다. 여기서, 학습영상에 MCT 변환 전처리 과정을 수행하는 것은 조명 변화에 대한 강인성을 위함이며, 아다부스트(Adaboost) 기법이란 템플릿 매칭의 한 종류로서, 특징 값들을 분류할 수 있다. 또한, 학습영상은 메모리부(400)에 미리 저장되어 있는 다양한 자세 또는 모양의 얼굴, 눈 및 코 영상일 수 있으며, 예를 들어, 좌측, 정면, 우측으로 분류 가능한 복수의 얼굴 및 코 영상과, 뜬 눈, 감은 눈으로 분류 가능한 복수의 눈 영상을 포함할 수 있다.3, the facial feature detecting unit 210 may detect a face region, an eye region, and a nose region of a person from a surrounding image acquired by the photographing unit 100. [ To this end, the facial feature detection unit 210 may perform a MCT (Modified Census Transform) conversion preprocessing process on the training image, and then generate a face region, an eye region, and a nose region detection classifier using an Adaboost technique. Here, performing the MCT transformation preprocessing process on the learning image is for robustness against illumination change, and the Adaboost technique is a type of template matching, and the feature values can be classified. In addition, the learning image may be face, eye, and nose images of various postures or shapes stored in advance in the memory unit 400. For example, a plurality of faces and nose images that can be classified into left, front, And may include a plurality of eye images which can be classified into open eyes and eye eyes.

이처럼, 얼굴 요소 검출부(210)는 MCT 및 아다부스트(Adaboost) 기법을 통해 얼굴 영역, 눈 영역 및 코 영역 검출 분류기를 생성하고, 촬영부(100)에서 획득하는 주변 영상에 얼굴 영역, 눈 영역 및 코 영역 검출 분류기를 적용함으로써 영상에 포함되는 사람의 얼굴 영역, 눈 영역 및 코 영역을 검출할 수 있다. As described above, the facial feature detection unit 210 generates a face region, an eye region, and a nose region detection classifier through an MCT and an Adaboost technique. The face region, the eye region, By applying the nose region detection classifier, the face region, the eye region, and the nose region of a person included in the image can be detected.

한편, 본 발명의 일 실시예에 따른 시선 추적 장치(1)는 사람의 얼굴 영상으로부터 동공 중심 및 안구 중심을 검출하고, 이를 이용하여 사람의 시선을 추적하는데, 이때, 얼굴 요소 검출부(210)에서 검출한 얼굴 영역과 얼굴 영역에 포함되는 눈 영역 및 코 영역은 촬영부(100)가 광각 모드인 상태에서 획득한 주변 영상으로부터 검출하였으므로, 그 해상도가 낮아 동공 중심 및 안구 중심을 정확하게 검출하는 데 어려움이 있을 수 있으며, 이에 검출한 얼굴 영역에 대하여 보다 고해상도의 확대된 영상을 필요로 할 수 있다.Meanwhile, the eye-gaze tracking apparatus 1 according to an embodiment of the present invention detects the center of the pupil and the center of the eye from the face image of a person, and uses the detected eye center to track a person's gaze. At this time, Since the eye region and the nose region included in the detected face region and the face region are detected from the peripheral image acquired in the state in which the photographing section 100 is in the wide angle mode, the resolution is low and it is difficult to accurately detect the pupil center and the eyeball center Therefore, a high-resolution enlarged image may be required for the detected face region.

이에 따라, 촬영 제어부(220)는 얼굴 요소 검출부(210)에서 검출한 얼굴 영역에 대하여 보다 고해상도의 영상을 획득할 수 있도록 촬영부(100)의 팬(Pan) 또는 틸트(Tilt) 동작을 제어하거나, 촬영부(100)의 촬영 모드를 전환할 수 있다. The photographing control unit 220 controls the pan or tilt operation of the photographing unit 100 so as to acquire a higher resolution image of the face region detected by the face element detecting unit 210 , The photographing mode of the photographing unit 100 can be switched.

예를 들어, 도 4를 참조하면, 촬영 제어부(220)는 얼굴 요소 검출부(210)에서 검출한 얼굴 영역이 도 4의 (b)와 같이 촬영부(100)에서 촬영하는 영상의 중심에 위치할 수 있도록 촬영부(100)의 팬(Pan) 또는 틸트(Tilt) 동작을 제어한 뒤, 도 4의 (c)와 같이 촬영부(100)의 촬영 모드를 협각 모드로 전환함으로써 확대된 얼굴 영역의 영상을 획득할 수 있다. 이때, 촬영 제어부(220)는 촬영부(100)와 얼굴 요소 검출부(210)에서 검출한 얼굴 영역 사이의 거리를 산출하고, 산출한 거리에 따라 촬영부(100)의 팬(Pan), 틸트(Tilt) 각도 또는 줌(Zoom) 배수를 산출하여 촬영부(100)를 제어할 수 있다. For example, referring to FIG. 4, the photographing control unit 220 determines whether the face region detected by the face element detecting unit 210 is located at the center of the image captured by the photographing unit 100 as shown in FIG. 4 (b) The pan or tilt operation of the photographing unit 100 is controlled so that the photographing mode of the photographing unit 100 is switched to the narrowed mode as shown in FIG. Images can be acquired. At this time, the photographing control unit 220 calculates the distance between the face region detected by the photographing unit 100 and the face element detecting unit 210, and calculates the distance between the pan and tilt of the photographing unit 100 according to the calculated distance Tilt angle, or a zoom factor of the image pickup unit 100 to control the photographing unit 100.

구체적으로는, 촬영 제어부(220)는 핀홀 카메라 모델을 이용하여 촬영부(100)와 얼굴 요소 검출부(210)에서 검출한 얼굴 영역 사이의 거리를 산출할 수 있다. 여기서, 핀홀 카메라 모델이란, 도 5를 참조하면, 삼각형의 성질을 이용하여 카메라와 객체간의 거리를 계산하기 위한 것으로, 초점 거리(focal length)와 센서상의 객체의 높이, 카메라와 객체간의 거리(distance)와 실제 객체(Object)의 높이의 비율을 아래의 수학식 1과 같이 나타낼 수 있다. Specifically, the photographing control unit 220 can calculate the distance between the face region detected by the photographing unit 100 and the face element detecting unit 210 using a pinhole camera model. Referring to FIG. 5, the pinhole camera model is used to calculate the distance between a camera and an object using the property of a triangle. The pinhole camera model includes a focal length, a height of an object on a sensor, ) And the height of the actual object (Object) can be expressed by the following Equation (1).

Figure 112016008846838-pat00001
Figure 112016008846838-pat00001

수학식 1에서 SObjh 는 센서상의 객체의 높이, RObjh 는 실제 객체의 높이이고, f는 초점 거리, z는 카메라와 객체 간의 거리를 의미한다.In Equation 1, SObj h is the height of the object on the sensor, RObj h is the height of the actual object, f is the focal length, and z is the distance between the camera and the object.

여기서, 센서상의 객체의 높이 SObjh 는 아래의 수학식 2를 이용하여 구할 수 있다.Here, the height SObj h of the object on the sensor can be obtained by using the following equation (2).

Figure 112016008846838-pat00002
Figure 112016008846838-pat00002

수학식 2에서 SObjh 는 센서상의 객체의 높이를 의미하고, Sh 는 센서의 높이, IObjh 는 영상에 나타난 객체의 높이를 의미하며, Ih 는 영상의 높이를 의미한다.In Equation 2, SObj h denotes the height of the object on the sensor, S h denotes the height of the sensor, IObj h denotes the height of the object displayed on the image, and I h denotes the height of the image.

최종적으로, 수학식 1에 수학식 2를 적용하여 카메라와 객체 사이의 거리를 산출하기 위한 수학식 3을 도출할 수 있다.Finally, Equation (3) for calculating the distance between the camera and the object can be derived by applying Equation (2) to Equation (1).

Figure 112016008846838-pat00003
Figure 112016008846838-pat00003

수학식 3에서 z는 카메라와 객체 사이의 거리를 의미하고, f는 초점 거리, Ih 는 영상의 높이, RObjh 는 실제 객체의 높이를 의미하며, Sh 는 센서의 높이, IObjh 는 영상에 나타난 객체의 높이를 의미한다.In Equation 3 z is the distance between the camera and the object, and f is the focal length, I h is the height, RObj h of an image refers to the height of the actual object, and, S h is the height of the sensor, IObj h is image The height of the object shown in FIG.

따라서, 촬영 제어부(220)는 수학식 3을 이용하여 촬영부(100)와 얼굴 요소 검출부(210)에서 검출한 얼굴 영역 사이의 거리를 산출할 수 있으며, 산출한 거리를 이용하여 촬영부(100)의 팬(Pan), 틸트(Tilt) 각도 또는 줌(Zoom) 배수를 산출하여 촬영부(100)를 제어할 수 있다. 이때, 촬영 제어부(220)에서 산출한 거리에 따른 화각 정보, 즉, 촬영부(100)의 줌(Zoom) 위치에 따른 화각 정보는 메모리부(400)에 미리 저장될 수 있다. Therefore, the shooting control unit 220 can calculate the distance between the face region detected by the shooting unit 100 and the face element detecting unit 210 using Equation (3), and calculates the distance between the shooting unit 100 A pan angle, a tilt angle, or a zoom factor of the image pickup unit 100 to control the photographing unit 100. At this time, the view angle information according to the distance calculated by the photographing control unit 220, that is, the view angle information according to the zoom position of the photographing unit 100, may be stored in the memory unit 400 in advance.

이와 관련하여, 도 6을 참조하면, 촬영 제어부(220)는 아래의 수학식 4를 이용하여 촬영부(100)의 팬(Pan) 각도를 산출할 수 있으며, 수학식 5를 이용하여 촬영부(100)의 틸트(Tilt) 각도를 산출할 수 있다.6, the photographing control unit 220 may calculate the pan angle of the photographing unit 100 using Equation (4) below and calculate the angle of the photographing unit 100 using Equation (5) 100) can be calculated.

Figure 112016008846838-pat00004
Figure 112016008846838-pat00004

수학식 4에서 p는 촬영부(100)의 팬(Pan) 각도를 의미하고, θw 는 수평의 화각을 의미하고, W는 영상의 가로 픽셀의 수를 의미하며, u는 영상에서 이동하고자 하는 위치를 의미한다.In Equation (4), p denotes the pan angle of the photographing unit 100,? W denotes the horizontal angle of view, W denotes the number of horizontal pixels of the image, u denotes the number of pixels Position.

Figure 112016008846838-pat00005
Figure 112016008846838-pat00005

수학식 5에서 t는 촬영부(100)의 틸트(Tilt) 각도를 의미하고, θh 는 수직의 화각을 의미하고, H는 영상의 세로 픽셀의 수를 의미하며, v는 영상에서 이동하고자 하는 위치를 의미한다.In Equation (5), t denotes a tilt angle of the photographing unit 100,? H denotes a vertical angle of view, H denotes the number of vertical pixels of the image, Position.

이처럼, 촬영 제어부(220)는 수학식 4 및 5를 이용하여 촬영부(100)의 팬(Pan), 틸트(Tilt) 각도를 산출하고 이에 따라 촬영부(100)의 팬(Pan), 틸트(Tilt) 동작을 제어함으로써, 촬영부(100)에서 획득하는 영상의 중심(Icx,Icy)에 얼굴 영역의 중심(u,v)이 위치할 수 있다.As described above, the photographing control unit 220 calculates the pan and tilt angles of the photographing unit 100 using equations (4) and (5), and calculates the pan and tilt angles of the photographing unit 100 The center (u, v) of the face region can be located at the center (I cx , I cy ) of the image acquired by the photographing section 100 by controlling the tilt operation.

또한, 촬영 제어부(220)는 아래의 수학식 6을 이용하여 촬영부(100)의 줌(Zoom) 배수를 산출할 수 있다.Further, the photographing control unit 220 can calculate a zoom multiple of the photographing unit 100 using the following equation (6).

Figure 112016008846838-pat00006
Figure 112016008846838-pat00006

수학식 6에서 z는 촬영부(100)의 줌(Zoom) 배수를 의미하고, H는 영상의 세로 픽셀의 수를 의미하고, Objh 는 얼굴 영역의 크기를 의미하고, w는 가중치를 의미한다.In Equation (6), z denotes a zoom multiple of the photographing unit 100, H denotes the number of vertical pixels of the image, Obj h denotes the size of the face region, and w denotes a weight .

이와 같이, 촬영 제어부(220)는 수학식 6을 이용하여 촬영부(100)의 줌(Zoom) 배수를 산출하고, 이에 따라 촬영부(100)의 줌(Zoom) 동작을 제어함으로써, 즉, 광각 모드의 촬영부(100)를 협각 모드로 제어함으로써 고해상도의 확대된 얼굴 영역의 영상을 획득할 수 있다. 이때, 촬영 제어부(220)는 촬영부(100)에서 획득하는 영상의 중심에 얼굴 영역이 위치할 수 있도록 촬영부(100)를 팬(Pan) 또는 틸트(Tilt) 제어한 뒤, 촬영부(100)의 줌(Zoom) 배수를 제어함으로써, 고해상도의 확대된 얼굴 영역의 영상을 획득할 수 있다. 이와 관련하여, 도 7을 참조하여 설명하면, 도 7의 (a)와 같이 촬영부(100)의 촬영 모드가 광각 모드인 상태에서 획득한 영상에 사람이 포함될 수 있으며, 이때, 본 발명의 일 실시예에 따른 촬영부(100)는 광각 모드 또는 협각 모드 중 하나의 촬영 모드로 동작하는 단일의 PTZ(Pan-Tilt-Zoom) 카메라로 구현되므로, 촬영 제어부(220)는 촬영부(100)의 촬영 모드가 광각 모드인 상태에서 팬(Pan) 또는 틸트(Tilt) 동작을 제어하지 않고 바로 촬영 모드를 협각 모드로 전환하면, 영상에 포함되는 사람의 얼굴 영역의 확대된 영상이 아닌 주변 배경의 확대된 영상을 획득하게 된다. 따라서, 촬영 제어부(220)는 도 7의 (b)와 같이 촬영부(100)에서 획득하는 영상의 중심에 얼굴 영역이 위치할 수 있도록 촬영부(100)를 팬(Pan) 또는 틸트(Tilt) 제어한 뒤, 촬영부(100)의 촬영 모드를 협각 모드로 전환함으로써, 고해상도의 확대된 얼굴 영역의 영상을 획득할 수 있다.In this manner, the photographing control unit 220 calculates a zoom multiple of the photographing unit 100 using Equation (6), and thereby controls the zooming operation of the photographing unit 100, that is, The image of the enlarged face area of high resolution can be obtained by controlling the shooting section 100 of the mode in the narrow-angle mode. At this time, the photographing control unit 220 controls the photographing unit 100 to pan or tilt so that the face region can be positioned at the center of the image captured by the photographing unit 100, The image of the enlarged face region of high resolution can be obtained. In this regard, referring to FIG. 7, a person may be included in an image acquired in a state in which the photographing mode of the photographing unit 100 is in the wide angle mode, as shown in FIG. 7 (a) Since the photographing unit 100 according to the embodiment is implemented by a single PTZ camera operating in one of the wide angle mode and the narrow angle mode, When the photographing mode is switched to the narrow-angle mode without controlling the pan or tilt operation in a state in which the photographing mode is the wide-angle mode, enlargement of the surrounding background rather than enlarged image of the face region of the person included in the image And acquires the acquired image. 7 (b), the photographing control unit 220 may pan or tilt the photographing unit 100 so that the face region may be positioned at the center of the image captured by the photographing unit 100. [ The image of the enlarged face area of high resolution can be obtained by switching the photographing mode of the photographing section 100 to the narrow-angle mode.

동공 중심 검출부(230)는 이러한 고해상도의 확대된 얼굴 영역의 영상으로부터 동공 중심을 검출할 수 있다. 이를 위해, 동공 중심 검출부(230)는 먼저 고해상도의 확대된 얼굴 영역의 영상으로부터 홍채를 검출한 뒤, 홍채 영역 안에서 동공 중심을 검출할 수 있다.The pupil center detecting unit 230 can detect the center of the pupil from the image of the enlarged face region at the high resolution. For this, the pupil center detecting unit 230 may detect the pupil center in the iris region after first detecting the iris from the image of the enlarged face region of high resolution.

구체적으로는, 도 8을 참조하면, 동공 중심 검출부(230)는 고해상도의 확대된 얼굴 영역의 영상에 포함되는 눈 영역에 대하여 Valley Map을 생성한 뒤, 임의의 임계값을 이용하여 이진화를 수행할 수 있다. 그리고, 동공 중심 검출부(230)는 이진화 영상에 템플릿 매칭을 수행하여 도 8의 (e)와 같이 홍채 영역을 검출할 수 있다. 이때, 동공 중심 검출부(230)는 이진화 영상에 가변 템플릿을 적용하여 홍채 영역을 검출할 수 있다. Specifically, referring to FIG. 8, the pupil center detecting unit 230 generates a Valley Map for an eye region included in an image of a high-resolution enlarged face region, and then performs binarization using an arbitrary threshold value . Then, the pupil center detecting unit 230 performs template matching on the binarized image to detect the iris region as shown in FIG. 8 (e). At this time, the pupil center detecting unit 230 can detect the iris region by applying a variable template to the binarized image.

여기서, 가변 템플릿은 J. Y. Deng and F. Lai 에 의해 제안된 방법으로서, 원형 템플릿의 테두리에 작은 윈도우를 배치하여 에너지를 계산하고, 에너지를 최소화하는 방향으로 이동시키고 그 크기를 조절할 수 있다. 이때, 에너지 함수는 아래의 수학식 7과 같이 나타낼 수 있다.Here, the variable template is a method proposed by J. Y. Deng and F. Lai, wherein a small window is arranged at the edge of a circular template to calculate energy, move it in a direction to minimize energy, and adjust its size. At this time, the energy function can be expressed by Equation (7) below.

Figure 112016008846838-pat00007
Figure 112016008846838-pat00007

수학식 7에서 Acircle 은 템플릿 영역에 해당하는 픽셀의 개수를 의미한다.In Equation (7), A circle denotes the number of pixels corresponding to the template region.

수학식 7을 이용하여 윈도우 영역에 대한 에너지를 계산하면, 아래의 수학식 8을 이용하여 윈도우 영역의 크기를 변경시킬 수 있으며, 수학식 9를 이용하여 윈도우 영역을 이동시킬 수 있다.When the energy for the window region is calculated using Equation (7), the size of the window region can be changed using Equation (8) below, and the window region can be moved using Equation (9).

Figure 112016008846838-pat00008
Figure 112016008846838-pat00008

수학식 8에서 fresize 는 윈도우 영역의 크기 변경 계수를 의미하고, fw 는 윈도우 영역을 의미한다.In Equation (8), f resize denotes a size change coefficient of the window region, and f w denotes a window region.

Figure 112016008846838-pat00009
Figure 112016008846838-pat00009

Figure 112016008846838-pat00010
Figure 112016008846838-pat00010

수학식 9에서 fmovex,fmovey 는 윈도우 영역의 이동 계수를 의미하고, fw 는 윈도우 영역을 의미한다.In Equation 9 fmove x, y fmove refers to the transfer coefficient of the window area, and f w is meant the window area.

한편, 윈도우 영역은 아래의 수학식 10을 이용하여 정규화할 수 있으며, 그 값은 (-255/2, 255/2)로 정규화될 수 있다.On the other hand, the window area can be normalized using the following equation (10), and the value can be normalized to (-255 / 2, 255/2).

Figure 112016008846838-pat00011
Figure 112016008846838-pat00011

또한, 도 9를 참조하면, 동공 중심 검출부(230)는 검출한 홍채 영역 안에서 동공 중심을 검출할 수 있다. 동공 중심 검출부(230)는 홍채 영역에 대하여 Valley Map을 생성한 뒤, 군집화를 수행하여 동공 중심을 검출할 수 있다. 이때, 동공 중심 검출부(230)는 홍채 영역에 대하여 생성한 Valley Map에 두 개의 군집으로 K-평균 알고리즘(K-means Clustering) 알고리즘을 적용하여 홍채 영역과 동공 영역을 분리시킬 수 있다. 그리고, 동공 중심 검출부(230)는 분리된 동공 영역의 무게중심을 동공 중심으로 검출할 수 있다.9, the pupil center detecting unit 230 can detect the pupil center in the detected iris region. The pupil center detecting unit 230 can detect the pupil center by generating a Valley Map for the iris region and performing clustering. At this time, the pupil center detecting unit 230 can separate the iris region and the pupil region by applying a K-means clustering algorithm to the valley map generated for the iris region as two clusters. The pupil center detecting unit 230 can detect the center of gravity of the separated pupil region as the pupil center.

한편, 얼굴 포즈 검출부(240)는 고해상도의 확대된 얼굴 영역에서의 눈 영역과 코 영역의 위치 정보로부터 얼굴 포즈를 검출할 수 있다. 여기서, 도 10을 참조하면, 얼굴 포즈 검출부(240)는 y축을 중심으로 얼굴이 회전하는 각도인 피치(Pitch), z축을 중심으로 얼굴이 회전하는 각도인 롤(Roll), x축을 중심으로 얼굴이 회전하는 각도인 요(Yaw)로 정의되는 얼굴 포즈의 각도를 산출할 수 있다. On the other hand, the face pose detection unit 240 can detect a face pose from the position information of the eye region and the nose region in the enlarged face region of high resolution. Referring to FIG. 10, the face pose detection unit 240 detects a pitch, which is an angle at which the face rotates about the y axis, a roll that is an angle at which the face rotates about the z axis, It is possible to calculate the angle of the face pose defined by the yaw that is the rotation angle.

구체적으로는, 도 11의 (a)를 참조하면, 얼굴 포즈 검출부(240)는 먼저 아래의 수학식 11을 이용하여 피치(Pitch)를 산출할 수 있다. 피치(Pitch)는 두 눈 영역 사이의 거리(D)와 코 길이의 비율(B)을 이용하여 산출할 수 있다. 이때, 코 길이의 비율(B)은 두 눈 영역 사이의 거리에 0.618을 곱하여 산출할 수 있다. Specifically, referring to FIG. 11A, the face pose detector 240 may first calculate a pitch using Equation (11) below. The pitch can be calculated using the distance (D) between the two eye regions and the ratio of the nose length (B). At this time, the ratio (B) of the nose length can be calculated by multiplying the distance between the two eye regions by 0.618.

Figure 112016008846838-pat00012
Figure 112016008846838-pat00012

수학식 11에서 D는 두 눈 영역 사이의 거리를 의미하고, dyp 는 코 길이에서 코 끝 위치(Nose tip)의 미분값을 의미한다.In Equation (11), D represents the distance between two eye regions, and dy p represents a derivative value of the nose tip at the nose length.

또한, 도 11의 (b)를 참조하면, 얼굴 포즈 검출부(240)는 아래의 수학식 12를 이용하여 롤(Roll)을 산출할 수 있다. 롤(Roll)은 두 눈 영역의 위치 정보를 이용하여 산출할 수 있다.11 (b), the face pose detecting unit 240 can calculate a roll using the following equation (12). The roll can be calculated using the position information of the two eye regions.

Figure 112016008846838-pat00013
Figure 112016008846838-pat00013

수학식 12에서 dyr 은 두 눈 영역 위치의 y축에 대한 미분값을 의미하고, dxr은 두 눈 영역 위치의 x축에 대한 미분값을 의미한다.In Equation (12), dy r means a derivative value with respect to the y axis of two eye region positions, and dx r means a derivative value with respect to the x axis of two eye region positions.

또한, 도 11의 (c)를 참조하면, 얼굴 포즈 검출부(240)는 아래의 수학식 13을 이용하여 요(Yaw)를 산출할 수 있다. 요(Yaw)는 두 눈 영역 사이의 중심점과 코 끝의 위치정보를 이용하여 산출할 수 있다. 여기서, 코 끝의 위치정보는 미리 저장된 코 끝의 위치정보에 대한 학습 정보로부터 검출할 수 있다.11 (c), the face pose detector 240 can calculate Yaw using the following equation (13). The yaw can be calculated using the center point between the two eye regions and the position information of the nose end. Here, the position information of the nose tip can be detected from the learning information about the position information of the nose tip previously stored.

Figure 112016008846838-pat00014
Figure 112016008846838-pat00014

수학식 13에서 dxr은 두 눈 영역 사이의 중심점을 기준으로 코 끝의 위치에 대한 미분값을 의미하고, dyy는 두 눈 영역과 코 끝의 위치의 수직 거리의 미분값을 의미한다.It means a differential value of the position of the nose end relative to the center point between eyes region is r dx in equation (13), and dy y means a differential value of the vertical distance between the position of the eyes and nose area.

한편, 안구 중심 검출부(250)는 고해상도의 확대된 얼굴 영역의 영상으로부터 안구 중심을 검출할 수 있다. 이를 위해, 안구 중심 검출부(250)는 먼저 고해상도의 확대된 얼굴 영역의 영상에 포함되는 눈 영역에서 눈 코너점을 검출한 뒤, 눈 코너점과 얼굴 포즈 검출부(240)에서 산출한 얼굴 포즈의 각도를 이용하여 최종적으로 안구 중심을 검출할 수 있다.On the other hand, the eyeball center detecting unit 250 can detect the center of the eye from the image of the enlarged face region of high resolution. To this end, the eyeball center detecting unit 250 first detects an eye corner point in the eye region included in the image of the enlarged face region of high resolution, and then calculates the angle of the face pose calculated by the eye corner point and the face pose detecting unit 240 The center of the eye can finally be detected.

구체적으로는, 도 12를 참조하면, 안구 중심 검출부(250)는 먼저 고해상도의 확대된 얼굴 영역의 영상에 포함되는 눈 영역에 로버츠 에지 검출기를 적용하여 눈꺼풀을 검출할 수 있다. 여기서, 로버츠 에지 검출기는 계산 속도가 빠른 반면 잡음에 민감하므로, 안구 중심 검출부(250)는 눈 영역의 영상에 가우시안 커널을 적용하여 잡음을 제거한 뒤 로버츠 에지 검출기를 적용하면 도 12의 (c)와 같이 눈꺼풀의 에지를 검출할 수 있다. 그리고, 안구 중심 검출부(250)는 눈꺼풀의 에지가 검출된 영상에 레이블링을 적용하고, 크기가 작은 블록을 제거하여 도 12의 (d)와 같은 영상을 획득할 수 있으며, 레이블링 된 블록들 중에서 눈꺼풀로 추정되는 가로 길이가 가장 긴 블록의 양 끝 점을 도 12의 (e)와 같이 눈 코너점으로 검출할 수 있다.Specifically, referring to FIG. 12, the eyeball center detecting unit 250 may detect an eyelid by applying a Roberts edge detector to an eye region included in an image of a high-resolution enlarged face region. Here, since the Roberts edge detector has a high calculation speed and is sensitive to noise, the eye center detector 250 applies a Gaussian kernel to the image of the eye region, removes noise, and then applies a Roberts edge detector, Similarly, the edge of the eyelid can be detected. In addition, the eyeball center detecting unit 250 may apply the labeling to the image in which the edge of the eyelid is detected and remove the small-sized block to obtain an image as shown in FIG. 12 (d). Among the labeled blocks, The end points of the block having the longest horizontal length estimated as the eye corner point can be detected as shown in (e) of FIG.

이후, 안구 중심 검출부(250)는 검출한 눈 코너점과 얼굴 포즈 각도에 따른 안구 중심을 검출할 수 있다. Then, the eye center detecting unit 250 can detect the center of the eye according to the detected eye corner point and the face pose angle.

구체적으로는, 도 13을 참조하면, E1 및 E2는 각각 눈 코너점을 나타내고, M은 E1 및 E2의 중심점, P는 동공 중심을 나타낸다. 이때, 일반적으로 성인의 안구 크기는 직경 24mm 정도로 거의 구형을 이루고 있다. 따라서, 안구 중심 검출부(250)는 아래의 수학식 14와 같이 얼굴 포즈의 각도를 이용하여 안구 중심을 나타내는 3차원 좌표를 검출할 수 있다.Specifically, referring to Fig. 13, E1 and E2 denote eye corner points, M denotes a center point of E1 and E2, and P denotes a pupil center. At this time, the adult eyeball size is generally spherical with a diameter of about 24 mm. Accordingly, the eyeball center detecting unit 250 can detect the three-dimensional coordinates indicating the center of the eye using the angle of the face pose as shown in Equation (14) below.

Figure 112016008846838-pat00015
Figure 112016008846838-pat00015

수학식 14에서 x’,y’,z’는 안구 중심을 나타내는 눈의 3차원 좌표를 의미하고, tx,ty,tz는 눈 코너점의 중심점(M)에서 안구 중심(O)으로의 이동 행렬, x,y,z는 눈 코너의 중심점(M), α,β,γ는 각각 롤(Roll), 요(Yaw), 피치(Pitch) 각도를 의미한다.In Equation 14, x ', y', and z 'denote the three-dimensional coordinates of the eye center, t x , t y , and t z denote the center of the eye (M) X, y and z denote roll, yaw, and pitch angles, respectively, of the center of gravity M of the eye corners, and α, β and γ denote the roll, yaw and pitch angles, respectively.

한편, 시선 방향 검출부(260)는 상술한 동공 중심 검출부(230)에 의해 검출된 동공 중심과, 안구 중심 검출부(250)에 의해 검출된 안구 중심으로부터 시선 방향을 검출할 수 있다.On the other hand, the gaze direction detecting unit 260 can detect the gaze direction from the center of the pupil detected by the pupil center detecting unit 230 and the center of the eye detected by the eye center detecting unit 250.

구체적으로는, 시선 방향 검출부(260)는 도 14와 같이 동공 중심 검출부(230)에 의해 검출된 동공 중심과, 안구 중심 검출부(250)에 의해 검출된 안구 중심이 적용된 눈의 기하학적 모델로부터 시선 방향을 검출할 수 있다. 즉, 시선 방향 검출부(260)는 안구 중심(O)과 동공 중심(p)을 지나는 선을 시선 방향 벡터(gaze direction)로 검출할 수 있다.Specifically, the gaze direction detecting unit 260 detects the gaze direction from the geometric model of the eye, to which the center of the pupil detected by the pupil center detecting unit 230 and the center of the eye detected by the eye center detecting unit 250 are applied, Can be detected. That is, the gaze direction detecting unit 260 can detect a line passing through the center of eye (O) and the pupil center (p) as a gaze direction.

또한, 시선 방향 검출부(260)는 후술하는 출력부(300)에 복수의 캘리브레이션 포인트를 설정하고, 시선 방향 벡터에 대응하는 위치에 점을 출력한 뒤 복수의 캘리브레이션 포인트와 비교하는 방식으로 사람의 시선 방향에 대한 캘리브레이션을 수행할 수 있다.The gaze direction detecting unit 260 sets a plurality of calibration points in an output unit 300 to be described later, outputs a point at a position corresponding to the gaze direction vector, and compares it with a plurality of calibration points, Direction can be calibrated.

구체적으로는, 촬영부(100)에서 획득하는 주변 영상에 나타나는 사람은 특정 컨텐츠를 응시하는 상태일 수 있다. 여기서, 특정 컨텐츠는, 출력부(300)에서 출력되는 컨텐츠일 수 있으며, 또는, 출력부(300)와는 별도의 출력 모듈을 통해 출력되는 컨텐츠일 수 있다. Specifically, a person appearing in the peripheral image acquired by the photographing unit 100 may be in a state of gazing at a specific content. Here, the specific content may be content output from the output unit 300, or may be content output through an output module separate from the output unit 300.

예를 들어, 도 15를 참조하면, 시선 방향 검출부(260)는 출력부(300)에 일정한 간격에 따른 복수의 캘리브레이션 포인트를 설정할 수 있다. 도 15의 (a)에서는, 15개의 캘리브레이션 포인트가 설정된 것을 예로 들어 도시하였다. 시선 방향 검출부(260)는 도 15의 (b)와 같이 출력부(300)에 시선 방향 벡터에 대응하는 점을 출력할 수 있도록 아래의 수학식 15 또는 16을 이용하여 교정 계수를 산출할 수 있다. 도 15의 (b)의 경우, 촬영부(100)에서 획득하는 주변 영상에 나타나는 사람의 시선이 출력부(300) 또는 별도의 출력 모듈을 통해 출력되는 컨텐츠의 4개의 모서리 부분(캘리브레이션 포인트 : 1,5,11,15)과 중심 부분(캘리브레이션 포인트 : 8)에 일정 시간 동안 머무른 것으로 확인할 수 있다.For example, referring to FIG. 15, the gaze direction detecting unit 260 may set a plurality of calibration points in the output unit 300 at predetermined intervals. In FIG. 15 (a), 15 calibration points are set as an example. The gaze direction detecting unit 260 may calculate the correction coefficient using the following expression (15) or (16) so as to output the point corresponding to the gaze direction vector to the output unit 300 as shown in FIG. 15 (b) . 15B, a line of sight of a person appearing in a peripheral image acquired by the photographing unit 100 is divided into four corner portions (calibration point: 1 (1)) of the contents output through the output unit 300 or a separate output module, , 5, 11, 15) and the central part (calibration point: 8) for a certain period of time.

Figure 112016008846838-pat00016
Figure 112016008846838-pat00016

Figure 112016008846838-pat00017
Figure 112016008846838-pat00017

Figure 112016008846838-pat00018
Figure 112016008846838-pat00018

수학식 15 및 16에서, Xscreen 및 Yscreen은 출력부(300) 상의 x,y 좌표를 의미하고, N은 캘리브레이션 포인트 개수를 의미하며, X 및 Y는 시선 방향 벡터, αi 및 βi 는 계수를 의미한다.In equation 15 and 16, X screen and Y screen refers to the x, y coordinates on the output unit 300, and, N means a calibration point number, X and Y are the gaze direction vector, α i and β i is Quot;

다시, 도 1을 참조하면, 출력부(300)는 제어부(200)의 제어에 의해 일정한 간격에 따른 복수의 캘리브레이션 포인트가 설정되고, 사람의 시선 방향 벡터에 대응하는 점을 출력할 수 있다. 이때, 출력부(300)는 상술한 바와 같이 특정 컨텐츠를 출력하거나, 출력부(300)에서 특정 컨텐츠를 출력하지 않고, 별도의 출력 모듈을 통해 특정 컨텐츠가 출력되는 경우에도, 출력부(300)는 별도의 출력 모듈을 응시하는 사람의 시선 방향 벡터에 대응하는 점을 출력할 수 있다. 이러한, 출력부(300)는 LCD(Liquid Crystal Display), 유기 발광 디스플레이 패널(OLED), 전기 영동 디스플레이 패널(EDD) 또는 터치스크린 등 다양한 형태의 디스플레이 수단으로 구현될 수 있다.Referring again to FIG. 1, a plurality of calibration points according to a predetermined interval are set by an output unit 300 under the control of the controller 200, and a point corresponding to a human's gaze direction vector can be output. At this time, the output unit 300 does not output the specific content as described above, or outputs the specific content through the separate output module without outputting the specific content from the output unit 300, Can output a point corresponding to a gaze direction vector of a person staring at a separate output module. The output unit 300 may be implemented as various types of display means such as a liquid crystal display (LCD), an organic light emitting display panel (OLED), an electrophoretic display panel (EDD), or a touch screen.

또한, 메모리부(400)는 시선 추적 장치(1)의 처리 및 제어를 위한 프로그램이 저장될 수 있으며, 입/출력되는 데이터들의 임시 저장을 위한 기능을 수행할 수 있다. 특히, 메모리부(400)는 상술한 바와 같이, 얼굴 영역, 눈 영역 및 코 영역 검출 분류기의 생성을 위한 학습영상이 저장될 수 있으며, 제어부(200)에 의해 얼굴 영역, 눈 영역 및 코 영역이 검출될 때마다 검출한 얼굴 영역, 눈 영역 및 코 영역에 대한 영상을 학습영상으로 업데이트 하여 저장할 수 있다. In addition, the memory unit 400 may store a program for processing and controlling the gaze tracking device 1, and may perform a function for temporarily storing input / output data. In particular, as described above, the memory unit 400 may store a learning image for generating the face region, the eye region, and the nose region detection classifier, and the face region, the eye region, and the nose region The detected image of the face region, the eye region, and the nose region can be updated with the learning image and stored.

또한, 메모리부(400)는 촬영부(100)의 줌(Zoom) 위치에 따른 화각 정보를 저장할 수 있다.In addition, the memory unit 400 may store angle-of-view information according to the zoom position of the photographing unit 100.

이하에서는, 도 16을 참조하여 본 발명의 일 실시예에 따른 시선 추적 방법을 설명하기로 한다.Hereinafter, a gaze tracking method according to an embodiment of the present invention will be described with reference to FIG.

도 16은 본 발명의 일 실시예에 따른 시선 추적 방법을 설명하기 위한 순서도이다.16 is a flowchart for explaining a line-of-sight tracking method according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 시선 추적 방법은, 도 1에 도시된 시선 추적 장치(1)와 실질적으로 동일한 구성에서 진행될 수 있다. 따라서, 도 1의 시선 추적 장치(1)와 동일한 구성요소는 동일한 도면부호를 부여하고, 반복되는 설명은 생략한다.The gaze tracking method according to an embodiment of the present invention can be performed in substantially the same configuration as the gaze tracking apparatus 1 shown in Fig. Therefore, the same components as those of the gaze tracking device 1 of FIG. 1 are denoted by the same reference numerals, and repeated descriptions are omitted.

도 16을 참조하면, 광각 모드의 촬영부(100)로부터 주변 영상을 획득할 수 있다(500). 촬영부(100)는 제어부(200)의 제어에 따라 광각 모드로 설정되어, 넓은 시야의 주변 영상을 획득할 수 있다.Referring to FIG. 16, a surrounding image can be acquired from the photographing unit 100 in the wide angle mode (500). The photographing unit 100 may be set in a wide angle mode under the control of the controller 200 to acquire a peripheral image of a wide field of view.

또한, 획득한 영상에서 사람의 얼굴 영역, 눈 영역 및 코 영역을 검출할 수 있다(510). 제어부(200)는 촬영부(100)에서 획득한 영상에 얼굴 영역, 눈 영역 및 코 영역 분류기를 적용할 수 있으며, 따라서, 촬영부(100)에서 획득하는 영상에 사람이 나타난 경우, 제어부(200)는 얼굴 영역, 눈 영역 및 코 영역을 검출할 수 있다.In addition, a face region, an eye region, and a nose region of a person can be detected from the acquired image (510). The control unit 200 may apply the face region, the eye region, and the nose region classifier to the image acquired by the photographing unit 100. Accordingly, when a person appears in the image acquired by the photographing unit 100, Can detect the face region, the eye region, and the nose region.

또한, 검출한 얼굴 영역이 촬영부(100)에서 획득하는 영상의 중심에 위치할 수 있도록, 촬영부(100)를 팬(Pan) 또는 틸트(Tilt) 제어할 수 있다(520). 이를 위해, 제어부(200)는 촬영부(100)와 검출한 사람의 얼굴 영역 사이의 거리를 산출하고, 이를 이용하여, 촬영부(100)의 팬(Pan) 또는 틸트(Tilt) 각도를 산출하여, 검출한 얼굴 영역이 촬영부(100)에서 획득하는 영상의 중심에 위치할 수 있도록, 촬영부(100)를 팬(Pan) 또는 틸트(Tilt) 제어할 수 있다.In addition, the photographing unit 100 may be controlled to pan or tilt (520) so that the detected face region may be located at the center of the image acquired by the photographing unit 100. The control unit 200 calculates the distance between the photographing unit 100 and the face region of the detected person and calculates a pan or tilt angle of the photographing unit 100 using the calculated distance The camera 100 can be controlled to pan or tilt so that the detected face area can be located at the center of the image acquired by the photographing unit 100. [

또한, 촬영부(100)의 촬영모드를 협각 모드로 전환하여 고해상도의 확대된 얼굴 영역의 영상을 획득할 수 있다(530). 제어부(200)는 촬영부(100)와 검출한 사람의 얼굴 영역 사이의 거리를 이용하여 촬영부(100)의 줌(Zoom) 배수를 산출하고, 줌(Zoom) 배수에 따라 촬영부(100)를 제어함으로써 보다 고해상도의 확대된 얼굴 영역의 영상을 획득할 수 있다.In addition, the image of the enlarged face region of high resolution can be acquired by switching the photographing mode of the photographing unit 100 to the narrow-angle mode (530). The control unit 200 calculates a zoom multiple of the photographing unit 100 using the distance between the photographing unit 100 and the detected face region of the person and displays the zoom ratio of the photographing unit 100 according to the zooming factor, The image of the enlarged face region of higher resolution can be obtained.

이후, 고해상도의 확대된 얼굴 영역의 영상으로부터 홍채 영역을 검출하고, 홍채 영역 안에서 동공 중심을 검출할 수 있다(540). 제어부(200)는 고해상도의 확대된 얼굴 영역의 영상에 포함되는 눈 영역에 가변 템플릿을 매칭하여 홍채 영역을 검출할 수 있다. 그리고, 제어부(200)는 검출한 홍채 영역 안에서 K-평균 알고리즘을 적용하여 홍채 영역과 동공 영역을 분리한 뒤, 동공영역의 무게중심을 동공 중심으로 검출할 수 있다.Thereafter, the iris region is detected from the image of the enlarged face region of high resolution, and the center of the pupil is detected in the iris region (540). The controller 200 can detect the iris region by matching the variable template to the eye region included in the image of the enlarged face region of high resolution. Then, the controller 200 can detect the center of gravity of the pupil region as a pupil center by separating the iris region and the pupil region by applying a K-means algorithm within the detected iris region.

또한, 고해상도의 확대된 얼굴 영역의 영상으로부터 얼굴 포즈를 검출할 수 있다(550). 제어부(200)는 고해상도의 확대된 얼굴 영역의 영상에서의 눈 영역 및 코 영역의 위치 정보로부터 피치(Pitch), 롤(Roll), 요(Yaw)의 얼굴 포즈의 각도를 산출할 수 있다.Further, a face pose can be detected from an image of a high-resolution enlarged face region (550). The controller 200 can calculate angles of face pose of pitch, roll, and yaw from the position information of the eye region and the nose region in the image of the enlarged face region of high resolution.

또한, 고해상도의 확대된 얼굴 영역의 영상으로부터 눈 코너점을 검출하고, 눈 코너점과 얼굴 포즈의 각도에 따른 안구 중심을 검출할 수 있다(560). 제어부(200)는 고해상도의 확대된 얼굴 영역의 영상에 포함되는 눈 영역에 로버트 에지 검출기를 적용하고 레이블링을 수행하여 눈 코너점을 검출할 수 있으며, 눈 코너점과 얼굴 포즈의 각도를 상술한 수학식 15에 적용하여 안구 중심을 검출할 수 있다.In addition, an eye corner point can be detected from an image of a high-resolution enlarged face region, and an eye center according to an angle of an eye corner point and a face pose can be detected (560). The control unit 200 can detect the eye corner point by applying the Robert edge detector to the eye region included in the image of the enlarged face region of high resolution and performing labeling, and calculate the angle of the eye corner point and the face pose by using the above- Equation 15 can be applied to detect the center of the eye.

또한, 동공 중심과 안구 중심을 연결하여 시선 방향을 검출할 있다(570). 제어부(200)는 검출한 동공 중심과 안구 중심이 적용된 눈의 기하학적 모델을 생성하고, 안구 중심과 동공 중심을 지나는 선을 시선 방향으로 검출할 수 있다. In addition, the eye direction can be detected by connecting the pupil center and the eyeball center (570). The controller 200 can generate a geometric model of the eye to which the center of the pupil and the center of the eye are applied, and detect a line passing through the center of the eye and the center of the pupil in the eye direction.

마지막으로, 시선 방향에 대한 캘리브레이션을 수행할 수 있다(580). 제어부(200)는, 출력부(300)에 복수의 캘리브레이션 포인트를 설정하고, 사람의 시선 방향에 대응하는 지점과 복수의 캘리브레이션 포인트를 비교하는 방식으로 상기 사람의 시선 방향에 대한 캘리브레이션을 수행할 수 있다.Finally, a calibration for the viewing direction may be performed (580). The control unit 200 may set a plurality of calibration points on the output unit 300 and perform calibration on the gaze direction of the person by comparing a plurality of calibration points with a point corresponding to a direction of a human's gaze have.

이와 같은, 시선 추적 방법은 애플리케이션으로 구현되거나 다양한 컴퓨터 구성요소를 통하여 수행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다.Such a gaze tracking method may be implemented in an application or may be implemented in the form of program instructions that can be executed through various computer components and recorded in a computer-readable recording medium. The computer-readable recording medium may include program commands, data files, data structures, and the like, alone or in combination.

상기 컴퓨터 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것들이거니와 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수도 있다.The program instructions recorded on the computer-readable recording medium may be ones that are specially designed and configured for the present invention and are known and available to those skilled in the art of computer software.

컴퓨터 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD 와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 ROM, RAM, 플래시 메모리 등과 같은 프로그램 명령어를 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다.Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tape, optical recording media such as CD-ROMs and DVDs, magneto-optical media such as floptical disks, media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like.

프로그램 명령어의 예에는, 컴파일러에 의해 만들어지는 것과 같은 기계어 코드 뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 상기 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.Examples of program instructions include machine language code such as those generated by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware device may be configured to operate as one or more software modules for performing the processing according to the present invention, and vice versa.

이상에서는 실시예들을 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it will be understood by those skilled in the art that various changes and modifications may be made therein without departing from the spirit and scope of the invention as defined in the appended claims. It will be possible.

1: 시선 추적 장치
100: 촬영부
200: 제어부
300: 출력부
400: 메모리부
1: eye tracking device
100:
200:
300:
400:

Claims (12)

광각 모드 또는 협각 모드 중 하나의 촬영 모드로 주변 영상을 획득하는 촬영부; 및
상기 촬영부에서 획득하는 주변 영상과 미리 저장된 얼굴 영역, 눈 영역 및 코 영역에 대한 학습 영상을 비교하여 상기 주변 영상에 나타나는 사람의 얼굴 영역, 눈 영역 및 코 영역을 검출하고, 상기 눈 영역으로부터 홍채 영역을 검출하고 상기 홍채 영역에서 동공 영역을 분리하여 그 중심을 검출하며, 상기 얼굴 영역에서의 상기 눈 영역 및 상기 코 영역의 위치 정보로부터 상기 사람의 얼굴 포즈의 각도를 산출하여 상기 사람의 얼굴 포즈의 각도에 따른 안구 중심을 검출하고, 상기 동공 영역의 중심과 상기 안구 중심을 연결하여 상기 사람의 시선 방향을 검출하는 제어부를 포함하되,
상기 제어부에 의해 복수의 캘리브레이션 포인트가 설정되고, 상기 제어부의 제어에 따라 상기 사람의 시선 방향에 대응하는 지점에 점을 출력하는 출력부를 더 포함하고,
상기 제어부는,
상기 출력부에서 상기 사람의 시선 방향에 대응하는 지점에 점을 출력하는 과정을 반복 수행하고, 상기 출력부에 출력되는 점과 상기 복수의 캘리브레이션 포인트를 비교하는 방식으로 상기 사람의 시선 방향에 대한 캘리브레이션을 수행하는 시선 추적 장치.
A photographing unit for acquiring a surrounding image in one of a wide angle mode and a narrow angle mode; And
Eye region and a nose region are compared with a learning image of a face region, a snow region, and a nose region stored in advance in the peripheral region, and a face region, an eye region, and a nose region appearing in the peripheral image are detected, Detecting the center of the pupil region in the iris region, calculating the angle of the face pose of the person from the position information of the eye region and the nose region in the face region, And a control unit for detecting a gaze direction of the person by connecting the center of the pupil region and the center of the eyeball,
Further comprising an output unit for setting a plurality of calibration points by the control unit and outputting a point at a point corresponding to the gaze direction of the person under the control of the control unit,
Wherein,
A step of outputting a point at a point corresponding to a direction of the human eye in the output unit is repeatedly performed and a calibration for the gaze direction of the person is performed by a method of comparing points output from the output unit and the plurality of calibration points Of the subject.
삭제delete 제1항에 있어서,
상기 제어부는,
미리 저장된 학습영상으로부터 MCT 및 아다부스트(Adaboost) 기법을 이용하여 상기 얼굴 영역, 눈 영역 및 코 영역 분류기를 생성하고, 상기 촬영부에서 획득하는 주변 영상에 상기 얼굴 영역, 눈 영역 및 코 영역 분류기를 적용하여 상기 주변 영상에 나타나는 사람의 얼굴 영역, 눈 영역 및 코 영역을 검출하는 얼굴 요소 검출부를 포함하는 시선 추적 장치.
The method according to claim 1,
Wherein,
Eye region and a nose region classifier using MCT and Adaboost techniques from a pre-stored learning image, and generates the face region, eye region, and nose region classifier on a peripheral image acquired by the photographing unit Eye region and a nose region of a person appearing in the peripheral image by applying the face region detecting unit to the face region detecting unit.
제1항에 있어서,
상기 제어부는,
상기 촬영부의 촬영 모드를 광각 모드로 제어하여 상기 주변 영상을 획득하고, 상기 광각 모드에서 촬영되는 주변 영상에 나타나는 사람의 얼굴 영역, 눈 영역 및 코 영역을 검출하면, 상기 광각 모드에서 촬영되는 영상의 중심에서 상기 얼굴 영역이 검출될 수 있도록 상기 촬영부를 팬(Pan) 또는 틸트(Tilt) 제어하고, 상기 얼굴 영역의 영상을 확대하여 획득할 수 있도록 상기 촬영부의 촬영 모드를 협각 모드로 전환하는 촬영 제어부를 포함하는 시선 추적 장치.
The method according to claim 1,
Wherein,
When a face region, an eye region, and a nose region of a person appearing in a peripheral image photographed in the wide angle mode are detected by controlling the photographing mode of the photographing unit to be a wide angle mode, A photographing control unit for controlling the photographing unit to pan or tilt so that the face region can be detected from the center and for switching the photographing mode of the photographing unit to a narrow- Wherein the gaze tracking device comprises:
제1항에 있어서,
상기 제어부는,
상기 눈 영역의 영상에 가변 템플릿을 매칭하여 홍채 영역을 검출하고, K-평균 알고리즘을 적용하여 상기 홍채 영역에서 상기 동공 영역을 분리하며, 상기 동공 영역의 무게중심을 상기 동공 영역의 중심으로 검출하는 동공 중심 검출부를 포함하는 시선 추적 장치.
The method according to claim 1,
Wherein,
Detecting an iris region by matching a variable template to an image of the eye region, separating the pupil region from the iris region by applying a K-means algorithm, and detecting a center of gravity of the pupil region as a center of the pupil region And a pupil center detecting unit.
제5항에 있어서,
상기 제어부는,
상기 눈 영역 및 상기 코 영역의 위치 정보를 이용하여 피치(Pitch), 롤(Roll), 요(Yaw)의 상기 사람의 얼굴 포즈의 각도를 산출하는 얼굴 포즈 검출부; 및
상기 눈 영역의 영상에 로버트 에지 검출기를 적용하고, 레이블링을 수행하여 눈 코너점을 검출하며, 상기 눈 코너점 및 상기 사람의 얼굴 포즈의 각도를 이용하여 상기 안구 중심을 검출하는 안구 중심 검출부를 더 포함하는 시선 추적 장치.
6. The method of claim 5,
Wherein,
A facial pose detecting unit for calculating an angle of the facial pose of the person in a pitch, a roll, and a yaw using the position information of the eye region and the nose region; And
An eye center detecting unit for detecting the eye center by detecting the eye corner point by applying a Robert edge detector to the image of the eye region, performing labeling, and using the angle of the eye corner point and the face pose of the person Includes an eye tracking device.
주변 영상을 획득하고 미리 저장된 얼굴 영역, 눈 영역 및 코 영역에 대한 학습 영상과 비교하여 상기 주변 영상에 나타나는 사람의 얼굴 영역, 눈 영역 및 코 영역을 검출하고,
상기 눈 영역으로부터 홍채 영역을 검출하고, 상기 홍채 영역에서 동공 영역을 분리하여 그 중심을 검출하며,
상기 얼굴 영역에서의 상기 눈 영역 및 상기 코 영역의 위치 정보로부터 상기 사람의 얼굴 포즈의 각도를 산출하여 상기 사람의 얼굴 포즈의 각도에 따른 안구 중심을 검출하고,
상기 동공 영역의 중심과 상기 안구 중심을 연결하여 상기 사람의 시선 방향을 검출하되,
복수의 캘리브레이션 포인트를 설정하고,
상기 사람의 시선 방향에 대응하는 지점과 상기 복수의 캘리브레이션 포인트를 비교하는 방식으로 상기 사람의 시선 방향에 대한 캘리브레이션을 수행하는 것을 더 포함하는 시선 추적 방법.
Eye area and a nose area of a person appearing in the surrounding image by comparing with a learning image of a previously stored face area,
Detecting an iris region from the eye region, separating the pupil region from the iris region,
Calculating an angle of the face pose of the person from the position information of the eye region and the nose region in the face region to detect an eyeball center according to an angle of the face pose of the person,
Detecting the gaze direction of the person by connecting the center of the pupil region and the center of the eyeball,
A plurality of calibration points are set,
And performing a calibration for the gaze direction of the person by comparing the plurality of calibration points with a point corresponding to the gaze direction of the person.
삭제delete 제7항에 있어서,
상기 주변 영상에 나타나는 사람의 얼굴 영역, 눈 영역 및 코 영역을 검출하는 것은,
미리 저장된 학습영상으로부터 MCT 및 아다부스트(Adaboost) 기법을 이용하여 얼굴 영역, 눈 영역 및 코 영역 분류기를 생성하고, 상기 주변 영상에 상기 얼굴 영역, 눈 영역 및 코 영역 분류기를 적용하여 상기 주변 영상에 나타나는 사람의 얼굴 영역, 눈 영역 및 코 영역을 검출하는 것인 시선 추적 방법.
8. The method of claim 7,
The detection of the face region, the eye region and the nose region of the person appearing in the peripheral image,
Eye region and a nose region classifier using MCT and Adaboost technique from pre-stored learning images, applying the face region, eye region, and nose region classifier to the peripheral image, Eye region and a nose region of a person appearing.
제7항에 있어서,
상기 눈 영역으로부터 홍채 영역을 검출하고, 상기 홍채 영역에서 동공 영역을 분리하여 그 중심을 검출하는 것은,
상기 눈 영역의 영상에 가변 템플릿을 매칭하여 홍채 영역을 검출하고, K-평균 알고리즘을 적용하여 상기 홍채 영역에서 상기 동공 영역을 분리하며, 상기 동공 영역의 무게중심을 상기 동공 중심으로 검출하는 것인 시선 추적 방법.
8. The method of claim 7,
Detecting the iris region from the eye region, separating the pupil region from the iris region, and detecting the center thereof,
Detecting an iris region by matching a variable template to an image of the eye region, separating the pupil region from the iris region by applying a K-means algorithm, and detecting the center of gravity of the pupil region as the pupil center Eye tracking method.
제10항에 있어서,
상기 얼굴 영역에서의 상기 눈 영역 및 상기 코 영역의 위치 정보로부터 상기 사람의 얼굴 포즈의 각도를 산출하여 상기 사람의 얼굴 포즈의 각도에 따른 안구 중심을 검출하는 것은,
상기 눈 영역 및 상기 코 영역의 위치 정보를 이용하여 피치(Pitch), 롤(Roll), 요(Yaw)의 상기 사람의 얼굴 포즈의 각도를 산출하고,
상기 눈 영역의 영상에 로버트 에지 검출기를 적용하고, 레이블링을 수행하여 눈 코너점을 검출하며, 상기 눈 코너점 및 상기 사람의 얼굴 포즈의 각도를 이용하여 상기 안구 중심을 검출하는 것인 시선 추적 방법.
11. The method of claim 10,
Calculating an angle of the face pose of the person from the position information of the eye region and the nose region in the face region and detecting an eyeball center according to an angle of the face pose of the person,
Calculating an angle of a person's face pose of pitch, roll, and yaw using the position information of the eye region and the nose region,
Wherein a gaze point is detected by applying a Robert edge detector to the image of the eye region, performing labeling to detect an eye corner point, and detecting the center of the eye using an angle of the eye corner point and a face pose of the person .
제7항, 제9항 내지 제11항 중 어느 하나의 항에 따른 시선 추적 방법을 수행하기 위한, 컴퓨터 프로그램이 기록된 컴퓨터로 판독 가능한 기록 매체.12. A computer-readable recording medium on which a computer program is recorded, for performing the method for tracking a line of sight according to any one of claims 7, 9, 11,
KR1020160009822A 2016-01-27 2016-01-27 Apparatus and method for tracking gaze, recording medium for performing the method KR101706992B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160009822A KR101706992B1 (en) 2016-01-27 2016-01-27 Apparatus and method for tracking gaze, recording medium for performing the method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160009822A KR101706992B1 (en) 2016-01-27 2016-01-27 Apparatus and method for tracking gaze, recording medium for performing the method

Publications (1)

Publication Number Publication Date
KR101706992B1 true KR101706992B1 (en) 2017-02-15

Family

ID=58112008

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160009822A KR101706992B1 (en) 2016-01-27 2016-01-27 Apparatus and method for tracking gaze, recording medium for performing the method

Country Status (1)

Country Link
KR (1) KR101706992B1 (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101903127B1 (en) * 2017-05-12 2018-10-01 이래에이엠에스 주식회사 Gaze estimation method and apparatus
CN109464236A (en) * 2017-09-08 2019-03-15 拉碧斯半导体株式会社 Goggle type display device, method for detecting sight line and Line-of-sight detection systems
KR20190056642A (en) 2017-11-17 2019-05-27 포인드 주식회사 Eye Tracking Method Using Movement of Pupil and Gap between Eyes and Edge of Face
KR20190143525A (en) * 2018-06-08 2019-12-31 안양대학교 산학협력단 A Method of Detecting Character Data through a Adaboost Learning Method
CN111144215A (en) * 2019-11-27 2020-05-12 北京迈格威科技有限公司 Image processing method, image processing device, electronic equipment and storage medium
CN112419399A (en) * 2019-08-23 2021-02-26 北京七鑫易维信息技术有限公司 Image ranging method, device, equipment and storage medium
CN112541400A (en) * 2020-11-20 2021-03-23 小米科技(武汉)有限公司 Behavior recognition method and device based on sight estimation, electronic equipment and storage medium
US11113842B2 (en) 2018-12-24 2021-09-07 Samsung Electronics Co., Ltd. Method and apparatus with gaze estimation
KR20210117798A (en) * 2020-03-20 2021-09-29 한국전자통신연구원 Method and apparatus of active identity verification based on gaze path analysis
KR20220139592A (en) * 2021-04-08 2022-10-17 주식회사 이모코그 Apparatus and method for gaze tracking based on machine learning
KR20230052648A (en) * 2021-10-13 2023-04-20 상명대학교산학협력단 method for detection pupil by using a visual-light camera and system using the method

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110076723A (en) * 2009-12-29 2011-07-06 한국전자통신연구원 Apparatus and method for tracking eye
KR101533686B1 (en) * 2014-06-30 2015-07-09 숭실대학교산학협력단 Apparatus and method for tracking gaze, recording medium for performing the method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110076723A (en) * 2009-12-29 2011-07-06 한국전자통신연구원 Apparatus and method for tracking eye
KR101533686B1 (en) * 2014-06-30 2015-07-09 숭실대학교산학협력단 Apparatus and method for tracking gaze, recording medium for performing the method

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101903127B1 (en) * 2017-05-12 2018-10-01 이래에이엠에스 주식회사 Gaze estimation method and apparatus
CN109464236B (en) * 2017-09-08 2022-08-02 拉碧斯半导体株式会社 Goggle type display device, sight line detection method and sight line detection system
CN109464236A (en) * 2017-09-08 2019-03-15 拉碧斯半导体株式会社 Goggle type display device, method for detecting sight line and Line-of-sight detection systems
KR20190056642A (en) 2017-11-17 2019-05-27 포인드 주식회사 Eye Tracking Method Using Movement of Pupil and Gap between Eyes and Edge of Face
KR20190143525A (en) * 2018-06-08 2019-12-31 안양대학교 산학협력단 A Method of Detecting Character Data through a Adaboost Learning Method
KR102139932B1 (en) * 2018-06-08 2020-08-03 안양대학교 산학협력단 A Method of Detecting Character Data through a Adaboost Learning Method
US11747898B2 (en) 2018-12-24 2023-09-05 Samsung Electronics Co., Ltd. Method and apparatus with gaze estimation
US11113842B2 (en) 2018-12-24 2021-09-07 Samsung Electronics Co., Ltd. Method and apparatus with gaze estimation
CN112419399A (en) * 2019-08-23 2021-02-26 北京七鑫易维信息技术有限公司 Image ranging method, device, equipment and storage medium
CN111144215A (en) * 2019-11-27 2020-05-12 北京迈格威科技有限公司 Image processing method, image processing device, electronic equipment and storage medium
CN111144215B (en) * 2019-11-27 2023-11-24 北京迈格威科技有限公司 Image processing method, device, electronic equipment and storage medium
KR20210117798A (en) * 2020-03-20 2021-09-29 한국전자통신연구원 Method and apparatus of active identity verification based on gaze path analysis
KR102534582B1 (en) * 2020-03-20 2023-05-22 한국전자통신연구원 Method and apparatus of active identity verification based on gaze path analysis
US11709919B2 (en) 2020-03-20 2023-07-25 Electronics And Telecommunications Research Institute Method and apparatus of active identity verification based on gaze path analysis
CN112541400A (en) * 2020-11-20 2021-03-23 小米科技(武汉)有限公司 Behavior recognition method and device based on sight estimation, electronic equipment and storage medium
KR20220139592A (en) * 2021-04-08 2022-10-17 주식회사 이모코그 Apparatus and method for gaze tracking based on machine learning
KR102587813B1 (en) * 2021-04-08 2023-10-12 주식회사 이모코그 Apparatus and method for gaze tracking based on machine learning
KR20230052648A (en) * 2021-10-13 2023-04-20 상명대학교산학협력단 method for detection pupil by using a visual-light camera and system using the method
KR102583280B1 (en) 2021-10-13 2023-09-26 상명대학교산학협력단 method for detection pupil by using a visual-light camera and system using the method

Similar Documents

Publication Publication Date Title
KR101706992B1 (en) Apparatus and method for tracking gaze, recording medium for performing the method
US10684681B2 (en) Neural network image processing apparatus
KR101533686B1 (en) Apparatus and method for tracking gaze, recording medium for performing the method
US9733703B2 (en) System and method for on-axis eye gaze tracking
CN107209849B (en) Eye tracking
US11715231B2 (en) Head pose estimation from local eye region
Mehrubeoglu et al. Real-time eye tracking using a smart camera
US10254831B2 (en) System and method for detecting a gaze of a viewer
Rakhmatulin et al. Deep neural networks for low-cost eye tracking
CN110703904A (en) Augmented virtual reality projection method and system based on sight tracking
EP3893090B1 (en) Method for eye gaze tracking
KR101914190B1 (en) Device and method for driver's gaze detection
WO2019006985A1 (en) Virtual image display apparatus, vehicle comprising head-up display apparatus comprising virtual image display apparatus, and method for virtual image display
CN112183200B (en) Eye movement tracking method and system based on video image
US20190378290A1 (en) Information processing apparatus and non-transitory computer readable medium storing information processing program
Sidenko et al. Eye-tracking technology for the analysis of dynamic data
US20220206571A1 (en) Personalized calibration-independent regional fixation prediction for simultaneous users of a digital display
JP6463712B2 (en) Target search device, target search method, and target search program
Khan et al. A new 3D eyeball tracking system to enhance the usability of page scrolling
KR102305880B1 (en) User's Gaze Tracking Method, and Medium Being Recorded with Program for Executing the Method
US20220028109A1 (en) Image processing method and apparatus
Shahid et al. Eye-gaze and augmented reality framework for driver assistance
Parte et al. A survey on eye tracking and detection
Sun et al. An auxiliary gaze point estimation method based on facial normal
Cao et al. Gaze tracking on any surface with your phone

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20200203

Year of fee payment: 4