KR101961266B1 - Gaze Tracking Apparatus and Method - Google Patents

Gaze Tracking Apparatus and Method Download PDF

Info

Publication number
KR101961266B1
KR101961266B1 KR1020120082012A KR20120082012A KR101961266B1 KR 101961266 B1 KR101961266 B1 KR 101961266B1 KR 1020120082012 A KR1020120082012 A KR 1020120082012A KR 20120082012 A KR20120082012 A KR 20120082012A KR 101961266 B1 KR101961266 B1 KR 101961266B1
Authority
KR
South Korea
Prior art keywords
subject
camera
image frame
enlarged
region
Prior art date
Application number
KR1020120082012A
Other languages
Korean (ko)
Other versions
KR20140014868A (en
Inventor
이규태
Original Assignee
엘지이노텍 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지이노텍 주식회사 filed Critical 엘지이노텍 주식회사
Priority to KR1020120082012A priority Critical patent/KR101961266B1/en
Publication of KR20140014868A publication Critical patent/KR20140014868A/en
Application granted granted Critical
Publication of KR101961266B1 publication Critical patent/KR101961266B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Abstract

실시 예에 따른 시선 추적 방법은 피사체에 대한 깊이 영상을 획득하는 단계; 상기 획득한 깊이 영상으로부터 상기 피사체에 포함된 안구 영역에 대한 위치 정보를 획득하는 단계; 및 상기 획득한 위치 정보를 토대로 상기 안구 영역에 포함된 동공을 인식하여 사용자의 시선을 추적하는 단계를 포함한다.According to an embodiment of the present invention, there is provided a line-of-sight tracking method comprising: obtaining a depth image of a subject; Acquiring positional information on an eyeball region included in the subject from the obtained depth image; And recognizing the pupil included in the eye region based on the acquired position information and tracking the user's gaze.

Description

시선 추적 장치 및 이의 시선 추적 방법{Gaze Tracking Apparatus and Method}[0001] Gaze Tracking Apparatus and Method [0002]

실시 예는, 시선 추적 장치 및 이의 시선 추적 방법에 관한 것이다.An embodiment relates to a gaze tracking apparatus and a gaze tracking method thereof.

최근, 사용자의 시선 추적을 기반으로 통한 시청자 광고 효과 측정, 운전자 운전 행태 분석 및 졸음 방지, 웹페이지 소비 행태 분석을 통한 메뉴 재배치, 시선 상호 작용을 이용한 게임 제어, 홍채 정보 기반 사용자 인증, 운동 및 전문 기술 트레이닝 프로그램 및 소비 행태 분석을 통한 진열대 배치 등이 이루어지고 있다.Recently, it has been proposed to measure the viewer's advertisement effect based on the user's gaze tracking, analyze driver's driving behavior and prevent drowsiness, rearrange the menu through analysis of web page consumption behavior, control game using eye interaction, And placement of shelves through analysis of technical training programs and consumption behavior.

특허문헌 1은, 컴퓨터 비전 기반의 시선 추적 방법에 관련한다.Patent Document 1 relates to a computer vision-based gaze tracking method.

이 방법은 사용자의 얼굴 및 눈에 대한 특성 값에 대한 룩-업 테이블을 사용 전 구성 한다. 실제 시선 추적에 있어서는, 얼굴방향 및 홍채의 중심점을 측정한 후, 상기 특성 값과 상기 측정값을 비교하여 시선 방향을 계산한다. 시선 방향은 측정된 얼굴 방향 좌표계 및 홍채 중심 좌표계의 합성에 의해 계산된다. 얼굴 방향 측정은 T자 스틱형 참조모델을 착용하여 정확한 각도를 찾아내고, 홍채의 중심점은 홍채의 색깔 분포 분석에 의한 홍채색깔의 무게중심을 구하여, 그 무게중심을 시작으로 업/다운 스캐닝함으로써, 타원형 홍채 에지 내의 가장 긴 수평 라인을 찾고, 그 수평 라인의 중심점을 홍채의 중심점으로 결정한다. This method constitutes a look-up table for the user ' s face and eye characteristic values. In actual line-of-sight tracing, the gaze direction is calculated by measuring the face direction and the center point of the iris, and then comparing the characteristic value with the measured value. The gaze direction is calculated by combining the measured face direction coordinate system and the iris center coordinate system. The direction of the face is measured by finding a correct angle by wearing a T-stick type reference model. The center of the iris is obtained by finding the center of gravity of the iris color by analyzing the color distribution of the iris, Finds the longest horizontal line in the elliptical iris edge, and determines the center point of the horizontal line as the center point of the iris.

그러나, 이 방법은 다양한 얼굴 및 눈에 대한 특성 값을 미리 측정하여 룩업 테이블을 구성하는데 있어서 신뢰성을 높이기 위해서는 수많은 특성에 대한 특성을 미리 고려하고 수집해야 하는 제약이 있으며, 홍채 영역이 눈꺼풀에 의해 가려지는 경우 시선 추적 정확도가 떨어질 수 있다.However, in this method, in order to increase the reliability in constructing the look-up table by measuring characteristic values of various faces and eyes in advance, there is a restriction to collect and collect characteristics of a number of characteristics in advance. The eye tracking accuracy may be lowered.

특허문헌 2에 개시된 종래 기술은 사용자의 얼굴을 복수의 특징점에 의한 특징 면으로 파악하여 이 특징 면의 병진 및 회전에 의해 사용자의 얼굴의 방향을 인식함으로써 시선을 추적한다. 그 결과 신뢰도가 매우 높고 정확한 응시 위치 추적 시스템이 일반 사용이 가능할 만큼 저렴한 가격으로 제공될 수 있다. 그러나, 얼굴의 특징점만을 이용하고 안구의 회전은 고려하지 않기 때문에 직관적인 시선 추적 인터페이스라고 할 수 없으며, 목적한 위치에 커서를 움직이기 위해서는 고개를 지속적으로 움직여야 한다.The conventional technique disclosed in Patent Document 2 tracks the user's face by recognizing the face of the user as a feature surface by a plurality of feature points and recognizing the direction of the user's face by translating and rotating the feature surface. As a result, highly reliable and accurate pointing and tracking systems can be provided at a price that is affordable for general use. However, since only the feature points of the face are used and the rotation of the eyeball is not considered, it is not an intuitive eye tracking interface. In order to move the cursor to the desired position, the head should be moved continuously.

비 특허논문은 2대의 카메라로 구성한 스테레오 카메라 장치 및 3개의 적외선 조명을 이용하여 안구의 3차원 위치를 추정하고, 이를 통해 시선 벡터를 구하여 2차원 평면 화면상의 시선 위치를 구하는 방법을 제안한다. Non-patent papers propose a method of estimating the 3D position of eyeballs using a stereo camera device composed of two cameras and three infrared lights, and obtaining a gaze vector through this to obtain eye gaze position on a two-dimensional plane screen.

이 방법의 수행을 위해서는, 스테레오 카메라 구성을 위해 2대의 카메라 간 캘리브레이션 과정이 선행되어야 하며, 3개의 조명 간 위치가 정확하게 설정되어야 한다. In order to perform this method, the calibration process between two cameras must precede the stereo camera configuration, and the position between the three lights must be accurately set.

이러한 방법은 다수의 카메라 및 조명 장치를 구축하기 위한 비용이 많이 소요되는 문제점이 있다.This method has a problem that it is expensive to construct a large number of cameras and lighting devices.

특허문헌 1: KR 10-0311605Patent Document 1: KR 10-0311605

특허문헌 2: KR 10-0325365Patent Document 2: KR 10-0325365

비 특허문헌: S. W. Shih and J. Liu, "A Novel Approach to 3-D Gaze Tracking Using Stereo Cameras," IEEE Transactions on Systems, Man and Cybernetics, Part B, vol. 34, no. 1, pp. 234-245, Feb. 2004 Non-Patent Documents: S. W. Shih and J. Liu, "A Novel Approach to 3-D Gaze Tracking Using Stereo Cameras," IEEE Transactions on Systems, Man and Cybernetics, Part B, vol. 34, no. 1, pp. 234-245, Feb. 2004

실시 예에서는, TOF(Time of Flight) 카메라를 이용하여 사용자의 시선을 추적할 수 있는 시선 추적 장치 및 이의 시선 추적 방법을 제공한다.In an embodiment, a gaze tracking apparatus and a gaze tracking method for tracking a user's gaze using a TOF (Time of Flight) camera are provided.

실시 예에서는, 어레이 렌즈를 이용하여 사용자의 시선을 추적할 수 있는 시선 추적 장치 및 이의 시선 추적 방법을 제공한다.Embodiments provide a line-of-sight tracking apparatus and a line-of-sight tracking method that can track a user's line of sight using an array lens.

또한, 실시 예에서는 오른쪽 및 왼쪽 동공의 위치 차이를 이용하여 시선 추적을 행할 수 있는 시선 추적 장치 및 이의 시선 추적 방법을 제공한다.In addition, the embodiment provides a line-of-sight tracking apparatus capable of performing line-of-sight tracking using the difference between the positions of right and left pupils, and a line-of-sight tracking method therefor.

제안되는 실시 예에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 제안되는 실시 예가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.It is to be understood that the technical objectives to be achieved by the embodiments are not limited to the technical matters mentioned above and that other technical subjects not mentioned are apparent to those skilled in the art to which the embodiments proposed from the following description belong, It can be understood.

실시 예에 따른 시선 추적 방법은 피사체에 대한 깊이 영상을 획득하는 단계; 상기 획득한 깊이 영상으로부터 상기 피사체에 포함된 안구 영역에 대한 위치 정보를 획득하는 단계; 및 상기 획득한 위치 정보를 토대로 상기 안구 영역에 포함된 동공을 인식하여 사용자의 시선을 추적하는 단계를 포함한다.According to an embodiment of the present invention, there is provided a line-of-sight tracking method comprising: obtaining a depth image of a subject; Acquiring positional information on an eyeball region included in the subject from the obtained depth image; And recognizing the pupil included in the eye region based on the acquired position information and tracking the user's gaze.

또한, 실시 예에 따른 시선 추적 장치는 피사체에 대한 컬러 영상 및 깊이 영상을 획득하는 제 1 카메라; 상기 제 1카메라를 통해 획득되는 영상을 신호처리하는 영상 처리부; 및 상기 획득된 컬러 영상 및 깊이 영상을 기반으로 상기 피사체에 포함된 안구 영역의 위치 정보를 획득하고, 상기 획득한 위치 정보를 토대로 상기 안구 영역에 포함된 동공을 인식하여 사용자 시선을 추적하는 제어부를 포함한다.According to another aspect of the present invention, there is provided a gaze tracking apparatus comprising: a first camera for acquiring a color image and a depth image of a subject; An image processor for signal processing an image obtained through the first camera; And a controller for acquiring positional information of an eyeball region included in the subject based on the obtained color image and depth image and recognizing pupils included in the eyeball region based on the obtained positional information, .

실시 예에 따르면, TOF(Time of Flight) 카메라나 어레이 카메라를 이용하여 입체 심도 맵을 구성하고, 상기 구성한 입체 심도 맵을 이용하여 시선 추적을 수행함으로써, 시선 추적 장치의 구축을 위한 비용을 절감시키면서 시선 추적에 따른 다양한 기능을 제공할 수 있다.According to the embodiment, a stereoscopic depth map is constructed using a TOF (Time of Flight) camera or an array camera, and eye tracking is performed using the stereoscopic depth map, thereby reducing the cost of constructing the eye tracking device It is possible to provide various functions according to eye tracking.

도 1은 실시 예에 따른 시선 추적 장치를 나타낸 도면이다.
도 2는 제 1 실시 예에 따른 제 1 카메라의 구성을 나타낸 도면이다.
도 3은 도 2에 도시된 제 1 카메라의 영상 획득 방법을 설명하는 도면이다.
도 4 및 5는 제 2 실시 예에 따른 제 1 카메라의 구성을 나타낸 도면이다.
도 6 및 7은 실시 예에 따른 시선 추적 장치의 시선 추적 방법을 제공한다.
1 is a view illustrating a gaze tracking apparatus according to an embodiment of the present invention.
2 is a view showing a configuration of a first camera according to the first embodiment.
3 is a view for explaining an image acquisition method of the first camera shown in FIG.
4 and 5 are views showing a configuration of a first camera according to the second embodiment.
FIGS. 6 and 7 provide a gaze tracking method of the gaze tracking apparatus according to the embodiment.

첨부한 도면을 참고로 하여 본 발명의 실시 예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다. BRIEF DESCRIPTION OF THE DRAWINGS The above and other features and advantages of the present invention will become more apparent by describing in detail exemplary embodiments thereof with reference to the attached drawings in which: FIG. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein.

명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. Throughout the specification, when an element is referred to as " comprising ", it means that it can include other elements as well, without excluding other elements unless specifically stated otherwise.

그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하고, 여러 층 및 영역을 명확하게 표현하기 위하여 두께를 확대하여 나타내었으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.In order to clearly illustrate the present invention in the drawings, thicknesses are enlarged in order to clearly illustrate various layers and regions, and parts not related to the description are omitted, and like parts are denoted by similar reference numerals throughout the specification .

도 1은 실시 예에 따른 시선 추적 장치를 나타낸 도면이다.1 is a view illustrating a gaze tracking apparatus according to an embodiment of the present invention.

도 1을 참조하면, 시선 추적 장치는 제 1 카메라(110), 제 2 카메라(120), 영상 처리부(130), 저장부(140) 및 제어부(150)를 포함한다.Referring to FIG. 1, the gaze tracking apparatus includes a first camera 110, a second camera 120, an image processing unit 130, a storage unit 140, and a control unit 150.

제 1 카메라(110)는 전방에 위치한 피사체를 촬영하여 영상을 획득하고, 상기 획득한 영상으로부터 거리 정보를 획득한다.The first camera 110 captures an image of a subject positioned in front of the subject, and acquires distance information from the captured image.

상기 거리 정보는, 상기 제 1 카메라(110)와 상기 피사체와의 거리에 비례하여 명암이 변화하는 심도 맵(Depth Map)을 의미한다.The distance information indicates a Depth Map in which the lightness and darkness change in proportion to the distance between the first camera 110 and the subject.

심도 맵은, 시선 추적 장치와 피사체와의 거리를 판단하고, 이를 각 피사체의 밝기로 표현한 것이다. 즉, 상기 심도 맵에 따르면 상기 시선 추적 장치(명확하게는 상기 제 1 카메라)에서 가까이 위치해 있는 피사체는, 멀리 위치해 있는 피사체보다 높은 명암 레벨(밝게)로 표현된다.The depth map is obtained by determining the distance between the gaze tracking device and the subject and expressing the distance by the brightness of each subject. That is, according to the depth map, the subject located close to the gaze tracking device (specifically, the first camera) is expressed with a higher contrast level (brighter) than the subject located far away.

상기 심도 맵을 이용하면, 상기 심도 맵에 표현되어 있는 각 피사체의 밝기 정보를 토대로 상기 시선 추적 장치로부터 상기 피사체까지의 거리를 추적할 수 있다.Using the depth map, the distance from the gaze tracking device to the subject can be tracked based on the brightness information of each subject represented in the depth map.

상기 심도 맵은, 일반적으로 복수의 카메라(스테레오 카메라)를 이용하여 획득할 수 있다.The depth map can generally be obtained using a plurality of cameras (stereo cameras).

그러나, 실시 예에서는, TOF(Time Of Flight) 원리를 이용하는 TOF 카메라를 이용하여 상기 피사체와의 거리를 나타내는 심도 맵을 획득하거나, 어레이 카메라(Array Camera)를 이용하여 상기 심도 맵을 획득한다.However, in the embodiment, a depth map indicating the distance to the subject is obtained using a TOF camera using a TOF (Time Of Flight) principle, or the depth map is acquired using an array camera.

상기 TOF 카메라 및 어레이 카메라를 이용한 심도 맵 획득 방법에 대해서는 후술하기로 한다.A depth map acquisition method using the TOF camera and the array camera will be described later.

제 2 카메라(120)는 전방에 위치한 피사체 중 특정 영역에 대한 확대 영상을 획득한다.The second camera 120 acquires an enlarged image of a specific area of a subject positioned ahead of the subject.

이때, 제 2 카메라(120)는 줌 렌즈로 구현될 수 있으며, 기설정되는 특정 줌 비율에 따라 상기 특정 영역에 대한 확대 영상을 획득한다.At this time, the second camera 120 may be implemented as a zoom lens, and acquires an enlarged image of the specific area according to a preset specific zoom ratio.

상기 특정 영역은, 상기 피사체 중 사용자의 시선이 위치한 영역일 수 있다. 다시 말해서, 상기 특정 영역은, 사용자의 안구가 위치한 영역일 수 있다.The specific area may be an area where the user's gaze is located in the subject. In other words, the specific region may be an area where the user's eyeball is located.

또한, 상기 특정 줌 비율은, 상기 사용자의 안구에 대응하는 거리 정보에 대응될 수 있다. 즉, 상기 안구까지의 거리가 증가하게 되면, 상기 줌 비율로 이에 비례하여 증가하게 되며, 이에 따라 상기 거리 정보에 따라 상기 확대 영상을 획득하기 위한 줌 비율이 설정될 수 있다.In addition, the specific zoom ratio may correspond to distance information corresponding to the eyeball of the user. That is, when the distance to the eyeball increases, the zoom ratio is increased in proportion to the zoom ratio, and accordingly, a zoom ratio for acquiring the enlarged image may be set according to the distance information.

영상 처리부(130)는 상기 제 1 카메라(110) 및 제 2 카메라(120)를 통해 획득되는 영상을 처리하여 출력한다.The image processor 130 processes the images obtained through the first camera 110 and the second camera 120 and outputs the processed images.

저장부(130)는 제어부(150) 내의 각 신호 처리 및 제어를 위한 프로그램이 저장될 수도 있고, 신호 처리된 영상, 음성 또는 데이터 신호를 저장할 수도 있다. The storage unit 130 may store a program for each signal processing and control in the control unit 150, and may also store signal-processed video, audio, or data signals.

또한, 저장부(130)는 외부로부터 입력되는 영상, 음성 또는 데이터 신호의 임시 저장을 위한 기능을 수행할 수도 있다. Also, the storage unit 130 may perform a function for temporarily storing video, audio, or data signals input from the outside.

저장부(130)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램, 롬(EEPROM 등) 중 적어도 하나의 타입의 저장매체를 포함할 수 있다.The storage unit 130 may be a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (for example, SD or XD memory) RAM, ROM (EEPROM, etc.), and the like.

제어부(150)는 상기 시선 추적 장치의 전반적인 동작을 제어한다.The controller 150 controls the overall operation of the gaze tracking device.

예를 들어, 제어부(150)는 상기 제 1 카메라(110)를 제어하여, 상기 전방에 위치한 피사체에 대한 거리를 나타내는 심도 맵이 획득되도록 한다.For example, the control unit 150 controls the first camera 110 to acquire a depth map indicating a distance to the subject positioned in front of the subject.

또한, 제어부(150)는 상기 획득한 심도 맵을 토대로 전방에 위치한 사용자를 인식하고, 그에 따라 사용자의 안구 위치에 대한 좌표 정보를 획득한다.In addition, the controller 150 recognizes the user located ahead based on the obtained depth map, and acquires coordinate information on the eye position of the user accordingly.

이를 위해, 제어부(150)는 상기 제 1 카메라(110)를 통해 획득한 영상으로부터 사용자 얼굴을 인식한다. For this, the control unit 150 recognizes the user's face from the image acquired through the first camera 110.

상기 사용자 얼굴 인식은, 사용자의 얼굴 구성 요소(예를 들어, 입, 눈, 코, 이마 등)가 가지는 패턴 특징을 토대로 수행될 수 있다.The user face recognition may be performed based on a pattern feature of a user's face component (e.g., mouth, eye, nose, forehead, etc.).

제어부(150)는 상기 얼굴이 인식되면, 상기 인식한 얼굴로부터 사용자의 눈(명확하게는, 안구)이 가지는 특징점을 토대로, 상기 안구의 위치에 대한 X 좌표 및 Y 좌표 정보를 획득한다.When the face is recognized, the control unit 150 acquires X-coordinate and Y-coordinate information of the position of the eyeball based on the minutiae point of the user's eye (specifically eyeball) from the recognized face.

또한, 제어부(150)는 상기 획득한 심도 맵으로부터 상기 X 좌표 및 Y 좌표 정보에 대응하는 위치(안구 위치)에 대한 명암을 확인하고, 상기 확인한 명암을 토대로 상기 안구 위치에 대한 Z 좌표 정보를 획득한다.In addition, the controller 150 confirms the contrast of the position (eye position) corresponding to the X coordinate and the Y coordinate information from the obtained depth map, and obtains the Z coordinate information of the eye position based on the checked contrast do.

상기 X 및 Y 좌표 정보는, 상기 사용자의 안구 위치에 대한 수직선 및 수평선에 대한 좌표 정보일 수 있으며, 상기 Z 좌표 정보는, 상기 사용자의 안구 위치에 대한 거리 정보일 수 있다.The X and Y coordinate information may be coordinate information of a vertical line and a horizontal line of the eyeball position of the user, and the Z coordinate information may be distance information of the eyeball position of the user.

상기와 같이, 안구 위치에 대한 좌표 정보가 획득되면, 상기 제어부(150)는 상기 제 2 카메라(120)를 제어하여, 상기 사용자의 안구 영역을 확대한 확대 영상이 획득되도록 한다.As described above, when the coordinate information on the eye position is obtained, the controller 150 controls the second camera 120 to obtain an enlarged image obtained by enlarging the eye region of the user.

이를 위해, 제어부(150)는 상기 획득한 X, Y 및 Z 좌표 정보에 의거하여, 상기 제 2 카메라(120)에 의한 확대 영상의 획득 조건을 설정한다.For this, the control unit 150 sets the acquisition condition of the enlarged image by the second camera 120 based on the obtained X, Y, and Z coordinate information.

즉, 상기 제어부(150)는 상기 X 및 Y 좌표 정보를 이용하여 상기 제 2 카메라(120)를 통해 확대할 영역을 설정한다.That is, the controller 150 sets an area to be enlarged through the second camera 120 using the X and Y coordinate information.

이후, 상기 제어부(150)는 상기 Z 정보를 이용하여, 상기 설정한 확대 영역에 대한 확대 비율(줌 비율)을 설정한다. 즉, 제어부(150)는 상기 Z 정보에 의한 안구까지의 거리가 멀면, 상기 확대 비율을 증가시키고, 상기 안구까지의 거리가 가까우면, 상기 확대 비율을 감소시킨다.Then, the control unit 150 sets an enlargement ratio (zoom ratio) for the set enlarged area using the Z information. That is, the controller 150 increases the enlargement ratio when the distance to the eyeball by the Z information is long, and decreases the enlargement ratio when the distance to the eyeball is close.

제 2 카메라(120)는 상기 제어부(150)의 제어에 따라 상기 X 및 Y 좌표 정보에 대응하는 영역의 영상을 상기 Z 좌표 정보에 대응하는 줌 비율로 확대한 확대 영상을 획득한다.The second camera 120 acquires an enlarged image obtained by enlarging the image of the area corresponding to the X and Y coordinate information to a zoom ratio corresponding to the Z coordinate information under the control of the controller 150. [

제어부(150)는 상기 제 2 카메라(120)를 통해 상기 확대 영상이 획득되면, 상기 획득한 확대 영상을 분석하여 안구(동공)를 인식한다.When the enlarged image is obtained through the second camera 120, the controller 150 analyzes the enlarged image and recognizes the eye (pupil).

또한, 제어부(150)는 상기 동공의 인식에 따라 좌측 동공 및 우측 동공의 위치 차이를 이용하여 사용자의 시선을 추적한다.In addition, the control unit 150 tracks the user's gaze using the difference in position of the left pupil and the right pupil according to the recognition of the pupil.

이때, 상기 동공 인식은, 상기 영상 처리부(130)에 의해 수행되는 영상 처리 알고리즘에 의해 이루어질 수 있다.At this time, the pupil recognition may be performed by an image processing algorithm performed by the image processing unit 130.

영상 처리부(130)는 상기 획득된 확대 영상에 대해 영상 처리 알고리즘 및 원형 검출 알고리즘 등을 구동하여, 사용자의 동공을 획득한다. 즉, 영상 처리부(130)는 상기 제 2 카메라(120)를 통해 획득한 사용자 안구 위치에 대응하는 영상으로부터 사용자 동공 영역을 검출하고, 원형 검출 알고리즘을 구동하여 상기 검출된 동공 영역으로부터 동공의 중심점을 획득한다.The image processing unit 130 drives the image processing algorithm and the circular detection algorithm on the acquired enlarged image to acquire the pupil of the user. That is, the image processor 130 detects the user's pupil region from the image corresponding to the user's eye position acquired through the second camera 120, and drives the circular detection algorithm to calculate the pupil center point from the detected pupil region .

원형 검출 알고리즘은, 내부 원과 외부 원으로 구성되는 원형 검출 템플릿을 동공 영역으로 이동시켜, 템플릿의 내부 원과 외부 원의 그레이 레벨 합 차가 가장 큰 부분을 검출하고, 상기 검출한 영역의 중심점을 동공 중심점으로 획득할 수 있다.The circular detection algorithm is a method of detecting a portion having the largest gray level sum of an inner circle and an outer circle of a template by moving a circular detection template composed of an inner circle and an outer circle to a pupil region and detecting a center point of the detected region Can be obtained as a center point.

또한, 영상 처리부(130)는 상기 원형 검출 알고리즘과 더불어 지역적 이진화 기법을 더 수행하여 상기 동공 중심점을 획득할 수도 있을 것이다.Also, the image processing unit 130 may perform the local binarization technique in addition to the circular detection algorithm to acquire the pupil center point.

이와 같이, 영상 처리부(130)는 동공의 중심점을 정확히 획득하기 위하여, 원형 검출 알고리즘과 더불어 지역적 이진화를 수행하고, 이진화된 영역 중 어두운 부분을 동공 영역으로 판단하여, 어두운 영역에 대한 무게 중심을 사용자 동공의 실질적인 중심점으로 판단할 수 있다.In this way, in order to accurately obtain the center point of the pupil, the image processing unit 130 performs local binarization in addition to the circular detection algorithm, determines the dark part of the binarized area as a pupil area, It can be judged as a substantial center point of the pupil.

이후, 제어부(150)는 상기 영상 처리부(130)를 통해 획득한 좌측 동공의 중심점 및 우측 동공의 중심점의 거리를 토대로 사용자의 시선을 추적한다.The control unit 150 tracks the user's gaze based on the distance between the center point of the left pupil and the center point of the right pupil obtained through the image processing unit 130. [

상기 우측 동공 및 좌측 동공의 거리를 이용한 사용자 시선 추적 기술은 본 발명이 속하는 기술분야에서 이미 공지된 기술이므로, 이에 대한 상세한 설명은 생략하기로 한다.The user's gaze tracking technology using the distances of the right pupil and the left pupil is a technique well known in the art to which the present invention belongs, and a detailed description thereof will be omitted.

제어부(150)는 상기 사용자의 시선이 추적되면, 상기 추적한 시선을 기반으로, 시청자 광고 효과 측정, 운전자 운전 행태 분석 및 졸음 방지, 웹페이지 소비 행태 분석을 통한 메뉴 재배치, 시선 상호 작용을 이용한 게임 제어, 홍채 정보 기반 사용자 인증, 운동 및 전문 기술 트레이닝 프로그램 및 소비 행태 분석을 통한 진열대 배치 등에 대응하는 기능을 제공한다.When the user's line of sight is tracked, the control unit 150 determines whether the user's gaze is tracked based on the tracked line of sight, such as viewer advertisement effect measurement, driver's driving behavior analysis and drowsiness prevention, menu rearrangement through analysis of web page consumption behavior, Control, iris information based user authentication, exercise and expertise training programs, and disposition of shelves through consumption behavior analysis.

상기와 같이, 실시 예에서는 하나의 TOF 카메라나 어레이 카메라를 이용하여 획득한 심도 맵을 가지고서, 사용자의 동공에 대한 위치 정보를 획득하고, 상기 획득한 위치 정보를 이용하여, 확대 영상의 획득 조건을 설정한다.As described above, in the embodiment, position information on the pupil of the user is acquired with a depth map acquired using one TOF camera or array camera, and the acquiring condition of the enlarged image is obtained using the acquired position information Setting.

이후, 상기 설정된 획득 조건을 이용하여 상기 사용자 동공에 대한 확대 영상을 획득하고, 상기 획득한 확대 영상으로부터 사용자 동공을 인식하여, 사용자의 시선을 추적한다.Thereafter, an enlarged image of the user's pupil is acquired using the set acquisition condition, a user's pupil is recognized from the acquired enlarged image, and the user's gaze is tracked.

상기와 같은, 실시 예에 따르면, TOF(Time of Flight) 카메라나 어레이 카메라를 이용하여 입체 심도 맵을 구성하고, 상기 구성한 입체 심도 맵을 이용하여 시선 추적을 수행함으로써, 시선 추적 장치의 구축을 위한 비용을 절감시키면서 시선 추적에 따른 다양한 기능을 제공할 수 있다.According to the embodiment as described above, a stereoscopic depth map is constructed using a TOF (Time of Flight) camera or an array camera, and eye tracking is performed using the stereoscopic depth map, It can provide various functions according to eye tracking while reducing costs.

도 2는 제 1 실시 예에 따른 제 1 카메라의 구성을 나타낸 도면이다.2 is a view showing a configuration of a first camera according to the first embodiment.

제 1 실시 예에 따르면, 제 1 카메라(110)는 TOF 카메라로 구성된다.According to the first embodiment, the first camera 110 is configured as a TOF camera.

도 2를 참조하면, TOF 카메라는 렌즈 모듈, RGB 카메라와, D 카메라로 구성된다. Referring to FIG. 2, the TOF camera includes a lens module, an RGB camera, and a D camera.

TOF 카메라는, 컬러 영상 및 깊이 영상을 획득할 수 있다. 컬러 영상은, 일반적으로 전방에 위치한 피사체를 촬영한 영상일 수 있으며, 깊이 영상은 상기 피사체와의 거리를 명암으로 표현한 심도 맵에 대한 영상일 수 있다.The TOF camera can acquire a color image and a depth image. The color image may be an image of a subject located in front of the subject, and the depth image may be an image of a depth map expressed in terms of a distance from the subject.

즉, 컬러 영상은, 피사체에서 반사되는 가시광선을 수집하여 표현한 것으로, 사람의 눈이나 일반 사진기에서 볼 수 있는 영상을 의미한다. 컬러 영상은, 각각의 픽셀마다 R 채널, G 채널 및 B 채널로 구분하여 표현될 수 있다.That is, the color image refers to an image obtained by collecting visible light reflected from a subject and viewed by a human eye or a general camera. The color image can be expressed by dividing into R channel, G channel and B channel for each pixel.

또한, 깊이 영상은, 가시광선이 아닌 전자기파를 피사체에 출사하고, 상기 피사체에서 반사되는 전자기파의 비행 시간을 계산하여 생성된다. 예를 들면, 상기 전자기파를 피사체에 출사하고, 피사체에 반사된 적외선을 수집하며, 이와 동시에 적외선의 픽셀마다의 도달 시간을 측정하여 각각의 비행시간을 계산한다.Further, the depth image is generated by emitting an electromagnetic wave, not visible light, to the subject and calculating the flying time of the electromagnetic wave reflected from the subject. For example, the electromagnetic wave is emitted to the subject, the infrared rays reflected by the subject are collected, and at the same time, the arrival time of each infrared pixel is measured to calculate each flight time.

그리고, 상기 계산된 각각의 비행 시간에 따라 픽셀마다의 깊이 영상 정보를 생성할 수 있다.Then, the depth image information for each pixel can be generated according to the calculated each flight time.

도 2를 살펴보면, RGB 센서(sensor)에서 가시광선을 수집하여 컬러 영상을 생성하며, 적외선 송출기(Infra Red Illuminator)를 통하여 적외선을 출사하고, 적외선 센서(Infra Red sensor)를 통하여 피사체에서 반사된 적외선을 수집하여 깊이 영상을 생성할 수 있다. Referring to FIG. 2, an RGB sensor collects visible light to generate a color image, emits infrared rays through an infrared ray illuminator, transmits infrared rays reflected from a subject through an infrared ray sensor, To generate a depth image.

이때, 상기 RGB 센서(sensor)는 RGB 카메라(camera)로 표현되며, 컬러 영상은 R 채널, G 채널 및 B 채널로 구분하여 표현될 수 있다.At this time, the RGB sensor may be represented by an RGB camera, and the color image may be represented by an R channel, a G channel, and a B channel.

또한, 적외선 센서(Infra Red sensor)로서 D 카메라(camera)는 적외선의 반사에 따른 도달 시간을 이용하여 깊이 영상을 생성할 수 있다.Also, as an Infra Red sensor, a D camera can generate a depth image using arrival time due to reflection of infrared rays.

도 3은 도 2에 도시된 제 1 카메라의 영상 획득 방법을 설명하는 도면이다.3 is a view for explaining an image acquisition method of the first camera shown in FIG.

도 3을 참조하면, 상기 심도 맵(깊이 영상)을 생성하기 위하여, 전자기파 송출기에서 특정 전자기파를 출사하고, 상기 송출된 전자기파는 피사체에 도달된 후 반사되어 다시 렌즈로 수집될 것이다.Referring to FIG. 3, in order to generate the depth map, a certain electromagnetic wave is emitted from the electromagnetic wave radiator, and the emitted electromagnetic wave is reflected after the object reaches the object and is collected again into the lens.

이 경우에, 심도 맵을 생성하기 위해, 픽셀마다의 상기 반사되는 전자기파의 도달 시간을 측정하고, 이에 따라 비행 시간을 계산한다.In this case, to generate a depth map, the arrival time of the reflected electromagnetic wave for each pixel is measured, and the flight time is calculated accordingly.

이에 따라, 상기 각 픽셀마다 계산된 비행 시간을 이용하여, 전방에 위치한 피사체에 대한 깊이 영상(심도 맵)을 얻을 수 있다.Accordingly, a depth image (depth map) for a subject located in front of the subject can be obtained by using the calculated flying time for each pixel.

도 4 및 5는 제 2 실시 예에 따른 제 1 카메라의 구성을 나타낸 도면이다.4 and 5 are views showing a configuration of a first camera according to the second embodiment.

도 4 및 5를 참조하면, 제 1 카메라는 어레이 카메라로 구성될 수 있다.Referring to FIGS. 4 and 5, the first camera may be configured as an array camera.

어레이 카메라는, 복수의 렌즈가 하나의 패키지 형태로 정렬된 카메라를 의미한다.The array camera means a camera in which a plurality of lenses are arranged in the form of a single package.

상기 어레이 카메라에 구비된 복수의 렌즈는, 일정 거리(h)만큼 이격된 피사체에 대한 영상을 각각 획득한다.The plurality of lenses provided in the array camera acquire images for an object separated by a predetermined distance h, respectively.

이때, 상기 획득된 영상은, 상기 피사체와의 거리에 따라 서로 다른 영상이 촬영된다. 또한, 이는 각각의 렌즈에서 촬영된 영상에 대해 특정 지점을 중심으로 정렬시키고, 이에 따라 좌측 및 우측에 대한 영상의 시작 지점과, 종료 지점에 대한 거리를 나타내는 델타(Δ)로 정의될 수 있다.At this time, different images are captured according to the distance from the object. In addition, it can be defined as a delta (?) Indicating the distance between the start point of the left and right images and the end point of the image taken by each lens centered on a specific point.

도 4 및 5는 서로 다른 거리에 위치한 피사체로부터 획득된 영상으로부터의 델타 값 변화를 나타낸다.Figures 4 and 5 show delta value changes from images obtained from subjects located at different distances.

도 4는 제 1 위치에 위치한 피사체에 대응하는 델타 값을 정의하고 있고, 도 5는 제 2 위치에 위치한 피사체에 대응하는 델타 값을 정의하고 있다.Fig. 4 defines a delta value corresponding to the object located at the first position, and Fig. 5 defines the delta value corresponding to the object located at the second position.

도 4 및 5를 참조하면, 피사체와의 거리(h)가 증가할수록 상기 델타 값이 감사하는 것을 알 수 있다.Referring to FIGS. 4 and 5, it can be seen that the delta value is audited as the distance h from the subject increases.

이에 따라, 상기 어레이 카메라를 통해 획득한 복수의 영상을 이용하여, 상기 피사체와의 거리 정보를 획득할 수 있으며, 상기 획득한 거리 정보를 이용하여 심도 맵을 생성할 수 있다.Accordingly, distance information with respect to the subject can be obtained using a plurality of images acquired through the array camera, and a depth map can be generated using the obtained distance information.

상기와 같이, 제 1 카메라(110)는 TOF 카메라 또는 어레이 카메라로 구성될 수 있으며, 그에 따라 피사체와의 거리에 대한 심도 맵을 생성할 수 있다.As described above, the first camera 110 may include a TOF camera or an array camera, thereby generating a depth map of the distance to the subject.

도 6 및 7은 실시 예에 따른 시선 추적 장치의 시선 추적 방법을 제공한다.FIGS. 6 and 7 provide a gaze tracking method of the gaze tracking apparatus according to the embodiment.

도 6 및 7을 참조하면, 시선 추적 장치는, TOF 카메라 또는 어레이 카메라는 피사체 영상을 획득하고, 상기 획득한 피사체 영상으로부터 상기 피사체와의 거리를 나타내는 심도 맵을 획득한다(110단계).Referring to FIGS. 6 and 7, the TOF camera or the array camera acquires a subject image and acquires a depth map indicating a distance from the acquired subject image to the subject (Step 110).

즉, TOF 카메라는, 전자기파를 송출하고, 그에 따라 각 픽셀마다의 도달 시간을 계산하여, 상기 심도 맵을 생성한다.That is, the TOF camera sends an electromagnetic wave, calculates the arrival time for each pixel accordingly, and generates the depth map.

또한, 어레이 카메라는 복수의 렌즈를 통해 획득한 영상에 대한 델타 값의 변화에 따라 상기 심도 맵을 생성할 수 있다.Also, the array camera can generate the depth map according to the change of the delta value of the image obtained through the plurality of lenses.

이후, 제어부(150)는 상기 생성된 심도 맵으로부터 사용자의 시선(안구)에 대한 위치 정보를 획득한다(120단계),In step 120, the controller 150 obtains the position information of the user's eyeball (eyeball) from the generated depth map,

즉, 제어부(150)는 상기 영상 처리부(130)를 통해 얼굴 인식 알고리즘이 수행되도록 하여, 사용자의 얼굴 특징점이 검출되도록 하고, 그에 따라 상기 얼굴 특징점으로부터 안구가 가지는 특징점에 대응하는 X, Y 및 Z 좌표 정보를 획득한다.That is, the controller 150 causes the facial recognition algorithm to be performed through the image processor 130 to detect facial feature points of the user, thereby detecting X, Y, and Z corresponding to the feature points of the eye from the facial feature points, Coordinate information is obtained.

이후, 제어부(150)는 상기 획득한 X, Y 및 Z 정보를 이용하여, 상기 사용자의 안구 위치에 대응하는 영역의 확대 영상이 획득되도록 한다(130단계). 이에 앞서, 제어부(150)는 상기 X, Y 및 Z 정보를 이용하여 상기 확대 영상의 획득을 위한 조건을 설정하고, 그에 따라 제 2 카메라(120)는 상기 설정된 조건에 따라 상기 확대 영상을 획득한다.In operation 130, the control unit 150 acquires an enlarged image of an area corresponding to the user's eye position using the obtained X, Y, and Z information. The control unit 150 sets conditions for acquiring the enlarged image using the X, Y, and Z information, and the second camera 120 accordingly acquires the enlarged image according to the set conditions .

이후, 제어부(150)는 상기 획득한 확대 영상으로부터 사용자의 동공을 인식한다(140단계),Thereafter, the controller 150 recognizes the pupil of the user from the acquired magnified image (step 140)

그리고, 제어부(150)는 상기 인식한 동공에 대한 좌측 동공 및 우측 동공의 거리를 확인하고, 상기 확인한 거리를 토대로 상기 사용자의 시선을 추적한다.(150단계).Then, the controller 150 confirms the distance between the left pupil and the right pupil of the recognized pupil, and tracks the user's gaze based on the determined distance (step 150).

도 7을 참조하면, 보다 구체적으로, 제어부(150)는 상기 제 1 카메라(110)를 통해 입체 거리 맵(심도 맵)이 획득되도록 한다(210단계).Referring to FIG. 7, in step 210, the control unit 150 acquires a stereoscopic distance map (depth map) through the first camera 110.

이후, 제어부(150)는 상기 획득한 심도 맵에서 사용자의 안구를 추적하고, 그에 따라 상기 안구의 위치에 대한 X, Y 및 Z 좌표 정보를 획득한다(220단계).The control unit 150 tracks the user's eyeball in the acquired depth map, and acquires X, Y, and Z coordinate information of the eyeball according to the obtained depth map.

상기 X, Y 좌표 정보는 일반적으로 획득되는 컬러 영상으로부터 획득될 수 있고, 상기 Z 좌표 정보는 상기 심도 맵으로부터 획득될 수 있다.The X, Y coordinate information can be generally obtained from the obtained color image, and the Z coordinate information can be obtained from the depth map.

상기 X, Y 및 Z 좌표 정보가 획득되면, 제어부(150)는 상기 X, Y 및 Z 좌표 정보를 이용하여 상기 제 2 카메라(120)의 영상 확대 조건을 설정한다. 즉, 상기 X, Y 좌표 정보를 이용하여 확대 영역을 설정하고, 상기 Z 정보를 이용하여 확대 비율을 설정한다.When the X, Y, and Z coordinate information is obtained, the controller 150 sets the image enlargement condition of the second camera 120 using the X, Y, and Z coordinate information. That is, an enlarged area is set using the X, Y coordinate information, and an enlargement ratio is set using the Z information.

제 2 카메라(120)는 상기 제어부(150)를 통해 설정된 영상 확대 조건을 이용하여, 상기 사용자의 안구 부분을 확대한 확대 영상을 획득한다(230단계).The second camera 120 acquires an enlarged image obtained by enlarging the eyeball portion of the user using the image enlargement condition set through the controller 150 (Step 230).

이후, 제어부(150)는 상기 획득한 확대 영상으로부터 동공을 인식한다(240단계). 보다 구체적으로는, 제어부(150)는 상기 확대 영상으로부터 좌측 동공 및 우측 동공을 각각 인식한다.Thereafter, the controller 150 recognizes the pupil from the acquired enlarged image (operation 240). More specifically, the control unit 150 recognizes the left pupil and the right pupil from the enlarged image, respectively.

이후, 제어부(150)는 상기 좌측 동공 및 우측 동공의 거리를 이용하여 사용자의 시선을 추적한다(250단계).In step 250, the controller 150 tracks the user's gaze using the distance between the left pupil and the right pupil.

한편, 상기에서는 복수의 사용자에 대한 시선이 추적될 수 있다.On the other hand, in the above, the eyes of a plurality of users can be tracked.

이에 따라, 제어부(150)는 상기 시선 추적 장치의 전방에 복수의 사용자가 위치한 경우, 상기 위치한 복수의 사용자 각각에 대한 시선 추적을 행한다.Accordingly, when a plurality of users are positioned in front of the gaze tracking device, the controller 150 performs gaze tracking for each of the plurality of users located.

또한, 상기 시선 추적이 행해지면, 상기 복수의 사용자 각각의 대해 추적한 시선 정보를 디스플레이하여, 상기 복수의 사용자 각각이 현재 디스플레이 화면의 어느 부분을 주시하고 있는지에 대한 정보를 제공한다.In addition, when the line-of-sight tracking is performed, the line-of-sight information tracked for each of the plurality of users is displayed, and information on which part of the current screen is viewed by each of the plurality of users is provided.

이를 위해서는, 제어부(150)는 상기 거리 맵에 위치한 복수의 사용자에 대한 안구 위치 정보를 각각 획득하고, 상기 획득한 안구 위치 정보를 토대로 상기 제 2 카메라에 의해 각각의 안구 위치에 대응하는 확대 영상이 획득되도록 한다.For this purpose, the controller 150 acquires the eye position information for a plurality of users located in the distance map, and based on the acquired eye position information, the enlarged image corresponding to each eye position by the second camera .

또한, 제어부(150)는 상기 획득된 각각의 확대 영상으로부터 각각의 사용자에 대한 시선을 추적한다.In addition, the control unit 150 tracks the gaze for each user from the obtained enlarged images.

한편, 상기 시선 추적에 따른 다양한 기능을 제공하기 위해서는, 한 명의 사용자에 대한 시선이 추적되어야 한다. 이때, 상기 복수의 사용자에 대한 시선이 추적되면, 상기와 같은 다양한 기능을 효과적으로 제공할 수 있다.Meanwhile, in order to provide various functions according to the line-of-sight tracking, the gaze of one user must be tracked. At this time, if the eyes of the plurality of users are tracked, the various functions as described above can be effectively provided.

한편, 일반적으로, 디스플레이장치를 주시하고 있는 시청자는 상기 디스플레이장치로부터 가장 가까운 거리에 위치해 있다.On the other hand, in general, the viewer who is watching the display device is located at the closest distance from the display device.

이에 따라, 제어부(150)는 상기 획득한 심도 맵으로부터, 가장 가까운 거리에 위치한 사용자의 안구 위치 정보만을 획득하고, 그에 따라 상기 획득한 안구 위치 정보를 이용하여 시선 추적을 실시한다.Accordingly, the controller 150 acquires eye position information of the user located at the closest distance from the obtained depth map, and performs gaze tracking using the obtained eye position information.

실시 예에 따르면, TOF(Time of Flight) 카메라나 어레이 카메라를 이용하여 입체 심도 맵을 구성하고, 상기 구성한 입체 심도 맵을 이용하여 시선 추적을 수행함으로써, 시선 추적 장치의 구축을 위한 비용을 절감시키면서 시선 추적에 따른 다양한 기능을 제공할 수 있다.According to the embodiment, a stereoscopic depth map is constructed using a TOF (Time of Flight) camera or an array camera, and eye tracking is performed using the stereoscopic depth map, thereby reducing the cost of constructing the eye tracking device It is possible to provide various functions according to eye tracking.

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시 예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시 예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리 범위에 포함되는 것으로 해석되어야 할 것이다.The foregoing description is merely illustrative of the technical idea of the present invention, and various changes and modifications may be made by those skilled in the art without departing from the essential characteristics of the present invention. Therefore, the embodiments disclosed in the present invention are intended to illustrate rather than limit the scope of the present invention, and the scope of the technical idea of the present invention is not limited by these embodiments. The scope of protection of the present invention should be construed according to the following claims, and all technical ideas within the scope of equivalents should be construed as falling within the scope of the present invention.

110: 제 1 카메라
120: 제 2 카메라
130: 영상 처리부
140: 저장부
150: 제어부
110: First camera
120: Second camera
130:
140:
150:

Claims (22)

피사체를 촬영한 컬러 영상 프레임과 상기 피사체와 카메라 사이의 거리 정보인 깊이 영상 프레임을 획득하는 단계;
상기 컬러 영상 프레임에서 얼굴 인식 알고리즘을 수행하여 상기 피사체 얼굴의 안구 영역을 포함하는 특징점을 검출하는 단계;
상기 안구 영역에 대한 정보를 획득하는 단계;
상기 안구 영역에 대한 정보를 이용하여 상기 안구 영역이 확대된 영상 프레임을 획득하는 단계;
상기 안구 영역이 확대된 영상 프레임에 대해 이진화 기법을 수행하여 동공 영역을 검출하는 단계; 및
상기 동공 영역 대해 원형 검출 알고리즘을 수행하여 상기 동공의 중심 위치를 획득하는 단계;
상기 동공의 중심 위치를 이용하여 상기 피사체의 시선을 추적하는 단계를 포함하고,
상기 이진화 기법은 상기 안구 영역이 확대된 영상 프레임에서 이진화를 수행하고, 상기 이진화를 수행한 영역 중 어두운 부분을 상기 동공 영역으로 판단하고,
상기 원형 검출 알고리즘은 내부 원과 외부 원으로 구성되는 원형 검출 템플릿을 상기 안구 영역이 확대된 영상 프레임의 상기 동공 영역으로 이동시켜 상기 템플릿의 상기 내부 원과 상기 외부 원의 그레이 레벨 합의 차가 가장 큰 부분을 검출하고 상기 검출한 영역의 중심점을 상기 동공의 중심점으로 획득하는 시선 추적 방법.
Acquiring a color image frame in which a subject is photographed, and a depth image frame, which is distance information between the subject and the camera;
Performing a face recognition algorithm on the color image frame to detect a feature point including an eye region of the face of the subject;
Obtaining information on the eye region;
Obtaining an image frame in which the eyeball region is enlarged using information on the eyeball region;
Detecting a pupil region by performing a binarization technique on an image frame in which the eyeball region is enlarged; And
Performing a circular detection algorithm on the pupil region to obtain a center position of the pupil;
And tracking the gaze of the subject using the center position of the pupil,
Wherein the binarization technique binarizes an image frame in which the eyeball region is enlarged, determines a dark portion of the binarized region as the pupil region,
Wherein the circular detection algorithm moves a circular detection template composed of an inner circle and an outer circle to the pupil region of the image frame in which the eyeball region is enlarged and detects a portion having a largest difference in gray level sum of the inner circle and the outer circle of the template And acquires the center point of the detected area as the center point of the pupil.
제 1 항에 있어서,
상기 안구 영역의 정보는
상기 컬러 영상 프레임에서 X 좌표 값 및 Y 좌표 값으로 산출되는 위치 정보와
상기 깊이 영상에서 명암 레벨을 토대로 획득된 Z 좌표 값으로 산출되는 깊이 정보를 포함하는 시선 추적 방법.
The method according to claim 1,
The information of the eyeball region
Position information calculated as an X coordinate value and a Y coordinate value in the color image frame,
And depth information calculated as Z coordinate values obtained based on the contrast level in the depth image.
제 2 항에 있어서,
상기 명암 레벨은
상기 카메라와 상기 피사체의 거리를 밝기로 표현한 정보이며,
상기 카메라로부터 상기 피사체까지 거리를 판단하고 가까이 위치해 있는 상기 피사체는 상기 카메라로부터 멀리 위치해 있는 상기 피사체보다 높은 명암 레벨로 표현하는 시선 추적 방법.
3. The method of claim 2,
The contrast level
The distance between the camera and the subject is represented by brightness,
Determining a distance from the camera to the subject and expressing the proximity of the subject in a higher contrast level than the subject located far away from the camera.
제 2항에 있어서,
상기 안구 영역이 확대된 영상 프레임을 획득하는 단계는
상기 위치 정보를 이용하여 확대 영역을 설정하고,
상기 깊이 정보를 이용하여 상기 안구 영역이 확대된 영상 프레임에 대한 확대 비율을 설정하는 시선 추적 방법.
3. The method of claim 2,
The step of acquiring an enlarged image frame of the eye region
Setting an enlarged area using the position information,
And setting an enlargement ratio for an image frame in which the eyeball region is enlarged using the depth information.
제 4항에 있어서,
상기 확대 비율은,
상기 Z 좌표에 해당되는 상기 카메라와 상기 피사체의 거리에 비례하도록 설정되는 시선 추적 방법.
5. The method of claim 4,
The enlargement ratio,
Wherein the Z-coordinate is set to be proportional to a distance between the camera and the subject.
제 1항에 있어서,
상기 획득한 컬러 영상 프레임에 복수의 상기 피사체가 존재하는 경우, 복수의 상기 피사체 각각에 대한 상기 안구 영역이 확대된 영상 프레임을 획득하고, 복수의 상기 피사체 각각에 대한 시선을 추적하는 시선 추적 방법.
The method according to claim 1,
And acquiring an image frame in which the eyeball region is enlarged for each of the plurality of subjects when the plurality of the subjects are present in the obtained color image frame, and tracking a line of sight for each of the plurality of subjects.
피사체를 촬영한 컬러 영상 프레임;
상기 피사체와 카메라 사이의 거리 정보인 깊이 영상 프레임을 획득하는 제 1 카메라;
확대 영상 프레임을 획득하는 제 2 카메라;
상기 컬러 영상 프레임을 신호 처리하는 영상 처리부; 및
상기 제 2 카메라와 상기 영상 처리부를 제어하여 상기 피사체의 안구 영역을 확대한 상기 확대 영상 프레임을 획득하고,
상기 안구 영역에 포함된 동공을 인식하여 상기 피사체의 시선을 추적하는 제어부를 포함하고
상기 영상 처리부는 상기 컬러 영상 프레임에서 상기 피사체 얼굴의 안구를 포함하는 특징점이 검출되도록 얼굴 인식 알고리즘을 수행하고, 상기 확대 영상 프레임에서 상기 동공 영역을 획득하기 위해 이진화 기법을 수행하고 상기 동공 영역 내에서 상기 동공의 중심점을 획득하기 위해 원형 검출 알고리즘을 수행하고,
상기 이진화 기법은 상기 안구 영역이 확대된 영상 프레임에서 이진화를 수행하고, 상기 이진화를 수행한 영역 중 어두운 부분을 상기 동공 영역으로 판단하고,
상기 원형 검출 알고리즘은 내부 원과 외부 원으로 구성되는 원형 검출 템플릿을 상기 안구 영역이 확대된 영상 프레임의 상기 동공 영역으로 이동시켜 상기 템플릿의 상기 내부 원과 상기 외부 원의 그레이 레벨 합의 차가 가장 큰 부분을 검출하고 상기 검출한 영역의 중심점을 상기 동공의 중심점으로 획득하는 시선 추적 장치.
A color image frame photographing a subject;
A first camera for acquiring a depth image frame which is distance information between the subject and the camera;
A second camera for acquiring an enlarged image frame;
An image processor for signal processing the color image frame; And
Controlling the second camera and the image processing unit to acquire the enlarged image frame in which the eyeball region of the subject is enlarged,
And a controller for recognizing the pupil included in the eye region and tracking the gaze of the subject
Wherein the image processing unit performs a face recognition algorithm such that a feature point including an eye of the subject face is detected in the color image frame, performs a binarization technique to obtain the pupil area in the enlarged image frame, Performing a circular detection algorithm to obtain a center point of the pupil,
Wherein the binarization technique binarizes an image frame in which the eyeball region is enlarged, determines a dark portion of the binarized region as the pupil region,
Wherein the circular detection algorithm moves a circular detection template composed of an inner circle and an outer circle to the pupil region of the image frame in which the eyeball region is enlarged and detects a portion having a largest difference in gray level sum of the inner circle and the outer circle of the template And acquires a center point of the detected area as a center point of the pupil.
제 7 항에 있어서,
상기 제어부는
상기 컬러 영상 프레임에서 X 좌표 값 및 Y 좌표 값으로 산출되는 위치 정보와
상기 깊이 영상에서 명암 레벨을 토대로 획득된 Z 좌표 값으로 산출되는 깊이 정보를 포함하는 시선 추적 장치.
8. The method of claim 7,
The control unit
Position information calculated as an X coordinate value and a Y coordinate value in the color image frame,
And depth information calculated as a Z coordinate value obtained based on the contrast level in the depth image.
제 8 항에 있어서,
상기 명암 레벨은
상기 제 1 카메라와 상기 피사체와의 거리를 밝기로 표현한 정보이며,
상기 제 1 카메라로부터 상기 피사체까지 거리를 판단하고 가까이 위치해 있는 상기 피사체는 상기 제 1 카메라로부터 멀리 위치해 있는 피사체보다 높은 명암 레벨로 표현하는 시선 추적 장치.
9. The method of claim 8,
The contrast level
The distance between the first camera and the subject is represented by brightness,
Wherein the distance from the first camera to the subject is determined, and the subject located close to the subject is expressed with a higher contrast level than a subject located far away from the first camera.
제 8항에 있어서,
상기 제어부는,
상기 위치 정보를 이용하여 확대 영역을 설정하고,
상기 깊이 정보를 이용하여 상기 확대 영역에 대한 확대 비율을 설정하여 상기 제 2 카메라를 제어하는 시선 추적 장치.
9. The method of claim 8,
Wherein,
Setting an enlarged area using the position information,
And controls the second camera by setting an enlargement ratio for the enlarged area using the depth information.
제 10항에 있어서,
상기 확대 비율은,
상기 Z 좌표에 해당되는 상기 제 1카메라와 상기 피사체와의 거리에 비례하여 증가하는 시선 추적 장치.
11. The method of claim 10,
The enlargement ratio,
And increases in proportion to a distance between the first camera and the subject corresponding to the Z coordinate.
제 7항에 있어서,
상기 제 1 카메라는,
상기 피사체에 대한 복수의 상기 컬러 영상 프레임을 획득하고, 획득한 복수의 상기 컬러 영상 프레임으로부터 상기 피사체의 거리에 따라 변화하는 델타 값을 계산하여 상기 깊이 영상 프레임을 획득하는 어레이 카메라를 포함하고, 상기 피사체와의 거리가 증가할수록 상기 델타 값이 감소하고 상기 피사체와의 거리가 감소할수록 상기 델타 값이 증가하는 시선 추적 장치.
8. The method of claim 7,
Wherein the first camera comprises:
And an array camera for acquiring a plurality of the color image frames for the subject and calculating the delta value varying from the plurality of acquired color image frames according to the distance of the subject to obtain the depth image frame, Wherein the delta value decreases as the distance from the subject increases and the delta value increases as the distance from the subject decreases.
제 7항에 있어서,
상기 제어부는,
상기 컬러 영상 프레임에 복수의 상기 피사체가 존재하는 경우, 복수의 상기 피사체 각각에 대한 상기 안구 영역이 확대된 영상 프레임을 획득하고, 복수의 상기 피사체 각각에 대한 시선을 추적하는 시선 추적 장치.
8. The method of claim 7,
Wherein,
And acquires an image frame in which the eyeball region is enlarged for each of the plurality of subjects when the plurality of subjects are present in the color image frame and tracks a line of sight of each of the plurality of subjects.
삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete
KR1020120082012A 2012-07-26 2012-07-26 Gaze Tracking Apparatus and Method KR101961266B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120082012A KR101961266B1 (en) 2012-07-26 2012-07-26 Gaze Tracking Apparatus and Method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120082012A KR101961266B1 (en) 2012-07-26 2012-07-26 Gaze Tracking Apparatus and Method

Publications (2)

Publication Number Publication Date
KR20140014868A KR20140014868A (en) 2014-02-06
KR101961266B1 true KR101961266B1 (en) 2019-03-25

Family

ID=50264680

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120082012A KR101961266B1 (en) 2012-07-26 2012-07-26 Gaze Tracking Apparatus and Method

Country Status (1)

Country Link
KR (1) KR101961266B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200118524A (en) 2019-04-08 2020-10-16 유홍준 Image Processing System and Method Based on Active Motion Recognition Tracking

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101628542B1 (en) * 2014-11-25 2016-06-08 현대자동차주식회사 Eye Tracking Apparatus and Method
CN109256042A (en) * 2018-11-22 2019-01-22 京东方科技集团股份有限公司 Display panel, electronic equipment and human eye method for tracing
CN112749600B (en) * 2019-10-31 2024-03-12 Oppo广东移动通信有限公司 Human eye position determining method and related products
CN113794872A (en) * 2021-09-17 2021-12-14 融信信息科技有限公司 Image recognition system based on AR intelligent glasses

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001174220A (en) * 1999-12-15 2001-06-29 Nippon Hoso Kyokai <Nhk> Device and method for generating image
JP2001215403A (en) * 2000-02-01 2001-08-10 Canon Inc Image pickup device and automatic focus detection method
US20120147328A1 (en) * 2010-12-13 2012-06-14 Microsoft Corporation 3d gaze tracker

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001174220A (en) * 1999-12-15 2001-06-29 Nippon Hoso Kyokai <Nhk> Device and method for generating image
JP2001215403A (en) * 2000-02-01 2001-08-10 Canon Inc Image pickup device and automatic focus detection method
US20120147328A1 (en) * 2010-12-13 2012-06-14 Microsoft Corporation 3d gaze tracker

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200118524A (en) 2019-04-08 2020-10-16 유홍준 Image Processing System and Method Based on Active Motion Recognition Tracking

Also Published As

Publication number Publication date
KR20140014868A (en) 2014-02-06

Similar Documents

Publication Publication Date Title
US9465443B2 (en) Gesture operation input processing apparatus and gesture operation input processing method
US10692210B2 (en) Recording medium storing computer program for pupil detection, information processing apparatus, and pupil detecting method
US9092665B2 (en) Systems and methods for initializing motion tracking of human hands
US9720511B2 (en) Hand and object tracking in three-dimensional space
US20180081434A1 (en) Eye and Head Tracking
US8678589B2 (en) Gaze target determination device and gaze target determination method
EP3047361B1 (en) A method and device for displaying a graphical user interface
US20140037135A1 (en) Context-driven adjustment of camera parameters
US20160004303A1 (en) Eye gaze tracking system and method
KR101471488B1 (en) Device and Method for Tracking Sight Line
KR20180138300A (en) Electronic device for providing property information of external light source for interest object
WO2014120554A2 (en) Systems and methods for initializing motion tracking of human hands using template matching within bounded regions
KR20120057033A (en) Gaze tracking system and method for controlling internet protocol tv at a distance
CN104364733A (en) Position-of-interest detection device, position-of-interest detection method, and position-of-interest detection program
KR102001950B1 (en) Gaze Tracking Apparatus and Method
KR101961266B1 (en) Gaze Tracking Apparatus and Method
US10146306B2 (en) Gaze position detection apparatus and gaze position detection method
US10630890B2 (en) Three-dimensional measurement method and three-dimensional measurement device using the same
KR20150059701A (en) Method for recognizing contectless fingerprint and electronic apparatus for performing the same.
JP6870474B2 (en) Gaze detection computer program, gaze detection device and gaze detection method
JP2018205819A (en) Gazing position detection computer program, gazing position detection device, and gazing position detection method
KR101330531B1 (en) Method of virtual touch using 3D camera and apparatus thereof
JP5834941B2 (en) Attention target identification device, attention target identification method, and program
KR20130051319A (en) Apparatus for signal input and method thereof
CN106951077B (en) Prompting method and first electronic device

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant