KR20140014868A - Gaze tracking apparatus and method - Google Patents

Gaze tracking apparatus and method Download PDF

Info

Publication number
KR20140014868A
KR20140014868A KR1020120082012A KR20120082012A KR20140014868A KR 20140014868 A KR20140014868 A KR 20140014868A KR 1020120082012 A KR1020120082012 A KR 1020120082012A KR 20120082012 A KR20120082012 A KR 20120082012A KR 20140014868 A KR20140014868 A KR 20140014868A
Authority
KR
South Korea
Prior art keywords
image
subject
area
coordinate
camera
Prior art date
Application number
KR1020120082012A
Other languages
Korean (ko)
Other versions
KR101961266B1 (en
Inventor
이규태
Original Assignee
엘지이노텍 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지이노텍 주식회사 filed Critical 엘지이노텍 주식회사
Priority to KR1020120082012A priority Critical patent/KR101961266B1/en
Publication of KR20140014868A publication Critical patent/KR20140014868A/en
Application granted granted Critical
Publication of KR101961266B1 publication Critical patent/KR101961266B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Eye Examination Apparatus (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Abstract

A method of tracking a line of sight according to an embodiment of the present invention comprises the steps of: acquiring a depth image of a subject; acquiring position information of an eyeball region included in the subject from the acquired depth image; and tracking the line of sight of a user by recognizing a pupil included in the eyeball region based on the acquired position information. [Reference numerals] (AA) Start; (BB) End; (S210) Obtain a three-dimensional distance map; (S220) Obtain X, Y, and Z coordinate information relative to a sight position; (S230) Obtain an enlarged image in which a pupil area is enlarged by using the X, Y, and Z coordinate; (S240) Recognize the pupil from the enlarged image; (S250) Track a user's sight by using a recognized pupil distance

Description

시선 추적 장치 및 이의 시선 추적 방법{Gaze Tracking Apparatus and Method}Gaze tracking device and gaze tracking method {Gaze Tracking Apparatus and Method}

실시 예는, 시선 추적 장치 및 이의 시선 추적 방법에 관한 것이다.An embodiment relates to a gaze tracking device and a gaze tracking method thereof.

최근, 사용자의 시선 추적을 기반으로 통한 시청자 광고 효과 측정, 운전자 운전 행태 분석 및 졸음 방지, 웹페이지 소비 행태 분석을 통한 메뉴 재배치, 시선 상호 작용을 이용한 게임 제어, 홍채 정보 기반 사용자 인증, 운동 및 전문 기술 트레이닝 프로그램 및 소비 행태 분석을 통한 진열대 배치 등이 이루어지고 있다.Recently, viewers' advertising effect measurement based on user's eye tracking, driver driving behavior analysis and drowsiness prevention, menu relocation through web page consumption behavior analysis, game control using gaze interaction, iris information based user authentication, exercise and professionalism Placement of shelves through technical training programs and consumption analysis is being conducted.

특허문헌 1은, 컴퓨터 비전 기반의 시선 추적 방법에 관련한다.PTL 1 relates to a computer vision-based eye tracking method.

이 방법은 사용자의 얼굴 및 눈에 대한 특성 값에 대한 룩-업 테이블을 사용 전 구성 한다. 실제 시선 추적에 있어서는, 얼굴방향 및 홍채의 중심점을 측정한 후, 상기 특성 값과 상기 측정값을 비교하여 시선 방향을 계산한다. 시선 방향은 측정된 얼굴 방향 좌표계 및 홍채 중심 좌표계의 합성에 의해 계산된다. 얼굴 방향 측정은 T자 스틱형 참조모델을 착용하여 정확한 각도를 찾아내고, 홍채의 중심점은 홍채의 색깔 분포 분석에 의한 홍채색깔의 무게중심을 구하여, 그 무게중심을 시작으로 업/다운 스캐닝함으로써, 타원형 홍채 에지 내의 가장 긴 수평 라인을 찾고, 그 수평 라인의 중심점을 홍채의 중심점으로 결정한다. This method is configured before using the look-up table for the feature values for the user's face and eyes. In the actual eye tracking, after measuring the face direction and the center point of the iris, the eye direction is calculated by comparing the characteristic value with the measured value. The gaze direction is calculated by combining the measured face direction coordinate system and the iris center coordinate system. The face orientation is measured by using a T-stick reference model to find the exact angle, and the center of the iris is obtained by determining the center of gravity of the iris color by analyzing the color distribution of the iris. Find the longest horizontal line in the elliptical iris edge and determine the center point of that horizontal line as the center point of the iris.

그러나, 이 방법은 다양한 얼굴 및 눈에 대한 특성 값을 미리 측정하여 룩업 테이블을 구성하는데 있어서 신뢰성을 높이기 위해서는 수많은 특성에 대한 특성을 미리 고려하고 수집해야 하는 제약이 있으며, 홍채 영역이 눈꺼풀에 의해 가려지는 경우 시선 추적 정확도가 떨어질 수 있다.However, this method has a limitation to consider and collect the characteristics of a large number of characteristics in order to increase the reliability in constructing the lookup table by measuring the characteristic values of various faces and eyes in advance, and the iris area is covered by the eyelids. If you lose, your eye tracking accuracy may drop.

특허문헌 2에 개시된 종래 기술은 사용자의 얼굴을 복수의 특징점에 의한 특징 면으로 파악하여 이 특징 면의 병진 및 회전에 의해 사용자의 얼굴의 방향을 인식함으로써 시선을 추적한다. 그 결과 신뢰도가 매우 높고 정확한 응시 위치 추적 시스템이 일반 사용이 가능할 만큼 저렴한 가격으로 제공될 수 있다. 그러나, 얼굴의 특징점만을 이용하고 안구의 회전은 고려하지 않기 때문에 직관적인 시선 추적 인터페이스라고 할 수 없으며, 목적한 위치에 커서를 움직이기 위해서는 고개를 지속적으로 움직여야 한다.The prior art disclosed in Patent Literature 2 grasps a user's face as a feature surface by a plurality of feature points, and tracks the gaze by recognizing the direction of the user's face by translation and rotation of the feature surface. As a result, a highly reliable and accurate gaze tracking system can be provided at a price low enough for general use. However, it is not an intuitive gaze tracking interface because only the feature points of the face are used and eye rotation is not taken into consideration. In order to move the cursor to a desired position, the head must be continuously moved.

비 특허논문은 2대의 카메라로 구성한 스테레오 카메라 장치 및 3개의 적외선 조명을 이용하여 안구의 3차원 위치를 추정하고, 이를 통해 시선 벡터를 구하여 2차원 평면 화면상의 시선 위치를 구하는 방법을 제안한다. The non-patent paper proposes a method of estimating a three-dimensional position of an eyeball using a stereo camera device composed of two cameras and three infrared lights, and obtaining a gaze vector through the gaze vector.

이 방법의 수행을 위해서는, 스테레오 카메라 구성을 위해 2대의 카메라 간 캘리브레이션 과정이 선행되어야 하며, 3개의 조명 간 위치가 정확하게 설정되어야 한다. In order to perform this method, the calibration process between two cameras must be preceded for the configuration of the stereo camera, and the positions between the three lights must be set correctly.

이러한 방법은 다수의 카메라 및 조명 장치를 구축하기 위한 비용이 많이 소요되는 문제점이 있다.This method has a problem in that it is expensive to build a plurality of cameras and lighting devices.

특허문헌 1: KR 10-0311605Patent Document 1: KR 10-0311605

특허문헌 2: KR 10-0325365Patent Document 2: KR 10-0325365

비 특허문헌: S. W. Shih and J. Liu, "A Novel Approach to 3-D Gaze Tracking Using Stereo Cameras," IEEE Transactions on Systems, Man and Cybernetics, Part B, vol. 34, no. 1, pp. 234-245, Feb. 2004 Non-Patent Document: S. W. Shih and J. Liu, "A Novel Approach to 3-D Gaze Tracking Using Stereo Cameras," IEEE Transactions on Systems, Man and Cybernetics, Part B, vol. 34, no. 1, pp. 234-245, Feb. 2004

실시 예에서는, TOF(Time of Flight) 카메라를 이용하여 사용자의 시선을 추적할 수 있는 시선 추적 장치 및 이의 시선 추적 방법을 제공한다.The embodiment provides a gaze tracking device and a gaze tracking method for tracking a gaze of a user using a time of flight (TOF) camera.

실시 예에서는, 어레이 렌즈를 이용하여 사용자의 시선을 추적할 수 있는 시선 추적 장치 및 이의 시선 추적 방법을 제공한다.The embodiment provides a gaze tracking device and a gaze tracking method thereof, which may track an eye of a user using an array lens.

또한, 실시 예에서는 오른쪽 및 왼쪽 동공의 위치 차이를 이용하여 시선 추적을 행할 수 있는 시선 추적 장치 및 이의 시선 추적 방법을 제공한다.In addition, the embodiment provides a gaze tracking device and a gaze tracking method thereof capable of performing gaze tracking by using a position difference between right and left pupils.

제안되는 실시 예에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 제안되는 실시 예가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.It is to be understood that the technical objectives to be achieved by the embodiments are not limited to the technical matters mentioned above and that other technical subjects not mentioned are apparent to those skilled in the art to which the embodiments proposed from the following description belong, It can be understood.

실시 예에 따른 시선 추적 방법은 피사체에 대한 깊이 영상을 획득하는 단계; 상기 획득한 깊이 영상으로부터 상기 피사체에 포함된 안구 영역에 대한 위치 정보를 획득하는 단계; 및 상기 획득한 위치 정보를 토대로 상기 안구 영역에 포함된 동공을 인식하여 사용자의 시선을 추적하는 단계를 포함한다.According to an exemplary embodiment, a gaze tracking method may include: obtaining a depth image of a subject; Acquiring position information of an eyeball area included in the subject from the acquired depth image; And recognizing a pupil included in the eyeball area based on the acquired position information to track the eyes of the user.

또한, 실시 예에 따른 시선 추적 장치는 피사체에 대한 컬러 영상 및 깊이 영상을 획득하는 제 1 카메라; 상기 제 1카메라를 통해 획득되는 영상을 신호처리하는 영상 처리부; 및 상기 획득된 컬러 영상 및 깊이 영상을 기반으로 상기 피사체에 포함된 안구 영역의 위치 정보를 획득하고, 상기 획득한 위치 정보를 토대로 상기 안구 영역에 포함된 동공을 인식하여 사용자 시선을 추적하는 제어부를 포함한다.In addition, the apparatus for tracking eye gaze according to the embodiment may include: a first camera configured to acquire a color image and a depth image of a subject; An image processor for signal processing an image acquired through the first camera; And a control unit for acquiring position information of the eyeball area included in the subject based on the obtained color image and the depth image, and recognizing a pupil included in the eyeball area based on the acquired position information. Include.

실시 예에 따르면, TOF(Time of Flight) 카메라나 어레이 카메라를 이용하여 입체 심도 맵을 구성하고, 상기 구성한 입체 심도 맵을 이용하여 시선 추적을 수행함으로써, 시선 추적 장치의 구축을 위한 비용을 절감시키면서 시선 추적에 따른 다양한 기능을 제공할 수 있다.According to an embodiment, a stereoscopic depth map is constructed using a time of flight (TOF) camera or an array camera and eye gaze tracking is performed using the configured stereoscopic depth map, thereby reducing the cost for constructing the eye tracking apparatus. Can provide various functions according to eye tracking.

도 1은 실시 예에 따른 시선 추적 장치를 나타낸 도면이다.
도 2는 제 1 실시 예에 따른 제 1 카메라의 구성을 나타낸 도면이다.
도 3은 도 2에 도시된 제 1 카메라의 영상 획득 방법을 설명하는 도면이다.
도 4 및 5는 제 2 실시 예에 따른 제 1 카메라의 구성을 나타낸 도면이다.
도 6 및 7은 실시 예에 따른 시선 추적 장치의 시선 추적 방법을 제공한다.
1 is a diagram illustrating a gaze tracking device according to an exemplary embodiment.
2 is a diagram illustrating a configuration of a first camera according to a first embodiment.
FIG. 3 is a view for explaining an image acquisition method of the first camera shown in FIG. 2.
4 and 5 are views illustrating a configuration of the first camera according to the second embodiment.
6 and 7 provide a gaze tracking method of a gaze tracking device according to an exemplary embodiment.

첨부한 도면을 참고로 하여 본 발명의 실시 예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다. BRIEF DESCRIPTION OF THE DRAWINGS The above and other features and advantages of the present invention will become more apparent by describing in detail exemplary embodiments thereof with reference to the attached drawings in which: FIG. As those skilled in the art would realize, the described embodiments may be modified in various different ways, all without departing from the spirit or scope of the present invention.

명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. Throughout the specification, when a part is said to "include" a certain component, it means that it can further include other components, without excluding other components unless specifically stated otherwise.

그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하고, 여러 층 및 영역을 명확하게 표현하기 위하여 두께를 확대하여 나타내었으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.In order to clearly illustrate the present invention in the drawings, thicknesses are enlarged in order to clearly illustrate various layers and regions, and parts not related to the description are omitted, and like parts are denoted by similar reference numerals throughout the specification .

도 1은 실시 예에 따른 시선 추적 장치를 나타낸 도면이다.1 is a diagram illustrating a gaze tracking device according to an exemplary embodiment.

도 1을 참조하면, 시선 추적 장치는 제 1 카메라(110), 제 2 카메라(120), 영상 처리부(130), 저장부(140) 및 제어부(150)를 포함한다.Referring to FIG. 1, the eye tracking apparatus includes a first camera 110, a second camera 120, an image processor 130, a storage 140, and a controller 150.

제 1 카메라(110)는 전방에 위치한 피사체를 촬영하여 영상을 획득하고, 상기 획득한 영상으로부터 거리 정보를 획득한다.The first camera 110 acquires an image by photographing a subject located in front and obtains distance information from the acquired image.

상기 거리 정보는, 상기 제 1 카메라(110)와 상기 피사체와의 거리에 비례하여 명암이 변화하는 심도 맵(Depth Map)을 의미한다.The distance information refers to a depth map in which contrast is changed in proportion to the distance between the first camera 110 and the subject.

심도 맵은, 시선 추적 장치와 피사체와의 거리를 판단하고, 이를 각 피사체의 밝기로 표현한 것이다. 즉, 상기 심도 맵에 따르면 상기 시선 추적 장치(명확하게는 상기 제 1 카메라)에서 가까이 위치해 있는 피사체는, 멀리 위치해 있는 피사체보다 높은 명암 레벨(밝게)로 표현된다.The depth map determines the distance between the eye tracking apparatus and the subject and expresses the brightness of each subject. That is, according to the depth map, a subject located closer to the gaze tracking device (obviously, the first camera) is expressed at a higher contrast level (brighter) than a subject located far away.

상기 심도 맵을 이용하면, 상기 심도 맵에 표현되어 있는 각 피사체의 밝기 정보를 토대로 상기 시선 추적 장치로부터 상기 피사체까지의 거리를 추적할 수 있다.Using the depth map, the distance from the gaze tracking device to the subject may be tracked based on brightness information of each subject represented in the depth map.

상기 심도 맵은, 일반적으로 복수의 카메라(스테레오 카메라)를 이용하여 획득할 수 있다.The depth map may be generally obtained using a plurality of cameras (stereo cameras).

그러나, 실시 예에서는, TOF(Time Of Flight) 원리를 이용하는 TOF 카메라를 이용하여 상기 피사체와의 거리를 나타내는 심도 맵을 획득하거나, 어레이 카메라(Array Camera)를 이용하여 상기 심도 맵을 획득한다.However, in an embodiment, a depth map representing a distance to the subject may be obtained using a TOF camera using a time of flight (TOF) principle, or the depth map may be obtained using an array camera.

상기 TOF 카메라 및 어레이 카메라를 이용한 심도 맵 획득 방법에 대해서는 후술하기로 한다.A depth map acquisition method using the TOF camera and the array camera will be described later.

제 2 카메라(120)는 전방에 위치한 피사체 중 특정 영역에 대한 확대 영상을 획득한다.The second camera 120 acquires an enlarged image of a specific area of the subject located in front of the second camera 120.

이때, 제 2 카메라(120)는 줌 렌즈로 구현될 수 있으며, 기설정되는 특정 줌 비율에 따라 상기 특정 영역에 대한 확대 영상을 획득한다.In this case, the second camera 120 may be implemented as a zoom lens, and acquires an enlarged image of the specific area according to a predetermined zoom ratio.

상기 특정 영역은, 상기 피사체 중 사용자의 시선이 위치한 영역일 수 있다. 다시 말해서, 상기 특정 영역은, 사용자의 안구가 위치한 영역일 수 있다.The specific area may be an area where a user's gaze is located among the subjects. In other words, the specific area may be an area where the user's eyeball is located.

또한, 상기 특정 줌 비율은, 상기 사용자의 안구에 대응하는 거리 정보에 대응될 수 있다. 즉, 상기 안구까지의 거리가 증가하게 되면, 상기 줌 비율로 이에 비례하여 증가하게 되며, 이에 따라 상기 거리 정보에 따라 상기 확대 영상을 획득하기 위한 줌 비율이 설정될 수 있다.The specific zoom ratio may correspond to distance information corresponding to the eyeball of the user. That is, when the distance to the eyeball increases, the zoom ratio increases in proportion to the eyeball. Accordingly, the zoom ratio for acquiring the enlarged image may be set according to the distance information.

영상 처리부(130)는 상기 제 1 카메라(110) 및 제 2 카메라(120)를 통해 획득되는 영상을 처리하여 출력한다.The image processor 130 processes and outputs an image acquired through the first camera 110 and the second camera 120.

저장부(130)는 제어부(150) 내의 각 신호 처리 및 제어를 위한 프로그램이 저장될 수도 있고, 신호 처리된 영상, 음성 또는 데이터 신호를 저장할 수도 있다. The storage unit 130 may store a program for processing and controlling each signal in the controller 150, or may store a signal-processed video, audio, or data signal.

또한, 저장부(130)는 외부로부터 입력되는 영상, 음성 또는 데이터 신호의 임시 저장을 위한 기능을 수행할 수도 있다. In addition, the storage unit 130 may perform a function for temporarily storing an image, audio, or data signal input from the outside.

저장부(130)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램, 롬(EEPROM 등) 중 적어도 하나의 타입의 저장매체를 포함할 수 있다.The storage unit 130 may be a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (for example, SD or XD memory) RAM, ROM (EEPROM, etc.), and the like.

제어부(150)는 상기 시선 추적 장치의 전반적인 동작을 제어한다.The controller 150 controls the overall operation of the eye tracking apparatus.

예를 들어, 제어부(150)는 상기 제 1 카메라(110)를 제어하여, 상기 전방에 위치한 피사체에 대한 거리를 나타내는 심도 맵이 획득되도록 한다.For example, the controller 150 controls the first camera 110 to acquire a depth map indicating the distance to the subject located in front of the first camera 110.

또한, 제어부(150)는 상기 획득한 심도 맵을 토대로 전방에 위치한 사용자를 인식하고, 그에 따라 사용자의 안구 위치에 대한 좌표 정보를 획득한다.In addition, the controller 150 recognizes the user located in front of the acquired depth map, and thereby obtains coordinate information on the eyeball position of the user.

이를 위해, 제어부(150)는 상기 제 1 카메라(110)를 통해 획득한 영상으로부터 사용자 얼굴을 인식한다. To this end, the controller 150 recognizes a user's face from an image acquired through the first camera 110.

상기 사용자 얼굴 인식은, 사용자의 얼굴 구성 요소(예를 들어, 입, 눈, 코, 이마 등)가 가지는 패턴 특징을 토대로 수행될 수 있다.The user face recognition may be performed based on a pattern feature of a face component (eg, mouth, eyes, nose, forehead, etc.) of the user.

제어부(150)는 상기 얼굴이 인식되면, 상기 인식한 얼굴로부터 사용자의 눈(명확하게는, 안구)이 가지는 특징점을 토대로, 상기 안구의 위치에 대한 X 좌표 및 Y 좌표 정보를 획득한다.When the face is recognized, the controller 150 obtains X coordinate and Y coordinate information on the position of the eyeball, based on a feature point of the user's eyes (obviously, the eyeball) from the recognized face.

또한, 제어부(150)는 상기 획득한 심도 맵으로부터 상기 X 좌표 및 Y 좌표 정보에 대응하는 위치(안구 위치)에 대한 명암을 확인하고, 상기 확인한 명암을 토대로 상기 안구 위치에 대한 Z 좌표 정보를 획득한다.In addition, the controller 150 confirms the contrast of the position (eye position) corresponding to the X coordinate and Y coordinate information from the acquired depth map, and obtains the Z coordinate information of the eye position based on the confirmed contrast. do.

상기 X 및 Y 좌표 정보는, 상기 사용자의 안구 위치에 대한 수직선 및 수평선에 대한 좌표 정보일 수 있으며, 상기 Z 좌표 정보는, 상기 사용자의 안구 위치에 대한 거리 정보일 수 있다.The X and Y coordinate information may be coordinate information about a vertical line and a horizontal line with respect to the eyeball position of the user, and the Z coordinate information may be distance information about the eyeball position of the user.

상기와 같이, 안구 위치에 대한 좌표 정보가 획득되면, 상기 제어부(150)는 상기 제 2 카메라(120)를 제어하여, 상기 사용자의 안구 영역을 확대한 확대 영상이 획득되도록 한다.As described above, when the coordinate information about the eyeball position is obtained, the controller 150 controls the second camera 120 to obtain an enlarged image in which the eyeball area of the user is enlarged.

이를 위해, 제어부(150)는 상기 획득한 X, Y 및 Z 좌표 정보에 의거하여, 상기 제 2 카메라(120)에 의한 확대 영상의 획득 조건을 설정한다.To this end, the controller 150 sets a condition for acquiring an enlarged image by the second camera 120 based on the obtained X, Y, and Z coordinate information.

즉, 상기 제어부(150)는 상기 X 및 Y 좌표 정보를 이용하여 상기 제 2 카메라(120)를 통해 확대할 영역을 설정한다.That is, the controller 150 sets an area to be enlarged through the second camera 120 using the X and Y coordinate information.

이후, 상기 제어부(150)는 상기 Z 정보를 이용하여, 상기 설정한 확대 영역에 대한 확대 비율(줌 비율)을 설정한다. 즉, 제어부(150)는 상기 Z 정보에 의한 안구까지의 거리가 멀면, 상기 확대 비율을 증가시키고, 상기 안구까지의 거리가 가까우면, 상기 확대 비율을 감소시킨다.Thereafter, the controller 150 sets an enlargement ratio (zoom ratio) for the set enlarged region by using the Z information. That is, the controller 150 increases the enlargement ratio when the distance to the eyeball by the Z information is far, and decreases the enlargement ratio when the distance to the eyeball is close.

제 2 카메라(120)는 상기 제어부(150)의 제어에 따라 상기 X 및 Y 좌표 정보에 대응하는 영역의 영상을 상기 Z 좌표 정보에 대응하는 줌 비율로 확대한 확대 영상을 획득한다.The second camera 120 obtains an enlarged image obtained by enlarging an image of an area corresponding to the X and Y coordinate information at a zoom ratio corresponding to the Z coordinate information under the control of the controller 150.

제어부(150)는 상기 제 2 카메라(120)를 통해 상기 확대 영상이 획득되면, 상기 획득한 확대 영상을 분석하여 안구(동공)를 인식한다.When the enlarged image is obtained through the second camera 120, the controller 150 analyzes the obtained enlarged image to recognize an eyeball.

또한, 제어부(150)는 상기 동공의 인식에 따라 좌측 동공 및 우측 동공의 위치 차이를 이용하여 사용자의 시선을 추적한다.In addition, the controller 150 tracks the gaze of the user by using the position difference between the left pupil and the right pupil according to the recognition of the pupil.

이때, 상기 동공 인식은, 상기 영상 처리부(130)에 의해 수행되는 영상 처리 알고리즘에 의해 이루어질 수 있다.In this case, the pupil recognition may be performed by an image processing algorithm performed by the image processor 130.

영상 처리부(130)는 상기 획득된 확대 영상에 대해 영상 처리 알고리즘 및 원형 검출 알고리즘 등을 구동하여, 사용자의 동공을 획득한다. 즉, 영상 처리부(130)는 상기 제 2 카메라(120)를 통해 획득한 사용자 안구 위치에 대응하는 영상으로부터 사용자 동공 영역을 검출하고, 원형 검출 알고리즘을 구동하여 상기 검출된 동공 영역으로부터 동공의 중심점을 획득한다.The image processor 130 drives an image processing algorithm, a circular detection algorithm, and the like on the obtained enlarged image to obtain a pupil of a user. That is, the image processor 130 detects the user pupil area from the image corresponding to the user eye position acquired through the second camera 120 and drives a circular detection algorithm to determine the center point of the pupil from the detected pupil area. Acquire.

원형 검출 알고리즘은, 내부 원과 외부 원으로 구성되는 원형 검출 템플릿을 동공 영역으로 이동시켜, 템플릿의 내부 원과 외부 원의 그레이 레벨 합 차가 가장 큰 부분을 검출하고, 상기 검출한 영역의 중심점을 동공 중심점으로 획득할 수 있다.The circular detection algorithm moves a circular detection template composed of an inner circle and an outer circle to the pupil area, detects the largest gray level difference between the inner circle and the outer circle of the template, and detects the center point of the detected area. Can be obtained as a center point.

또한, 영상 처리부(130)는 상기 원형 검출 알고리즘과 더불어 지역적 이진화 기법을 더 수행하여 상기 동공 중심점을 획득할 수도 있을 것이다.In addition, the image processor 130 may acquire the pupil center point by further performing a local binarization technique together with the circular detection algorithm.

이와 같이, 영상 처리부(130)는 동공의 중심점을 정확히 획득하기 위하여, 원형 검출 알고리즘과 더불어 지역적 이진화를 수행하고, 이진화된 영역 중 어두운 부분을 동공 영역으로 판단하여, 어두운 영역에 대한 무게 중심을 사용자 동공의 실질적인 중심점으로 판단할 수 있다.As such, the image processor 130 performs local binarization together with a circular detection algorithm in order to accurately acquire the center point of the pupil, determines the dark portion of the binarized region as the pupil region, and determines the center of gravity of the dark region. It can be judged as the actual center point of the pupil.

이후, 제어부(150)는 상기 영상 처리부(130)를 통해 획득한 좌측 동공의 중심점 및 우측 동공의 중심점의 거리를 토대로 사용자의 시선을 추적한다.Thereafter, the controller 150 tracks the gaze of the user based on the distance between the center point of the left pupil and the center point of the right pupil acquired through the image processor 130.

상기 우측 동공 및 좌측 동공의 거리를 이용한 사용자 시선 추적 기술은 본 발명이 속하는 기술분야에서 이미 공지된 기술이므로, 이에 대한 상세한 설명은 생략하기로 한다.Since the user's eye tracking technology using the distance between the right pupil and the left pupil is already known in the art to which the present invention pertains, a detailed description thereof will be omitted.

제어부(150)는 상기 사용자의 시선이 추적되면, 상기 추적한 시선을 기반으로, 시청자 광고 효과 측정, 운전자 운전 행태 분석 및 졸음 방지, 웹페이지 소비 행태 분석을 통한 메뉴 재배치, 시선 상호 작용을 이용한 게임 제어, 홍채 정보 기반 사용자 인증, 운동 및 전문 기술 트레이닝 프로그램 및 소비 행태 분석을 통한 진열대 배치 등에 대응하는 기능을 제공한다.When the user's eyes are tracked, the controller 150 measures viewer advertisement effect based on the tracked eyes, prevents driver's driving behavior and drowsiness, rearranges menus through web page consumption behavior analysis, and game using eye interaction. It provides control, control of iris information based user authentication, exercise and technical training program, and display rack placement through consumption analysis.

상기와 같이, 실시 예에서는 하나의 TOF 카메라나 어레이 카메라를 이용하여 획득한 심도 맵을 가지고서, 사용자의 동공에 대한 위치 정보를 획득하고, 상기 획득한 위치 정보를 이용하여, 확대 영상의 획득 조건을 설정한다.As described above, according to the embodiment, the depth map acquired using one TOF camera or the array camera is used to acquire location information about the pupil of the user, and the acquisition condition of the enlarged image is obtained using the acquired location information. Set it.

이후, 상기 설정된 획득 조건을 이용하여 상기 사용자 동공에 대한 확대 영상을 획득하고, 상기 획득한 확대 영상으로부터 사용자 동공을 인식하여, 사용자의 시선을 추적한다.Thereafter, an enlarged image of the user pupil is obtained using the set acquisition condition, the user pupil is recognized from the obtained enlarged image, and the user's eyes are tracked.

상기와 같은, 실시 예에 따르면, TOF(Time of Flight) 카메라나 어레이 카메라를 이용하여 입체 심도 맵을 구성하고, 상기 구성한 입체 심도 맵을 이용하여 시선 추적을 수행함으로써, 시선 추적 장치의 구축을 위한 비용을 절감시키면서 시선 추적에 따른 다양한 기능을 제공할 수 있다.According to the embodiment, as described above, by constructing a three-dimensional depth map using a time of flight (TOF) camera or an array camera, and performing eye tracking using the configured three-dimensional depth map, for the construction of the eye tracking apparatus It can provide various functions according to eye tracking while reducing cost.

도 2는 제 1 실시 예에 따른 제 1 카메라의 구성을 나타낸 도면이다.2 is a diagram illustrating a configuration of a first camera according to a first embodiment.

제 1 실시 예에 따르면, 제 1 카메라(110)는 TOF 카메라로 구성된다.According to the first embodiment, the first camera 110 is composed of a TOF camera.

도 2를 참조하면, TOF 카메라는 렌즈 모듈, RGB 카메라와, D 카메라로 구성된다. Referring to FIG. 2, the TOF camera includes a lens module, an RGB camera, and a D camera.

TOF 카메라는, 컬러 영상 및 깊이 영상을 획득할 수 있다. 컬러 영상은, 일반적으로 전방에 위치한 피사체를 촬영한 영상일 수 있으며, 깊이 영상은 상기 피사체와의 거리를 명암으로 표현한 심도 맵에 대한 영상일 수 있다.The TOF camera may acquire a color image and a depth image. In general, the color image may be an image of a subject located in the front, and the depth image may be an image of a depth map expressing the distance from the subject in contrast.

즉, 컬러 영상은, 피사체에서 반사되는 가시광선을 수집하여 표현한 것으로, 사람의 눈이나 일반 사진기에서 볼 수 있는 영상을 의미한다. 컬러 영상은, 각각의 픽셀마다 R 채널, G 채널 및 B 채널로 구분하여 표현될 수 있다.That is, the color image is a collection of visible light reflected from a subject and represented, and means a viewable image of a human eye or a general camera. The color image may be expressed by dividing the R channel, the G channel, and the B channel for each pixel.

또한, 깊이 영상은, 가시광선이 아닌 전자기파를 피사체에 출사하고, 상기 피사체에서 반사되는 전자기파의 비행 시간을 계산하여 생성된다. 예를 들면, 상기 전자기파를 피사체에 출사하고, 피사체에 반사된 적외선을 수집하며, 이와 동시에 적외선의 픽셀마다의 도달 시간을 측정하여 각각의 비행시간을 계산한다.In addition, the depth image is generated by emitting electromagnetic waves other than visible light to a subject and calculating flight times of electromagnetic waves reflected from the subject. For example, the electromagnetic wave is emitted to the subject, the infrared rays reflected by the subject are collected, and at the same time, the arrival time for each pixel of the infrared is measured to calculate each flight time.

그리고, 상기 계산된 각각의 비행 시간에 따라 픽셀마다의 깊이 영상 정보를 생성할 수 있다.Then, depth image information for each pixel may be generated according to the calculated flight time.

도 2를 살펴보면, RGB 센서(sensor)에서 가시광선을 수집하여 컬러 영상을 생성하며, 적외선 송출기(Infra Red Illuminator)를 통하여 적외선을 출사하고, 적외선 센서(Infra Red sensor)를 통하여 피사체에서 반사된 적외선을 수집하여 깊이 영상을 생성할 수 있다. Referring to FIG. 2, the RGB sensor collects visible light to generate a color image, emits infrared rays through an infrared red illuminator, and infrared rays reflected from a subject through an infrared red sensor. The depth image may be generated by collecting the.

이때, 상기 RGB 센서(sensor)는 RGB 카메라(camera)로 표현되며, 컬러 영상은 R 채널, G 채널 및 B 채널로 구분하여 표현될 수 있다.In this case, the RGB sensor may be represented by an RGB camera, and the color image may be represented by being divided into an R channel, a G channel, and a B channel.

또한, 적외선 센서(Infra Red sensor)로서 D 카메라(camera)는 적외선의 반사에 따른 도달 시간을 이용하여 깊이 영상을 생성할 수 있다.In addition, the D camera as an infrared red sensor may generate a depth image using the arrival time according to the reflection of the infrared light.

도 3은 도 2에 도시된 제 1 카메라의 영상 획득 방법을 설명하는 도면이다.FIG. 3 is a view for explaining an image acquisition method of the first camera shown in FIG. 2.

도 3을 참조하면, 상기 심도 맵(깊이 영상)을 생성하기 위하여, 전자기파 송출기에서 특정 전자기파를 출사하고, 상기 송출된 전자기파는 피사체에 도달된 후 반사되어 다시 렌즈로 수집될 것이다.Referring to FIG. 3, in order to generate the depth map (depth image), an electromagnetic wave emitter emits a specific electromagnetic wave, and the emitted electromagnetic wave may be reflected and collected by the lens after reaching the subject.

이 경우에, 심도 맵을 생성하기 위해, 픽셀마다의 상기 반사되는 전자기파의 도달 시간을 측정하고, 이에 따라 비행 시간을 계산한다.In this case, in order to generate a depth map, the arrival time of the reflected electromagnetic wave per pixel is measured and the flight time is calculated accordingly.

이에 따라, 상기 각 픽셀마다 계산된 비행 시간을 이용하여, 전방에 위치한 피사체에 대한 깊이 영상(심도 맵)을 얻을 수 있다.Accordingly, a depth image (depth map) of the subject located in front may be obtained using the flight time calculated for each pixel.

도 4 및 5는 제 2 실시 예에 따른 제 1 카메라의 구성을 나타낸 도면이다.4 and 5 are views illustrating a configuration of the first camera according to the second embodiment.

도 4 및 5를 참조하면, 제 1 카메라는 어레이 카메라로 구성될 수 있다.4 and 5, the first camera may be configured as an array camera.

어레이 카메라는, 복수의 렌즈가 하나의 패키지 형태로 정렬된 카메라를 의미한다.An array camera refers to a camera in which a plurality of lenses are arranged in one package.

상기 어레이 카메라에 구비된 복수의 렌즈는, 일정 거리(h)만큼 이격된 피사체에 대한 영상을 각각 획득한다.The plurality of lenses of the array camera acquire images of the subjects spaced apart by a predetermined distance h.

이때, 상기 획득된 영상은, 상기 피사체와의 거리에 따라 서로 다른 영상이 촬영된다. 또한, 이는 각각의 렌즈에서 촬영된 영상에 대해 특정 지점을 중심으로 정렬시키고, 이에 따라 좌측 및 우측에 대한 영상의 시작 지점과, 종료 지점에 대한 거리를 나타내는 델타(Δ)로 정의될 수 있다.In this case, different images are captured according to the distance from the subject. In addition, this may be defined as a delta (Δ) representing a distance between the start point and the end point of the image on the left and right sides, according to the alignment of the specific point with respect to the image taken by each lens.

도 4 및 5는 서로 다른 거리에 위치한 피사체로부터 획득된 영상으로부터의 델타 값 변화를 나타낸다.4 and 5 illustrate changes in delta values from images acquired from subjects located at different distances.

도 4는 제 1 위치에 위치한 피사체에 대응하는 델타 값을 정의하고 있고, 도 5는 제 2 위치에 위치한 피사체에 대응하는 델타 값을 정의하고 있다.4 defines a delta value corresponding to a subject located at a first position, and FIG. 5 defines a delta value corresponding to a subject located at a second position.

도 4 및 5를 참조하면, 피사체와의 거리(h)가 증가할수록 상기 델타 값이 감사하는 것을 알 수 있다.4 and 5, it can be seen that the delta value is appreciated as the distance h from the subject increases.

이에 따라, 상기 어레이 카메라를 통해 획득한 복수의 영상을 이용하여, 상기 피사체와의 거리 정보를 획득할 수 있으며, 상기 획득한 거리 정보를 이용하여 심도 맵을 생성할 수 있다.Accordingly, distance information with respect to the subject may be obtained by using a plurality of images acquired through the array camera, and a depth map may be generated by using the acquired distance information.

상기와 같이, 제 1 카메라(110)는 TOF 카메라 또는 어레이 카메라로 구성될 수 있으며, 그에 따라 피사체와의 거리에 대한 심도 맵을 생성할 수 있다.As described above, the first camera 110 may be configured as a TOF camera or an array camera, thereby generating a depth map of the distance to the subject.

도 6 및 7은 실시 예에 따른 시선 추적 장치의 시선 추적 방법을 제공한다.6 and 7 provide a gaze tracking method of a gaze tracking device according to an exemplary embodiment.

도 6 및 7을 참조하면, 시선 추적 장치는, TOF 카메라 또는 어레이 카메라는 피사체 영상을 획득하고, 상기 획득한 피사체 영상으로부터 상기 피사체와의 거리를 나타내는 심도 맵을 획득한다(110단계).6 and 7, the apparatus for tracking eyes, the TOF camera or the array camera acquires a subject image, and obtains a depth map indicating a distance from the subject from the acquired subject image (step 110).

즉, TOF 카메라는, 전자기파를 송출하고, 그에 따라 각 픽셀마다의 도달 시간을 계산하여, 상기 심도 맵을 생성한다.That is, the TOF camera sends out electromagnetic waves, calculates the arrival time for each pixel accordingly, and generates the depth map.

또한, 어레이 카메라는 복수의 렌즈를 통해 획득한 영상에 대한 델타 값의 변화에 따라 상기 심도 맵을 생성할 수 있다.In addition, the array camera may generate the depth map according to a change in a delta value for an image acquired through a plurality of lenses.

이후, 제어부(150)는 상기 생성된 심도 맵으로부터 사용자의 시선(안구)에 대한 위치 정보를 획득한다(120단계),Thereafter, the controller 150 obtains location information on the gaze (eye) of the user from the generated depth map (step 120).

즉, 제어부(150)는 상기 영상 처리부(130)를 통해 얼굴 인식 알고리즘이 수행되도록 하여, 사용자의 얼굴 특징점이 검출되도록 하고, 그에 따라 상기 얼굴 특징점으로부터 안구가 가지는 특징점에 대응하는 X, Y 및 Z 좌표 정보를 획득한다.That is, the controller 150 causes the face recognition algorithm to be performed through the image processor 130 to detect the facial feature points of the user, and thus X, Y, and Z corresponding to the feature points of the eye from the facial feature points. Acquire coordinate information.

이후, 제어부(150)는 상기 획득한 X, Y 및 Z 정보를 이용하여, 상기 사용자의 안구 위치에 대응하는 영역의 확대 영상이 획득되도록 한다(130단계). 이에 앞서, 제어부(150)는 상기 X, Y 및 Z 정보를 이용하여 상기 확대 영상의 획득을 위한 조건을 설정하고, 그에 따라 제 2 카메라(120)는 상기 설정된 조건에 따라 상기 확대 영상을 획득한다.In operation 130, the controller 150 acquires an enlarged image of an area corresponding to the eyeball position of the user using the obtained X, Y, and Z information. Prior to this, the controller 150 sets a condition for acquiring the enlarged image by using the X, Y, and Z information, and accordingly, the second camera 120 acquires the enlarged image according to the set condition. .

이후, 제어부(150)는 상기 획득한 확대 영상으로부터 사용자의 동공을 인식한다(140단계),Thereafter, the controller 150 recognizes the pupil of the user from the obtained enlarged image (step 140).

그리고, 제어부(150)는 상기 인식한 동공에 대한 좌측 동공 및 우측 동공의 거리를 확인하고, 상기 확인한 거리를 토대로 상기 사용자의 시선을 추적한다.(150단계).The controller 150 checks the distance between the left pupil and the right pupil with respect to the recognized pupil, and tracks the gaze of the user based on the determined distance (step 150).

도 7을 참조하면, 보다 구체적으로, 제어부(150)는 상기 제 1 카메라(110)를 통해 입체 거리 맵(심도 맵)이 획득되도록 한다(210단계).Referring to FIG. 7, more specifically, the controller 150 allows a three-dimensional distance map (depth map) to be acquired through the first camera 110 (step 210).

이후, 제어부(150)는 상기 획득한 심도 맵에서 사용자의 안구를 추적하고, 그에 따라 상기 안구의 위치에 대한 X, Y 및 Z 좌표 정보를 획득한다(220단계).Thereafter, the controller 150 tracks the eyeball of the user in the acquired depth map, and thereby obtains X, Y, and Z coordinate information about the eyeball position (step 220).

상기 X, Y 좌표 정보는 일반적으로 획득되는 컬러 영상으로부터 획득될 수 있고, 상기 Z 좌표 정보는 상기 심도 맵으로부터 획득될 수 있다.The X and Y coordinate information may be obtained from a generally obtained color image, and the Z coordinate information may be obtained from the depth map.

상기 X, Y 및 Z 좌표 정보가 획득되면, 제어부(150)는 상기 X, Y 및 Z 좌표 정보를 이용하여 상기 제 2 카메라(120)의 영상 확대 조건을 설정한다. 즉, 상기 X, Y 좌표 정보를 이용하여 확대 영역을 설정하고, 상기 Z 정보를 이용하여 확대 비율을 설정한다.When the X, Y and Z coordinate information is obtained, the controller 150 sets an image enlargement condition of the second camera 120 using the X, Y and Z coordinate information. That is, an enlargement area is set using the X and Y coordinate information, and an enlargement ratio is set using the Z information.

제 2 카메라(120)는 상기 제어부(150)를 통해 설정된 영상 확대 조건을 이용하여, 상기 사용자의 안구 부분을 확대한 확대 영상을 획득한다(230단계).The second camera 120 acquires an enlarged image in which the eyeball part of the user is enlarged using the image enlargement condition set through the controller 150 (operation 230).

이후, 제어부(150)는 상기 획득한 확대 영상으로부터 동공을 인식한다(240단계). 보다 구체적으로는, 제어부(150)는 상기 확대 영상으로부터 좌측 동공 및 우측 동공을 각각 인식한다.In operation 240, the controller 150 recognizes the pupil from the acquired enlarged image. More specifically, the controller 150 recognizes the left pupil and the right pupil from the enlarged image, respectively.

이후, 제어부(150)는 상기 좌측 동공 및 우측 동공의 거리를 이용하여 사용자의 시선을 추적한다(250단계).Thereafter, the controller 150 tracks the eyes of the user by using the distance between the left pupil and the right pupil (step 250).

한편, 상기에서는 복수의 사용자에 대한 시선이 추적될 수 있다.In the meantime, the gaze of the plurality of users may be tracked.

이에 따라, 제어부(150)는 상기 시선 추적 장치의 전방에 복수의 사용자가 위치한 경우, 상기 위치한 복수의 사용자 각각에 대한 시선 추적을 행한다.Accordingly, when a plurality of users are located in front of the eye tracking apparatus, the controller 150 performs eye tracking for each of the plurality of located users.

또한, 상기 시선 추적이 행해지면, 상기 복수의 사용자 각각의 대해 추적한 시선 정보를 디스플레이하여, 상기 복수의 사용자 각각이 현재 디스플레이 화면의 어느 부분을 주시하고 있는지에 대한 정보를 제공한다.In addition, when the gaze tracking is performed, the gaze information tracked for each of the plurality of users is displayed to provide information about which part of each of the plurality of users is currently watching.

이를 위해서는, 제어부(150)는 상기 거리 맵에 위치한 복수의 사용자에 대한 안구 위치 정보를 각각 획득하고, 상기 획득한 안구 위치 정보를 토대로 상기 제 2 카메라에 의해 각각의 안구 위치에 대응하는 확대 영상이 획득되도록 한다.To this end, the controller 150 obtains eyeball position information for a plurality of users located in the distance map, and enlarges an image corresponding to each eyeball position by the second camera based on the obtained eyeball position information. To be acquired.

또한, 제어부(150)는 상기 획득된 각각의 확대 영상으로부터 각각의 사용자에 대한 시선을 추적한다.In addition, the controller 150 tracks the gaze of each user from each of the obtained enlarged images.

한편, 상기 시선 추적에 따른 다양한 기능을 제공하기 위해서는, 한 명의 사용자에 대한 시선이 추적되어야 한다. 이때, 상기 복수의 사용자에 대한 시선이 추적되면, 상기와 같은 다양한 기능을 효과적으로 제공할 수 있다.Meanwhile, in order to provide various functions according to the gaze tracking, the gaze of one user should be tracked. In this case, when the gaze of the plurality of users is tracked, various functions as described above may be effectively provided.

한편, 일반적으로, 디스플레이장치를 주시하고 있는 시청자는 상기 디스플레이장치로부터 가장 가까운 거리에 위치해 있다.On the other hand, in general, the viewer watching the display device is located at the closest distance from the display device.

이에 따라, 제어부(150)는 상기 획득한 심도 맵으로부터, 가장 가까운 거리에 위치한 사용자의 안구 위치 정보만을 획득하고, 그에 따라 상기 획득한 안구 위치 정보를 이용하여 시선 추적을 실시한다.Accordingly, the controller 150 obtains only the eyeball position information of the user located at the closest distance from the acquired depth map, and accordingly performs eye tracking using the acquired eyeball position information.

실시 예에 따르면, TOF(Time of Flight) 카메라나 어레이 카메라를 이용하여 입체 심도 맵을 구성하고, 상기 구성한 입체 심도 맵을 이용하여 시선 추적을 수행함으로써, 시선 추적 장치의 구축을 위한 비용을 절감시키면서 시선 추적에 따른 다양한 기능을 제공할 수 있다.According to an embodiment, a stereoscopic depth map is constructed using a time of flight (TOF) camera or an array camera and eye gaze tracking is performed using the configured stereoscopic depth map, thereby reducing the cost for constructing the eye tracking apparatus. Can provide various functions according to eye tracking.

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시 예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시 예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리 범위에 포함되는 것으로 해석되어야 할 것이다.The foregoing description is merely illustrative of the technical idea of the present invention, and various changes and modifications may be made by those skilled in the art without departing from the essential characteristics of the present invention. Therefore, the embodiments disclosed in the present invention are intended to illustrate rather than limit the scope of the present invention, and the scope of the technical idea of the present invention is not limited by these embodiments. The scope of protection of the present invention should be construed according to the following claims, and all technical ideas within the scope of equivalents should be construed as falling within the scope of the present invention.

110: 제 1 카메라
120: 제 2 카메라
130: 영상 처리부
140: 저장부
150: 제어부
110: First camera
120: Second camera
130:
140:
150:

Claims (22)

피사체에 대한 깊이 영상을 획득하는 단계;
상기 획득한 깊이 영상으로부터 상기 피사체에 포함된 안구 영역에 대한 위치 정보를 획득하는 단계; 및
상기 획득한 위치 정보를 토대로 상기 안구 영역에 포함된 동공을 인식하여 사용자의 시선을 추적하는 단계를 포함하는 시선 추적 방법.
Obtaining a depth image of the subject;
Acquiring position information of an eyeball area included in the subject from the acquired depth image; And
And a gaze tracking method of recognizing a pupil included in the eyeball area based on the acquired position information.
제 1항에 있어서,
상기 획득한 위치 정보를 이용하여, 상기 동공 영역을 확대한 확대 영상을 획득하는 단계를 더 포함하며,
상기 시선 추적은,
상기 획득한 확대 영상을 기반으로 수행되는 시선 추적 방법.
The method of claim 1,
Using the acquired position information, acquiring an enlarged image in which the pupil area is enlarged;
The eye tracking,
A gaze tracking method performed based on the obtained enlarged image.
제 1항에 있어서,
상기 깊이 영상을 획득하는 단계는,
상기 피사체에 전자기파를 출사하는 단계와,
상기 피사체에 의해 반사되는 상기 전자기파를 수집하는 단계와,
상기 반사되는 전자기파의 비행 시간을 계산하는 단계를 포함하는 시선 추적 방법.
The method of claim 1,
Wherein the acquiring of the depth image comprises:
Emitting electromagnetic waves to the subject;
Collecting the electromagnetic waves reflected by the subject;
Calculating a flight time of the reflected electromagnetic waves.
제 1항에 있어서,
상기 깊이 영상을 획득하는 단계는,
어레이 카메라를 이용하여 상기 피사체에 대한 복수의 영상을 획득하는 단계와,
상기 획득한 복수의 영상으로부터 상기 피사체의 거리에 따라 변화하는 델타 값을 계산하는 단계를 포함하는 시선 추적 방법.
The method of claim 1,
Wherein the acquiring of the depth image comprises:
Acquiring a plurality of images of the subject using an array camera;
And calculating a delta value that changes according to the distance of the subject from the obtained plurality of images.
제 2항에 있어서,
상기 피사체에 대한 컬러 영상을 획득하는 단계가 더 포함되는 시선 추적 방법.
3. The method of claim 2,
And obtaining a color image of the subject.
제 5항에 있어서,
상기 안구 영역에 대한 위치 정보를 획득하는 단계는,
상기 획득한 컬러 영상에서 사용자의 안구가 위치한 영역을 인식하는 단계와,
상기 인식한 안구 영역에 대한 X 좌표 및 Y 좌표를 획득하는 단계와,
상기 획득한 깊이 영상에서 상기 X 좌표 및 Y 좌표에 대응하는 영역의 깊이에 대응하는 Z 좌표를 획득하는 단계를 포함하는 시선 추적 방법.
6. The method of claim 5,
Acquiring the location information for the eyeball area,
Recognizing a region where an eyeball of a user is located in the acquired color image;
Acquiring an X coordinate and a Y coordinate with respect to the recognized eye area;
And obtaining a Z coordinate corresponding to a depth of an area corresponding to the X coordinate and the Y coordinate in the acquired depth image.
제 6항에 있어서,
상기 안구 영역에 대한 위치 정보를 획득하는 단계는,
상기 획득한 컬러 영상에 복수의 사용자가 존재하는 경우, 상기 복수의 사용자 각각에 대한 안구 영역의 위치 정보를 획득하는 단계를 포함하며,
상기 확대 영상을 획득하는 단계는,
상기 위치 정보를 이용하여, 상기 복수의 사용자 각각에 대한 안구 영역의 확대 영상을 획득하는 단계를 포함하는 시선 추적 방법.
The method according to claim 6,
Acquiring the location information for the eyeball area,
Obtaining location information of an eyeball area for each of the plurality of users when the plurality of users exist in the acquired color image,
Acquiring the enlarged image,
And using the position information, acquiring an enlarged image of an eyeball area for each of the plurality of users.
제 6항에 있어서,
상기 안구 영역에 대한 위치 정보를 획득하는 단계는,
상기 획득한 컬러 영상에 복수의 사용자가 존재하는 경우, 상기 복수의 사용자 중 가장 가까운 거리에 위치한 사용자의 안구 영역에 대한 위치 정보를 획득하는 단계를 포함하는 시선 추적 방법.
The method according to claim 6,
Acquiring the location information for the eyeball area,
And when the plurality of users exist in the acquired color image, acquiring location information about an eyeball area of the user located at the closest distance among the plurality of users.
제 6항에 있어서,
상기 확대 영상의 획득을 위한 조건을 설정하는 단계가 더 포함되며,
상기 조건을 설정하는 단계는,
상기 X 좌표 및 Y 좌표를 이용하여 확대 영역을 설정하는 단계와,
상기 Z 좌표를 이용하여, 상기 확대 영역에 대한 확대 비율을 설정하는 단계를 포함하는 시선 추적 방법.
The method according to claim 6,
Setting a condition for acquiring the enlarged image;
The step of setting the condition includes:
Setting an enlarged area using the X coordinate and the Y coordinate;
And setting an enlargement ratio for the enlarged area using the Z coordinate.
제 9항에 있어서,
상기 확대 비율을 설정하는 단계는,
상기 Z 좌표를 이용하여, 상기 사용자와의 거리가 증가할수록 상기 확대 비율을 증가시키는 단계를 포함하는 시선 추적 방법.
The method of claim 9,
Setting the enlargement ratio,
And using the Z coordinate, increasing the magnification ratio as the distance from the user increases.
제 1항에 있어서,
상기 사용자의 시선을 추적하는 단계는,
상기 확대 영상으로부터 좌측 동공 및 우측 동공을 인식하는 단계와,
상기 인식한 좌측 동공 및 우측 동공의 거리 차이를 이용하여 상기 사용자의 시선을 추적하는 단계를 포함하는 시선 추적 방법.
The method of claim 1,
Tracking the eyes of the user,
Recognizing a left pupil and a right pupil from the enlarged image;
And tracking the gaze of the user by using the recognized difference between the left pupil and the right pupil.
피사체에 대한 컬러 영상 및 깊이 영상을 획득하는 제 1 카메라;
상기 제 1카메라를 통해 획득되는 영상을 신호처리하는 영상 처리부; 및
상기 획득된 컬러 영상 및 깊이 영상을 기반으로 상기 피사체에 포함된 안구 영역의 위치 정보를 획득하고, 상기 획득한 위치 정보를 토대로 상기 안구 영역에 포함된 동공을 인식하여 사용자 시선을 추적하는 제어부를 포함하는 시선 추적 장치.
A first camera acquiring a color image and a depth image of the subject;
An image processor for signal processing an image acquired through the first camera; And
And a controller configured to acquire location information of an eyeball area included in the subject based on the obtained color image and depth image, and to track a user's gaze by recognizing a pupil included in the eyeball area based on the acquired location information. Eye tracking device.
제 12항에 있어서,
상기 제 1 카메라는,
상기 피사체에 전자기파를 출사하고, 상기 피사체에 의해 반사되는 상기 전자기파를 수집하며, 상기 반사되는 전자기파의 비행 시간을 계산하여 상기 깊이 영상을 획득하는 TOF(Time Of Flight) 카메라를 포함하는 시선 추적 장치.
13. The method of claim 12,
The first camera,
And a time of flight (TOF) camera that emits electromagnetic waves to the subject, collects the electromagnetic waves reflected by the subject, and calculates a flight time of the reflected electromagnetic waves to obtain the depth image.
제 12항에 있어서,
상기 제 1 카메라는,
상기 피사체에 대한 복수의 영상을 획득하고, 상기 획득한 복수의 영상으로부터 상기 피사체의 거리에 따라 변화하는 델타 값을 계산하여 상기 깊이 영상을 획득하는 어레이 카메라를 포함하는 시선 추적 장치.
13. The method of claim 12,
The first camera,
And an array camera for acquiring a plurality of images of the subject, and obtaining the depth image by calculating a delta value that changes according to the distance of the subject from the acquired plurality of images.
제 12항에 있어서,
상기 피사체의 특정 영역을 기설정된 확대 비율로 확대한 확대 영상을 획득하는 제 2 카메라를 더 포함하는 시선 추적 장치.
13. The method of claim 12,
And a second camera configured to acquire an enlarged image obtained by enlarging a specific region of the subject at a preset magnification ratio.
제 15항에 있어서,
상기 제어부는,
상기 확대 영상의 획득 조건을 설정하고, 상기 획득 조건에 따라 획득된 확대 영상을 이용하여 상기 안구 영역에 포함된 동공을 인식하는 시선 추적 장치.
16. The method of claim 15,
The control unit,
A gaze tracking device configured to set an acquisition condition of the magnified image and recognize a pupil included in the eyeball area by using the magnified image acquired according to the acquisition condition.
제 16항에 있어서,
상기 제어부는,
상기 획득한 컬러 영상에서 사용자의 안구가 위치한 영역을 인식하여 상기 안구 영역에 대한 X 좌표 및 Y 좌표를 획득하고,
상기 깊이 영상으로부터 상기 X 좌표 및 Y 좌표에 대응하는 영역의 깊이에 대응하는 Z 좌표를 획득하는 시선 추적 장치.
17. The method of claim 16,
The control unit,
Recognizing the area where the user's eyeball is located in the obtained color image to obtain the X coordinate and Y coordinate for the eyeball area,
And a Z-coordinate corresponding to a depth of an area corresponding to the X and Y coordinates, from the depth image.
제 17항에 있어서,
상기 제어부는,
상기 획득한 컬러 영상에 복수의 사용자가 존재하는 경우, 상기 복수의 사용자 각각에 대한 안구 영역의 위치 정보를 획득하고,
상기 제 2 카메라는,
상기 복수의 위치 정보를 이용하여, 상기 복수의 사용자 각각에 대한 안구 영역의 확대 영상을 획득하는 시선 추적 장치.
18. The method of claim 17,
The control unit,
When a plurality of users exist in the acquired color image, the position information of the eyeball area for each of the plurality of users is obtained.
The second camera,
And a gaze tracking device to obtain an enlarged image of an eyeball area for each of the plurality of users using the plurality of location information.
제 17항에 있어서,
상기 제어부는,
상기 획득한 컬러 영상에 복수의 사용자가 존재하는 경우, 상기 복수의 사용자 중 가장 가까운 거리에 위치한 사용자의 안구 영역에 대한 위치 정보를 획득하는 시선 추적 장치.
18. The method of claim 17,
The control unit,
And a plurality of users when the plurality of users are present in the obtained color image, obtaining position information on an eyeball area of a user located at the closest distance among the plurality of users.
제 17항에 있어서,
상기 제어부는,
상기 안구 영역의 X 좌표 및 Y 좌표를 이용하여 상기 제 2 카메라를 통해 확대될 확대 영역을 설정하고, 상기 Z 좌표를 이용하여 상기 확대 영역에 대한 확대 비율을 설정하는 시선 추적 장치.
18. The method of claim 17,
The control unit,
And an enlarged area to be enlarged through the second camera using the X coordinate and the Y coordinate of the eyeball area, and an enlargement ratio of the enlarged area using the Z coordinate.
제 20항에 있어서,
상기 확대 비율은,
상기 Z 좌표에 따른 사용자와의 거리에 비례하여 증가하는 시선 추적 장치.
21. The method of claim 20,
The enlargement ratio is,
And a gaze tracking device that increases in proportion to the distance from the user according to the Z coordinate.
제 12항에 있어서,
상기 제어부는,
상기 확대 영상으로부터 좌측 동공 및 우측 동공을 인식하고, 상기 인식한 좌측 동공 및 우측 동공의 거리 차이를 이용하여 상기 사용자의 시선을 추적하는 시선 추적 장치.
13. The method of claim 12,
The control unit,
A gaze tracking device for recognizing a left pupil and a right pupil from the enlarged image, and tracking the user's gaze by using the recognized distance difference between the left pupil and the right pupil.
KR1020120082012A 2012-07-26 2012-07-26 Gaze Tracking Apparatus and Method KR101961266B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120082012A KR101961266B1 (en) 2012-07-26 2012-07-26 Gaze Tracking Apparatus and Method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120082012A KR101961266B1 (en) 2012-07-26 2012-07-26 Gaze Tracking Apparatus and Method

Publications (2)

Publication Number Publication Date
KR20140014868A true KR20140014868A (en) 2014-02-06
KR101961266B1 KR101961266B1 (en) 2019-03-25

Family

ID=50264680

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120082012A KR101961266B1 (en) 2012-07-26 2012-07-26 Gaze Tracking Apparatus and Method

Country Status (1)

Country Link
KR (1) KR101961266B1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160062619A (en) * 2014-11-25 2016-06-02 현대자동차주식회사 Eye Tracking Apparatus and Method
CN109256042A (en) * 2018-11-22 2019-01-22 京东方科技集团股份有限公司 Display panel, electronic equipment and human eye method for tracing
CN112749600A (en) * 2019-10-31 2021-05-04 Oppo广东移动通信有限公司 Human eye position determining method and related product
CN113794872A (en) * 2021-09-17 2021-12-14 融信信息科技有限公司 Image recognition system based on AR intelligent glasses

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200118524A (en) 2019-04-08 2020-10-16 유홍준 Image Processing System and Method Based on Active Motion Recognition Tracking

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001174220A (en) * 1999-12-15 2001-06-29 Nippon Hoso Kyokai <Nhk> Device and method for generating image
JP2001215403A (en) * 2000-02-01 2001-08-10 Canon Inc Image pickup device and automatic focus detection method
US20120147328A1 (en) * 2010-12-13 2012-06-14 Microsoft Corporation 3d gaze tracker

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001174220A (en) * 1999-12-15 2001-06-29 Nippon Hoso Kyokai <Nhk> Device and method for generating image
JP2001215403A (en) * 2000-02-01 2001-08-10 Canon Inc Image pickup device and automatic focus detection method
US20120147328A1 (en) * 2010-12-13 2012-06-14 Microsoft Corporation 3d gaze tracker

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160062619A (en) * 2014-11-25 2016-06-02 현대자동차주식회사 Eye Tracking Apparatus and Method
CN109256042A (en) * 2018-11-22 2019-01-22 京东方科技集团股份有限公司 Display panel, electronic equipment and human eye method for tracing
CN112749600A (en) * 2019-10-31 2021-05-04 Oppo广东移动通信有限公司 Human eye position determining method and related product
CN112749600B (en) * 2019-10-31 2024-03-12 Oppo广东移动通信有限公司 Human eye position determining method and related products
CN113794872A (en) * 2021-09-17 2021-12-14 融信信息科技有限公司 Image recognition system based on AR intelligent glasses

Also Published As

Publication number Publication date
KR101961266B1 (en) 2019-03-25

Similar Documents

Publication Publication Date Title
CN110647237B (en) Gesture-based content sharing in an artificial reality environment
US10635895B2 (en) Gesture-based casting and manipulation of virtual content in artificial-reality environments
US9465443B2 (en) Gesture operation input processing apparatus and gesture operation input processing method
CN108700934B (en) Wearable device capable of eye tracking
CN106705837B (en) Object measuring method and device based on gestures
EP3047361B1 (en) A method and device for displaying a graphical user interface
US8388146B2 (en) Anamorphic projection device
US20160078680A1 (en) Technologies for adjusting a perspective of a captured image for display
US20140037135A1 (en) Context-driven adjustment of camera parameters
KR101471488B1 (en) Device and Method for Tracking Sight Line
US20140003674A1 (en) Skin-Based User Recognition
KR20120045667A (en) Apparatus and method for generating screen for transmitting call using collage
TW201427388A (en) Image interaction system, detecting method for detecting finger position, stereo display system and control method of stereo display
US11582409B2 (en) Visual-inertial tracking using rolling shutter cameras
US20120218390A1 (en) Interactive stereo display system and method for calculating three-dimensional coordinate
KR101961266B1 (en) Gaze Tracking Apparatus and Method
JP6870474B2 (en) Gaze detection computer program, gaze detection device and gaze detection method
US20150189256A1 (en) Autostereoscopic multi-layer display and control approaches
KR101330531B1 (en) Method of virtual touch using 3D camera and apparatus thereof
JP2018205819A (en) Gazing position detection computer program, gazing position detection device, and gazing position detection method
KR20140014870A (en) Gaze tracking apparatus and method
JP2013125985A (en) Display system
KR101396488B1 (en) Apparatus for signal input and method thereof
JP6221292B2 (en) Concentration determination program, concentration determination device, and concentration determination method
JP5834941B2 (en) Attention target identification device, attention target identification method, and program

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant