KR20140014868A - Gaze tracking apparatus and method - Google Patents
Gaze tracking apparatus and method Download PDFInfo
- Publication number
- KR20140014868A KR20140014868A KR1020120082012A KR20120082012A KR20140014868A KR 20140014868 A KR20140014868 A KR 20140014868A KR 1020120082012 A KR1020120082012 A KR 1020120082012A KR 20120082012 A KR20120082012 A KR 20120082012A KR 20140014868 A KR20140014868 A KR 20140014868A
- Authority
- KR
- South Korea
- Prior art keywords
- image
- subject
- area
- coordinate
- camera
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Eye Examination Apparatus (AREA)
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
Abstract
Description
실시 예는, 시선 추적 장치 및 이의 시선 추적 방법에 관한 것이다.An embodiment relates to a gaze tracking device and a gaze tracking method thereof.
최근, 사용자의 시선 추적을 기반으로 통한 시청자 광고 효과 측정, 운전자 운전 행태 분석 및 졸음 방지, 웹페이지 소비 행태 분석을 통한 메뉴 재배치, 시선 상호 작용을 이용한 게임 제어, 홍채 정보 기반 사용자 인증, 운동 및 전문 기술 트레이닝 프로그램 및 소비 행태 분석을 통한 진열대 배치 등이 이루어지고 있다.Recently, viewers' advertising effect measurement based on user's eye tracking, driver driving behavior analysis and drowsiness prevention, menu relocation through web page consumption behavior analysis, game control using gaze interaction, iris information based user authentication, exercise and professionalism Placement of shelves through technical training programs and consumption analysis is being conducted.
특허문헌 1은, 컴퓨터 비전 기반의 시선 추적 방법에 관련한다.
이 방법은 사용자의 얼굴 및 눈에 대한 특성 값에 대한 룩-업 테이블을 사용 전 구성 한다. 실제 시선 추적에 있어서는, 얼굴방향 및 홍채의 중심점을 측정한 후, 상기 특성 값과 상기 측정값을 비교하여 시선 방향을 계산한다. 시선 방향은 측정된 얼굴 방향 좌표계 및 홍채 중심 좌표계의 합성에 의해 계산된다. 얼굴 방향 측정은 T자 스틱형 참조모델을 착용하여 정확한 각도를 찾아내고, 홍채의 중심점은 홍채의 색깔 분포 분석에 의한 홍채색깔의 무게중심을 구하여, 그 무게중심을 시작으로 업/다운 스캐닝함으로써, 타원형 홍채 에지 내의 가장 긴 수평 라인을 찾고, 그 수평 라인의 중심점을 홍채의 중심점으로 결정한다. This method is configured before using the look-up table for the feature values for the user's face and eyes. In the actual eye tracking, after measuring the face direction and the center point of the iris, the eye direction is calculated by comparing the characteristic value with the measured value. The gaze direction is calculated by combining the measured face direction coordinate system and the iris center coordinate system. The face orientation is measured by using a T-stick reference model to find the exact angle, and the center of the iris is obtained by determining the center of gravity of the iris color by analyzing the color distribution of the iris. Find the longest horizontal line in the elliptical iris edge and determine the center point of that horizontal line as the center point of the iris.
그러나, 이 방법은 다양한 얼굴 및 눈에 대한 특성 값을 미리 측정하여 룩업 테이블을 구성하는데 있어서 신뢰성을 높이기 위해서는 수많은 특성에 대한 특성을 미리 고려하고 수집해야 하는 제약이 있으며, 홍채 영역이 눈꺼풀에 의해 가려지는 경우 시선 추적 정확도가 떨어질 수 있다.However, this method has a limitation to consider and collect the characteristics of a large number of characteristics in order to increase the reliability in constructing the lookup table by measuring the characteristic values of various faces and eyes in advance, and the iris area is covered by the eyelids. If you lose, your eye tracking accuracy may drop.
특허문헌 2에 개시된 종래 기술은 사용자의 얼굴을 복수의 특징점에 의한 특징 면으로 파악하여 이 특징 면의 병진 및 회전에 의해 사용자의 얼굴의 방향을 인식함으로써 시선을 추적한다. 그 결과 신뢰도가 매우 높고 정확한 응시 위치 추적 시스템이 일반 사용이 가능할 만큼 저렴한 가격으로 제공될 수 있다. 그러나, 얼굴의 특징점만을 이용하고 안구의 회전은 고려하지 않기 때문에 직관적인 시선 추적 인터페이스라고 할 수 없으며, 목적한 위치에 커서를 움직이기 위해서는 고개를 지속적으로 움직여야 한다.The prior art disclosed in
비 특허논문은 2대의 카메라로 구성한 스테레오 카메라 장치 및 3개의 적외선 조명을 이용하여 안구의 3차원 위치를 추정하고, 이를 통해 시선 벡터를 구하여 2차원 평면 화면상의 시선 위치를 구하는 방법을 제안한다. The non-patent paper proposes a method of estimating a three-dimensional position of an eyeball using a stereo camera device composed of two cameras and three infrared lights, and obtaining a gaze vector through the gaze vector.
이 방법의 수행을 위해서는, 스테레오 카메라 구성을 위해 2대의 카메라 간 캘리브레이션 과정이 선행되어야 하며, 3개의 조명 간 위치가 정확하게 설정되어야 한다. In order to perform this method, the calibration process between two cameras must be preceded for the configuration of the stereo camera, and the positions between the three lights must be set correctly.
이러한 방법은 다수의 카메라 및 조명 장치를 구축하기 위한 비용이 많이 소요되는 문제점이 있다.This method has a problem in that it is expensive to build a plurality of cameras and lighting devices.
특허문헌 1: KR 10-0311605Patent Document 1: KR 10-0311605
특허문헌 2: KR 10-0325365Patent Document 2: KR 10-0325365
비 특허문헌: S. W. Shih and J. Liu, "A Novel Approach to 3-D Gaze Tracking Using Stereo Cameras," IEEE Transactions on Systems, Man and Cybernetics, Part B, vol. 34, no. 1, pp. 234-245, Feb. 2004 Non-Patent Document: S. W. Shih and J. Liu, "A Novel Approach to 3-D Gaze Tracking Using Stereo Cameras," IEEE Transactions on Systems, Man and Cybernetics, Part B, vol. 34, no. 1, pp. 234-245, Feb. 2004
실시 예에서는, TOF(Time of Flight) 카메라를 이용하여 사용자의 시선을 추적할 수 있는 시선 추적 장치 및 이의 시선 추적 방법을 제공한다.The embodiment provides a gaze tracking device and a gaze tracking method for tracking a gaze of a user using a time of flight (TOF) camera.
실시 예에서는, 어레이 렌즈를 이용하여 사용자의 시선을 추적할 수 있는 시선 추적 장치 및 이의 시선 추적 방법을 제공한다.The embodiment provides a gaze tracking device and a gaze tracking method thereof, which may track an eye of a user using an array lens.
또한, 실시 예에서는 오른쪽 및 왼쪽 동공의 위치 차이를 이용하여 시선 추적을 행할 수 있는 시선 추적 장치 및 이의 시선 추적 방법을 제공한다.In addition, the embodiment provides a gaze tracking device and a gaze tracking method thereof capable of performing gaze tracking by using a position difference between right and left pupils.
제안되는 실시 예에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 제안되는 실시 예가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.It is to be understood that the technical objectives to be achieved by the embodiments are not limited to the technical matters mentioned above and that other technical subjects not mentioned are apparent to those skilled in the art to which the embodiments proposed from the following description belong, It can be understood.
실시 예에 따른 시선 추적 방법은 피사체에 대한 깊이 영상을 획득하는 단계; 상기 획득한 깊이 영상으로부터 상기 피사체에 포함된 안구 영역에 대한 위치 정보를 획득하는 단계; 및 상기 획득한 위치 정보를 토대로 상기 안구 영역에 포함된 동공을 인식하여 사용자의 시선을 추적하는 단계를 포함한다.According to an exemplary embodiment, a gaze tracking method may include: obtaining a depth image of a subject; Acquiring position information of an eyeball area included in the subject from the acquired depth image; And recognizing a pupil included in the eyeball area based on the acquired position information to track the eyes of the user.
또한, 실시 예에 따른 시선 추적 장치는 피사체에 대한 컬러 영상 및 깊이 영상을 획득하는 제 1 카메라; 상기 제 1카메라를 통해 획득되는 영상을 신호처리하는 영상 처리부; 및 상기 획득된 컬러 영상 및 깊이 영상을 기반으로 상기 피사체에 포함된 안구 영역의 위치 정보를 획득하고, 상기 획득한 위치 정보를 토대로 상기 안구 영역에 포함된 동공을 인식하여 사용자 시선을 추적하는 제어부를 포함한다.In addition, the apparatus for tracking eye gaze according to the embodiment may include: a first camera configured to acquire a color image and a depth image of a subject; An image processor for signal processing an image acquired through the first camera; And a control unit for acquiring position information of the eyeball area included in the subject based on the obtained color image and the depth image, and recognizing a pupil included in the eyeball area based on the acquired position information. Include.
실시 예에 따르면, TOF(Time of Flight) 카메라나 어레이 카메라를 이용하여 입체 심도 맵을 구성하고, 상기 구성한 입체 심도 맵을 이용하여 시선 추적을 수행함으로써, 시선 추적 장치의 구축을 위한 비용을 절감시키면서 시선 추적에 따른 다양한 기능을 제공할 수 있다.According to an embodiment, a stereoscopic depth map is constructed using a time of flight (TOF) camera or an array camera and eye gaze tracking is performed using the configured stereoscopic depth map, thereby reducing the cost for constructing the eye tracking apparatus. Can provide various functions according to eye tracking.
도 1은 실시 예에 따른 시선 추적 장치를 나타낸 도면이다.
도 2는 제 1 실시 예에 따른 제 1 카메라의 구성을 나타낸 도면이다.
도 3은 도 2에 도시된 제 1 카메라의 영상 획득 방법을 설명하는 도면이다.
도 4 및 5는 제 2 실시 예에 따른 제 1 카메라의 구성을 나타낸 도면이다.
도 6 및 7은 실시 예에 따른 시선 추적 장치의 시선 추적 방법을 제공한다.1 is a diagram illustrating a gaze tracking device according to an exemplary embodiment.
2 is a diagram illustrating a configuration of a first camera according to a first embodiment.
FIG. 3 is a view for explaining an image acquisition method of the first camera shown in FIG. 2.
4 and 5 are views illustrating a configuration of the first camera according to the second embodiment.
6 and 7 provide a gaze tracking method of a gaze tracking device according to an exemplary embodiment.
첨부한 도면을 참고로 하여 본 발명의 실시 예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다. BRIEF DESCRIPTION OF THE DRAWINGS The above and other features and advantages of the present invention will become more apparent by describing in detail exemplary embodiments thereof with reference to the attached drawings in which: FIG. As those skilled in the art would realize, the described embodiments may be modified in various different ways, all without departing from the spirit or scope of the present invention.
명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. Throughout the specification, when a part is said to "include" a certain component, it means that it can further include other components, without excluding other components unless specifically stated otherwise.
그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하고, 여러 층 및 영역을 명확하게 표현하기 위하여 두께를 확대하여 나타내었으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.In order to clearly illustrate the present invention in the drawings, thicknesses are enlarged in order to clearly illustrate various layers and regions, and parts not related to the description are omitted, and like parts are denoted by similar reference numerals throughout the specification .
도 1은 실시 예에 따른 시선 추적 장치를 나타낸 도면이다.1 is a diagram illustrating a gaze tracking device according to an exemplary embodiment.
도 1을 참조하면, 시선 추적 장치는 제 1 카메라(110), 제 2 카메라(120), 영상 처리부(130), 저장부(140) 및 제어부(150)를 포함한다.Referring to FIG. 1, the eye tracking apparatus includes a
제 1 카메라(110)는 전방에 위치한 피사체를 촬영하여 영상을 획득하고, 상기 획득한 영상으로부터 거리 정보를 획득한다.The
상기 거리 정보는, 상기 제 1 카메라(110)와 상기 피사체와의 거리에 비례하여 명암이 변화하는 심도 맵(Depth Map)을 의미한다.The distance information refers to a depth map in which contrast is changed in proportion to the distance between the
심도 맵은, 시선 추적 장치와 피사체와의 거리를 판단하고, 이를 각 피사체의 밝기로 표현한 것이다. 즉, 상기 심도 맵에 따르면 상기 시선 추적 장치(명확하게는 상기 제 1 카메라)에서 가까이 위치해 있는 피사체는, 멀리 위치해 있는 피사체보다 높은 명암 레벨(밝게)로 표현된다.The depth map determines the distance between the eye tracking apparatus and the subject and expresses the brightness of each subject. That is, according to the depth map, a subject located closer to the gaze tracking device (obviously, the first camera) is expressed at a higher contrast level (brighter) than a subject located far away.
상기 심도 맵을 이용하면, 상기 심도 맵에 표현되어 있는 각 피사체의 밝기 정보를 토대로 상기 시선 추적 장치로부터 상기 피사체까지의 거리를 추적할 수 있다.Using the depth map, the distance from the gaze tracking device to the subject may be tracked based on brightness information of each subject represented in the depth map.
상기 심도 맵은, 일반적으로 복수의 카메라(스테레오 카메라)를 이용하여 획득할 수 있다.The depth map may be generally obtained using a plurality of cameras (stereo cameras).
그러나, 실시 예에서는, TOF(Time Of Flight) 원리를 이용하는 TOF 카메라를 이용하여 상기 피사체와의 거리를 나타내는 심도 맵을 획득하거나, 어레이 카메라(Array Camera)를 이용하여 상기 심도 맵을 획득한다.However, in an embodiment, a depth map representing a distance to the subject may be obtained using a TOF camera using a time of flight (TOF) principle, or the depth map may be obtained using an array camera.
상기 TOF 카메라 및 어레이 카메라를 이용한 심도 맵 획득 방법에 대해서는 후술하기로 한다.A depth map acquisition method using the TOF camera and the array camera will be described later.
제 2 카메라(120)는 전방에 위치한 피사체 중 특정 영역에 대한 확대 영상을 획득한다.The
이때, 제 2 카메라(120)는 줌 렌즈로 구현될 수 있으며, 기설정되는 특정 줌 비율에 따라 상기 특정 영역에 대한 확대 영상을 획득한다.In this case, the
상기 특정 영역은, 상기 피사체 중 사용자의 시선이 위치한 영역일 수 있다. 다시 말해서, 상기 특정 영역은, 사용자의 안구가 위치한 영역일 수 있다.The specific area may be an area where a user's gaze is located among the subjects. In other words, the specific area may be an area where the user's eyeball is located.
또한, 상기 특정 줌 비율은, 상기 사용자의 안구에 대응하는 거리 정보에 대응될 수 있다. 즉, 상기 안구까지의 거리가 증가하게 되면, 상기 줌 비율로 이에 비례하여 증가하게 되며, 이에 따라 상기 거리 정보에 따라 상기 확대 영상을 획득하기 위한 줌 비율이 설정될 수 있다.The specific zoom ratio may correspond to distance information corresponding to the eyeball of the user. That is, when the distance to the eyeball increases, the zoom ratio increases in proportion to the eyeball. Accordingly, the zoom ratio for acquiring the enlarged image may be set according to the distance information.
영상 처리부(130)는 상기 제 1 카메라(110) 및 제 2 카메라(120)를 통해 획득되는 영상을 처리하여 출력한다.The
저장부(130)는 제어부(150) 내의 각 신호 처리 및 제어를 위한 프로그램이 저장될 수도 있고, 신호 처리된 영상, 음성 또는 데이터 신호를 저장할 수도 있다. The
또한, 저장부(130)는 외부로부터 입력되는 영상, 음성 또는 데이터 신호의 임시 저장을 위한 기능을 수행할 수도 있다. In addition, the
저장부(130)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램, 롬(EEPROM 등) 중 적어도 하나의 타입의 저장매체를 포함할 수 있다.The
제어부(150)는 상기 시선 추적 장치의 전반적인 동작을 제어한다.The
예를 들어, 제어부(150)는 상기 제 1 카메라(110)를 제어하여, 상기 전방에 위치한 피사체에 대한 거리를 나타내는 심도 맵이 획득되도록 한다.For example, the
또한, 제어부(150)는 상기 획득한 심도 맵을 토대로 전방에 위치한 사용자를 인식하고, 그에 따라 사용자의 안구 위치에 대한 좌표 정보를 획득한다.In addition, the
이를 위해, 제어부(150)는 상기 제 1 카메라(110)를 통해 획득한 영상으로부터 사용자 얼굴을 인식한다. To this end, the
상기 사용자 얼굴 인식은, 사용자의 얼굴 구성 요소(예를 들어, 입, 눈, 코, 이마 등)가 가지는 패턴 특징을 토대로 수행될 수 있다.The user face recognition may be performed based on a pattern feature of a face component (eg, mouth, eyes, nose, forehead, etc.) of the user.
제어부(150)는 상기 얼굴이 인식되면, 상기 인식한 얼굴로부터 사용자의 눈(명확하게는, 안구)이 가지는 특징점을 토대로, 상기 안구의 위치에 대한 X 좌표 및 Y 좌표 정보를 획득한다.When the face is recognized, the
또한, 제어부(150)는 상기 획득한 심도 맵으로부터 상기 X 좌표 및 Y 좌표 정보에 대응하는 위치(안구 위치)에 대한 명암을 확인하고, 상기 확인한 명암을 토대로 상기 안구 위치에 대한 Z 좌표 정보를 획득한다.In addition, the
상기 X 및 Y 좌표 정보는, 상기 사용자의 안구 위치에 대한 수직선 및 수평선에 대한 좌표 정보일 수 있으며, 상기 Z 좌표 정보는, 상기 사용자의 안구 위치에 대한 거리 정보일 수 있다.The X and Y coordinate information may be coordinate information about a vertical line and a horizontal line with respect to the eyeball position of the user, and the Z coordinate information may be distance information about the eyeball position of the user.
상기와 같이, 안구 위치에 대한 좌표 정보가 획득되면, 상기 제어부(150)는 상기 제 2 카메라(120)를 제어하여, 상기 사용자의 안구 영역을 확대한 확대 영상이 획득되도록 한다.As described above, when the coordinate information about the eyeball position is obtained, the
이를 위해, 제어부(150)는 상기 획득한 X, Y 및 Z 좌표 정보에 의거하여, 상기 제 2 카메라(120)에 의한 확대 영상의 획득 조건을 설정한다.To this end, the
즉, 상기 제어부(150)는 상기 X 및 Y 좌표 정보를 이용하여 상기 제 2 카메라(120)를 통해 확대할 영역을 설정한다.That is, the
이후, 상기 제어부(150)는 상기 Z 정보를 이용하여, 상기 설정한 확대 영역에 대한 확대 비율(줌 비율)을 설정한다. 즉, 제어부(150)는 상기 Z 정보에 의한 안구까지의 거리가 멀면, 상기 확대 비율을 증가시키고, 상기 안구까지의 거리가 가까우면, 상기 확대 비율을 감소시킨다.Thereafter, the
제 2 카메라(120)는 상기 제어부(150)의 제어에 따라 상기 X 및 Y 좌표 정보에 대응하는 영역의 영상을 상기 Z 좌표 정보에 대응하는 줌 비율로 확대한 확대 영상을 획득한다.The
제어부(150)는 상기 제 2 카메라(120)를 통해 상기 확대 영상이 획득되면, 상기 획득한 확대 영상을 분석하여 안구(동공)를 인식한다.When the enlarged image is obtained through the
또한, 제어부(150)는 상기 동공의 인식에 따라 좌측 동공 및 우측 동공의 위치 차이를 이용하여 사용자의 시선을 추적한다.In addition, the
이때, 상기 동공 인식은, 상기 영상 처리부(130)에 의해 수행되는 영상 처리 알고리즘에 의해 이루어질 수 있다.In this case, the pupil recognition may be performed by an image processing algorithm performed by the
영상 처리부(130)는 상기 획득된 확대 영상에 대해 영상 처리 알고리즘 및 원형 검출 알고리즘 등을 구동하여, 사용자의 동공을 획득한다. 즉, 영상 처리부(130)는 상기 제 2 카메라(120)를 통해 획득한 사용자 안구 위치에 대응하는 영상으로부터 사용자 동공 영역을 검출하고, 원형 검출 알고리즘을 구동하여 상기 검출된 동공 영역으로부터 동공의 중심점을 획득한다.The
원형 검출 알고리즘은, 내부 원과 외부 원으로 구성되는 원형 검출 템플릿을 동공 영역으로 이동시켜, 템플릿의 내부 원과 외부 원의 그레이 레벨 합 차가 가장 큰 부분을 검출하고, 상기 검출한 영역의 중심점을 동공 중심점으로 획득할 수 있다.The circular detection algorithm moves a circular detection template composed of an inner circle and an outer circle to the pupil area, detects the largest gray level difference between the inner circle and the outer circle of the template, and detects the center point of the detected area. Can be obtained as a center point.
또한, 영상 처리부(130)는 상기 원형 검출 알고리즘과 더불어 지역적 이진화 기법을 더 수행하여 상기 동공 중심점을 획득할 수도 있을 것이다.In addition, the
이와 같이, 영상 처리부(130)는 동공의 중심점을 정확히 획득하기 위하여, 원형 검출 알고리즘과 더불어 지역적 이진화를 수행하고, 이진화된 영역 중 어두운 부분을 동공 영역으로 판단하여, 어두운 영역에 대한 무게 중심을 사용자 동공의 실질적인 중심점으로 판단할 수 있다.As such, the
이후, 제어부(150)는 상기 영상 처리부(130)를 통해 획득한 좌측 동공의 중심점 및 우측 동공의 중심점의 거리를 토대로 사용자의 시선을 추적한다.Thereafter, the
상기 우측 동공 및 좌측 동공의 거리를 이용한 사용자 시선 추적 기술은 본 발명이 속하는 기술분야에서 이미 공지된 기술이므로, 이에 대한 상세한 설명은 생략하기로 한다.Since the user's eye tracking technology using the distance between the right pupil and the left pupil is already known in the art to which the present invention pertains, a detailed description thereof will be omitted.
제어부(150)는 상기 사용자의 시선이 추적되면, 상기 추적한 시선을 기반으로, 시청자 광고 효과 측정, 운전자 운전 행태 분석 및 졸음 방지, 웹페이지 소비 행태 분석을 통한 메뉴 재배치, 시선 상호 작용을 이용한 게임 제어, 홍채 정보 기반 사용자 인증, 운동 및 전문 기술 트레이닝 프로그램 및 소비 행태 분석을 통한 진열대 배치 등에 대응하는 기능을 제공한다.When the user's eyes are tracked, the
상기와 같이, 실시 예에서는 하나의 TOF 카메라나 어레이 카메라를 이용하여 획득한 심도 맵을 가지고서, 사용자의 동공에 대한 위치 정보를 획득하고, 상기 획득한 위치 정보를 이용하여, 확대 영상의 획득 조건을 설정한다.As described above, according to the embodiment, the depth map acquired using one TOF camera or the array camera is used to acquire location information about the pupil of the user, and the acquisition condition of the enlarged image is obtained using the acquired location information. Set it.
이후, 상기 설정된 획득 조건을 이용하여 상기 사용자 동공에 대한 확대 영상을 획득하고, 상기 획득한 확대 영상으로부터 사용자 동공을 인식하여, 사용자의 시선을 추적한다.Thereafter, an enlarged image of the user pupil is obtained using the set acquisition condition, the user pupil is recognized from the obtained enlarged image, and the user's eyes are tracked.
상기와 같은, 실시 예에 따르면, TOF(Time of Flight) 카메라나 어레이 카메라를 이용하여 입체 심도 맵을 구성하고, 상기 구성한 입체 심도 맵을 이용하여 시선 추적을 수행함으로써, 시선 추적 장치의 구축을 위한 비용을 절감시키면서 시선 추적에 따른 다양한 기능을 제공할 수 있다.According to the embodiment, as described above, by constructing a three-dimensional depth map using a time of flight (TOF) camera or an array camera, and performing eye tracking using the configured three-dimensional depth map, for the construction of the eye tracking apparatus It can provide various functions according to eye tracking while reducing cost.
도 2는 제 1 실시 예에 따른 제 1 카메라의 구성을 나타낸 도면이다.2 is a diagram illustrating a configuration of a first camera according to a first embodiment.
제 1 실시 예에 따르면, 제 1 카메라(110)는 TOF 카메라로 구성된다.According to the first embodiment, the
도 2를 참조하면, TOF 카메라는 렌즈 모듈, RGB 카메라와, D 카메라로 구성된다. Referring to FIG. 2, the TOF camera includes a lens module, an RGB camera, and a D camera.
TOF 카메라는, 컬러 영상 및 깊이 영상을 획득할 수 있다. 컬러 영상은, 일반적으로 전방에 위치한 피사체를 촬영한 영상일 수 있으며, 깊이 영상은 상기 피사체와의 거리를 명암으로 표현한 심도 맵에 대한 영상일 수 있다.The TOF camera may acquire a color image and a depth image. In general, the color image may be an image of a subject located in the front, and the depth image may be an image of a depth map expressing the distance from the subject in contrast.
즉, 컬러 영상은, 피사체에서 반사되는 가시광선을 수집하여 표현한 것으로, 사람의 눈이나 일반 사진기에서 볼 수 있는 영상을 의미한다. 컬러 영상은, 각각의 픽셀마다 R 채널, G 채널 및 B 채널로 구분하여 표현될 수 있다.That is, the color image is a collection of visible light reflected from a subject and represented, and means a viewable image of a human eye or a general camera. The color image may be expressed by dividing the R channel, the G channel, and the B channel for each pixel.
또한, 깊이 영상은, 가시광선이 아닌 전자기파를 피사체에 출사하고, 상기 피사체에서 반사되는 전자기파의 비행 시간을 계산하여 생성된다. 예를 들면, 상기 전자기파를 피사체에 출사하고, 피사체에 반사된 적외선을 수집하며, 이와 동시에 적외선의 픽셀마다의 도달 시간을 측정하여 각각의 비행시간을 계산한다.In addition, the depth image is generated by emitting electromagnetic waves other than visible light to a subject and calculating flight times of electromagnetic waves reflected from the subject. For example, the electromagnetic wave is emitted to the subject, the infrared rays reflected by the subject are collected, and at the same time, the arrival time for each pixel of the infrared is measured to calculate each flight time.
그리고, 상기 계산된 각각의 비행 시간에 따라 픽셀마다의 깊이 영상 정보를 생성할 수 있다.Then, depth image information for each pixel may be generated according to the calculated flight time.
도 2를 살펴보면, RGB 센서(sensor)에서 가시광선을 수집하여 컬러 영상을 생성하며, 적외선 송출기(Infra Red Illuminator)를 통하여 적외선을 출사하고, 적외선 센서(Infra Red sensor)를 통하여 피사체에서 반사된 적외선을 수집하여 깊이 영상을 생성할 수 있다. Referring to FIG. 2, the RGB sensor collects visible light to generate a color image, emits infrared rays through an infrared red illuminator, and infrared rays reflected from a subject through an infrared red sensor. The depth image may be generated by collecting the.
이때, 상기 RGB 센서(sensor)는 RGB 카메라(camera)로 표현되며, 컬러 영상은 R 채널, G 채널 및 B 채널로 구분하여 표현될 수 있다.In this case, the RGB sensor may be represented by an RGB camera, and the color image may be represented by being divided into an R channel, a G channel, and a B channel.
또한, 적외선 센서(Infra Red sensor)로서 D 카메라(camera)는 적외선의 반사에 따른 도달 시간을 이용하여 깊이 영상을 생성할 수 있다.In addition, the D camera as an infrared red sensor may generate a depth image using the arrival time according to the reflection of the infrared light.
도 3은 도 2에 도시된 제 1 카메라의 영상 획득 방법을 설명하는 도면이다.FIG. 3 is a view for explaining an image acquisition method of the first camera shown in FIG. 2.
도 3을 참조하면, 상기 심도 맵(깊이 영상)을 생성하기 위하여, 전자기파 송출기에서 특정 전자기파를 출사하고, 상기 송출된 전자기파는 피사체에 도달된 후 반사되어 다시 렌즈로 수집될 것이다.Referring to FIG. 3, in order to generate the depth map (depth image), an electromagnetic wave emitter emits a specific electromagnetic wave, and the emitted electromagnetic wave may be reflected and collected by the lens after reaching the subject.
이 경우에, 심도 맵을 생성하기 위해, 픽셀마다의 상기 반사되는 전자기파의 도달 시간을 측정하고, 이에 따라 비행 시간을 계산한다.In this case, in order to generate a depth map, the arrival time of the reflected electromagnetic wave per pixel is measured and the flight time is calculated accordingly.
이에 따라, 상기 각 픽셀마다 계산된 비행 시간을 이용하여, 전방에 위치한 피사체에 대한 깊이 영상(심도 맵)을 얻을 수 있다.Accordingly, a depth image (depth map) of the subject located in front may be obtained using the flight time calculated for each pixel.
도 4 및 5는 제 2 실시 예에 따른 제 1 카메라의 구성을 나타낸 도면이다.4 and 5 are views illustrating a configuration of the first camera according to the second embodiment.
도 4 및 5를 참조하면, 제 1 카메라는 어레이 카메라로 구성될 수 있다.4 and 5, the first camera may be configured as an array camera.
어레이 카메라는, 복수의 렌즈가 하나의 패키지 형태로 정렬된 카메라를 의미한다.An array camera refers to a camera in which a plurality of lenses are arranged in one package.
상기 어레이 카메라에 구비된 복수의 렌즈는, 일정 거리(h)만큼 이격된 피사체에 대한 영상을 각각 획득한다.The plurality of lenses of the array camera acquire images of the subjects spaced apart by a predetermined distance h.
이때, 상기 획득된 영상은, 상기 피사체와의 거리에 따라 서로 다른 영상이 촬영된다. 또한, 이는 각각의 렌즈에서 촬영된 영상에 대해 특정 지점을 중심으로 정렬시키고, 이에 따라 좌측 및 우측에 대한 영상의 시작 지점과, 종료 지점에 대한 거리를 나타내는 델타(Δ)로 정의될 수 있다.In this case, different images are captured according to the distance from the subject. In addition, this may be defined as a delta (Δ) representing a distance between the start point and the end point of the image on the left and right sides, according to the alignment of the specific point with respect to the image taken by each lens.
도 4 및 5는 서로 다른 거리에 위치한 피사체로부터 획득된 영상으로부터의 델타 값 변화를 나타낸다.4 and 5 illustrate changes in delta values from images acquired from subjects located at different distances.
도 4는 제 1 위치에 위치한 피사체에 대응하는 델타 값을 정의하고 있고, 도 5는 제 2 위치에 위치한 피사체에 대응하는 델타 값을 정의하고 있다.4 defines a delta value corresponding to a subject located at a first position, and FIG. 5 defines a delta value corresponding to a subject located at a second position.
도 4 및 5를 참조하면, 피사체와의 거리(h)가 증가할수록 상기 델타 값이 감사하는 것을 알 수 있다.4 and 5, it can be seen that the delta value is appreciated as the distance h from the subject increases.
이에 따라, 상기 어레이 카메라를 통해 획득한 복수의 영상을 이용하여, 상기 피사체와의 거리 정보를 획득할 수 있으며, 상기 획득한 거리 정보를 이용하여 심도 맵을 생성할 수 있다.Accordingly, distance information with respect to the subject may be obtained by using a plurality of images acquired through the array camera, and a depth map may be generated by using the acquired distance information.
상기와 같이, 제 1 카메라(110)는 TOF 카메라 또는 어레이 카메라로 구성될 수 있으며, 그에 따라 피사체와의 거리에 대한 심도 맵을 생성할 수 있다.As described above, the
도 6 및 7은 실시 예에 따른 시선 추적 장치의 시선 추적 방법을 제공한다.6 and 7 provide a gaze tracking method of a gaze tracking device according to an exemplary embodiment.
도 6 및 7을 참조하면, 시선 추적 장치는, TOF 카메라 또는 어레이 카메라는 피사체 영상을 획득하고, 상기 획득한 피사체 영상으로부터 상기 피사체와의 거리를 나타내는 심도 맵을 획득한다(110단계).6 and 7, the apparatus for tracking eyes, the TOF camera or the array camera acquires a subject image, and obtains a depth map indicating a distance from the subject from the acquired subject image (step 110).
즉, TOF 카메라는, 전자기파를 송출하고, 그에 따라 각 픽셀마다의 도달 시간을 계산하여, 상기 심도 맵을 생성한다.That is, the TOF camera sends out electromagnetic waves, calculates the arrival time for each pixel accordingly, and generates the depth map.
또한, 어레이 카메라는 복수의 렌즈를 통해 획득한 영상에 대한 델타 값의 변화에 따라 상기 심도 맵을 생성할 수 있다.In addition, the array camera may generate the depth map according to a change in a delta value for an image acquired through a plurality of lenses.
이후, 제어부(150)는 상기 생성된 심도 맵으로부터 사용자의 시선(안구)에 대한 위치 정보를 획득한다(120단계),Thereafter, the
즉, 제어부(150)는 상기 영상 처리부(130)를 통해 얼굴 인식 알고리즘이 수행되도록 하여, 사용자의 얼굴 특징점이 검출되도록 하고, 그에 따라 상기 얼굴 특징점으로부터 안구가 가지는 특징점에 대응하는 X, Y 및 Z 좌표 정보를 획득한다.That is, the
이후, 제어부(150)는 상기 획득한 X, Y 및 Z 정보를 이용하여, 상기 사용자의 안구 위치에 대응하는 영역의 확대 영상이 획득되도록 한다(130단계). 이에 앞서, 제어부(150)는 상기 X, Y 및 Z 정보를 이용하여 상기 확대 영상의 획득을 위한 조건을 설정하고, 그에 따라 제 2 카메라(120)는 상기 설정된 조건에 따라 상기 확대 영상을 획득한다.In
이후, 제어부(150)는 상기 획득한 확대 영상으로부터 사용자의 동공을 인식한다(140단계),Thereafter, the
그리고, 제어부(150)는 상기 인식한 동공에 대한 좌측 동공 및 우측 동공의 거리를 확인하고, 상기 확인한 거리를 토대로 상기 사용자의 시선을 추적한다.(150단계).The
도 7을 참조하면, 보다 구체적으로, 제어부(150)는 상기 제 1 카메라(110)를 통해 입체 거리 맵(심도 맵)이 획득되도록 한다(210단계).Referring to FIG. 7, more specifically, the
이후, 제어부(150)는 상기 획득한 심도 맵에서 사용자의 안구를 추적하고, 그에 따라 상기 안구의 위치에 대한 X, Y 및 Z 좌표 정보를 획득한다(220단계).Thereafter, the
상기 X, Y 좌표 정보는 일반적으로 획득되는 컬러 영상으로부터 획득될 수 있고, 상기 Z 좌표 정보는 상기 심도 맵으로부터 획득될 수 있다.The X and Y coordinate information may be obtained from a generally obtained color image, and the Z coordinate information may be obtained from the depth map.
상기 X, Y 및 Z 좌표 정보가 획득되면, 제어부(150)는 상기 X, Y 및 Z 좌표 정보를 이용하여 상기 제 2 카메라(120)의 영상 확대 조건을 설정한다. 즉, 상기 X, Y 좌표 정보를 이용하여 확대 영역을 설정하고, 상기 Z 정보를 이용하여 확대 비율을 설정한다.When the X, Y and Z coordinate information is obtained, the
제 2 카메라(120)는 상기 제어부(150)를 통해 설정된 영상 확대 조건을 이용하여, 상기 사용자의 안구 부분을 확대한 확대 영상을 획득한다(230단계).The
이후, 제어부(150)는 상기 획득한 확대 영상으로부터 동공을 인식한다(240단계). 보다 구체적으로는, 제어부(150)는 상기 확대 영상으로부터 좌측 동공 및 우측 동공을 각각 인식한다.In operation 240, the
이후, 제어부(150)는 상기 좌측 동공 및 우측 동공의 거리를 이용하여 사용자의 시선을 추적한다(250단계).Thereafter, the
한편, 상기에서는 복수의 사용자에 대한 시선이 추적될 수 있다.In the meantime, the gaze of the plurality of users may be tracked.
이에 따라, 제어부(150)는 상기 시선 추적 장치의 전방에 복수의 사용자가 위치한 경우, 상기 위치한 복수의 사용자 각각에 대한 시선 추적을 행한다.Accordingly, when a plurality of users are located in front of the eye tracking apparatus, the
또한, 상기 시선 추적이 행해지면, 상기 복수의 사용자 각각의 대해 추적한 시선 정보를 디스플레이하여, 상기 복수의 사용자 각각이 현재 디스플레이 화면의 어느 부분을 주시하고 있는지에 대한 정보를 제공한다.In addition, when the gaze tracking is performed, the gaze information tracked for each of the plurality of users is displayed to provide information about which part of each of the plurality of users is currently watching.
이를 위해서는, 제어부(150)는 상기 거리 맵에 위치한 복수의 사용자에 대한 안구 위치 정보를 각각 획득하고, 상기 획득한 안구 위치 정보를 토대로 상기 제 2 카메라에 의해 각각의 안구 위치에 대응하는 확대 영상이 획득되도록 한다.To this end, the
또한, 제어부(150)는 상기 획득된 각각의 확대 영상으로부터 각각의 사용자에 대한 시선을 추적한다.In addition, the
한편, 상기 시선 추적에 따른 다양한 기능을 제공하기 위해서는, 한 명의 사용자에 대한 시선이 추적되어야 한다. 이때, 상기 복수의 사용자에 대한 시선이 추적되면, 상기와 같은 다양한 기능을 효과적으로 제공할 수 있다.Meanwhile, in order to provide various functions according to the gaze tracking, the gaze of one user should be tracked. In this case, when the gaze of the plurality of users is tracked, various functions as described above may be effectively provided.
한편, 일반적으로, 디스플레이장치를 주시하고 있는 시청자는 상기 디스플레이장치로부터 가장 가까운 거리에 위치해 있다.On the other hand, in general, the viewer watching the display device is located at the closest distance from the display device.
이에 따라, 제어부(150)는 상기 획득한 심도 맵으로부터, 가장 가까운 거리에 위치한 사용자의 안구 위치 정보만을 획득하고, 그에 따라 상기 획득한 안구 위치 정보를 이용하여 시선 추적을 실시한다.Accordingly, the
실시 예에 따르면, TOF(Time of Flight) 카메라나 어레이 카메라를 이용하여 입체 심도 맵을 구성하고, 상기 구성한 입체 심도 맵을 이용하여 시선 추적을 수행함으로써, 시선 추적 장치의 구축을 위한 비용을 절감시키면서 시선 추적에 따른 다양한 기능을 제공할 수 있다.According to an embodiment, a stereoscopic depth map is constructed using a time of flight (TOF) camera or an array camera and eye gaze tracking is performed using the configured stereoscopic depth map, thereby reducing the cost for constructing the eye tracking apparatus. Can provide various functions according to eye tracking.
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시 예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시 예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리 범위에 포함되는 것으로 해석되어야 할 것이다.The foregoing description is merely illustrative of the technical idea of the present invention, and various changes and modifications may be made by those skilled in the art without departing from the essential characteristics of the present invention. Therefore, the embodiments disclosed in the present invention are intended to illustrate rather than limit the scope of the present invention, and the scope of the technical idea of the present invention is not limited by these embodiments. The scope of protection of the present invention should be construed according to the following claims, and all technical ideas within the scope of equivalents should be construed as falling within the scope of the present invention.
110: 제 1 카메라
120: 제 2 카메라
130: 영상 처리부
140: 저장부
150: 제어부110: First camera
120: Second camera
130:
140:
150:
Claims (22)
상기 획득한 깊이 영상으로부터 상기 피사체에 포함된 안구 영역에 대한 위치 정보를 획득하는 단계; 및
상기 획득한 위치 정보를 토대로 상기 안구 영역에 포함된 동공을 인식하여 사용자의 시선을 추적하는 단계를 포함하는 시선 추적 방법.Obtaining a depth image of the subject;
Acquiring position information of an eyeball area included in the subject from the acquired depth image; And
And a gaze tracking method of recognizing a pupil included in the eyeball area based on the acquired position information.
상기 획득한 위치 정보를 이용하여, 상기 동공 영역을 확대한 확대 영상을 획득하는 단계를 더 포함하며,
상기 시선 추적은,
상기 획득한 확대 영상을 기반으로 수행되는 시선 추적 방법.The method of claim 1,
Using the acquired position information, acquiring an enlarged image in which the pupil area is enlarged;
The eye tracking,
A gaze tracking method performed based on the obtained enlarged image.
상기 깊이 영상을 획득하는 단계는,
상기 피사체에 전자기파를 출사하는 단계와,
상기 피사체에 의해 반사되는 상기 전자기파를 수집하는 단계와,
상기 반사되는 전자기파의 비행 시간을 계산하는 단계를 포함하는 시선 추적 방법.The method of claim 1,
Wherein the acquiring of the depth image comprises:
Emitting electromagnetic waves to the subject;
Collecting the electromagnetic waves reflected by the subject;
Calculating a flight time of the reflected electromagnetic waves.
상기 깊이 영상을 획득하는 단계는,
어레이 카메라를 이용하여 상기 피사체에 대한 복수의 영상을 획득하는 단계와,
상기 획득한 복수의 영상으로부터 상기 피사체의 거리에 따라 변화하는 델타 값을 계산하는 단계를 포함하는 시선 추적 방법.The method of claim 1,
Wherein the acquiring of the depth image comprises:
Acquiring a plurality of images of the subject using an array camera;
And calculating a delta value that changes according to the distance of the subject from the obtained plurality of images.
상기 피사체에 대한 컬러 영상을 획득하는 단계가 더 포함되는 시선 추적 방법.3. The method of claim 2,
And obtaining a color image of the subject.
상기 안구 영역에 대한 위치 정보를 획득하는 단계는,
상기 획득한 컬러 영상에서 사용자의 안구가 위치한 영역을 인식하는 단계와,
상기 인식한 안구 영역에 대한 X 좌표 및 Y 좌표를 획득하는 단계와,
상기 획득한 깊이 영상에서 상기 X 좌표 및 Y 좌표에 대응하는 영역의 깊이에 대응하는 Z 좌표를 획득하는 단계를 포함하는 시선 추적 방법.6. The method of claim 5,
Acquiring the location information for the eyeball area,
Recognizing a region where an eyeball of a user is located in the acquired color image;
Acquiring an X coordinate and a Y coordinate with respect to the recognized eye area;
And obtaining a Z coordinate corresponding to a depth of an area corresponding to the X coordinate and the Y coordinate in the acquired depth image.
상기 안구 영역에 대한 위치 정보를 획득하는 단계는,
상기 획득한 컬러 영상에 복수의 사용자가 존재하는 경우, 상기 복수의 사용자 각각에 대한 안구 영역의 위치 정보를 획득하는 단계를 포함하며,
상기 확대 영상을 획득하는 단계는,
상기 위치 정보를 이용하여, 상기 복수의 사용자 각각에 대한 안구 영역의 확대 영상을 획득하는 단계를 포함하는 시선 추적 방법.The method according to claim 6,
Acquiring the location information for the eyeball area,
Obtaining location information of an eyeball area for each of the plurality of users when the plurality of users exist in the acquired color image,
Acquiring the enlarged image,
And using the position information, acquiring an enlarged image of an eyeball area for each of the plurality of users.
상기 안구 영역에 대한 위치 정보를 획득하는 단계는,
상기 획득한 컬러 영상에 복수의 사용자가 존재하는 경우, 상기 복수의 사용자 중 가장 가까운 거리에 위치한 사용자의 안구 영역에 대한 위치 정보를 획득하는 단계를 포함하는 시선 추적 방법.The method according to claim 6,
Acquiring the location information for the eyeball area,
And when the plurality of users exist in the acquired color image, acquiring location information about an eyeball area of the user located at the closest distance among the plurality of users.
상기 확대 영상의 획득을 위한 조건을 설정하는 단계가 더 포함되며,
상기 조건을 설정하는 단계는,
상기 X 좌표 및 Y 좌표를 이용하여 확대 영역을 설정하는 단계와,
상기 Z 좌표를 이용하여, 상기 확대 영역에 대한 확대 비율을 설정하는 단계를 포함하는 시선 추적 방법.The method according to claim 6,
Setting a condition for acquiring the enlarged image;
The step of setting the condition includes:
Setting an enlarged area using the X coordinate and the Y coordinate;
And setting an enlargement ratio for the enlarged area using the Z coordinate.
상기 확대 비율을 설정하는 단계는,
상기 Z 좌표를 이용하여, 상기 사용자와의 거리가 증가할수록 상기 확대 비율을 증가시키는 단계를 포함하는 시선 추적 방법.The method of claim 9,
Setting the enlargement ratio,
And using the Z coordinate, increasing the magnification ratio as the distance from the user increases.
상기 사용자의 시선을 추적하는 단계는,
상기 확대 영상으로부터 좌측 동공 및 우측 동공을 인식하는 단계와,
상기 인식한 좌측 동공 및 우측 동공의 거리 차이를 이용하여 상기 사용자의 시선을 추적하는 단계를 포함하는 시선 추적 방법.The method of claim 1,
Tracking the eyes of the user,
Recognizing a left pupil and a right pupil from the enlarged image;
And tracking the gaze of the user by using the recognized difference between the left pupil and the right pupil.
상기 제 1카메라를 통해 획득되는 영상을 신호처리하는 영상 처리부; 및
상기 획득된 컬러 영상 및 깊이 영상을 기반으로 상기 피사체에 포함된 안구 영역의 위치 정보를 획득하고, 상기 획득한 위치 정보를 토대로 상기 안구 영역에 포함된 동공을 인식하여 사용자 시선을 추적하는 제어부를 포함하는 시선 추적 장치.A first camera acquiring a color image and a depth image of the subject;
An image processor for signal processing an image acquired through the first camera; And
And a controller configured to acquire location information of an eyeball area included in the subject based on the obtained color image and depth image, and to track a user's gaze by recognizing a pupil included in the eyeball area based on the acquired location information. Eye tracking device.
상기 제 1 카메라는,
상기 피사체에 전자기파를 출사하고, 상기 피사체에 의해 반사되는 상기 전자기파를 수집하며, 상기 반사되는 전자기파의 비행 시간을 계산하여 상기 깊이 영상을 획득하는 TOF(Time Of Flight) 카메라를 포함하는 시선 추적 장치.13. The method of claim 12,
The first camera,
And a time of flight (TOF) camera that emits electromagnetic waves to the subject, collects the electromagnetic waves reflected by the subject, and calculates a flight time of the reflected electromagnetic waves to obtain the depth image.
상기 제 1 카메라는,
상기 피사체에 대한 복수의 영상을 획득하고, 상기 획득한 복수의 영상으로부터 상기 피사체의 거리에 따라 변화하는 델타 값을 계산하여 상기 깊이 영상을 획득하는 어레이 카메라를 포함하는 시선 추적 장치.13. The method of claim 12,
The first camera,
And an array camera for acquiring a plurality of images of the subject, and obtaining the depth image by calculating a delta value that changes according to the distance of the subject from the acquired plurality of images.
상기 피사체의 특정 영역을 기설정된 확대 비율로 확대한 확대 영상을 획득하는 제 2 카메라를 더 포함하는 시선 추적 장치.13. The method of claim 12,
And a second camera configured to acquire an enlarged image obtained by enlarging a specific region of the subject at a preset magnification ratio.
상기 제어부는,
상기 확대 영상의 획득 조건을 설정하고, 상기 획득 조건에 따라 획득된 확대 영상을 이용하여 상기 안구 영역에 포함된 동공을 인식하는 시선 추적 장치.16. The method of claim 15,
The control unit,
A gaze tracking device configured to set an acquisition condition of the magnified image and recognize a pupil included in the eyeball area by using the magnified image acquired according to the acquisition condition.
상기 제어부는,
상기 획득한 컬러 영상에서 사용자의 안구가 위치한 영역을 인식하여 상기 안구 영역에 대한 X 좌표 및 Y 좌표를 획득하고,
상기 깊이 영상으로부터 상기 X 좌표 및 Y 좌표에 대응하는 영역의 깊이에 대응하는 Z 좌표를 획득하는 시선 추적 장치.17. The method of claim 16,
The control unit,
Recognizing the area where the user's eyeball is located in the obtained color image to obtain the X coordinate and Y coordinate for the eyeball area,
And a Z-coordinate corresponding to a depth of an area corresponding to the X and Y coordinates, from the depth image.
상기 제어부는,
상기 획득한 컬러 영상에 복수의 사용자가 존재하는 경우, 상기 복수의 사용자 각각에 대한 안구 영역의 위치 정보를 획득하고,
상기 제 2 카메라는,
상기 복수의 위치 정보를 이용하여, 상기 복수의 사용자 각각에 대한 안구 영역의 확대 영상을 획득하는 시선 추적 장치.18. The method of claim 17,
The control unit,
When a plurality of users exist in the acquired color image, the position information of the eyeball area for each of the plurality of users is obtained.
The second camera,
And a gaze tracking device to obtain an enlarged image of an eyeball area for each of the plurality of users using the plurality of location information.
상기 제어부는,
상기 획득한 컬러 영상에 복수의 사용자가 존재하는 경우, 상기 복수의 사용자 중 가장 가까운 거리에 위치한 사용자의 안구 영역에 대한 위치 정보를 획득하는 시선 추적 장치.18. The method of claim 17,
The control unit,
And a plurality of users when the plurality of users are present in the obtained color image, obtaining position information on an eyeball area of a user located at the closest distance among the plurality of users.
상기 제어부는,
상기 안구 영역의 X 좌표 및 Y 좌표를 이용하여 상기 제 2 카메라를 통해 확대될 확대 영역을 설정하고, 상기 Z 좌표를 이용하여 상기 확대 영역에 대한 확대 비율을 설정하는 시선 추적 장치.18. The method of claim 17,
The control unit,
And an enlarged area to be enlarged through the second camera using the X coordinate and the Y coordinate of the eyeball area, and an enlargement ratio of the enlarged area using the Z coordinate.
상기 확대 비율은,
상기 Z 좌표에 따른 사용자와의 거리에 비례하여 증가하는 시선 추적 장치.21. The method of claim 20,
The enlargement ratio is,
And a gaze tracking device that increases in proportion to the distance from the user according to the Z coordinate.
상기 제어부는,
상기 확대 영상으로부터 좌측 동공 및 우측 동공을 인식하고, 상기 인식한 좌측 동공 및 우측 동공의 거리 차이를 이용하여 상기 사용자의 시선을 추적하는 시선 추적 장치.13. The method of claim 12,
The control unit,
A gaze tracking device for recognizing a left pupil and a right pupil from the enlarged image, and tracking the user's gaze by using the recognized distance difference between the left pupil and the right pupil.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020120082012A KR101961266B1 (en) | 2012-07-26 | 2012-07-26 | Gaze Tracking Apparatus and Method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020120082012A KR101961266B1 (en) | 2012-07-26 | 2012-07-26 | Gaze Tracking Apparatus and Method |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20140014868A true KR20140014868A (en) | 2014-02-06 |
KR101961266B1 KR101961266B1 (en) | 2019-03-25 |
Family
ID=50264680
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020120082012A KR101961266B1 (en) | 2012-07-26 | 2012-07-26 | Gaze Tracking Apparatus and Method |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101961266B1 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20160062619A (en) * | 2014-11-25 | 2016-06-02 | 현대자동차주식회사 | Eye Tracking Apparatus and Method |
CN109256042A (en) * | 2018-11-22 | 2019-01-22 | 京东方科技集团股份有限公司 | Display panel, electronic equipment and human eye method for tracing |
CN112749600A (en) * | 2019-10-31 | 2021-05-04 | Oppo广东移动通信有限公司 | Human eye position determining method and related product |
CN113794872A (en) * | 2021-09-17 | 2021-12-14 | 融信信息科技有限公司 | Image recognition system based on AR intelligent glasses |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20200118524A (en) | 2019-04-08 | 2020-10-16 | 유홍준 | Image Processing System and Method Based on Active Motion Recognition Tracking |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001174220A (en) * | 1999-12-15 | 2001-06-29 | Nippon Hoso Kyokai <Nhk> | Device and method for generating image |
JP2001215403A (en) * | 2000-02-01 | 2001-08-10 | Canon Inc | Image pickup device and automatic focus detection method |
US20120147328A1 (en) * | 2010-12-13 | 2012-06-14 | Microsoft Corporation | 3d gaze tracker |
-
2012
- 2012-07-26 KR KR1020120082012A patent/KR101961266B1/en active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001174220A (en) * | 1999-12-15 | 2001-06-29 | Nippon Hoso Kyokai <Nhk> | Device and method for generating image |
JP2001215403A (en) * | 2000-02-01 | 2001-08-10 | Canon Inc | Image pickup device and automatic focus detection method |
US20120147328A1 (en) * | 2010-12-13 | 2012-06-14 | Microsoft Corporation | 3d gaze tracker |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20160062619A (en) * | 2014-11-25 | 2016-06-02 | 현대자동차주식회사 | Eye Tracking Apparatus and Method |
CN109256042A (en) * | 2018-11-22 | 2019-01-22 | 京东方科技集团股份有限公司 | Display panel, electronic equipment and human eye method for tracing |
CN112749600A (en) * | 2019-10-31 | 2021-05-04 | Oppo广东移动通信有限公司 | Human eye position determining method and related product |
CN112749600B (en) * | 2019-10-31 | 2024-03-12 | Oppo广东移动通信有限公司 | Human eye position determining method and related products |
CN113794872A (en) * | 2021-09-17 | 2021-12-14 | 融信信息科技有限公司 | Image recognition system based on AR intelligent glasses |
Also Published As
Publication number | Publication date |
---|---|
KR101961266B1 (en) | 2019-03-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110647237B (en) | Gesture-based content sharing in an artificial reality environment | |
US10635895B2 (en) | Gesture-based casting and manipulation of virtual content in artificial-reality environments | |
US9465443B2 (en) | Gesture operation input processing apparatus and gesture operation input processing method | |
CN108700934B (en) | Wearable device capable of eye tracking | |
CN106705837B (en) | Object measuring method and device based on gestures | |
EP3047361B1 (en) | A method and device for displaying a graphical user interface | |
US8388146B2 (en) | Anamorphic projection device | |
KR101471488B1 (en) | Device and Method for Tracking Sight Line | |
US20140037135A1 (en) | Context-driven adjustment of camera parameters | |
US20130135295A1 (en) | Method and system for a augmented reality | |
US20140003674A1 (en) | Skin-Based User Recognition | |
US8531506B2 (en) | Interactive stereo display system and method for calculating three-dimensional coordinate | |
KR20120045667A (en) | Apparatus and method for generating screen for transmitting call using collage | |
US11582409B2 (en) | Visual-inertial tracking using rolling shutter cameras | |
TW201427388A (en) | Image interaction system, detecting method for detecting finger position, stereo display system and control method of stereo display | |
KR101961266B1 (en) | Gaze Tracking Apparatus and Method | |
JP6870474B2 (en) | Gaze detection computer program, gaze detection device and gaze detection method | |
US20150189256A1 (en) | Autostereoscopic multi-layer display and control approaches | |
JP2018205819A (en) | Gazing position detection computer program, gazing position detection device, and gazing position detection method | |
KR101330531B1 (en) | Method of virtual touch using 3D camera and apparatus thereof | |
JP5834941B2 (en) | Attention target identification device, attention target identification method, and program | |
KR20140014870A (en) | Gaze tracking apparatus and method | |
JP2013125985A (en) | Display system | |
KR101396488B1 (en) | Apparatus for signal input and method thereof | |
JP6221292B2 (en) | Concentration determination program, concentration determination device, and concentration determination method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |