KR101769177B1 - Apparatus and method for eye tracking - Google Patents
Apparatus and method for eye tracking Download PDFInfo
- Publication number
- KR101769177B1 KR101769177B1 KR1020130094997A KR20130094997A KR101769177B1 KR 101769177 B1 KR101769177 B1 KR 101769177B1 KR 1020130094997 A KR1020130094997 A KR 1020130094997A KR 20130094997 A KR20130094997 A KR 20130094997A KR 101769177 B1 KR101769177 B1 KR 101769177B1
- Authority
- KR
- South Korea
- Prior art keywords
- information
- image
- user
- unit
- calibration
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/215—Motion-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30041—Eye; Retina; Ophthalmic
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Eye Examination Apparatus (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
둘 이상의 광각 카메라를 이용하여 사용자의 3차원 위치를 계산하고, 협각 카메라를 이용하여 상기 사용자의 위치 정보 및 눈 영역 검출 정보를 이용하여 팬(pan), 틸트(tilt), 및 포커스(focus) 동작을 수행하며, 협각 카메라의 동작을 통하여 획득한 눈 영상으로부터 동공 중심 정보 및 각막 반사광 정보를 검출한 후, 최종적으로 동공 중심 정보 및 각막 반사광 정보로부터 시선 위치 정보를 계산하는 시선 추적 장치 및 방법을 제공한다.The three-dimensional position of the user is calculated using two or more wide angle cameras, and a pan, a tilt, and a focus operation are performed using the position information and the eye area detection information of the user using the narrow- And a gaze tracking apparatus and method for calculating gaze position information from pupil center information and corneal reflection information after detecting pupil center information and corneal reflection information from an eye image obtained through operation of a coarse camera do.
Description
본 발명의 실시예들은 원거리에서 사용자가 자유롭게 움직이더라도 정확한 시선 정보를 획득하는 시선 추적 장치 및 방법에 관한 것이다.Embodiments of the present invention relate to a line-of-sight tracking apparatus and method for acquiring accurate line-of-sight information even when a user moves freely at a long distance.
시선 추적 기술에서 시선 위치를 알아내기 위하여 2차원 사상 함수 기반의 방법과 3차원 모델 기반 방법이 있다. There are two dimensional mapping function based method and three dimensional model based method to find eye position in eye tracking technology.
3차원 모델 기반 방법 중 몇몇은 사용자의 자유로운 움직임을 보장하지만 복잡한 시스템 캘리브레이션이 필요하고 사용자와 화면 간의 거리가 1m 이내일 수 있다. Some of the 3D model-based methods guarantee free movement of the user, but complex system calibration is required and the distance between the user and the screen may be less than 1m.
2차원 사상 함수 기반의 방법은 근거리 시선 추적뿐만 아니라 원거리 시선 추적에서도 사용할 수 있으며, 복잡한 시스템 캘리브레이션이 필요 없지만 사용자 캘리브레이션을 수행한 위치에서 벗어날 경우 시선 위치 오차가 커질 수 있다.The method based on 2D mapping function can be used not only near distance tracking but also far distance tracking and does not require complicated system calibration but it can increase eye position error when users are out of calibration position.
원거리 시선 추적 기술에 있어서, 자유로운 사용자 움직임에 따른 시선 위치 오차를 줄이고, 정확한 시선 추적 정보를 제공하기 위한 기술 개발이 필요한 실정이다.In the field of distance tracking technology, it is necessary to develop a technique for reducing gaze position error due to free user movement and providing accurate gaze tracking information.
본 발명의 일실시예는 협각 카메라를 이용하여 원거리 시선 추적이 가능하면서 사용자가 사용자 캘리브레이션을 수행한 위치에서 벗어나더라도 시선 추적이 가능한 장치 및 방법을 제공하는 데 그 목적이 있다.An object of the present invention is to provide an apparatus and method capable of tracking a line of sight by using a narrow angle camera and tracking a line even if the user moves away from a position where the user performs calibration.
본 발명의 일실시예에 따른 시선 추적 장치는 둘 이상의 광각 카메라, 협각 카메라 및 영상 재생 장치의 상호 간의 캘리브레이션(calibration)을 수행하여 사용자에 대한 사용자 위치 정보를 계산하는 캘리브레이션 수행부, 상기 둘 이상의 광각 카메라를 통하여 영상 정보를 입력 받는 영상 정보 입력부, 상기 영상 정보에 대하여 눈 위치 정보를 검출하는 제1 정보 검출부, 상기 눈 위치 정보 및 상기 사용자 위치 정보를 기반으로 상기 협각 카메라에 대한 팬(pan), 틸트(tilt), 및 포커스(focus) 동작을 수행하여 눈 영상을 획득하는 영상 획득부, 상기 눈 영상으로부터 동공 중심에 대한 동공 중심 정보를 검출하는 제2 정보 검출부, 상기 사용자의 눈에 반사된 각막 반사광에 대한 각막 반사광 정보를 검출하는 제3 정보 검출부, 및 상기 동공 중심 정보 및 상기 각막 반사광 정보로부터 시선 위치 정보를 계산하는 시선 위치 계산부를 포함한다.The gaze tracking apparatus according to an embodiment of the present invention includes a calibration performing unit for performing calibration between two or more wide angle cameras, a narrow angle camera, and an image reproducing apparatus to calculate user position information for a user, A first information detecting unit for detecting eye position information on the image information, a pan for the narrow-angle camera based on the eye position information and the user position information, A second information detecting unit for detecting pupil center information on the center of the pupil from the eye image, a second information detecting unit for detecting the pupil center information of the cornea reflected from the eye of the user, A third information detecting section for detecting corneal reflected light information on the reflected light, It includes parts of gaze position calculation of calculating the eye position information from the reflected light information.
본 발명의 일측에 따르면, 상기 캘리브레이션 수행부는 상기 둘 이상의 광각 카메라 간의 캘리브레이션(calibration)을 수행하고, 상기 둘 이상의 광각 카메라와 협각 카메라 간의 캘리브레이션을 수행하며, 상기 협각 카메라와 영상 재생 장치 간의 캘리브레이션을 수행할 수 있다.According to an aspect of the present invention, the calibration performing unit performs calibration between the at least two wide angle cameras, performs calibration between the at least two wide angle cameras and the narrow angle camera, and performs calibration between the narrow angle camera and the image playback device can do.
본 발명의 일측에 따르면, 상기 제1 정보 검출부는 상기 둘 이상의 영상 정보에 대하여 얼굴 영역 및 눈 영역을 검출할 수 있다.According to an aspect of the present invention, the first information detecting unit may detect a face area and an eye area with respect to the at least two pieces of image information.
본 발명의 일측에 따르면, 상기 시선 위치 계산부는 상기 사용자가 둘 이상의 광각 카메라 간의 캘리브레이션을 수행한 위치에서 이동한 경우, 상기 사용자 위치 정보를 전방향 움직임 보정 모델에 적용하여 보정한 후, 상기 보정된 사용자 위치 정보를 이용하여 상기 시선 위치 정보를 계산할 수 있다.According to an aspect of the present invention, when the user moves from a position at which the user performs calibration between two or more wide-angle cameras, the gaze position calculation unit applies the user position information to the forward motion compensation model, The gaze position information can be calculated using the user position information.
본 발명의 다른 실시예에 따른 시선 추적 장치는 영상 정보를 입력 받고, 캘리브레이션을 통해 사용자에 대한 사용자 위치 정보를 계산하는 둘 이상의 광각 카메라, 상기 사용자 위치 정보 및 눈 영역 검출 정보를 이용하여 팬(pan), 틸트(tilt), 및 포커스(focus) 동작을 수행하는 협각 카메라, 상기 협각 카메라의 동작을 통하여 눈 영상을 획득하는 영상 획득부, 상기 눈 영상으로부터 동공 중심 정보 및 각막 반사광 정보를 검출하는 검출부, 및 상기 동공 중심 정보 및 상기 각막 반사광 정보로부터 시선 위치 정보를 계산하는 시선 위치 계산부를 포함한다.The gaze tracking apparatus according to another exemplary embodiment of the present invention includes at least two wide angle cameras for receiving image information and calculating user position information for a user through calibration, ), A tilt and focus operation, an image acquisition unit for acquiring an eye image through operation of the narrow-angle camera, a detector for detecting pupil center information and corneal reflection information from the eye image, And a gaze position calculation unit for calculating gaze position information from the pupil center information and the corneal reflection information.
본 발명의 다른 측면에 따른 시선 추적 장치는 상기 둘 이상의 광각 카메라 간의 캘리브레이션(calibration) 을 수행하는 캘리브레이션 수행부를 더 포함할 수 있다.The gaze tracking apparatus according to another aspect of the present invention may further include a calibration performing unit for performing calibration between the at least two wide angle cameras.
본 발명의 다른 측면에 따르면, 상기 캘리브레이션 수행부는 스테레오 캘리브레이션 방식을 이용하여 하나의 광각 카메라를 기준으로 다른 카메라의 위치 및 회전 정도를 추정할 수 있다.According to another aspect of the present invention, the calibration performing unit may estimate a position and a degree of rotation of another camera based on one wide-angle camera using a stereo calibration method.
본 발명의 다른 측면에 따르면, 상기 캘리브레이션 수행부는 상기 둘 이상의 광각 카메라와 상기 협각 카메라 간의 캘리브레이션을 수행할 수 있다.According to another aspect of the present invention, the calibration performing unit may perform calibration between the at least two wide angle cameras and the narrow angle cameras.
본 발명의 다른 측면에 따르면, 상기 캘리브레이션 수행부는 상기 협각 카메라와 영상 재생 장치 간의 캘리브레이션을 수행할 수 있다.According to another aspect of the present invention, the calibration performing unit may perform calibration between the narrow-angle camera and the image reproducing apparatus.
본 발명의 다른 측면에 따르면, 상기 캘리브레이션 수행부는 상기 협각 카메라가 이동하는 팬 축 및 틸트 축의 중심을 기준으로 상기 영상 재생 장치의 실제 위치와의 차이를 추정할 수 있다.According to another aspect of the present invention, the calibration performing unit may estimate a difference between the center of the fan axis and the tilt axis of the narrow angle camera and the actual position of the image reproducing apparatus.
본 발명의 다른 측면에 따르면, 상기 시선 위치 계산부는 상기 사용자의 움직임에 따라 시선 위치를 보정하는 전방향 움직임 보정 모델을 통하여 상기 시선 위치 정보를 계산할 수 있다.According to another aspect of the present invention, the gaze position calculation unit may calculate the gaze position information through a forward motion compensation model that corrects the gaze position according to the movement of the user.
본 발명의 다른 측면에 따르면, 상기 영상 획득부는 상기 입력된 영상 정보의 해상도를 조정하는 해상도 조정부, 상기 조정된 영상 정보의 반사광을 제거하는 반사광 제거부, 및 상기 반사광이 제거된 영상 정보에 기설정된 필터를 적용하여 동공 후보 영역을 검출하는 동공 후보 영역 검출부를 포함할 수 있다.According to another aspect of the present invention, the image acquiring unit may include a resolution adjusting unit for adjusting a resolution of the input image information, a reflected light removing unit for removing reflected light of the adjusted image information, And a pupil candidate region detecting unit for detecting a pupil candidate region by applying a filter.
본 발명의 다른 측면에 따르면, 상기 영상 획득부는 상기 동공 후보 영역에서 서로 다른 크기의 두 개의 영역을 선택하는 영역 선택부, 상기 두 개의 영역에 대한 각각의 임계치 값을 검출하는 임계치 검출부, 및 상기 검출된 두 개의 임계치 값을 비교하여 동일한 경우, 상기 눈 영상에 눈꺼풀 영상이 없는 것으로 판단하는 영상 판단부를 더 포함할 수 있다.According to another aspect of the present invention, the image acquisition unit includes an area selection unit for selecting two areas of different sizes in the pupil candidate area, a threshold value detection unit for detecting respective threshold values for the two areas, And comparing the two threshold values with each other to determine that there is no eyelid image in the eye image.
본 발명의 다른 측면에 따르면, 상기 영상 획득부는 상기 동공 후보 영역으로부터 원형 정보를 검출하고, 상기 검출된 원형 정보를 타원 피팅(Ellipse fitting)을 수행하여 상기 동공 중심 정보를 검출하는 동공 중심 검출부를 더 포함할 수 있다.According to another aspect of the present invention, the image acquiring unit further includes a pupil center detecting unit that detects circular information from the pupil candidate region, and performs ellipse fitting of the detected circular information to detect the pupil center information .
본 발명의 다른 측면에 따르면, 상기 동공 중심 검출부는 상기 동공 후보 영역에서 원 검출 방식을 적용하여 원의 중심과 외곽선 영역을 판별하는 원형 검출부, 상기 원의 외곽선 영역에 대하여 복수의 점을 선정하는 위치 선정부, 상기 선정된 복수의 점과 상기 원의 중심을 연결한 직선 상에서 밝기 값에 대한 미분 값이 가장 큰 위치로 상기 선정된 복수의 점을 이동시키는 위치 이동부, 상기 이동된 복수의 점에 대하여 상기 미분 값의 크기에 따라 가중치를 부여하는 가중치 부여부, 및 상기 가중치가 부여된 복수의 점을 이용하여 타원 피팅을 수행하여 상기 동공 중심 정보를 검출하는 타원 피팅부를 포함할 수 있다.According to another aspect of the present invention, the pupil center detecting unit includes a circular detecting unit for identifying a center and an outer contour of a circle by applying a circle detection method in the pupil candidate region, a position detecting unit for detecting a position A position shifting unit for shifting the selected plurality of points to a position having a largest differential value with respect to a brightness value on a straight line connecting the selected plurality of points and the center of the circle, And an elliptical fitting unit for performing elliptical fitting using a plurality of weighted points and detecting the pupil center information based on the weights.
본 발명의 다른 측면에 따르면, 상기 영상 획득부는 상기 사용자의 3차원 위치를 기반으로 하여 상기 협각 카메라가 상기 사용자를 촬영하기 위한 팬 각도 및 틸트 각도를 계산할 수 있다.According to another aspect of the present invention, the image obtaining unit may calculate a pan angle and a tilt angle for photographing the user based on the three-dimensional position of the user.
본 발명의 다른 측면에 따르면, 상기 영상 획득부는 상기 팬 각도 및 상기 틸트 각도에 대응하는 가상 이미지의 2차원 좌표를 추정하는 제1 추정부, 상기 3차원 위치의 3차원 좌표와 상기 2차원 좌표의 상대적 위치 관계를 참조하여, 상기 3차원 좌표가 상기 가상 이미지 상에 투영되는 가상 좌표를 추정하는 제2 추정부, 및 상기 가상 좌표를 기반으로 상기 팬 각도 및 상기 틸트 각도를 추정하는 제3 추정부를 포함할 수 있다.According to another aspect of the present invention, the image obtaining unit may include a first estimator for estimating a two-dimensional coordinate of a virtual image corresponding to the pan angle and the tilt angle, a first estimator for estimating a three- A second estimator for estimating a virtual coordinate in which the three-dimensional coordinate is projected on the virtual image by referring to a relative positional relationship, and a third estimator for estimating the pan angle and the tilt angle based on the virtual coordinates .
본 발명의 다른 측면에 따른 시선 추적 장치는 상기 사용자의 눈동자 흔들림에 의한 상기 시선 위치 정보의 오차를 보정하는 영상 보정부를 더 포함할 수 있다.The gaze tracking apparatus according to another aspect of the present invention may further include an image correcting unit for correcting an error of the gaze position information caused by the pupil of the user.
본 발명의 일실시예에 따른 시선 추적 방법은 둘 이상의 광각 카메라, 협각 카메라 및 영상 재생 장치의 상호 간의 캘리브레이션(calibration)을 수행하여 사용자에 대한 사용자 위치 정보를 계산하는 단계, 상기 둘 이상의 광각 카메라를 통하여 영상 정보를 입력 받는 단계, 상기 영상 정보에 대하여 눈 위치 정보를 검출하는 단계, 상기 눈 위치 정보 및 상기 사용자 위치 정보를 기반으로 상기 협각 카메라에 대한 팬(pan), 틸트(tilt), 및 포커스(focus) 동작을 수행하여 눈 영상을 획득하는 단계, 상기 눈 영상으로부터 동공 중심에 대한 동공 중심 정보를 검출하는 단계, 상기 사용자의 눈에 반사된 각막 반사광에 대한 각막 반사광 정보를 검출하는 단계, 및 상기 동공 중심 정보 및 상기 각막 반사광 정보로부터 시선 위치 정보를 계산하는 단계를 포함한다.A method of tracking a line of sight according to an exemplary embodiment of the present invention includes calibrating each of two or more wide-angle cameras, a narrow-angle camera, and an image reproducing apparatus to calculate user position information for a user, The method of
본 발명의 다른 실시예에 따른 시선 추적 방법은 둘 이상의 광각 카메라를 통하여 영상 정보를 입력 받는 단계, 상기 둘 이상의 광각 카메라를 이용하여 사용자에 대한 사용자 위치 정보를 계산하는 단계, 협각 카메라를 이용하여 상기 사용자 위치 정보 및 눈 영역 검출 정보를 이용하여 팬(pan), 틸트(tilt), 및 포커스(focus) 동작을 수행하는 단계, 상기 협각 카메라의 동작을 통하여 눈 영상을 획득하는 단계, 상기 눈 영상으로부터 동공 중심 정보 및 각막 반사광 정보를 검출하는 단계, 및 상기 동공 중심 정보 및 상기 각막 반사광 정보로부터 시선 위치 정보를 계산하는 단계를 포함한다.The gaze tracking method according to another embodiment of the present invention includes the steps of receiving image information through two or more wide angle cameras, calculating user position information for a user using the two or more wide angle cameras, Performing pan, tilt, and focus operations using user position information and eye area detection information; acquiring an eye image through operation of the narrow-angle camera; Detecting pupil center information and corneal reflection information, and calculating gaze position information from the pupil center information and the corneal reflected light information.
본 발명의 일실시예에 따르면 협각 카메라를 이용하여 원거리 시선 추적이 가능하면서 사용자가 사용자 캘리브레이션을 수행한 위치에서 벗어나더라도 시선 추적이 가능하다.According to the embodiment of the present invention, it is possible to track a distance by using a narrow-angle camera and to observe a line-of-sight even if the user deviates from the position where the user performs the calibration.
도 1은 본 발명의 일실시예에 따른 시선 추적 장치의 구성을 도시한 블록도이다.
도 2는 본 발명의 일실시예에 따른 시선 추적 장치의 실물 구성을 도시한 도면이다.
도 3은 본 발명의 일실시예에 따른 시선 추적 장치의 상세 구성을 도시한 도면이다.
도 4는 광각 카메라와 협각 카메라의 캘리브레이션 방법을 수행하기 위한 개념도이다.
도 5는 본 발명의 일측에 따른 광각 카메라와 협각 카메라의 캘리브레이션 방법을 수행하기 위한 개념도이다.
도 6은 본 발명의 일측에 따른 영상 획득부의 구성을 도시한 블록도이다.
도 7은 본 발명의 일측에 따른 반사광 제거의 예를 도시한 도면이다.
도 8은 동공 후보 영역에 대한 검출 필터를 적용한 예이며, 도 9는 동공 후보 영역을 검출한 결과의 예이다.
도 10은 동공 부근의 큰 후보 영역과 작은 후보 영역의 예를 도시한 도면이고, 도 11는 동공 후보 영역에 Otsu threshold 방법을 적용한 결과를 도시한 도면이다.
도 12는 본 발명의 일측에 따른 동공 중심 검출부의 상세 구성을 도시한 블록도이다.
도 13은 타원 피팅을 위한 점들의 구성과 타원 피팅 결과를 도시한 도면이다.
도 14 및 도 15는 사용자의 움직임에 따른 영상 재생 장치의 화면, 협각 카메라, 동공 간의 관계를 도시한 도면이다.
도 16은 사용자 캘리브레이션 위치와 현재 위치와의 관계를 도시한 도면이다.
도 17은 본 발명의 일실시예에 따른 시선 추적 방법을 도시한 흐름도이다.1 is a block diagram illustrating a configuration of a gaze tracking apparatus according to an embodiment of the present invention.
FIG. 2 is a view showing a physical configuration of a gaze tracking apparatus according to an embodiment of the present invention.
3 is a diagram illustrating a detailed configuration of a gaze tracking apparatus according to an embodiment of the present invention.
4 is a conceptual diagram for performing a calibration method of the wide angle camera and the narrow angle camera.
5 is a conceptual diagram for performing a method of calibrating a wide angle camera and a narrow angle camera according to an aspect of the present invention.
6 is a block diagram showing the configuration of an image acquisition unit according to an aspect of the present invention.
7 is a diagram showing an example of reflected light removal according to one aspect of the present invention.
FIG. 8 shows an example in which a detection filter is applied to a pupil candidate region, and FIG. 9 shows an example of a result of detecting a pupil candidate region.
10 is a view showing an example of a large candidate region and a small candidate region in the vicinity of the pupil, and FIG. 11 is a diagram showing a result of applying the Otsu threshold method to the pupil candidate region.
12 is a block diagram showing the detailed configuration of a pupil center detecting unit according to an aspect of the present invention.
13 is a view showing the configuration of points for elliptic fitting and the results of elliptical fitting.
FIGS. 14 and 15 are diagrams showing the relationship between the screen of the image reproducing apparatus, the narrow-angle camera, and the pupil according to the movement of the user.
16 is a diagram showing the relationship between the user calibration position and the current position.
17 is a flowchart illustrating a gaze tracking method according to an embodiment of the present invention.
이하 첨부 도면들 및 첨부 도면들에 기재된 내용들을 참조하여 본 발명의 실시예를 상세하게 설명하지만, 본 발명이 실시예에 의해 제한되거나 한정되는 것은 아니다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings and accompanying drawings, but the present invention is not limited to or limited by the embodiments.
한편, 본 발명을 설명함에 있어서, 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는, 그 상세한 설명을 생략할 것이다. 그리고, 본 명세서에서 사용되는 용어(terminology)들은 본 발명의 실시예를 적절히 표현하기 위해 사용된 용어들로서, 이는 사용자, 운용자의 의도 또는 본 발명이 속하는 분야의 관례 등에 따라 달라질 수 있다. 따라서, 본 용어들에 대한 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.In the following description of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear. The terminology used herein is a term used for appropriately expressing an embodiment of the present invention, which may vary depending on the user, the intent of the operator, or the practice of the field to which the present invention belongs. Therefore, the definitions of these terms should be based on the contents throughout this specification.
도 1은 본 발명의 일실시예에 따른 시선 추적 장치의 구성을 도시한 블록도이다.1 is a block diagram illustrating a configuration of a gaze tracking apparatus according to an embodiment of the present invention.
도 1을 참조하면, 본 발명의 일실시예에 따른 시선 추적 장치(100)는 캘리브레이션 수행부(110), 영상 정보 입력부(120), 제1 정보 검출부(130), 영상 획득부(140), 제2 정보 검출부(150), 제3 정보 검출부(160), 및 시선 위치 계산부(170)를 포함한다.1, the
캘리브레이션 수행부(110)는 둘 이상의 광각 카메라, 협각 카메라 및 영상 재생 장치의 상호 간의 캘리브레이션(calibration)을 수행하여 사용자에 대한 사용자 위치 정보를 계산한다. 예를 들어, 캘리브레이션 수행부(110)는 둘 이상의 광각 카메라 간의 캘리브레이션(calibration)을 수행할 있고, 둘 이상의 광각 카메라와 협각 카메라 간의 캘리브레이션을 수행할 수 있으며, 협각 카메라와 영상 재생 장치 간의 캘리브레이션을 수행할 수 있다.The
영상 정보 입력부(120)는 둘 이상의 광각 카메라를 통하여 영상 정보를 입력 받으며, 제1 정보 검출부(130)는 영상 정보에 대하여 눈 위치 정보를 검출한다. 예를 들어, 제1 정보 검출부(130)는 둘 이상의 영상 정보에 대하여 얼굴 영역 및 눈 영역을 검출할 수 있다. 영상 획득부(140)는 눈 위치 정보 및 사용자 위치 정보를 기반으로 협각 카메라에 대한 팬(pan), 틸트(tilt), 및 포커스(focus) 동작을 수행하여 눈 영상을 획득한다. The image
제2 정보 검출부(150)는 눈 영상으로부터 동공 중심에 대한 동공 중심 정보를 검출하고, 제3 정보 검출부(160)는 사용자의 눈에 반사된 각막 반사광에 대한 각막 반사광 정보를 검출한다. The second
시선 위치 계산부(170)는 동공 중심 정보 및 각막 반사광 정보로부터 시선 위치 정보를 계산한다. 예를 들어, 시선 위치 계산부(170)는 사용자가 둘 이상의 광각 카메라 간의 캘리브레이션을 수행한 위치에서 이동한 경우, 사용자 위치 정보를 전방향 움직임 보정 모델에 적용하여 보정한 후, 보정된 사용자 위치 정보를 이용하여 시선 위치 정보를 계산할 수 있다.The gaze
또한, 시선 추적 장치는 영상 보정부(180)를 더 포함할 수 있으며, 영상 보정부(180)는 사용자의 눈동자 흔들림에 의한 시선 위치 정보의 오차를 보정할 수 있다.
In addition, the gaze tracking device may further include an
도 2는 본 발명의 일실시예에 따른 시선 추적 장치의 실물 구성을 도시한 도면이다.FIG. 2 is a view showing a physical configuration of a gaze tracking apparatus according to an embodiment of the present invention.
도 2를 참조하면, 본 발명의 일실시예에 따른 시선 추적 장치는 둘 이상의 광각카메라(210), 협각 카메라(220), 둘 이상의 적외선 조명(230)으로 구성될 수 있다.2, the eye tracking apparatus according to an exemplary embodiment of the present invention may include two or more wide-
본 발명의 일실시예에 따른 시선 추적 장치는 듀얼 광각 카메라(210)의 캘리브레이션을 통해 사용자의 3차원 위치를 계산해 낼 수 있고, 사용자의 위치 정보 및 눈 영역 검출 정보를 이용하여 협각 카메라(220)의 팬-틸트-포커스(pan-tilt-focus) 동작을 수행할 수 있다. 시선 추적 장치는 상기 동작을 통하여 고화질의 눈 영상을 획득할 수 있으며, 획득된 눈의 동공 중심 정보와 조명 반사광 정보를 검출하여 시선 위치 정보를 계산할 수 있다. 이렇게 계산된 시선 위치 정보는 영상 재생 장치(240)에 제공되며, 영상 재생 장치(240)는 사용자의 시선에 대응하는 영상을 재생 할 수 있다.
The gaze tracking apparatus according to an embodiment of the present invention can calculate the three-dimensional position of the user through the calibration of the dual wide-
도 3은 본 발명의 일실시예에 따른 시선 추적 장치의 상세 구성을 도시한 도면이다.3 is a diagram illustrating a detailed configuration of a gaze tracking apparatus according to an embodiment of the present invention.
도 3을 참조하면, 시선 추적 장치는 둘 이상의 광각 카메라(310), 협각 카메라(320), 영상 획득부(340), 검출부(350), 및 시선 위치 계산부(360)를 포함한다.3, the gaze tracking apparatus includes at least two
둘 이상의 광각 카메라(310)는 영상 정보를 입력 받고, 캘리브레이션을 통해 사용자에 대한 사용자의 3차원 위치를 계산하며, 협각 카메라(320)는 사용자 위치 정보 및 눈 영역 검출 정보를 이용하여 팬(pan), 틸트(tilt), 및 포커스(focus) 동작을 수행한다.The two or more
영상 획득부(340)는 협각 카메라의 동작을 통하여 눈 영상을 획득하고, 검출부(350)는 눈 영상으로부터 동공 중심 정보 및 각막 반사광 정보를 검출하며, 시선 위치 계산부(360)는 동공 중심 정보 및 각막 반사광 정보로부터 시선 위치 정보를 계산한다. The
시선 위치 계산부(360)는 사용자의 움직임에 따라 시선 위치를 보정하는 전방향 움직임 보정 모델을 통하여 시선 위치 정보를 계산할 수 있다.The gaze
또한, 시선 추적 장치는 각각의 카메라 및 영상 재생 장치 간의 캘리브레이션을 수행하는 캘리브레이션 수행부(330)를 더 포함할 수 있다.The gaze tracking apparatus may further include a
캘리브레이션 수행부(330)는 각각의 광각 카메라(310) 간의 캘리브레이션(calibration) 을 수행할 수 있다. 예를 들어, 캘리브레이션 수행부(330)는 스테레오 캘리브레이션 방식을 이용하여 하나의 광각 카메라를 기준으로 다른 카메라의 위치 및 회전 정도를 추정할 수 있다.The
본 발명의 일측에 따르면, 시선 추적 장치는 광각 카메라(310) 간 캘리브레이션을 위해 체크 보드를 여러 위치에 배치한 후 두 광각 카메라를 이용하여 체크보드를 촬영하며, 스테레오 캘리브레이션 방법을 이용하여 두 광각 카메라 간 캘리브레이션을 실행할 수 있다.According to one aspect of the present invention, a gaze tracking device arranges check boards at various positions for calibration between
또한, 캘리브레이션 수행부(330)는 둘 이상의 광각 카메라(310)와 협각 카메라(320) 간의 캘리브레이션을 수행할 수 있다. 예를 들어, 캘리브레이션 수행부(330)는 사용자의 3차원 위치를 기반으로 하여 협각 카메라(320)가 사용자를 촬영하기 위한 팬 각도 및 틸트 각도를 계산할 수 있다.
In addition, the
도 4는 광각 카메라와 협각 카메라의 캘리브레이션 방법을 수행하기 위한 개념도이다.4 is a conceptual diagram for performing a calibration method of the wide angle camera and the narrow angle camera.
도 4를 참조하면, 시선 추적 장치는 광각 카메라(420)와 협각 카메라(430) 간의 위치 정보, 및 회전 정보를 추정하기 위하여 광각 카메라(420)와 협각 카메라(430) 간의 캘리브레이션을 수행할 수 있다.4, the gaze tracking device may perform calibration between the
본 발명의 일측에 따르면, 광각 카메라(420)와 협각 카메라(430) 간의 캘리브레이션의 경우, 협각 카메라(430)에서 사용자(410)가 움직임에 따라 체크 보드를 모두 촬영하기 위해서 팬-틸트 동작을 수행하므로, 협각 카메라(430)가 움직여야 한다.According to one aspect of the present invention, in the case of calibration between the
도 5는 본 발명의 일측에 따른 광각 카메라와 협각 카메라의 캘리브레이션 방법을 수행하기 위한 개념도이다.5 is a conceptual diagram for performing a method of calibrating a wide angle camera and a narrow angle camera according to an aspect of the present invention.
도 5를 참조하면, 시선 추적 장치는 광각 카메라(520)를 이용하여 알아낸 사용자(510)의 3차원 위치를 입력으로 주었을 때, 협각 카메라(530)가 해당 객체(사용자)를 촬영하기 위한 팬 각도 및 틸트 각도를 추정할 수 있다.Referring to FIG. 5, when the gaze tracking device gives input of the three-dimensional position of the
도 3의 캘리브레이션 수행부(330)는 제1 추정부, 제2 추정부, 및 제3 추정부를 이용하여 팬 각도 및 틸트 각도를 계산할 수 있다.The
제1 추정부는 팬 각도 및 틸트 각도에 대응하는 가상 이미지의 2차원 좌표를 추정하며, 제2 추정부는 3차원 위치의 3차원 좌표와 2차원 좌표의 상대적 위치 관계를 참조하여, 3차원 좌표가 가상 이미지 상에 투영되는 가상 좌표를 추정할 수 있다. 제3 추정부는 가상 좌표를 기반으로 팬 각도 및 틸트 각도를 추정할 수 있다.The first estimator estimates the two-dimensional coordinates of the virtual image corresponding to the pan angle and the tilt angle, and the second estimator refers to the relative positional relationship between the three-dimensional coordinates and the two-dimensional coordinates of the three- The virtual coordinates projected on the image can be estimated. The third estimator may estimate the pan angle and the tilt angle based on the virtual coordinates.
시선 추적 장치는 사용자(510)의 3차원 위치와 협각 카메라(530)의 실제로 이동한 각도 간의 관계를 알아내기 위하여, 도 5에 도시된 바와 같이 협각 카메라(530)의 팬 각도 및 틸트 각도를 2차원 영상의 x, y 좌표로 변환할 수 있다.The gaze tracking device measures the pan angle and the tilt angle of the
시선 추적 장치는 팬/틸트의 각도가 각각 0도가 되는 방향을 기준 방향으로 가정하는 경우, 기준 방향에 수직이고 거리가 1 떨어져 있는 가상의 이미지(540)를 만들 수 있다. 이때, 가상 이미지(540)에서 x축으로의 이동은 팬 각도에만 의존하고, y축으로의 이동은 틸트 각도에만 의존한다고 가정하면, 팬 각도 및 틸트 각도를 다음의 수학식 1을 이용하여 가상 이미지(540)의 x, y 축 좌표로 변환할 수 있다.The gaze tracking device can make a
시선 추적 장치는 수학식 1을 이용하여 최종적으로 객체의 3차원 좌표와 가상 이미지(540)에서의 2차원 좌표를 알 수 있으며, 두 좌표 간의 프로젝션 메트릭스(projection matrix)를 계산할 수 있다. The gaze tracking device can finally determine the three-dimensional coordinates of the object and the two-dimensional coordinates in the
시선 추적 장치는 프로젝션 메트릭스를 이용하여 임의의 3차원 좌표가 가상 이미지(540) 상에 맺히는 가상 좌표(x v , y v )를 추정할 수 있다. 본 발명의 일측에 따르면, 상기 가상 좌표를 하기 수학식 2에 대입하는 경우, 해당 3차원 좌표를 촬영하기 위한 협각 카메라(530)의 팬 각도 및 틸트 각도를 추정할 수 있다.Eye-tracking device can estimate the arbitrary three-dimensional coordinate temperature may cause problems virtual coordinates on the virtual image (540) (x v, y v) using the projection matrix. According to one aspect of the present invention, when the virtual coordinates are substituted into the following equation (2), the pan angle and tilt angle of the narrow-
도 3을 다시 참조하면, 캘리브레이션 수행부(330)는 협각 카메라(320)와 영상 재생 장치 간의 캘리브레이션을 수행할 수 있다. 예를 들어, 캘리브레이션 수행부(330)는 협각 카메라(320)가 이동하는 팬 축 및 틸트 축의 중심을 기준으로 영상 재생 장치의 실제 위치와의 차이를 추정할 수 있다.
Referring again to FIG. 3, the
시선 추적 장치는 캘리브레이션 과정이 끝난 후 실제 사용자의 눈을 찾고 협각카메라(320)를 이용하여 사용자의 시선을 추적할 수 있다.After the calibration process is completed, the gaze tracking device can find the eyes of the actual user and track the user's gaze using the
예를 들어, 영상 획득부(340)는 사용자 위치 정보 계산을 위하여 두 광각 카메라(310)에서 Haar-like 기반 Adaboost 방법을 이용하여 얼굴 영역을 검출한 후, Haar-like 기반 Adaboost 방법을 이용하여 눈 영역을 검출할 수 있다. 시선 추적 장치는 두 영상에서 왼쪽 눈의 불일치(disparity)와 좌표를 이용하여 왼쪽 눈의 3차원 좌표를 추정하고, 프로젝션 메트릭스에 대입하여 협각 카메라(320)의 팬 각도 및 틸트 각도를 추정할 수 있다.
For example, the
도 6은 본 발명의 일측에 따른 영상 획득부의 구성을 도시한 블록도이다.6 is a block diagram showing the configuration of an image acquisition unit according to an aspect of the present invention.
도 6을 참조하면, 본 발명의 일측에 따른 영상 획득부(600)는 해상도 조정부(610), 반사광 제거부(620), 동공 후보 영역 검출부(630), 영역 선택부(640), 임계치 검출부(650), 영상 판단부(660), 및 동공 중심 검출부(670)를 포함할 수 있다.6, an
도 6을 참조하면, 해상도 조정부(610)는 입력된 영상 정보의 해상도를 조정하고, 반사광 제거부(620)는 조정된 영상 정보의 반사광을 제거하며, 동공 후보 영역 검출부(630)는 반사광이 제거된 영상 정보에 기설정된 필터를 적용하여 동공 후보 영역을 검출할 수 있다.6, the
도 7은 본 발명의 일측에 따른 반사광 제거의 예를 도시한 도면이다.7 is a diagram showing an example of reflected light removal according to one aspect of the present invention.
예를 들어, 도 6및 도 7을 참조하면, 영상 획득부(600)는 협각 카메라로 촬영한 눈 영상에서 동공 후보 영역을 검출하기 위하여, 1600x1200 해상도의 도 7의 입력 영상(a)을 200x100 해상도의 영상(b)로 크기를 줄이고 그레이스케일 모폴로지(grayscale morphology) 연산을 통하여 반사광 영역을 제거할 수 있다.6 and 7, in order to detect a pupil candidate region in an eye image photographed by a narrow-angle camera, the
도 8은 동공 후보 영역에 대한 검출 필터를 적용한 예이며, 도 9는 동공 후보 영역을 검출한 결과의 예이다.FIG. 8 shows an example in which a detection filter is applied to a pupil candidate region, and FIG. 9 shows an example of a result of detecting a pupil candidate region.
도 8 및 도 9를 참조하면, 시선 추적 장치는 반사광이 제거된 영상에서 동공 후보 영역을 검출하기 위하여 도 8에 도시된 바와 같이 필터를 적용할 수 있다. 즉, 도 6의 동공 후보 영역 검출부(610)는 하기 수학식 3의 필터 알고리즘을 반사광이 제거된 영상 정보에 적용하여 동공 후보 영역을 검출할 수 있으며, 도 9와 같이 동공 후보 영역(910, 920)의 결과를 얻을 수 있다. Referring to FIGS. 8 and 9, the gaze tracking apparatus can apply a filter as shown in FIG. 8 to detect a pupil candidate region in an image from which reflected light is removed. That is, the pupil candidate
이때, 상기 I는 영상의 밝기값(intensity), 상기 O(c)는 c위치에서의 수식 결과값, 상기 c는 필터의 중심 위치, 상기 bi는 필터의 주변부 위치, 상기 d는 노이즈 제거를 위한 변수에 대응될 수 있다.Where c is the center position of the filter, bi is the position of the periphery of the filter, d is the center of the filter for noise removal, Variable. ≪ / RTI >
도 9의 (b)는 파라미터 d를 적용하지 않았을 때의 결과이고, 도 9의 (c)는 파라미터 d를 적용하였을 때의 결과에 대응될 수 있다. 시선 추적 장치는 도 9에 도시된 바와 같이 사용자가 안경을 착용하였는지 여부에 관계없이 안정적인 동공 후보 영역을 검출할 수 있다.Fig. 9 (b) shows the result when the parameter d is not applied, and Fig. 9 (c) corresponds to the result when the parameter d is applied. The gaze tracking apparatus can detect a stable pupil candidate region irrespective of whether or not the user wears glasses as shown in FIG.
시선 추적 장치는 동공 후보 영역을 검출하는 경우, 동공 영역이 눈꺼풀에 가려져 시선 추적 결과에 오류가 발생하는 것을 방지하기 위하여, 동공 영역이 눈꺼풀에 가려지는지를 추정할 수 있다. When the pupil candidate region is detected, the gaze tracking apparatus can estimate whether the pupil region is covered with the eyelid in order to prevent an error in the gaze tracking result because the pupil region is covered by the eyelid.
도 6을 다시 참조하면, 영역 선택부(640)는 동공 후보 영역에서 서로 다른 크기의 두 개의 영역을 선택할 수 있으며, 임계치 검출부(650)는 두 개의 영역에 대한 각각의 임계치 값을 검출하고, 영상 판단부(660)는 검출된 두 개의 임계치 값을 비교하여 동일한 경우, 눈 영상에 눈꺼풀 영상이 없는 것으로 판단할 수 있다.6, the
도 10은 동공 부근의 큰 후보 영역과 작은 후보 영역의 예를 도시한 도면이고, 도 11는 동공 후보 영역에 Otsu threshold 방법을 적용한 결과를 도시한 도면이다.10 is a view showing an example of a large candidate region and a small candidate region in the vicinity of the pupil, and FIG. 11 is a diagram showing a result of applying the Otsu threshold method to the pupil candidate region.
시선 추적 장치는 동공 후보 영역에서 도 10에 도시된 바와 같이 서로 다른 크기로 영역(a, b)을 선택할 수 있다.The gaze tracking apparatus can select regions a and b having different sizes as shown in Fig. 10 in the pupil candidate region.
시선 추적 장치는 도 10의 두 영상(a, b)에 각각 otsu threshold 방법을 이용하여 영역을 구분하여, 도 11와 같은 결과(a, b)를 얻을 수 있고 임계 값을 각각 검출할 수 있다. 이때, 시선 추적 장치는 두 임계 값이 동일하면 영상 내에 눈꺼풀이 없는 것으로 판단하고 다를 경우 눈꺼풀 영역이 존재하는 것으로 판단할 수 있다.The gaze tracking apparatus can obtain the results (a, b) as shown in FIG. 11 and detect the threshold values, respectively, by dividing the regions into two images (a, b) of FIG. 10 using the otsu threshold method. At this time, if the two threshold values are the same, the gaze tracking device determines that there is no eyelid in the image, and if it is different, it can be determined that the eyelid region exists.
도 6을 다시 참조하면, 동공 중심 검출부(670)는 동공 후보 영역으로부터 원형 정보를 검출하고, 상기 검출된 원형 정보를 타원 피팅(Ellipse fitting)을 수행하여 상기 동공 중심 정보를 검출할 수 있다.Referring again to FIG. 6, the pupil
도 12는 본 발명의 일측에 따른 동공 중심 검출부의 상세 구성을 도시한 블록도이다.12 is a block diagram showing the detailed configuration of a pupil center detecting unit according to an aspect of the present invention.
도 12를 참조하면, 동공 중심 검출부(1200)는 원형 검출부(1210), 위치 선정부(1220), 위치 이동부(1230), 가중치 부여부(1240), 및 타원 피팅부(1250)를 포함할 수 있다.12, the pupil
원형 검출부(1210)는 동공 후보 영역에서 원 검출 방식을 적용하여 원의 중심과 외곽선 영역을 판별하고, 위치 선정부(1220)는 원의 외곽선 영역에 대하여 복수의 점을 선정할 수 있다. 위치 이동부(1230)는 선정된 복수의 점과 원의 중심을 연결한 직선 상에서 밝기 값에 대한 미분 값이 가장 큰 위치로 선정된 복수의 점을 이동시킬 수 있으며, 가중치 부여부(1240)는 이동된 복수의 점에 대하여 미분 값의 크기에 따라 가중치를 부여할 수 있다. 타원 피팅부(1250)는 가중치가 부여된 복수의 점을 이용하여 타원 피팅을 수행하여 동공 중심 정보를 검출할 수 있다.The
예를 들어, 동공 중심 검출부(1200)는 검출된 동공 영역에 원 검출 방법을 적용하여 원의 중심과 외곽선 영역을 판별한 후 원의 외곽선 영역에 대하여 40개의 위치를 선정할 수 있다. 시선 추적 장치는 상기 위치에서 원의 중심 방향으로 직선을 그은 후 그 직선상에서 밝기 값에 대한 1차 미분을 구하여 이 미분값이 가장 큰 위치로 40개의 점을 이동시킬 수 있다.For example, the pupil
동공 중심 검출부(1200)는 위치를 변경시킨 40개의 점들 중 이전에 구한 눈꺼풀 영역에 걸치는 부분들의 점들은 무시하고 원 검출 방법에서 처음 구한 위치를 그대로 사용할 수 있다. 이동한 각 점들의 1차 미분 값의 크기에 따라 가중치를 부여 받는데 1차 미분값이 클수록 더 큰 가중치를 가질 수 있다.The pupil
동공 중심 검출부(1200)는 가중치가 적용된 40개의 점을 이용하여 타원 피팅을 수행할 수 있으며, 타원 피팅시 가중치의 개념이 없기 때문에 가중치가 높은 점들의 개수를 증가시켜서 타원 피팅 시 가중치의 효과를 가지도록 할 수 있다.The pupil
도 13은 타원 피팅을 위한 점들의 구성과 타원 피팅 결과를 도시한 도면이다.13 is a view showing the configuration of points for elliptic fitting and the results of elliptical fitting.
도 13을 참조하면, 시선 추적 장치는 타원 피팅을 위한 점들이 원의 외곽선(1310) 위치에서 벗어나서 존재하는 것을 확인할 수 있고, 타원 피팅의 결과로 도 13의 (b)에서 타원(1320)이 좀 더 동공 영역을 정확하게 표시하고 있는 것을 확인할 수 있다. Referring to FIG. 13, the gaze tracking apparatus can confirm that the points for the elliptic fitting exist outside of the
사용자 시선 위치는 먼저 협각 카메라로 촬영한 영상에서 동공의 중심과 반사광의 중심을 검출하여 두 위치를 연결하는 벡터를 검출한다. 사용자 캘리브레이션 단계에서 화면상에 나타나는 6개의 점을 각각 순차적으로 사용자가 바라볼 때 동공의 중심과 반사광의 중심을 연결하는 벡터와 실제 화면상에 나타나는 6개 점의 픽셀 단위 위치간의 2D 맵핑 함수를 계산한다. 사용자가 화면상의 임의의 위치를 응시할 때 2D 맵핑 함수와 동공 중심, 반사광 중심간의 벡터를 이용하여 사용자의 시선 위치를 알아낼 수 있다.The user's gaze position first detects the center of the pupil and the center of the reflected light in the image captured by the coarse camera and detects a vector connecting the two positions. When the user sequentially views the six points on the screen in the user calibration step, the 2D mapping function is calculated between the vector connecting the center of the pupil and the center of the reflected light and the position of the pixel unit of six points on the actual screen do. When the user gazes at an arbitrary position on the screen, the user can determine the gaze position using the 2D mapping function, the vector between the pupil center and the center of the reflected light.
본 발명의 일측에 따르면, 시선 추적 장치는 사용자의 움직임에 따라 시선 위치를 보정해주는 전방향 움직임 보정 모델에서 사용자의 위치에 따라 실제 TV 화면이 변경되는 모양을 모델링할 수 있다.According to one aspect of the present invention, the gaze tracking device can model a shape of a real TV picture according to a user's position in a forward motion compensation model that corrects a gaze position according to a user's movement.
도 14 및 도 15는 사용자의 움직임에 따른 영상 재생 장치의 화면, 협각 카메라, 동공 간의 관계를 도시한 도면이다.FIGS. 14 and 15 are diagrams showing the relationship between the screen of the image reproducing apparatus, the narrow-angle camera, and the pupil according to the movement of the user.
도 14는 사용자가 영상 재생 장치의 화면(1430) 정중앙에 위치하였을 때 화면(1430)과 협각 카메라의 이미지 센서(1420)가 평행을 이루고, 화면(1430)과 협각 카메라의 이미지 센서(1420)의 수직 방향에 사용자 동공(1410)의 중심이 위치하는 예이다. 이때, 적외선 조명이 협각 카메라와 동일 위치에 있다고 가정한 경우, 시선 추적 장치는 사용자가 사용자 캘리브레이션 단계에서 화면에 나타나는 특정 위치를 응시하고 있을 때 하기 수학식 4와 같은 벡터 성분을 구할 수 있다.14 is a view illustrating a
도 15는 사용자가 움직였을 때 영상 재생 장치의 화면(1530), 협각 카메라의 이미지 센서(1520), 사용자 동공(1510) 간의 관계를 예이며, 시선 추적 장치는 도 15를 참조하여 수학식 5와 같은 벡터 성분을 구할 수 있다.15 shows an example of a relationship between a
본 발명의 일측에 따르면, 전술한 수학식 4 및 5의 벡터 성분을 취합하여 정리하면 하기 수학식 6과 같이 정리할 수 있다.According to one aspect of the present invention, the vector components of Equations (4) and (5) can be summarized as shown in Equation (6) below.
또한, 시선 추적 장치는 도 14 내지 15 및 수학식 4 내지 5를 참조하여, 하기 수학식 7과 같은 벡터 성분의 관계를 연산할 수 있으며, 수학식 6과 수학식 7의 연산을 통하여 수학식 8의 값을 연산할 수 있다.14 to 15 and Equations 4 to 5, the gaze tracking apparatus can calculate the relationship of the vector components as shown in Equation (7) below, and calculates the following equation (8) through the operations of Equations (6) and Can be calculated.
또한, 시선 추적 장치는 도 14 내지 15 및 수학식 4 내지 5를 참조하면, 하기 수학식 7과 같은 벡터 성분의 관계를 연산할 수 있으며, 수학식 8과 수학식 9의 연산을 통하여 수학식 10의 값을 연산할 수 있다.Referring to FIGS. 14 to 15 and Equations 4 to 5, the gaze tracking apparatus can calculate the relationship of vector components as shown in Equation (7) below, Can be calculated.
여기서, 시선 추적 장치는 사용자 동공의 중심 위치 Er과 En의 3차원 위치를 광각 스테레오 카메라를 이용하여, 하기 수학식 11과 같이 추정할 수 있다.Here, the gaze tracking apparatus can estimate the three-dimensional positions of the center positions E r and E n of the user's pupil using the wide-angle stereo camera as shown in the following Equation (11).
시선 추적 장치는 협각 카메라의 광학 중심 O에서 Er과 En까지의 거리를 구할 수 있다. 예를 들어, 시선 추적 장치는 팬/틸트 캘리브레이션의 결과인 프로젝션 행렬()을 이용하여 하기 수학식 12와 같이 협각 카메라의 광학 중심 O에서 Er과 En까지의 거리를 구할 수 있다.The gaze tracking device can find the distance between E r and E n at the optical center O of the coarse camera. For example, the gaze tracking device may include a projection matrix (< RTI ID = 0.0 > ), The distance from the optical center O of the coarse camera to E r and E n can be obtained as shown in Equation (12).
여기서, T 및 t는 각각 메트릭스 트랜스포즈(matrix transpose) 및 트랜스래이션 벡터(translation vector)를 의미하며, R은 로테이션 메트릭스(rotation matrix)을 의미 할 수 있다. 여기서, Dxr, Dyr, 등의 성분은 사용자가 직접 줄자 등을 이용하여 측정할 수도 있다.Here, T and t denote a matrix transpose and a translation vector, respectively, and R can denote a rotation matrix. Here, D xr , D yr , Etc. may be measured by a user directly using a tape measure or the like.
또한, 협각 카메라의 광학 중심 O를 기준으로 SO의 위치는 와 같이 표시할 수 있으며, 팬/틸트 모듈에 의하여 만큼 회전하는 경우, 하기 수학식 13과 같이 연산 될 수 있다.In addition, the position of S O with respect to the optical center O of the narrow-angle camera is And can be displayed by the pan / tilt module , The following equation (13) can be calculated.
시선 추적 장치는 전술한 수학식 13을 기반으로 하기 수학식 14와 같이, 및 의 값을 구할 수 있다.Based on Equation (13) described above, the gaze tracking apparatus calculates the gaze tracking device as shown in Equation (14) And Can be obtained.
최종적으로, 시선 추적 장치는 전술한 수학식 4 내지 수학식 14를 기반으로 하기 수학식 15와 같이, vxn 및 vyn의 값을 구할 수 있다.Finally, the gaze tracking device can obtain the values of v xn and v yn as shown in the following Equation (15) based on Equations (4) to (14).
시선 추적 장치는 사용자가 사용자 캘리브레이션을 수행할 때는 팬/틸드의 움직임이 필요하므로 정확한 시선 위치를 구하기 위해서는 도 16의 과정을 수행할 수 있다.Since the gaze tracking device requires the movement of the pan / tild when the user performs the user calibration, the process of FIG. 16 can be performed to obtain the accurate gaze position.
도 16은 사용자 캘리브레이션 위치, 기준 위치와 현재 위치와의 관계를 도시한 도면이다.16 is a diagram showing the relationship between the user calibration position, the reference position, and the current position.
도 16을 참조하면, 시선 추적 장치는 사용자 캘리브레이션을 수행한 위치(1610)에서 기준 위치(1620)를 구할 수 있고, 기준 위치(1620)를 기준으로 현재 위치(1630)를 구할 수 있다. 예를 들어, 시선 추적 장치는 사용자 캘리브레이션을 수행한 위치(1610)에서 추정된 PCCR(Pupil Center Corneal Reflection) 벡터를 현재 위치(1630)의 PCCR 벡터로 변환하여, 하기 수학식 16과 같은 값을 구할 수 있다.Referring to FIG. 16, the gaze tracking apparatus can obtain the
여기서, 상기 변수들 중 c가 첨자된 변수들은 캘리브레이션(calibration) 위치에서의 값을 의미할 수 있다.Here, among the above parameters, the subscripted variables may refer to the value at the calibration position.
시선 추적 장치는 눈동자의 흔들림과 영상 잡음에 의해서 사용자가 동일한 위치를 응시하고 있더라도 흔들림이 발생하는 것을 대비하여, 시선 추적 결과를 보정하는 과정을 제공할 수 있다.The gaze tracking device can provide a process of correcting the gaze tracking result in preparation for the occurrence of shaking even if the user gazes at the same position due to the shaking of the pupil and the image noise.
시선 추적 장치는 영상 보정부를 더 포함할 수 있으며, 영상 보정부는 사용자의 눈동자 흔들림에 의한 시선 위치 정보의 오차를 보정할 수 있다. 영상 보정부는 하기 수학식 9를 이용하여 시선 위치 정보를 보정할 수 있다.The gaze tracking device may further include an image correction unit, and the image correction unit may correct the error of the gaze position information due to the pupil fluctuation of the user's eyes. The image correcting unit can correct gaze position information using Equation (9) below.
예를 들어, 현재 영상에서 검출한 시선 추적 위치를 v(t)={x, y}라고 이전 영상에서 검출한 시선 추적 위치를 v'(t-1)이라고 할 때, 보정한 시선 추적 위치는 하기 수학식 17과 같이 정의할 수 있다. 이때, 파라미터 W는 두 시선 위치 간의 거리가 어느 정도 떨어졌을 때 사용자의 시선이 움직인 것으로 판단하여 보정 없이 원본 값을 사용하느냐에 대한 파라미터에 대응될 수 있다.For example, if the gaze tracking position detected in the current image is v ( t ) = { x , y }, and the gaze tracking position detected in the previous image is v '(t-1) Can be defined as the following equation (17). In this case, the parameter W may correspond to a parameter for determining whether the user's line of sight is moving when the distance between two line-of-sight positions is moved and using the original value without correction.
여기서, 상기 v’(t)는 상기 보정된 시선 위치 정보, 상기 v(t)는 현재 영상에서 검출한 시선 추적 위치, 상기 v'(t-1)는 이전 영상에서 보정된 시선 추적 위치, 상기 W는 현재 시선 위치와 이전 시선 위치간의 거리 차이에 대한 경계값에 대응 될 수 있다.V '(t) is the corrected gaze position information, v (t) is the gaze tracking position detected in the current image, v' (t-1) is the gaze tracking position corrected in the previous image, W may correspond to a boundary value for the distance difference between the current sight position and the previous sight position.
도 17은 본 발명의 일실시예에 따른 시선 추적 방법을 도시한 흐름도이다.17 is a flowchart illustrating a gaze tracking method according to an embodiment of the present invention.
도 17을 참조하면, 시선 추적 장치는 광각 카메라 간의 캘리브레이션을 수행하고(1701), 광각 카메라와 협각 카메라 간의 캘리브레이션을 수행하며(1702), 영상 재생 장치와 협각 카메라 간의 캘리브레이션을 수행한다(1703). 또한, 시선 추적 장치는 사용자 캘리브레이션을 수행할 수 있다(1704).Referring to FIG. 17, the gaze tracking apparatus performs calibration between the
시선 추적 장치는 광각 카메라으로부터 영상을 입력 받으며(1705), 듀얼 카메라 영상 별 얼굴 영역을 검출한다(1706).The gaze tracking device receives the image from the wide angle camera (1705), and detects the face area for each dual camera image (1706).
시선 추적 장치는 눈 영역 검출 및 사용자의 3차원 위치를 계산하고(1707), 협각 카메라를 이용하여 사용자의 위치 정보 및 눈 영역 검출 정보를 이용하여 팬(pan), 틸트(tilt), 및 포커스(focus)를 계산하고(1408), 이용하여 팬(pan), 틸트(tilt), 및 포커스(focus) 동작을 수행한다(1709).The gaze tracking device calculates eye area and calculates a three-dimensional position of the user (1707), and uses a coarse camera to detect a pan, a tilt, and a focus using the user's position information and eye area detection information (1408), and performs pan, tilt, and focus operations using the focus (1709).
시선 추적 장치는 협각 카메라의 동작을 통하여 눈 영상을 획득하고(1710), 눈 영상으로부터 동공 중심 정보 및 각막 반사광 정보를 검출한다(1711, 1712).The gaze tracking apparatus acquires an eye image through operation of the coarse camera (1710), and detects pupil center information and corneal reflection information from the eye image (1711, 1712).
시선 추적 장치는 동공 중심 정보 및 각막 반사광 정보로부터 눈 위치 정보와 전방향 움직임 대응 모델을 이용하여 시선 위치 정보를 계산한다(1713).The gaze tracking apparatus calculates eye position information using the eye position information and the forward movement correspondence model from the pupil center information and the corneal reflection information (1713).
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다. The method according to an embodiment may be implemented in the form of a program command that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions to be recorded on the medium may be those specially designed and configured for the embodiments or may be available to those skilled in the art of computer software. Examples of computer-readable media include magnetic media such as hard disks, floppy disks and magnetic tape; optical media such as CD-ROMs and DVDs; magnetic media such as floppy disks; Magneto-optical media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다. While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments. For example, it is to be understood that the techniques described may be performed in a different order than the described methods, and / or that components of the described systems, structures, devices, circuits, Lt; / RTI > or equivalents, even if it is replaced or replaced.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.
310: 광각 카메라
320: 협각 카메라
330: 캘리브레이션 수행부
340: 영상 획득부
350: 검출부
360: 시선 위치 계산부310: Wide angle camera
320: coarse camera
330: Calibration execution unit
340:
350:
360: eye line position calculation unit
Claims (40)
상기 둘 이상의 광각 카메라를 통하여 영상 정보를 입력 받는 영상 정보 입력부;
상기 영상 정보에 대하여 눈 위치 정보를 검출하는 제1 정보 검출부;
상기 눈 위치 정보 및 상기 사용자 위치 정보를 기반으로 상기 협각 카메라에 대한 팬(pan), 틸트(tilt), 및 포커스(focus) 동작을 수행하여 눈 영상을 획득하는 영상 획득부;
상기 눈 영상으로부터 동공 중심에 대한 동공 중심 정보를 검출하는 제2 정보 검출부;
상기 사용자의 눈에 반사된 각막 반사광에 대한 각막 반사광 정보를 검출하는 제3 정보 검출부; 및
상기 동공 중심 정보 및 상기 각막 반사광 정보로부터 시선 위치 정보를 계산하는 시선 위치 계산부
를 포함하고,
상기 시선 위치 계산부는,
상기 사용자가 둘 이상의 광각 카메라 간의 캘리브레이션을 수행한 위치에서 이동한 경우, 상기 사용자 위치 정보를 전방향 움직임 보정 모델에 적용하여 보정한 후, 상기 보정된 사용자 위치 정보를 이용하여 상기 시선 위치 정보를 계산하는 시선 추적 장치.A calibration performing unit for performing calibration between two or more wide angle cameras, a narrow angle camera, and an image reproducing apparatus to calculate user position information for a user;
An image information input unit receiving image information through the two or more wide angle cameras;
A first information detecting unit for detecting eye position information on the image information;
An image acquiring unit for acquiring an eye image by performing a pan operation, a tilt operation, and a focus operation on the coarse camera based on the eye position information and the user position information;
A second information detector for detecting pupil center information on the pupil center from the eye image;
A third information detecting unit for detecting corneal reflection information on corneal reflected light reflected by the eyes of the user; And
A line-of-sight position calculation unit for calculating line-of-sight position information from the pupil center information and the corneal reflection information,
Lt; / RTI >
The line-of-
When the user moves from a position where calibration between two or more wide-angle cameras has been performed, the user position information is applied to the forward motion compensation model and corrected, and then the gaze position information is calculated using the corrected user position information Eye tracking device.
상기 캘리브레이션 수행부는,
상기 둘 이상의 광각 카메라 간의 캘리브레이션(calibration)을 수행하고, 상기 둘 이상의 광각 카메라와 협각 카메라 간의 캘리브레이션을 수행하며, 상기 협각 카메라와 영상 재생 장치 간의 캘리브레이션을 수행하는 시선 추적 장치.The method according to claim 1,
Wherein the calibration performing unit comprises:
Angle camera and performs calibration between the at least two wide-angle cameras and the narrow-angle camera, and performs calibration between the narrow-angle camera and the image reproducing device.
상기 제1 정보 검출부는,
상기 둘 이상의 영상 정보에 대하여 얼굴 영역 및 눈 영역을 검출하는 시선 추적 장치.The method according to claim 1,
Wherein the first information detecting unit comprises:
And a face region and an eye region are detected with respect to the at least two pieces of image information.
상기 사용자 위치 정보 및 눈 영역 검출 정보를 이용하여 팬(pan), 틸트(tilt), 및 포커스(focus) 동작을 수행하는 협각 카메라;
상기 협각 카메라의 동작을 통하여 눈 영상을 획득하는 영상 획득부;
상기 눈 영상으로부터 동공 중심 정보 및 각막 반사광 정보를 검출하는 검출부; 및
상기 동공 중심 정보 및 상기 각막 반사광 정보로부터 시선 위치 정보를 계산하는 시선 위치 계산부
를 포함하고,
상기 영상 획득부는,
상기 입력된 영상 정보의 해상도를 조정하는 해상도 조정부;
상기 조정된 영상 정보의 반사광을 제거하는 반사광 제거부; 및
상기 반사광이 제거된 영상 정보에 기설정된 필터를 적용하여 동공 후보 영역을 검출하는 동공 후보 영역 검출부
를 포함하는 시선 추적 장치.At least two wide-angle cameras that receive image information and calculate user location information for a user through calibration;
A coarse camera that performs a pan operation, a tilt operation, and a focus operation using the user position information and the eye area detection information;
An image acquiring unit acquiring an eye image through operation of the narrow-angle camera;
A detector for detecting pupil center information and corneal reflection information from the eye image; And
A line-of-sight position calculation unit for calculating line-of-sight position information from the pupil center information and the corneal reflection information,
Lt; / RTI >
The image acquiring unit may acquire,
A resolution adjusting unit adjusting the resolution of the input image information;
A reflected light removing unit for removing reflected light of the adjusted image information; And
A pupil candidate region detection unit for detecting a pupil candidate region by applying a predetermined filter to the image information from which the reflected light is removed,
Wherein the gaze tracking device comprises:
상기 둘 이상의 광각 카메라 간의 캘리브레이션(calibration) 을 수행하는 캘리브레이션 수행부
를 더 포함하는 시선 추적 장치.6. The method of claim 5,
And a calibration execution unit for performing calibration between the at least two wide-
Wherein the gaze tracking device further comprises:
상기 캘리브레이션 수행부는,
스테레오 캘리브레이션 방식을 이용하여 하나의 광각 카메라를 기준으로 다른 카메라의 위치 및 회전 정도를 추정하는 시선 추적 장치.The method according to claim 6,
Wherein the calibration performing unit comprises:
A gaze tracking device for estimating the position and degree of rotation of another camera based on a single wide-angle camera using a stereo calibration method.
상기 캘리브레이션 수행부는,
상기 둘 이상의 광각 카메라와 상기 협각 카메라 간의 캘리브레이션을 수행하는 시선 추적 장치.The method according to claim 6,
Wherein the calibration performing unit comprises:
Wherein the calibration is performed between the at least two wide angle cameras and the at least one narrow angle camera.
상기 캘리브레이션 수행부는,
상기 협각 카메라와 영상 재생 장치 간의 캘리브레이션을 수행하는 시선 추적 장치.The method according to claim 6,
Wherein the calibration performing unit comprises:
Wherein the calibration is performed between the coarse angle camera and the image reproducing device.
상기 캘리브레이션 수행부는,
상기 협각 카메라가 이동하는 팬 축 및 틸트 축의 중심을 기준으로 상기 영상 재생 장치의 실제 위치와의 차이를 추정하는 시선 추적 장치.10. The method of claim 9,
Wherein the calibration performing unit comprises:
And estimates a difference between the center of the fan axis and the tilt axis on which the narrow angle camera moves and the actual position of the image reproducing apparatus.
상기 동공 후보 영역 검출부는,
하기 수학식 1의 필터 알고리즘을 상기 반사광이 제거된 영상 정보에 적용하여 상기 동공 후보 영역을 검출하는 시선 추적 장치.
[수학식 1]
(여기서, 상기 I는 영상의 밝기값(intensity), 상기 O(c)는 c위치에서의 수식 결과값, 상기 c는 필터의 중심 위치, 상기 bi는 필터의 주변부 위치, 상기 d는 노이즈 제거를 위한 변수에 대응 됨.)6. The method of claim 5,
Wherein the pupil candidate region detecting unit
Wherein the pupil candidate region is detected by applying the filter algorithm of Equation (1) to the image information from which the reflected light is removed.
[Equation 1]
Where c is the center position of the filter, bi is the position of the periphery of the filter, d is the noise removal, Corresponds to the variable for.
상기 영상 획득부는,
상기 동공 후보 영역에서 서로 다른 크기의 두 개의 영역을 선택하는 영역 선택부;
상기 두 개의 영역에 대한 각각의 임계치 값을 검출하는 임계치 검출부; 및
상기 검출된 두 개의 임계치 값을 비교하여 동일한 경우, 상기 눈 영상에 눈꺼풀 영상이 없는 것으로 판단하는 영상 판단부
를 더 포함하는 시선 추적 장치.6. The method of claim 5,
The image acquiring unit may acquire,
An area selection unit for selecting two areas having different sizes in the pupil candidate area;
A threshold detector for detecting a threshold value for each of the two areas; And
And comparing the detected two threshold values to determine that there is no eyelid image in the eye image,
Wherein the gaze tracking device further comprises:
상기 영상 획득부는,
상기 동공 후보 영역으로부터 원형 정보를 검출하고, 상기 검출된 원형 정보를 타원 피팅(Ellipse fitting)을 수행하여 상기 동공 중심 정보를 검출하는 동공 중심 검출부
를 더 포함하는 시선 추적 장치.6. The method of claim 5,
The image acquiring unit may acquire,
A pupil center detecting unit which detects circular information from the pupil candidate region and performs ellipse fitting of the detected circular information to detect the pupil center information,
Wherein the gaze tracking device further comprises:
상기 동공 중심 검출부는,
상기 동공 후보 영역에서 원 검출 방식을 적용하여 원의 중심과 외곽선 영역을 판별하는 원형 검출부;
상기 원의 외곽선 영역에 대하여 복수의 점을 선정하는 위치 선정부;
상기 선정된 복수의 점과 상기 원의 중심을 연결한 직선 상에서 밝기 값에 대한 미분 값이 가장 큰 위치로 상기 선정된 복수의 점을 이동시키는 위치 이동부;
상기 이동된 복수의 점에 대하여 상기 미분 값의 크기에 따라 가중치를 부여하는 가중치 부여부; 및
상기 가중치가 부여된 복수의 점을 이용하여 타원 피팅을 수행하여 상기 동공 중심 정보를 검출하는 타원 피팅부
를 포함하는 시선 추적 장치.15. The method of claim 14,
The pupil center detecting unit,
A circular detection unit for determining a center of the circle and an outline region by applying a circle detection method in the pupil candidate region;
A position selection unit for selecting a plurality of points with respect to the circle outline area;
A position shifting unit for shifting the selected plurality of points to a position where a derivative with respect to a brightness value is largest on a straight line connecting the selected plurality of points and the center of the circle;
A weighting unit for weighting the moved plurality of points according to the magnitude of the differential value; And
An elliptical fitting unit for performing elliptical fitting using the plurality of weighted points and detecting the pupil center information,
Wherein the gaze tracking device comprises:
상기 영상 획득부는,
상기 사용자의 3차원 위치를 기반으로 하여 상기 협각 카메라가 상기 사용자를 촬영하기 위한 팬 각도 및 틸트 각도를 계산하는 시선 추적 장치.6. The method of claim 5,
The image acquiring unit may acquire,
Wherein the coarse angle camera calculates a pan angle and a tilt angle for capturing the user based on the three-dimensional position of the user.
상기 영상 획득부는,
상기 팬 각도 및 상기 틸트 각도에 대응하는 가상 이미지의 2차원 좌표를 추정하는 제1 추정부;
상기 3차원 위치의 3차원 좌표와 상기 2차원 좌표의 상대적 위치 관계를 참조하여, 상기 3차원 좌표가 상기 가상 이미지 상에 투영되는 가상 좌표를 추정하는 제2 추정부; 및
상기 가상 좌표를 기반으로 상기 팬 각도 및 상기 틸트 각도를 추정하는 제3 추정부
를 포함하는 시선 추적 장치.17. The method of claim 16,
The image acquiring unit may acquire,
A first estimator for estimating a two-dimensional coordinate of a virtual image corresponding to the pan angle and the tilt angle;
A second estimator estimating a virtual coordinate in which the three-dimensional coordinate is projected on the virtual image, with reference to a relative positional relationship between the three-dimensional coordinate of the three-dimensional position and the two-dimensional coordinate; And
A third estimating unit estimating the pan angle and the tilt angle based on the virtual coordinates,
Wherein the gaze tracking device comprises:
상기 사용자의 눈동자 흔들림에 의한 상기 시선 위치 정보의 오차를 보정하는 영상 보정부
를 더 포함하는 시선 추적 장치.6. The method of claim 5,
An image correcting unit for correcting an error of the gaze position information due to a pupil of the user's eyes,
Wherein the gaze tracking device further comprises:
상기 영상 보정부는,
하기 수학식 2를 이용하여 상기 시선 위치 정보를 보정하는 시선 추적 장치.
[수학식 2]
(여기서, 상기 v’(t)는 상기 보정된 시선 위치 정보, 상기 v(t)는 현재 영상에서 검출한 시선 추적 위치, 상기 v'(t-1)는 이전 영상에서 보정된 시선 추적 위치, 상기 W는 현재 시선 위치와 이전 시선 위치간의 거리 차이에 대한 경계값에 대응 됨.)19. The method of claim 18,
Wherein the image correction unit comprises:
Wherein the line-of-sight position information is corrected using the following equation (2).
&Quot; (2) "
Where v '(t) is the corrected gaze position information, v (t) is a gaze tracking position detected in the current image, v' (t-1) is a gaze tracking position corrected in the previous image, W corresponds to the boundary value for the difference in distance between the current visual position and the previous visual position).
상기 시선 위치 계산부는,
상기 사용자의 움직임에 따라 시선 위치를 보정하는 전방향 움직임 보정 모델을 통하여 상기 시선 위치 정보를 계산하는 시선 추적 장치.6. The method of claim 5,
The line-of-
And calculates the gaze position information through a forward motion compensation model that corrects the gaze position according to the movement of the user.
상기 둘 이상의 광각 카메라를 통하여 영상 정보를 입력 받는 단계;
상기 영상 정보에 대하여 눈 위치 정보를 검출하는 단계;
상기 눈 위치 정보 및 상기 사용자 위치 정보를 기반으로 상기 협각 카메라에 대한 팬(pan), 틸트(tilt), 및 포커스(focus) 동작을 수행하여 눈 영상을 획득하는 단계;
상기 눈 영상으로부터 동공 중심에 대한 동공 중심 정보를 검출하는 단계;
상기 사용자의 눈에 반사된 각막 반사광에 대한 각막 반사광 정보를 검출하는 단계; 및
상기 동공 중심 정보 및 상기 각막 반사광 정보로부터 시선 위치 정보를 계산하는 단계
를 포함하고,
상기 시선 위치 정보를 계산하는 단계는,
상기 사용자가 둘 이상의 광각 카메라 간의 캘리브레이션을 수행한 위치에서 이동한 경우, 상기 사용자 위치 정보를 전방향 움직임 보정 모델에 적용하여 보정하는 단계;
상기 보정된 사용자 위치 정보를 이용하여 상기 시선 위치 정보를 계산하는 단계
를 포함하는 시선 추적 방법.Performing calibration between two or more wide-angle cameras, a coarse-angle camera, and a video playback device to calculate user location information for a user;
Receiving image information through the at least two wide angle cameras;
Detecting eye position information on the image information;
Performing pan, tilt, and focus operations on the coarse camera based on the eye position information and the user position information to obtain an eye image;
Detecting pupil center information on the pupil center from the eye image;
Detecting corneal reflection information on corneal reflected light reflected by the eye of the user; And
Calculating gaze position information from the pupil center information and the corneal reflected light information
Lt; / RTI >
Wherein the step of calculating the gaze position information comprises:
Applying the user position information to the forward motion compensation model when the user moves from a position at which the user performs calibration between two or more wide angle cameras;
Calculating the gaze position information using the corrected user position information
/ RTI >
상기 사용자 위치 정보를 계산하는 단계는,
상기 둘 이상의 광각 카메라 간의 캘리브레이션(calibration)을 수행하는 단계;
상기 둘 이상의 광각 카메라와 협각 카메라 간의 캘리브레이션을 수행하는 단계;
상기 협각 카메라와 영상 재생 장치 간의 캘리브레이션을 수행하는 단계
를 포함하는 시선 추적 방법.22. The method of claim 21,
Wherein the calculating the user location information comprises:
Performing a calibration between the at least two wide-angle cameras;
Performing calibration between the at least two wide-angle cameras and the narrow-angle cameras;
Performing a calibration between the coarse camera and the image reproducing device
/ RTI >
상기 동공 중심 정보를 검출하는 단계는,
상기 둘 이상의 영상 정보에 대하여 얼굴 영역 및 눈 영역을 검출하는 단계
를 포함하는 시선 추적 방법.22. The method of claim 21,
Wherein the step of detecting the pupil center information comprises:
Detecting a face region and an eye region with respect to the at least two pieces of image information;
/ RTI >
상기 둘 이상의 광각 카메라를 이용하여 사용자에 대한 사용자 위치 정보를 계산하는 단계;
협각 카메라를 이용하여 상기 사용자 위치 정보 및 눈 영역 검출 정보를 이용하여 팬(pan), 틸트(tilt), 및 포커스(focus) 동작을 수행하는 단계;
상기 협각 카메라의 동작을 통하여 눈 영상을 획득하는 단계;
상기 눈 영상으로부터 동공 중심 정보 및 각막 반사광 정보를 검출하는 단계; 및
상기 동공 중심 정보 및 상기 각막 반사광 정보로부터 시선 위치 정보를 계산하는 단계
를 포함하고,
상기 눈 영상을 획득하는 단계는,
상기 입력된 영상 정보의 해상도를 조정하는 단계;
상기 조정된 영상 정보의 반사광을 제거하는 단계; 및
상기 반사광이 제거된 영상 정보에 기설정된 필터를 적용하여 동공 후보 영역을 검출하는 단계
를 포함하는 시선 추적 방법.Receiving image information through two or more wide angle cameras;
Calculating user location information for a user using the at least two wide angle cameras;
Performing pan, tilt, and focus operations using the user location information and eye area detection information using a coarse camera;
Acquiring an eye image through operation of the narrow-angle camera;
Detecting pupil center information and corneal reflection information from the eye image; And
Calculating gaze position information from the pupil center information and the corneal reflected light information
Lt; / RTI >
Wherein the acquiring of the eye image comprises:
Adjusting a resolution of the input image information;
Removing reflected light of the adjusted image information; And
Detecting a pupil candidate region by applying a predetermined filter to the image information from which the reflected light is removed
/ RTI >
상기 각각의 광각 카메라 간의 캘리브레이션(calibration) 을 수행하는 단계
를 더 포함하는 시선 추적 방법.26. The method of claim 25,
Performing a calibration between each of the wide-angle cameras
Wherein the gaze tracking method further comprises:
스테레오 캘리브레이션 방식을 이용하여 하나의 광각 카메라를 기준으로 다른 카메라의 위치 및 회전 정도를 추정하는 단계
를 더 포함하는 시선 추적 방법.27. The method of claim 26,
A step of estimating the position and degree of rotation of another camera based on one wide-angle camera using a stereo calibration method
Wherein the gaze tracking method further comprises:
상기 둘 이상의 광각 카메라와 상기 협각 카메라 간의 캘리브레이션을 수행하는 단계
를 더 포함하는 시선 추적 방법.26. The method of claim 25,
Performing calibration between the at least two wide angle cameras and the narrow angle camera
Wherein the gaze tracking method further comprises:
상기 협각 카메라와 영상 재생 장치 간의 캘리브레이션을 수행하는 단계
를 더 포함하는 시선 추적 방법.26. The method of claim 25,
Performing a calibration between the coarse camera and the image reproducing device
Wherein the gaze tracking method further comprises:
상기 협각 카메라가 이동하는 팬 축 및 틸트 축의 중심을 기준으로 상기 영상 재생 장치의 실제 위치와의 차이를 추정하는 단계
를 더 포함하는 시선 추적 방법.30. The method of claim 29,
Estimating a difference between the center of the fan axis and the tilt axis on which the narrow angle camera moves and the actual position of the image reproducing apparatus
Wherein the gaze tracking method further comprises:
상기 동공 후보 영역을 검출하는 단계는,
하기 수학식 3의 필터 알고리즘을 상기 반사광이 제거된 영상 정보에 적용하여 상기 동공 후보 영역을 검출하는 시선 추적 방법.
[수학식 3]
(여기서, 상기 I는 영상의 밝기값(intensity), 상기 O(c)는 c위치에서의 수식 결과값, 상기 c는 필터의 중심 위치, 상기 bi는 필터의 주변부 위치, 상기 d는 노이즈 제거를 위한 변수에 대응 됨.)26. The method of claim 25,
Wherein the step of detecting the pupil candidate region comprises:
Wherein the pupil candidate region is detected by applying the filter algorithm of Equation (3) to the image information from which the reflected light is removed.
&Quot; (3) "
Where c is the center position of the filter, bi is the position of the periphery of the filter, d is the noise removal, Corresponds to the variable for.
상기 눈 영상을 획득하는 단계는,
상기 동공 후보 영역에서 서로 다른 크기의 두 개의 영역을 선택하는 단계;
상기 두 개의 영역에 대한 각각의 임계치 값을 검출하는 단계; 및
상기 검출된 두 개의 임계치 값을 비교하여 동일한 경우, 상기 눈 영상에 눈꺼풀 영상이 없는 것으로 판단하는 단계
를 더 포함하는 시선 추적 방법.26. The method of claim 25,
Wherein the acquiring of the eye image comprises:
Selecting two regions of different sizes in the pupil candidate region;
Detecting respective threshold values for the two regions; And
Comparing the detected two threshold values to determine that there is no eyelid image in the eye image
Wherein the gaze tracking method further comprises:
상기 눈 영상을 획득하는 단계는,
상기 동공 후보 영역으로부터 원형 정보를 검출하는 단계; 및
상기 검출된 원형 정보를 타원 피팅(Ellipse fitting)을 수행하여 상기 동공 중심 정보를 검출하는 단계
를 더 포함하는 시선 추적 방법.26. The method of claim 25,
Wherein the acquiring of the eye image comprises:
Detecting circular information from the pupil candidate region; And
Detecting the pupil center information by performing ellipse fitting of the detected circular information;
Wherein the gaze tracking method further comprises:
상기 눈 영상을 획득하는 단계는,
상기 동공 후보 영역에서 원 검출 방식을 적용하여 원의 중심과 외곽선 영역을 판별하는 단계;
상기 원의 외곽선 영역에 대하여 복수의 점을 선정하는 단계;
상기 선정된 복수의 점과 상기 원의 중심을 연결한 직선 상에서 밝기 값에 대한 미분 값이 가장 큰 위치로 상기 선정된 복수의 점을 이동시키는 단계;
상기 이동된 복수의 점에 대하여 상기 미분 값의 크기에 따라 가중치를 부여하는 단계; 및
상기 가중치가 부여된 복수의 점을 이용하여 타원 피팅을 수행하여 상기 동공 중심 정보를 검출하는 단계
를 더 포함하는 시선 추적 방법.35. The method of claim 34,
Wherein the acquiring of the eye image comprises:
Identifying a center and an outline region of a circle by applying a circle detection method in the pupil candidate region;
Selecting a plurality of points for the outline area of the circle;
Moving the selected plurality of points to a position having a largest differential value with respect to a brightness value on a straight line connecting the selected plurality of points and the center of the circle;
Assigning weights to the shifted points according to the magnitude of the differential value; And
Performing elliptical fitting using the plurality of weighted points to detect the pupil center information
Wherein the gaze tracking method further comprises:
상기 사용자의 3차원 위치를 기반으로 하여 상기 협각 카메라가 상기 사용자를 촬영하기 위한 팬 각도 및 틸트 각도를 계산하는 단계
를 더 포함하는 시선 추적 방법.26. The method of claim 25,
Calculating a pan angle and a tilt angle for photographing the user based on the three-dimensional position of the user;
Wherein the gaze tracking method further comprises:
상기 팬 각도 및 상기 틸트 각도에 대응하는 가상 이미지의 2차원 좌표를 추정하는 단계;
상기 3차원 위치의 3차원 좌표와 상기 2차원 좌표의 상대적 위치 관계를 참조하여, 상기 3차원 좌표가 상기 가상 이미지 상에 투영되는 가상 좌표를 추정하는 단계; 및
상기 가상 좌표를 기반으로 상기 팬 각도 및 상기 틸트 각도를 추정하는 단계
를 더 포함하는 시선 추적 방법.37. The method of claim 36,
Estimating two-dimensional coordinates of a virtual image corresponding to the pan angle and the tilt angle;
Estimating a virtual coordinate in which the three-dimensional coordinate is projected on the virtual image with reference to a relative positional relationship between the three-dimensional coordinate of the three-dimensional position and the two-dimensional coordinate; And
Estimating the pan angle and the tilt angle based on the virtual coordinates
Wherein the gaze tracking method further comprises:
상기 사용자의 눈동자 흔들림에 의한 상기 시선 위치 정보의 오차를 보정하는 단계
를 더 포함하는 시선 추적 방법.26. The method of claim 25,
Correcting an error of the line-of-sight position information due to the pupil fluctuation of the user
Wherein the gaze tracking method further comprises:
상기 상기 시선 위치 정보의 오차를 보정하는 단계는,
하기 수학식 4를 이용하여 상기 시선 위치 정보를 보정하는 시선 추적 방법.
[수학식 4]
(여기서, 상기 v’(t)는 상기 보정된 시선 위치 정보, 상기 v(t)는 현재 영상에서 검출한 시선 추적 위치, 상기 v'(t-1)는 이전 영상에서 보정된 시선 추적 위치, 상기 W는 현재 시선 위치와 이전 시선 위치간의 거리 차이에 대한 경계값에 대응 됨.)39. The method of claim 38,
Wherein the step of correcting the error of the gaze position information comprises:
Wherein the gaze position information is corrected using the following equation (4).
&Quot; (4) "
Where v '(t) is the corrected gaze position information, v (t) is a gaze tracking position detected in the current image, v' (t-1) is a gaze tracking position corrected in the previous image, W corresponds to the boundary value for the difference in distance between the current visual position and the previous visual position).
상기 사용자의 움직임에 따라 시선 위치를 보정하는 전방향 움직임 보정 모델을 통하여 상기 시선 위치 정보를 계산하는 단계
를 더 포함하는 시선 추적 방법.
26. The method of claim 25,
Calculating the gaze position information through a forward motion compensation model that corrects the gaze position in accordance with the movement of the user
Wherein the gaze tracking method further comprises:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/049,673 US9426447B2 (en) | 2012-10-09 | 2013-10-09 | Apparatus and method for eye tracking |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20120111702 | 2012-10-09 | ||
KR1020120111702 | 2012-10-09 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20140045873A KR20140045873A (en) | 2014-04-17 |
KR101769177B1 true KR101769177B1 (en) | 2017-08-18 |
Family
ID=50653136
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020130094997A KR101769177B1 (en) | 2012-10-09 | 2013-08-09 | Apparatus and method for eye tracking |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101769177B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20200118524A (en) | 2019-04-08 | 2020-10-16 | 유홍준 | Image Processing System and Method Based on Active Motion Recognition Tracking |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016017945A1 (en) * | 2014-07-29 | 2016-02-04 | Samsung Electronics Co., Ltd. | Mobile device and method of pairing the same with electronic device |
KR101610496B1 (en) | 2014-08-26 | 2016-04-07 | 현대자동차주식회사 | Method and apparatus for gaze tracking |
KR102348366B1 (en) * | 2015-01-12 | 2022-01-10 | 삼성전자주식회사 | Electronic device and method for determining central of an eye in electronic device |
KR101653281B1 (en) * | 2015-01-22 | 2016-09-01 | 한국과학기술연구원 | Apparatus and method for estimation of user location over a configurable sensor network |
KR102526544B1 (en) * | 2016-01-29 | 2023-04-27 | 한국전자통신연구원 | Apparatus and method for eye tracking based on multi array |
SE541262C2 (en) * | 2016-11-15 | 2019-05-21 | Heads Stockholm Ab | Method and device for eye metric acquisition |
KR101901236B1 (en) * | 2016-11-29 | 2018-09-28 | 경북대학교 산학협력단 | Method and apparatus for correcting stereo camera |
KR101894496B1 (en) * | 2016-12-30 | 2018-09-04 | 주식회사 펀진 | Information providing apparatus having a viewpoint tracking function |
JP2022096819A (en) * | 2020-12-18 | 2022-06-30 | キヤノン株式会社 | Sight line detection device |
KR20230101580A (en) * | 2021-12-29 | 2023-07-06 | 삼성전자주식회사 | Eye tracking method, apparatus and sensor for determining sensing coverage based on eye model |
CN116228748B (en) * | 2023-05-04 | 2023-07-14 | 天津志听医疗科技有限公司 | Balance function analysis method and system based on eye movement tracking |
-
2013
- 2013-08-09 KR KR1020130094997A patent/KR101769177B1/en active IP Right Grant
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20200118524A (en) | 2019-04-08 | 2020-10-16 | 유홍준 | Image Processing System and Method Based on Active Motion Recognition Tracking |
Also Published As
Publication number | Publication date |
---|---|
KR20140045873A (en) | 2014-04-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101769177B1 (en) | Apparatus and method for eye tracking | |
US9426447B2 (en) | Apparatus and method for eye tracking | |
CN108958473B (en) | Eyeball tracking method, electronic device and non-transitory computer readable recording medium | |
US10943409B2 (en) | Information processing apparatus, information processing method, and program for correcting display information drawn in a plurality of buffers | |
KR102212209B1 (en) | Method, apparatus and computer readable recording medium for eye gaze tracking | |
US9172931B2 (en) | Projection display device, information processing device, projection display system, and program | |
CN107004275B (en) | Method and system for determining spatial coordinates of a 3D reconstruction of at least a part of a physical object | |
US20180101984A1 (en) | Headset removal in virtual, augmented, and mixed reality using an eye gaze database | |
KR20170031733A (en) | Technologies for adjusting a perspective of a captured image for display | |
US12056274B2 (en) | Eye tracking device and a method thereof | |
JP2016173313A (en) | Visual line direction estimation system, visual line direction estimation method and visual line direction estimation program | |
KR20080047392A (en) | Method and circuit arrangement for recognising and tracking eyes of several observers in real time | |
JP2013042411A (en) | Image processing apparatus, projector and projector system comprising the image processing apparatus, image processing method, program thereof, and recording medium having the program recorded thereon | |
US10630890B2 (en) | Three-dimensional measurement method and three-dimensional measurement device using the same | |
KR20160094190A (en) | Apparatus and method for tracking an eye-gaze | |
JP2018113021A (en) | Information processing apparatus and method for controlling the same, and program | |
CN110895433B (en) | Method and apparatus for user interaction in augmented reality | |
CN117073988B (en) | System and method for measuring distance of head-up display virtual image and electronic equipment | |
WO2015198592A1 (en) | Information processing device, information processing method, and information processing program | |
US8983125B2 (en) | Three-dimensional image processing device and three dimensional image processing method | |
KR101828710B1 (en) | Apparatus and method for object occlusion detection | |
KR20150040194A (en) | Apparatus and method for displaying hologram using pupil track based on hybrid camera | |
Li et al. | Two-phase approach—Calibration and iris contour estimation—For gaze tracking of head-mounted eye camera | |
CN112528714B (en) | Single-light-source-based gaze point estimation method, system, processor and equipment | |
WO2022084803A1 (en) | Automated calibration method of a system comprising an external eye tracking device and a computing device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |