KR20000056563A - gaze detection system - Google Patents

gaze detection system Download PDF

Info

Publication number
KR20000056563A
KR20000056563A KR1019990005980A KR19990005980A KR20000056563A KR 20000056563 A KR20000056563 A KR 20000056563A KR 1019990005980 A KR1019990005980 A KR 1019990005980A KR 19990005980 A KR19990005980 A KR 19990005980A KR 20000056563 A KR20000056563 A KR 20000056563A
Authority
KR
South Korea
Prior art keywords
feature
gaze
user
face
gaze position
Prior art date
Application number
KR1019990005980A
Other languages
Korean (ko)
Other versions
KR100325365B1 (en
Inventor
김재희
Original Assignee
김재희
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 김재희 filed Critical 김재희
Priority to KR1019990005980A priority Critical patent/KR100325365B1/en
Publication of KR20000056563A publication Critical patent/KR20000056563A/en
Application granted granted Critical
Publication of KR100325365B1 publication Critical patent/KR100325365B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction

Abstract

PURPOSE: A detection system for gaze position is provided to enhance the accuracy of a gaze track by recognizing the face of user to the characteristic surface by the plurality of characteristic point regardless of face movement. CONSTITUTION: A detection system for gaze position is composed of a camera(CAM), an image board, a controller and a computer(COMP). The camera(CAM) obtains a face image of user(U) in predetermined time interval. The image board converts the obtained face image to the digital signal. The controller extracts the plurality of characteristic point and the characteristic surface by the digital signal, forms the characteristic surface by the plurality of characteristic point and detects the gaze position(P) of user(U) by calculating the space movement of characteristic surface according to time. The characteristic surface is composed of two eyes(f1,f2) and the center of lip(f3).

Description

응시위치 추적 시스템{gaze detection system}Gaze detection system

본 발명은 응시위치 추적 시스템(gaze detection system)에 대한 것으로, 특히 얼굴의 움직임의 인식에 의한 응시위치 추적 시스템에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a gaze detection system, and more particularly to a gaze position tracking system by recognition of the movement of a face.

컴퓨터의 GUI화에 따라 터치패드, 라이트펜이나 터치 스크린등 화상 인터페이스가 널리 사용되고 있으며, 특히 마우스는 모든 컴퓨터의 기본 액세서리를 구성하고 있다.According to the computerized GUI, image interfaces such as touch pads, light pens, and touch screens are widely used. In particular, the mouse constitutes a basic accessory of all computers.

그런데 이와 같은 마우스는 제한된 공간상에서 사용자의 한 손의 사용을 요구하여, 워드프로세싱과 같이 두 손으로 자판을 이용해야 하는 작업시에는 매우 불편하고, 그 클릭(click)에 물리력을 요구하므로 웹 서핑(web surfing)등과 장기간 마우스를 연속 사용하는 경우에는 손가락과 손목, 팔꿈치, 어깨등에 통증이유발되며, 심한 경우에는 테니스 엘보우와 유사한 마우스 엘보우등의 신경통 증세가 발생되기도 한다.However, such a mouse requires the use of one hand of a user in a limited space, and is very inconvenient when using a keyboard with two hands such as word processing, and requires physical force for the click. If you use the mouse continuously for a long time, such as web surfing), pain in the fingers, wrists, elbows, shoulders, etc., and in severe cases neuralgia symptoms such as mouse elbows similar to tennis elbows.

이에 따라 마우스등 물리력을 이용하지 않고 사용자의 응시위치로 커서(cursor)를 이동시켜 눈깜빡임등으로 조작하는 응시위치 추적, 또는 시선추적 시스템등이 연구되어 왔다.Accordingly, gaze tracking or gaze tracking systems have been studied in which a cursor is moved to a gaze position of a user without using a physical force such as a mouse and manipulated by blinking eyes.

이와 같은 응시위치 추적시스템으로 현재 개발 및 사용되고 있는 것은 도1과 같은 동공의 움직임을 이용하여 시선을 추적하는 방식의 시스템이다.What is currently being developed and used as such a gaze tracking system is a system of tracking the gaze using the movement of the pupil as shown in FIG.

이 방식은 컴퓨터(C0MP)의 모니터(M)상에 적외선 광원 및 카메라가 포함되는 적외선 검출기(K')를 설치하여, 사용자(U)의 동공에 적외선을 투사한 뒤 그 반사광의 회절상태의 차이에 의해 사용자(U)의 시선(L)을 추적함으로써 관찰면(F)인 모니터(M)상의 응시위치(P)를 검출하게 된다.This method installs an infrared detector K 'including an infrared light source and a camera on a monitor M of a computer C0MP, projects infrared rays into the pupil of the user U, and then the difference in the diffracted state of the reflected light. By tracking the eye L of the user U, the gaze position P on the monitor M, which is the observation surface F, is detected.

이러한 종래의 적외선 방식 시선 추적시스템은 일부 특수한 목적외에는 보편 적인 보급에 실패한 바, 그 이유는 다음과 같다.The conventional infrared-type eye tracking system has failed to be universally distributed except for some special purposes, for the following reasons.

먼저 이 시스템은 사용자(U)의 얼굴 전체에서 눈의 위치를 파악하여 이 눈에 정확히 적외선을 투사한 뒤 그 반사 및 회절광을 검출해야 하므로, 매우 정밀한 기기 구성을 요하여 시스템이 상당한 고가가 된다.First of all, this system needs to know the position of the eyes in the entire face of the user (U), accurately project infrared rays to the eyes, and then detect the reflections and diffracted light. .

다음의 문제로는 이 시스템의 기본적 원리는 사용자(U)가 시선(L), 즉 모니터(M)상의 응시위치(P)를 이동할 때 이전상태로부터 얼굴은 움직이지 않고 동공만을 이동시킨다는 조건을 전제한다. 실제적으로 사용자는 장기간 얼굴을 고정한채 작업을 하는 것이 아니라, 업무나 담화를 위해 계속적으로 얼굴을 움직이게 되므로, 이 시스템은 사용자(U)의 시선(L)을 놓치거나 응시위치(P)의 검출이 불가능한 경우가 빈발하여 오류율이 높다.The next problem is that the basic principle of this system is based on the condition that when the user U moves the gaze L, that is, the gaze position P on the monitor M, his face is not moved from the previous state but only the pupil. do. In reality, the user does not work with the face fixed for a long time, but moves the face continuously for work or conversation, so the system misses the user's gaze (L) or detects the gaze position (P). Impossible cases are frequent and error rates are high.

뿐만아니라 적외선은 열선(熱線)이므로 특히 사용자(U)의 동공에 유해하며, 이에 따라 검출광의 강도를 높일 수 없어 인식률은 더욱 저하되고, 그럼에도 불구하고 컴퓨터를 연속적으로 사용하는 경우에는 사용자(U)의 눈에 피로를 야기하고, 장기적으로는 안암이나 녹내장등의 안구질환을 야기할 위험성이 다분하다.In addition, infrared rays are harmful to the pupils of the user U because the infrared rays are hot wires. Therefore, the recognition rate is further lowered because the intensity of the detection light cannot be increased. The risk of eye fatigue and eye diseases such as glaucoma and glaucoma in the long run is many.

또한 이 시선추적 시스템은 양 눈의 시선(L) 방향이 일치해야 정확한 응시위치(P)의 추적이 가능한데, 사시가 아니라도 일반적인 사용자(U)의 양 눈의 광축은 정확히 일치하지 않는 문제가 있다.In addition, this eye tracking system can track the gaze position (P) precisely when the eyes (L) direction of both eyes match, but there is a problem that the optical axis of both eyes of the general user (U) does not exactly coincide even if not eyesight. .

설사 종래의 동공 추적 시스템이 이상의 문제를 모두 해결할 수 있다고 하더라도, 이에는 공간 위상학적으로 결정적인 문제점이 잔류한다.Even if a conventional pupil tracking system can solve all of the above problems, there remains a spatial topologically crucial problem.

즉 동공 추적 시스템은 안구 전면의 동공에서 반사된 광과 안구 배면의 망막에서 반사된 광을 각각 검출하여 그 사이의 미세한 광차(光差)로서 동공의 시선(L)을 산출해내게 되므로, 그 검출오차는 상당히 클 수 밖에 없다.In other words, the pupil tracking system detects the light reflected from the pupil in front of the eyeball and the light reflected from the retina of the back of the eyeball, and calculates the pupil's line of sight L as a fine light difference therebetween. The error is bound to be quite large.

더구나 이와 같이 산출된 시선(L)을 모니터(M)까지 연장하여 응시위치(P)를 연산해내게 되므로 그 오차는 증폭될 수 밖에 없다. 예를 들어 사용자(U)의 안구의 깊이가 3cm이고, 모니터(M)와 동공간의 거리가 45cm라면, 3cm 길이의 공간벡터를 45cm 연장하여 응시위치(P)를 산출해 내는 것이므로, 지레 효과에 의해 그 오차는 (3+45)/3배, 즉 16배로 증폭될 수 밖에 없어 시스템의 신뢰도를 더욱 저하시키게 된다.Moreover, since the gaze L calculated in this way is extended to the monitor M to calculate the gaze position P, the error is inevitably amplified. For example, if the depth of the eyeball of the user U is 3cm and the distance between the monitor M and the space is 45cm, the gaze effect is calculated by extending the space vector 3cm in length by 45cm. This error can be amplified by (3 + 45) / 3 times, that is, 16 times, further lowering the reliability of the system.

이와 같은 종래의 문제점을 감안하여 본 발명의 목적은 유해하고 고가인 적외선 검출기를 사용하지 않으면서 얼굴의 움직임과 무관하게 정확한 응시위치의 추적이 가능할 뿐아니라 구성상 내재적 오차도 현저히 작은 고효율의 응시위치 추적 시스템을 일반적 사용이 가능할 정도의 저렴한 원가로 제공하는 것이다.In view of such a conventional problem, an object of the present invention is to enable accurate tracking of the gaze position irrespective of the movement of the face without using a harmful and expensive infrared detector, as well as a highly efficient gaze position with a significantly lower inherent error in configuration. It provides a tracking system at a cost low enough for general use.

도 1은 종래의 시선 추적 시스템을 보이는 개략 사시도,1 is a schematic perspective view showing a conventional eye tracking system;

도 2는 본 발명 시스템의 기구적 구성을 보이는 블록도,2 is a block diagram showing the mechanical configuration of the system of the present invention;

도 3(A) 내지 (E)는 본 발명 시스템의 특징점 추출과정을 보이는 순차적 도면들,3 (A) to (E) is a sequential view showing a feature point extraction process of the system of the present invention,

도 4(A) 내지 (C)는 본 발명의 원리, 즉 특징점에 의한 특징면과 시선간의 관계를 보이는 순차적 도면들,4 (A) to (C) are sequential drawings showing the relationship between the feature plane and the line of sight by the principle of the present invention, that is, the feature point,

도 5(A) 내지 (C)는 특징면의 병진과 회전을 설명하는 도면들,5 (A)-(C) are diagrams illustrating translation and rotation of a feature surface,

도 6은 본 발명에 의한 응시 위치 추적 시스템의 개략 사시도,6 is a schematic perspective view of a staring position tracking system according to the present invention;

도 7(A) 및 (B)는 도 6의 시스템의 작용 원리를 보이는 블록도,7 (A) and (B) are block diagrams showing the principle of operation of the system of FIG. 6;

도 8은 양안 카메라에 의한 시스템을 보이는 개략도,8 is a schematic view showing a system with a binocular camera,

도 9(A) 내지 (E)는 눈 깜빡임에 의한 조작을 위한 눈의 개폐상태 인식과정을 나타내는 순차적 도면들이다.9 (A) to (E) are sequential diagrams illustrating a process of recognizing an open / closed state of an eye for manipulation by blinking eyes.

* 도면의 주요부분에 대한 부호의 설명 *Explanation of symbols on the main parts of the drawings

U:사용자 F:관찰면U: User F: Observation Surface

P:(관찰면상의) 응시위치 1:특징면P: Staring position 1: On the observation surface

f1∼f7:특징점 f1,f2:양 눈을 나타내는 특징점f1 to f7: feature points f1, f2: feature points representing both eyes

f3:입의 중심을 나타내는 특징점f3: feature point representing the center of the mouth

f4,f5:입의 양 끝점을 나타내는 특징점f4, f5: feature points representing both ends of the mouth

f6,f7:코(양 콧구멍)를 나타내는 특징점f6, f7: feature points representing the nose (both nostrils)

상술한 목적의 달성을 위해 본 발명에 의한 응시위치 추적시스템은Stare position tracking system according to the present invention for achieving the above object is

사용자의 얼굴 영상을 디지탈 영상신호로 취득하는 얼굴영상 취득수단과,Face image acquisition means for acquiring a face image of the user as a digital image signal;

취득된 디지털 영상신호로부터 얼굴의 특징점을 복수로 추출하여, 복수의 특징점으로부터 특징면을 형성하고, 이 특징면의 공간상의 시간적 이동을 연산하여 관찰면상의 응시위치를 산출하는 제어부를 구비하는 것을 특징으로 한다.And a control unit for extracting a plurality of feature points of the face from the acquired digital video signal to form a feature surface from the plurality of feature points, and calculating the gaze position on the observation plane by calculating the temporal movement of the feature surface. It is done.

이러한 구성에 의하면 번잡한 적외선 검출없이 얼굴의 영상만으로 응시위치를 추적할 수 있게 되며, 얼굴의 상대적 위치에 의해 응시위치를 추적하게 되므로 내재적 오차가 작은 응시위치 추적시스템을 저렴하게 구성할 수 있게 된다.According to this configuration, the gaze position can be tracked only by the image of the face without troublesome infrared detection, and since the gaze position is tracked by the relative position of the face, the gaze position tracking system having a small intrinsic error can be inexpensively configured. .

그 결과 본 발명은 종래의 마우스를 대체하거나 보완하는 GUI 시스템으로 일반적인 보급이 가능하게 되며, 종래의 적외선 추적 시스템을 대체하거나 보완하여 공정제어등 특수한 목적에도 사용될 수 있는 효과가 있다.As a result, the present invention can be widely used as a GUI system that replaces or supplements the conventional mouse, and can be used for special purposes such as process control by replacing or supplementing the conventional infrared tracking system.

실시예Example

이와 같은 본 발명의 구체적 특징과 이점들은 첨부된 도면을 참조한 이하의 바람직한 실시예의 설명으로 더욱 명확해질 것이다.Such specific features and advantages of the present invention will become more apparent from the following description of the preferred embodiments with reference to the accompanying drawings.

도 2에서, 본 발명 시스템은 사용자(U)의 얼굴 영상을 취득하는 카메라(CAM)와, 취득된 영상을 디지털신호로 변환하는 영상 보드(IMG), 그리고 이 디지탈신호로 특징점 및 특징면을 추출하여 사용자(U)의 응시위치(P)를 검출하는 제어부(CTR), 그리고 제어부(CTR)에서 검출된 응시위치(P) 정보를 이용하는 제어기기(A)를 구비한다.2, the system of the present invention extracts a feature point and a feature plane from a camera CAM for acquiring a face image of the user U, an image board IMG for converting the acquired image into a digital signal, and this digital signal. The control unit CTR detects the gaze position P of the user U, and the controller A uses the gaze position P information detected by the control unit CTR.

이 실시예에서 얼굴 영상취득수단은 아날로그(analog) 카메라를 전제하여 카메라(CAM) 및 영상 보드(IMG)로 구성되나 디지탈 카메라의 경우는 그 출력신호가 디지탈 영상신호이므로 별도의 영상보드(IMG)는 불필요하게 된다.In this embodiment, the face image acquisition means is composed of a camera (CAM) and an image board (IMG) on the assumption of an analog camera, but in the case of a digital camera, the output signal is a digital image signal, so a separate image board (IMG) is used. Becomes unnecessary.

한편 제어기기(A)는 컴퓨터(COMP) 및 그 모니터(M)로 도시되어 있으나, 필요에 따라서는 제조설비나 의료설비등의 관제장치로 구성될 수 있으며, 마우스등 GUI 인터페이스가 사용될 수 있는 모든 기기를 포함한다. 컴퓨터(COMP)의 경우 응시위치(P)가 추적될 관찰면(F)은 모니터(M)의 전면이 된다.On the other hand, the control unit (A) is shown as a computer (COMP) and its monitor (M), but if necessary, it can be configured as a control device such as manufacturing facilities or medical facilities, all the GUI interface, such as a mouse can be used It includes a device. In the case of the computer COMP, the observation plane F at which the gaze position P is to be traced is the front of the monitor M. FIG.

이상의 설명에 있어서, 카메라(CAM)는 일반적인 캠코더나 컴퓨터(COMP)에 사용되는 영상취득용 카메라로 충분하고, 영상보드(IMG) 역시 일반적인In the above description, the camera CAM is sufficient for an image acquisition camera used in a general camcorder or computer COMP, and the image board IMG is also common.

영상캡처(capture) 보드로 충분하며 최근의 멀티미디어용 컴퓨터는 디지탈 카메라를 부착하여 출하되는 동향이므로, 이하의 설명은 주로 제어부(CTR)의 설명에 집중하기로 한다.Since a video capture board is sufficient and the recent multimedia computers are shipped with a digital camera attached, the following description will mainly focus on the description of the control unit (CTR).

도 3에는 먼저 취득한 얼굴영상으로부터 특징점을 추출하는 과정이 설명되어 있다.3, a process of extracting feature points from a face image acquired first is described.

도 3(A)에서 카메라(CAM) 및 영상 보드(IMG)를 통해 사용자의 얼굴 영상이 소정의 시간간격(t1,t2,t3...)으로 연속적으로 취득되는데, 취득된 영상에는 배경이 포함되어 있으므로 도 3(B)에서 살색 영역만을 추출하여 배경을 제거하고 얼굴영상만을 추출하게 된다. 이 과정은 일반적 색신호 방식인 YIQ 신호에 있어서 살색에 해당하는 I 신호만을 필터링(filtering)해내는 것으로 디지탈 인식기술의 기본이므로 구체적 설명은 불필요할 것이다.In FIG. 3A, a user's face image is continuously acquired at a predetermined time interval (t1, t2, t3 ...) through a camera CAM and an image board IMG, and the acquired image includes a background. As shown in FIG. 3 (B), only the skin color region is extracted to remove the background and only the face image is extracted. This process filters only the I signal corresponding to the skin color in the YIQ signal, which is a general color signal method, and thus the detailed description will be unnecessary.

여기서 배경에 살색물체가 있는 경우에는 이것이 얼굴영상이므로 오인될 우려가 있으므로, 바람직하기로는 이전 시간간격(t1)과 현재시간간격(t2)의 차영상을 추출(도 3(C))하여 양자를 AND 조합함으로써 도 3(D)와 같이 얼굴영역을 추출하게 된다.If there is a flesh object in the background, since it is a face image, it may be mistaken. Preferably, the difference image of the previous time interval t1 and the current time interval t2 is extracted (FIG. 3 (C)). By combining AND, the face region is extracted as shown in FIG.

다음 도 3(E)에서 얼굴영역에 해당하는 신호의 히스토그램(histogram)을 평활화 및 이진화를 통해 분석하여 일정한 레벨(level)을 기준으로 필터링하면 도 3(F)와 같이 얼굴의 특징점이 추출된다. 이상의 기술 역시 알고리듬의 차이는 있으나 디지탈 인식의 기본이므로 구체적 설명은 불필요한 것이며, 특히 본 발명에 적합한 눈,코,입의 순차적 추출에 대해서는 본 발명자의 선출원 특허 98-35438의 해당 부분을 참조할 수 있다.Next, when the histogram of the signal corresponding to the face region is analyzed in FIG. 3E through smoothing and binarization, and filtered based on a predetermined level, the feature points of the face are extracted as shown in FIG. 3F. The above description also differs in algorithm, but since it is the basis of digital recognition, a detailed description is unnecessary. In particular, the sequential extraction of eye, nose, and mouth suitable for the present invention may refer to the corresponding part of the present patent application 98-35438. .

여기서 추출될 수 있는 특징점들은 얼굴의 살색영역과 색상 또는 명도의 차이가 큰 부분들로, 양 눈, 특히 눈동자(f1,f2)와 입의 양 끝점(f4,f5), 그리고 두 콧구멍(f6,f7)이 될 수 있다(도 4(A)참조).The feature points that can be extracted are those where the skin region and the color or brightness of the face are large, both eyes, in particular, the pupils (f1, f2), the mouth end points (f4, f5), and the two nostrils (f6). f7) (see FIG. 4 (A)).

한편 이후의 연속적 추출 과정에 있어서는 도 3(G)와 같이 먼저 추출된 특징점(f1∼f7)들의 주변에 탐색영역(W)을 설정하고, 이 탐색 영역(W)내에서 검색 및 추출을 개시함으로써 더욱 정확하고 신속한 특징점(f1∼f7) 추출이 가능하게 된다.In the subsequent continuous extraction process, as shown in FIG. 3 (G), the search area W is set around the first extracted feature points f1 to f7, and the search and extraction are started in the search area W. FIG. More accurate and faster feature points f1 to f7 can be extracted.

이와 같은 과정에 의해 도 4(A)와 같은 사용자(U)의 얼굴 영상은 도 4(B)와 같은 특징점(f1∼f7)들의 집합으로 표현될 수 있다.By this process, the face image of the user U as shown in FIG. 4A may be represented as a set of feature points f1 to f7 as shown in FIG. 4B.

이때 양 눈(f1,f2)과 입의 양 끝점(f4,f5)간을 연결하면 사다리꼴의 다각형이 형성되는 바, 도 4(C)와 같이 이 특징점(f1∼f7)간을 연결하는 평면이 사용자(U)의 얼굴 영역을 수치적으로 표시하는 특징면(1)을 형성하고, 이At this time, when both eyes f1 and f2 are connected between the end points f4 and f5 of the mouth, a trapezoidal polygon is formed. As shown in FIG. 4C, a plane connecting the feature points f1 to f7 is shown. A feature surface 1 for numerically displaying the face area of the user U is formed, and

특징면(1)에서 양 눈(f1,f2)간의 중심점에서 그은 법선(法線)이 사용자(U)의 시선을 구성하게 된다.The normal drawn at the center point between the two eyes f1 and f2 on the feature surface 1 constitutes the gaze of the user U.

여기서 특징면(1)은 양 눈(f1,f2)과 입 끝점(f4,f5)간의 사다리꼴로 구성될 수도 있으나, 연산의 편의를 위해 입 끝점(f4,f5)간의 중심, 즉 입의 중심을 나타내는 특징점(f3)을 설정하여, 이 입중심(f3)과 양 눈(f1,f2)을 연결하는 삼각형을 특징면(1)으로 인식하는 것이 바람직하다.Here, the feature surface 1 may be configured as a trapezoid between the eyes f1 and f2 and the mouth end points f4 and f5, but for convenience of operation, the center between the mouth end points f4 and f5, that is, the center of the mouth is defined. It is preferable to set the characteristic point f3 which is shown, and to recognize the triangle which connects this center of gravity f3 and both eyes f1 and f2 as the feature surface 1.

한편 추출된 콧구멍(f6,f7)은 특징면(1)의 형성에는 사용되지 않았으나, 도3(G)의 탐색 영역(W)의 설정에 유용하게 사용될 수 있으며 후술하는 바와 같이 동공의 움직임의 인식에도 사용될 수 있다.Meanwhile, the extracted nostrils f6 and f7 have not been used for the formation of the feature surface 1, but may be usefully used for setting the search area W of FIG. 3 (G). It can also be used for recognition.

도 5에는 이러한 특징면(1)을 통해 사용자(U)의 얼굴 및 이에 따른 시선(L)의 움직임을 인식하는 과정을 설명하고 있다.FIG. 5 illustrates a process of recognizing a face of the user U and a movement of the gaze L according to the feature surface 1.

먼저 사용자(U)가 얼굴을 상하 좌우로 이동하는 경우에는 특징면(1)은 그 크기의 변화없이 X,Y축을 따라 병진하게 된다. 이에 따라 그 시선(L)도 X,Y축을 따라 병진하여 관찰면(F)상의 응시위치(P)도 병진하게 된다.First, when the user U moves the face up, down, left, and right, the feature surface 1 translates along the X and Y axes without changing its size. As a result, the line of sight L also translates along the X and Y axes so that the gaze position P on the observation surface F is also translated.

다음 사용자(U)가 얼굴을 좌우로 회전하는 경우에는 특징면(1)은 Y축을 중심으로 회전하게 되며, 이에 따라 시선(L)은 X축 방향을 따라 회전각의 사인값으로 변화된다.Next, when the user U rotates the face from side to side, the feature surface 1 rotates about the Y axis, and thus the line of sight L changes to a sine value of the rotation angle along the X axis direction.

그리고 사용자(U)가 얼굴을 상하로 회전하는 경우에는 특징면(1)이 X축을 중심으로 회전하게 되며, 이에 따라 시선(L)은 Y축 방향을 따라 역시 회전각의 사인값으로 변화된다.When the user U rotates his / her face up and down, the feature surface 1 rotates around the X-axis, whereby the line of sight L is also changed to a sine value of the rotation angle along the Y-axis direction.

그러므로 관찰면(F)상의 커서(응시위치;P)가 소정 위치에 있는 한 시점에서 다음 시점의 특징면(1)의 병진 및 회전을 연산하면 커서가 이동할 X,Y축상의 값이 연산될 수 있게 되어 커서는 다음 응시 위치(P)로 이동할 수 있게 된다.Therefore, by calculating the translation and rotation of the feature surface 1 at the next point in time at which the cursor (stare position P) on the observation plane F is at a predetermined position, the values on the X and Y axes to which the cursor is to be moved can be calculated. The cursor is then able to move to the next gaze position (P).

이는 도 6에 도시된 바와같이, 관찰면(F; 모니터(M)의 전면)상에 카메라(CAM)를 설치, 즉 관찰면(F)과 상대위치를 고정하여 특징면(1)으로 대표되는 사용자(1)의 얼굴의 방향을 인식하여 시선(L)의 방향을 추적하고 이에 관찰면(F)n과 특징면(1)간의 거리를 감안하여 응시위치(P)를 산출하게 되는 것이다.This is represented by the feature surface 1 by installing the camera CAM on the observation surface F (the front of the monitor M), that is, fixing the relative position with the observation surface F, as shown in FIG. The direction of the eye L is tracked by recognizing the direction of the face of the user 1, and the gaze position P is calculated by considering the distance between the observation plane F and the feature plane 1.

여기서 관찰면(F)과 특징면(1)간의 거리, 즉 사용자(U)와 모니터(M)간의 거리는 고정될 수 없으며, 카메라(CAM)로 취득되는 특징면(1)은 Z축 방향의 투영면이 되므로,이로부터 연산되는 특징면(1)의 병진 및 회전은 가상의 기준평면 또는 이전 평면에 대한 상대적 변화만이 감지가 가능하게 된다.Here, the distance between the observation plane F and the feature plane 1, that is, the distance between the user U and the monitor M, cannot be fixed, and the feature plane 1 acquired by the camera CAM is a projection plane in the Z-axis direction. Thus, the translation and rotation of the feature plane 1 calculated therefrom can only detect a relative change relative to the virtual reference plane or the previous plane.

이에 따라 필요한 경우에는 따라 응시위치(P)의 보정(calibration)이 필요하게 되는 바, 도 7(A)에 도시된 바와 같이 사용자(U)가 관찰면(F)의 중심을 향하여 이를 컴퓨터(COMP)에 기준 위치로 인식시키고 나면, 도 7(B)와 같은 사용자(U) 얼굴의 상하 좌우방향(X,Y)의 병진이나 회전은 이 기준위치에 대해 상대적으로 연산되고 그 거리도 기준 위치를 중심으로 연산될 수 있다. 이러한 3차원 운동평가방법은 이외에도 여러 가지 방법이 사용될 수 있다.Accordingly, if necessary, the calibration of the gaze position P is required. As shown in FIG. 7A, the user U faces the center of the viewing surface F and the computer COMP. ), The translation or rotation in the up, down, left, and right directions (X, Y) of the user's (U) face as shown in FIG. 7 (B) is calculated relative to this reference position, and the distance also indicates the reference position. It can be computed centrally. Various methods can be used for the 3D motion evaluation method.

한편 사용자(U)는 모니터(M)등 관찰면(F)에 대해 얼굴을 전후이동(Z축 방향의 병진)하거나 회전시킬 수도 있는 바, 필요에 따라서는 Z축 방향의 연산이나 회전도 특징면(1)의 연산에 포함될 수 있으나, 이는 단순한 기하학적 연산이므로 별다른 복잡성은 야기하지 않는다.On the other hand, the user U may move the face back and forth (translation in the Z-axis direction) or rotate the face with respect to the observation surface F such as the monitor M. If necessary, calculation or rotation in the Z-axis direction may be required. It may be included in the operation of (1), but since it is a simple geometric operation, it does not cause much complexity.

이와 같이 연산된 수치는 사용자(U)가 몸을 움직이지 않고 얼굴만을 이동하여 시선(L)을 변화시키는 경우의 응시위치(P)에 해당한다.The calculated value corresponds to the gaze position P when the user U changes the gaze L by moving only the face without moving the body.

그러나 주지하다시피 사용자(U)별로 컴퓨터를 사용하는 자세는 매우 다양하여 이에 의해 응시위치(P)를 결정하는 것은 오차가 발생되기 쉽다.However, as is well known, the posture of using the computer for each user U is very diverse, whereby it is easy to cause an error in determining the gaze position P.

이에 따라 개인별로 편차가 큰 자세의 차이를 학습하고 이를 기준으로 하여 응시위치(P)를 낮은 오류율로 판단해내기 위해서는 신경망 이론에 기초한 인공지능의 사용이 바람직하다.Accordingly, it is desirable to use artificial intelligence based on neural network theory in order to learn the difference in postures with large deviations for each individual and to determine the gaze position P based on the low error rate.

본 발명은 응시위치(P) 추적 시스템 자체에 대한 것이므로, 이 신경망 이론등의 세부적인 설명은 생략한다.Since the present invention relates to the gaze position (P) tracking system itself, a detailed description of this neural network theory and the like is omitted.

이상의 추적은 단일한 카메라(CAM)을 이용하여 Z축 방향에 의한 특징면(1)의 투영화상의 변화를 연산 및 판단함으로써 응시위치(P)를 추적하는 2차원 방식으로, 그 연산은 어렵지 않으나 2차원 방식이므로 관찰면(F)과 특징면(1)간의 거리 파악에 오류가 포함되기 쉽다.The above tracking is a two-dimensional method of tracking the gaze position P by calculating and determining the change in the projection image of the feature surface 1 in the Z-axis direction using a single camera CAM. Since it is a two-dimensional system, an error is easy to be included in grasping the distance between the observation surface F and the feature surface 1.

이상에 따라 도 8에서는 2개의 카메라(CAM1, CAM2), 즉 양안 카메라에 의해 3차원 추적이 가능한 실시예를 도시하였다. 이러한 3차원 시스템은 관찰면(F)과 특징면(1)간의 거리를 파악할 수 있고, 두 카메라(CAM1,CAM2)에서 인식된 두 특징면을 서로 비교함으로써 입체적인 특징면(1)의 이동 파악이 가능하여 더욱 정확한 시선(L) 및 응시위치(P)의 추적이 가능하게 된다.As described above, FIG. 8 illustrates an embodiment in which three-dimensional tracking is possible by two cameras CAM1 and CAM2, that is, a binocular camera. This three-dimensional system can determine the distance between the observation surface (F) and the feature plane (1), and by comparing the two feature planes recognized by the two cameras (CAM1, CAM2) with each other to determine the movement of the three-dimensional feature surface (1) It is possible to more accurately track the line of sight (L) and gaze position (P).

이상의 설명에 있어서, 특징면(1)은 양 눈(f1,f2)과 입의 중심(f3)간에 설정되는 바,이에 의한 시선(L) 및 응시위치(P)의 파악은 상호간의 상대위치의 변화가 없다는 가정, 이 경우 입은 얼굴에 대해 고정이므로 사용자(U)가 시선(L)을 옮길 때 눈동자를 돌리지 않고 얼굴을 돌린다는 가정이 필요하게 된다.In the above description, the feature surface 1 is set between the two eyes f1 and f2 and the center of the mouth f3, whereby the grasp of the line of sight L and the gaze position P is determined by the relative position of each other. It is assumed that there is no change, in this case, the mouth is fixed to the face so that the user U turns his face without turning his eyes when he moves his gaze (L).

예를들어 사용자(U)가 소정의 응시위치(P)에서 눈동자를 아래로 내리면 특징면(1)의 상단선이 하방으로 이동하므로 제어부(CTR)는 얼굴이 하방으로 회전한 것으로 간주하여 커서를 이동시키게 되므로 커서의 이동방향은 동일하지만 이동량이 달라 커서위치가 정확히 응시위치(P)에 일치되지 않을 우려가 있다.For example, if the user U lowers the pupil at a predetermined gaze position P, the upper line of the feature surface 1 moves downward, so that the controller CTR considers the face rotated downward and moves the cursor. Since the movement direction of the cursor is the same, but the movement amount is different, there is a fear that the cursor position does not exactly match the gaze position P.

이러한 문제는 사용자(U)가 계속 눈동자만을 돌리고 있는 상태를 유지할 수 없어 시간의 경과에 따라 자동적인 보정이 이루어지게 되어 일반적인 경우 별다른 문제가 없으나, 공정의 제어등 긴박하고 정확한 조작이 요구되는 경우에는 문제를 야기할 수도 있다.This problem can not be maintained by the user (U) continues to turn the eyes only, automatic correction is made over time, so there is no problem in the general case, but when urgent and accurate operation such as control of the process is required It may cause problems.

이러한 문제의 해결을 위해서는 종래의 적외선 검출에 의한 동공추적 시스템을 함께 사용하는 방법도 있을 수 있다. 그러나 더욱 바람직하기로는 동공이동의 추적에 콧구멍등의 추가적인 특징점(f6,f7)을 사용할 수 있다.In order to solve this problem, there may be a method using a conventional pupil tracking system by infrared detection. More preferably, however, additional feature points f6 and f7, such as nostrils, can be used to track pupil movement.

즉 입(f3)과 두 콧구멍(f6,f7)간의 상대위치는 변화되지 않으므로, 먼저 두눈(f1,f3)과 입(f3)에 의해 특징면(1)을 구성하여 시선(L)의 방향을 일차적으로 추적한 뒤, 특징면(1)내에서의 입(f3)과 콧구멍(f6,f7)간의 상대적 위치를 확인하여 눈동자의 과도한 움직임 여부를 파악함으로써 응시위치(P)를 보정하는 것이다.That is, since the relative position between the mouth f3 and the two nostrils f6 and f7 does not change, first, the feature surface 1 is formed by the binoculars f1 and f3 and the mouth f3, and the direction of the eye L is determined. First track the position, and then correct the gaze position (P) by checking the relative position between the mouth (f3) and the nostrils (f6, f7) in the feature surface (1) to determine the excessive movement of the pupil .

그러면 본 발명 시스템은 유해하고 고가인 적외선 검출기를 사용하지 않고도동공추적을 병행할 수 있는 시스템을 구현하게 된다.Then, the system of the present invention implements a system that can perform pupil tracking in parallel without using harmful and expensive infrared detectors.

이상을 종합하면 결국 특징면(1)의 상변을 구성하는 특징점은 양 눈(f1,f2)이 되며, 특징면(1)의 하변 또는 하부 꼭지점을 구성하는 특징점은 얼굴에 대해 고정된 입(f3 또는 f4및 f5) 또는 코(f6,f7)중의 어느 하나가 될 수 있고, 하변 또는하부 꼭지점을 구성하지 않는 나머지 한 고정 특징점이 눈(f1,f2)의 이동여부를 확인하는데 사용된다.In summary, the feature points constituting the upper side of the feature surface 1 are both eyes f1 and f2, and the feature points constituting the lower or lower vertex of the feature surface 1 are the mouth f3 fixed to the face. Or f4 and f5) or noses f6 and f7, and the other fixed feature that does not constitute a lower or lower vertex is used to determine whether the eyes f1 and f2 are moved.

여기서 특징면(1)의 구성에는 코(f6,f7)보다 입(f3 또는 f4 및 f5)이 바람직한 바, 이것은 특징면(1)의 크기가 커질수록 관찰면(F)과의 거리에 대한 상대적 크기가 커져 오차의 확대가 작아지며, 그 결과 더욱 정확한 추적이 가능해지기 때문이다.In the configuration of the feature surface 1, the mouths f3 or f4 and f5 are preferred to the noses f6 and f7, which are relative to the distance to the observation surface F as the feature surface 1 increases in size. This is because the size is larger and the magnification of the error is smaller, which results in more accurate tracking.

이와 같이 본 발명에 의하면 응시위치(P)의 정확한 추적이 가능하면서도 그기기가 매우 저렴하여 일반적인 컴퓨터(COMP)의 마우스를 대체하는 GUI 인터페이스장치로 사용될 수 있다.As described above, according to the present invention, since the precise tracking of the gaze position P is possible, the device is very inexpensive, and thus can be used as a GUI interface device to replace a mouse of a general computer (COMP).

도 9에는 본 발명 시스템이 마우스를 대체하는 경우, 마우스의 클릭(click)에 의한 명령을 대체하기 위한 눈깜빡임에 의한 명령방식을 도시하고 있다. 이때자연적인 눈깜빡임과 명령을 구분하기 위해 본 발명에서는 일측 눈, 도면에서는 왼쪽 눈만의 깜빡임, 즉 윙크를 마우스의 한 클릭에 대응하는 것으로 하고 있다.FIG. 9 illustrates a command method by blinking an eye to replace a command by clicking of a mouse when the system of the present invention replaces a mouse. At this time, in order to distinguish between the natural eye blink and the command, the present invention corresponds to the blinking of only one eye, that is, the left eye only in the drawing, that is, the wink corresponding to one click of the mouse.

도 9(A)에서, 눈의 개폐상태의 인식을 위해 도 3(F)와 같이 양눈의 주위에 탐색영역을 설정하여, 도 9(B)에서 양눈에 대해 각각 흑색 영역을 추출한다. 다음 눈썹이나 눈 주위의 화장 또는 점등의 노이즈(noise)를 제거하기 위해 도 9(C)에서 추출된 흑색영역의 디지탈신호를 필터링한 뒤, 도 9(D)에서 양눈에 대해 각각 폭(W1,W2)과 높이(H1,H2)를 연산하고 그 종횡비(H1/W1,H2/W2)를 연산하여 양눈에 대해 비교한다. 양 눈간의 종횡비 차이가 소정의 임계치보다 커지면 도 9(E)에서 종횡비가 낮은 측의 눈(왼눈)이 폐쇄, 높은 측의 눈(오른눈)이 개방된 것으로 판단하여, 사용자(U)가 한 클릭을 명령한 것으로 인식하게 된다.In FIG. 9 (A), a search area is set around both eyes as shown in FIG. 3 (F) to recognize an open / closed state of the eyes, and black areas are extracted for both eyes in FIG. 9 (B). Next, the digital signal of the black region extracted in FIG. 9 (C) is filtered to remove noise of makeup or lighting around the eyebrows or eyes, and then the width W1, Compute W2) and height (H1, H2) and calculate the aspect ratio (H1 / W1, H2 / W2) and compare them for both eyes. When the aspect ratio difference between both eyes becomes larger than a predetermined threshold, in Fig. 9E, it is determined that the eye (left eye) of the side having the low aspect ratio is closed and the eye (right eye) of the high side is opened. It will be recognized as a click.

한편 양 눈간의 종횡비 차이가 임계치 이하이면 이는 사용자가 눈을 뜨고 있거나 자연적인 눈깜빡임으로 인식할 수 있으므로, 제어부(CTR)는 클릭 명령을 인식하지 않게 된다.On the other hand, if the aspect ratio difference between both eyes is less than or equal to the threshold value, since the user may recognize that the eyes are open or natural blinking, the control unit CTR does not recognize the click command.

이상과 같이 본 발명에 의하면 매우 간단하고 저렴한 시스템 구성에 의하여정확하고 신속한 응시위치의 추적이 가능하여 종래의 적외선 시스템뿐 아니라 일반적인 컴퓨터의 마우스등에 대체하여 사용될 수도 있다.As described above, according to the present invention, a very simple and inexpensive system configuration enables accurate and rapid tracking of the gaze position, and may be used in place of a conventional computer mouse as well as a conventional infrared system.

또한 본 발명 시스템은 컴퓨터의 GUI 인터페이스 뿐아니라 사용자의 시선 또는 응시위치 추적이 필요한 모든 시스템에 사용될 수 있다.In addition, the system of the present invention can be used not only for the GUI interface of the computer but also for any system requiring tracking of the gaze or gaze of the user.

예를들어 얼굴만을 움직일 수 있는 전신마비 장애자의 인터페이스나 치료에사용될 수 있으며, 양안의 안구운동가능 정도가 서로 다르거나 일측 뇌의 기능장애로 모니터의 일측밖에 관찰할 수 없는 일측 무시환자등의 경우, 그 시선의 방향이나 시선의 이동가능 범위등의 정량적인 파악이 매우 어려운 바, 본 발명은 이들의인터페이스나 치료에 직접적으로 사용할 수 있으며, 경우에 따라서는 그 치료를 위한 가상현실 시스템에 연계하여 사용할 수 있다.For example, it can be used for the interface or treatment of people with general paralysis who can only move the face, and in the case of one-sided neglected patients who can only observe one side of the monitor due to different degree of eye movement or bilateral brain dysfunction. In this regard, the present invention can be used directly for their interface or treatment, and in some cases linked to the virtual reality system for the treatment. Can be used.

이외에도 기억력이 퇴행하거나 사후계획을 세우기 어려운 건망증이나 실행증환자의 치료나 일상생활의 보조에도 사용될 수 있다.In addition, it can be used for the treatment of amnesia and executives who have difficulty in regressing memory or making a follow-up plan or for supporting daily life.

본 발명 시스템은 이와 같은 의료검진및 치료의 목적에도 사용될 수 있으며, 공정제어등 여러가지 관제기기에 유효하게 사용될 수 있어 그 파급 효과가 매우 높다.The system of the present invention can be used for the purpose of such medical examination and treatment, and can be effectively used in various control devices such as process control, and its ripple effect is very high.

Claims (5)

사용자의 시선을 추적하여 관찰면상의 응시위치를 파악하는 응시위치 추적시스템에 있어서,In the gaze position tracking system for tracking the gaze of the user to determine the gaze position on the observation surface, 상기 사용자의 얼굴 영상을 디지탈 영상신호로 취득하는 얼굴영상 취득수단과,Face image acquisition means for acquiring a face image of the user as a digital image signal; 취득된 디지탈 영상신호로부터 얼굴의 특징점을 복수로 추출하여, 이 복수의 특징점으로부터 특징면을 형성하고, 이 특징면의 공간상의 이동을 시간을 따라 연산하여 상기 관찰면상의 응시위치를 산출하는 제어부를 구비하는 것을 특징으로 하는 응시위치 추적시스템.A control unit which extracts a plurality of feature points of a face from the acquired digital video signal, forms a feature surface from the plurality of feature points, calculates the gaze position on the observation plane by calculating a spatial movement of the feature plane over time; Staring position tracking system characterized in that it comprises. 제1항에 있어서,The method of claim 1, 상기 얼굴영상의 특징점이 양눈을 나타내는 두 특징점과 입 또는 코중의 어느 하나를 나타내는 적어도 한 특징점을 포함하는 것을 특징으로 하는 응시위치 추적 시스템.A gaze tracking system according to claim 1, wherein the feature point of the face image includes at least one feature point representing both eyes and at least one of a mouth or a nose. 제1항 또는 제2항중의 어느 한 항에 있어서,The method according to claim 1 or 2, 상기 양 눈과 입의 특징점들로 상기 특징면을 구성하여 상기 응시위치를 산출한 뒤,After calculating the gaze position by configuring the feature surface with the feature points of both eyes and mouth, 상기 코의 특징점과 상기 입의 특징점의 상대위치를 비교하여 상기 눈의 이동 여부를 확인하는 것을 특징으로 하는 응시위치 추적시스템.Staring position tracking system, characterized in that to determine the movement of the eye by comparing the relative position of the feature point of the nose and the feature point of the mouth. 제1항에 있어서,The method of claim 1, 상기 카메라가 2대로 양안 카메라를 구성하여,The camera constitutes a binocular camera with two, 상기 각 카메라로 취득된 영상으로 각각 특징면을 구성하고,Each feature surface is composed of images acquired by the cameras, 이 두 특징면을 비교하여 응시위치를 추적하는 것을 특징으로 하는 응시위치추적시스템.A gaze tracking system, characterized by tracking the gaze position by comparing these two feature surfaces. 제1항에 있어서,The method of claim 1, 상기 응시위치가 소정위치에 도달하였을때 상기 양 눈중의 하나만을 선택적으로 깜빡임으로써 사용자의 지령을 입력하는 것을 특징으로 하는 응시위치 추적시스템.And a user's command is inputted by selectively blinking only one of the eyes when the gaze position reaches a predetermined position.
KR1019990005980A 1999-02-23 1999-02-23 Gaze detection system KR100325365B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1019990005980A KR100325365B1 (en) 1999-02-23 1999-02-23 Gaze detection system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1019990005980A KR100325365B1 (en) 1999-02-23 1999-02-23 Gaze detection system

Publications (2)

Publication Number Publication Date
KR20000056563A true KR20000056563A (en) 2000-09-15
KR100325365B1 KR100325365B1 (en) 2002-03-04

Family

ID=19574864

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019990005980A KR100325365B1 (en) 1999-02-23 1999-02-23 Gaze detection system

Country Status (1)

Country Link
KR (1) KR100325365B1 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100455295B1 (en) * 2002-03-27 2004-11-06 삼성전자주식회사 Method and apparatus for image detection, and method and apparatus for object tracking using the image detection
KR100491432B1 (en) * 2002-11-06 2005-05-25 주식회사 유씨티코리아 Interactive exhibition system using multi-modal user interface
KR100664832B1 (en) * 1999-12-01 2007-01-04 주식회사 케이티 Apparatus for pointing at two dimensional monitor by tracing of eye's movement
KR100793077B1 (en) * 2005-12-08 2008-01-10 한국전자통신연구원 Method for deciding the position of an observer, and an observer tracking 3D display system and method using that
KR100845274B1 (en) * 2006-11-06 2008-07-09 주식회사 시공테크 Apparatus and method for generating user-interface based on face recognition in a exhibition system
KR100885366B1 (en) * 2006-03-15 2009-02-26 오므론 가부시키가이샤 Authentication apparatus, authentication method, authentication program, and computer readable recording media
US9280204B2 (en) 2013-04-23 2016-03-08 Electronics And Telecommunications Research Institute Method and apparatus for tracking user's gaze point using mobile terminal
US9400552B2 (en) 2012-12-12 2016-07-26 Hyundai Motor Company Apparatus and method for checking gaze object
US9606623B2 (en) 2013-11-15 2017-03-28 Hyundai Motor Company Gaze detecting apparatus and method
CN110476141A (en) * 2017-09-13 2019-11-19 视信有限责任公司 Sight tracing and user terminal for executing this method

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100048747A (en) * 2008-10-31 2010-05-11 한국과학기술원 User interface mobile device using face interaction
US11250242B2 (en) 2017-09-13 2022-02-15 Visualcamp Co., Ltd. Eye tracking method and user terminal performing same

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3735947B2 (en) * 1996-06-26 2006-01-18 日産自動車株式会社 Line-of-sight input device

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100664832B1 (en) * 1999-12-01 2007-01-04 주식회사 케이티 Apparatus for pointing at two dimensional monitor by tracing of eye's movement
KR100455295B1 (en) * 2002-03-27 2004-11-06 삼성전자주식회사 Method and apparatus for image detection, and method and apparatus for object tracking using the image detection
KR100491432B1 (en) * 2002-11-06 2005-05-25 주식회사 유씨티코리아 Interactive exhibition system using multi-modal user interface
KR100793077B1 (en) * 2005-12-08 2008-01-10 한국전자통신연구원 Method for deciding the position of an observer, and an observer tracking 3D display system and method using that
KR100885366B1 (en) * 2006-03-15 2009-02-26 오므론 가부시키가이샤 Authentication apparatus, authentication method, authentication program, and computer readable recording media
US8353004B2 (en) 2006-03-15 2013-01-08 Omron Corporation Authentication device, authentication method, authentication program and computer readable recording medium
KR100845274B1 (en) * 2006-11-06 2008-07-09 주식회사 시공테크 Apparatus and method for generating user-interface based on face recognition in a exhibition system
US9400552B2 (en) 2012-12-12 2016-07-26 Hyundai Motor Company Apparatus and method for checking gaze object
US9280204B2 (en) 2013-04-23 2016-03-08 Electronics And Telecommunications Research Institute Method and apparatus for tracking user's gaze point using mobile terminal
US9606623B2 (en) 2013-11-15 2017-03-28 Hyundai Motor Company Gaze detecting apparatus and method
CN110476141A (en) * 2017-09-13 2019-11-19 视信有限责任公司 Sight tracing and user terminal for executing this method

Also Published As

Publication number Publication date
KR100325365B1 (en) 2002-03-04

Similar Documents

Publication Publication Date Title
Al-Rahayfeh et al. Eye tracking and head movement detection: A state-of-art survey
JP5016175B2 (en) Face image processing system
US10682038B1 (en) Autonomous robotic laparoscope based on eye tracking
Zhu et al. Novel eye gaze tracking techniques under natural head movement
Magee et al. A human–computer interface using symmetry between eyes to detect gaze direction
Hennessey et al. Fixation precision in high-speed noncontact eye-gaze tracking
JP2005100366A (en) Visual line input communication method using eyeball motion
KR100325365B1 (en) Gaze detection system
Lee et al. A robust eye gaze tracking method based on a virtual eyeball model
Park A real-time gaze position estimation method based on a 3-D eye model
Kim et al. Non-intrusive eye gaze tracking under natural head movements
Mimica et al. A computer vision framework for eye gaze tracking
Khan et al. A new 3D eyeball tracking system to enhance the usability of page scrolling
Lee et al. Robust gaze tracking method for stereoscopic virtual reality systems
Lee et al. A study on eye gaze estimation method based on cornea model of human eye
Triesch et al. Robotic gesture recognition by cue combination
Ahmed et al. A survey on human eye-gaze tracking (EGT) system “a comparative study”
Parte et al. A survey on eye tracking and detection
Madhusanka et al. Concentrated gaze base interaction for decision making using human-machine interface
CN113269122A (en) Wearable eye movement and facial expression synchronous acquisition equipment, system and algorithm
Hegde et al. Low cost eye based human computer interface system (Eye controlled mouse)
Sumathi et al. Vision based game development using human computer interaction
Hennessey Point-of-gaze estimation in three dimensions
Bodapati et al. An Intelligent And An Effective Eye-Tracking System For Automated Wheelchair Control
Lee et al. Vision-based gaze estimation method for stereoscopic display systems

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20071112

Year of fee payment: 7

LAPS Lapse due to unpaid annual fee