KR20030022537A - Position Data Input System Using Eye Tracking Camera And Method Thereof - Google Patents

Position Data Input System Using Eye Tracking Camera And Method Thereof Download PDF

Info

Publication number
KR20030022537A
KR20030022537A KR1020010055676A KR20010055676A KR20030022537A KR 20030022537 A KR20030022537 A KR 20030022537A KR 1020010055676 A KR1020010055676 A KR 1020010055676A KR 20010055676 A KR20010055676 A KR 20010055676A KR 20030022537 A KR20030022537 A KR 20030022537A
Authority
KR
South Korea
Prior art keywords
pupil
user
cursor
coordinates
data
Prior art date
Application number
KR1020010055676A
Other languages
Korean (ko)
Inventor
김태용
Original Assignee
김태용
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 김태용 filed Critical 김태용
Priority to KR1020010055676A priority Critical patent/KR20030022537A/en
Publication of KR20030022537A publication Critical patent/KR20030022537A/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output

Abstract

PURPOSE: A system and a method for inputting coordinates using a pupil tracking camera are provided to input the correct coordinates data fast by improving a structure and performance of a viewpoint tracking device. CONSTITUTION: A CCD(Charge-Coupled Device)(31) pictures one pupil of a user. A frame graver outputs the image data by converting the image pictured by the CCD(31) into a frame signal. A pupil position detector detects the position variation of the pupil by analyzing the image data inputted from the frame graver and converts it into the coordinates. A microphone detects a sound generated by the user. A sound processor output the audio data by converting the sound generated by the user into a digital signal. A peak detector detects a preset peak signal by receiving the audio data inputted through the sound processor. A controller displays a cursor on a display by picturing the pupil and generating the coordinates, and executes a program by generating a click data as detecting a nasal cavity sound.

Description

동공 추적 카메라를 이용한 좌표 입력 시스템 및 그 방법{Position Data Input System Using Eye Tracking Camera And Method Thereof}Coordinate input system using pupil tracking camera and method thereof {Position Data Input System Using Eye Tracking Camera And Method Thereof}

본 발명은 동공 추적 카메라를 이용한 좌표 입력 시스템 및 그 방법에 관한 것으로, 보다 상세하게는 사용자의 동공 위치 변화를 이용하여 컴퓨터에 좌표를 입력할 수 있는 동공 추적 카메라를 이용한 좌표 입력 시스템 및 그 방법에 관한 것이다.The present invention relates to a coordinate input system and method using a pupil tracking camera, and more particularly, to a coordinate input system and a method using a pupil tracking camera that can input coordinates to a computer using a change in the pupil position of the user. It is about.

일반적으로, 컴퓨터를 이용할 때에 디스플레이 상에서 좌표 데이터를 입력하는 기존의 마우스는 한 쪽 손을 이용하여 입력되는 좌표의 위치를 선택하여 클릭하도록 되어 있다.In general, a conventional mouse for inputting coordinate data on a display when using a computer is to select and click the position of the input coordinate using one hand.

따라서, 손을 이용할 수 없는 장애인의 경우나, 다른 이유로 인하여 손을 이용할 수 없는 경우에는 다른 방법을 통하여 좌표 데이터를 입력해야 한다.Therefore, in case of a handicapped person who cannot use his hand or when his hand cannot be used for other reasons, the coordinate data must be input through another method.

한편, 인체 중에서 양쪽 눈을 통하여 어느 한 지점을 응시하면 양쪽 눈은 동일한 각도 및 속도로 움직인다.On the other hand, staring at any point in the human body through both eyes, both eyes move at the same angle and speed.

따라서, 2개의 눈 중에서 어느 한 쪽 눈을 통하여 어느 한 지점을 응시하고, 다른 한 쪽 눈의 동공의 움직임을 추적하면 어느 한 쪽 눈이 응시하고 있는 지점을 추적할 수 있는 것이다.Therefore, by staring at a point through one of the two eyes and tracking the movement of the pupil of the other eye, it is possible to track the point at which one eye is staring.

이러한 원리를 이용하는 종래의 시점 추적 장비의 문제점 중 하나는 눈동자로부터 상당한 거리에서 눈동자를 촬영하고 정면이 아닌 사각에서 동공을 촬영하기때문에 정확도가 떨어지는 문제점을 안고 있었다.One of the problems of the conventional viewpoint tracking equipment using this principle is that the accuracy is poor because the pupils are photographed at a considerable distance from the pupils and the pupils are photographed at a blind spot instead of the front face.

따라서, 본 발명은 이러한 종래 기술의 문제점을 감안하여 안출된 것으로, 그 목적은 좌표 데이터를 입력할 수 있는 시점 추적 장치의 구조와 성능을 개선하여 보다 정확한 좌표 데이터를 신속하게 입력할 수 있는 동공 추적 카메라를 이용한 좌표 입력 시스템 및 그 방법을 제공하는데 있다.Accordingly, the present invention has been made in view of the problems of the prior art, and an object thereof is to improve the structure and performance of a viewpoint tracking device capable of inputting coordinate data, and to accurately input coordinate data more quickly. The present invention provides a coordinate input system using a camera and a method thereof.

도 1은 본 발명에 따른 동공 추적 카메라를 이용한 좌표 입력 시스템의 구성을 설명하기 위한 블록도.1 is a block diagram illustrating a configuration of a coordinate input system using a pupil tracking camera according to the present invention.

도 2는 본 발명에서 동공 추적 카메라의 일실시예를 나타낸 평면도.Figure 2 is a plan view showing one embodiment of a pupil tracking camera in the present invention.

도 3은 본 발명에서 동공 추적 카메라의 일실시예를 나타낸 사진.Figure 3 is a photograph showing an embodiment of the pupil tracking camera in the present invention.

도 4는 본 발명에 따른 동공 추적 카메라를 이용한 좌표 입력 방법을 설명하기 위한 순서도.4 is a flowchart illustrating a coordinate input method using a pupil tracking camera according to the present invention.

도 5는 본 발명에서 시점 추적 원리를 설명도.5 is a view illustrating a viewpoint tracking principle in the present invention.

도 6은 본 발명에서 시점 추적 원리를 설명하기 위한 디스플레이의 셀 구성도.6 is a cell diagram of a display for explaining the viewpoint tracking principle in the present invention.

도 7은 본 발명에서 동공 추적 카메라의 다른 실시예를 나타낸 사진.Figure 7 is a photograph showing another embodiment of the pupil tracking camera in the present invention.

* 도면의 주요 부분에 대한 부호 설명 *Explanation of symbols on the main parts of the drawings

10 : 제어부12 : 피크 감지부10 control unit 12 peak detection unit

14 : 동공 위치 검출부20 : 마이크14: pupil position detection unit 20: microphone

22 : 사운드 처리부30 : 착용대22: sound processor 30: wearing table

31 : CCD 소자32 : 프레임 그래버31 CCD device 32 Frame grabber

40 : 디스플레이42 : 비디오 카드40: display 42: video card

상기한 목적을 달성하기 위하여, 본 발명은 사용자의 어느 한 쪽 눈의 동공을 촬영하는 촬영 소자와; 상기 촬영 소자에 의하여 촬영된 영상을 프레임 신호로 변환하여 영상 데이터를 출력하는 프레임 그래버와; 상기 프레임 그래버를 통하여 입력되는 영상 데이터를 분석하여 동공의 위치 변화를 검출하여 좌표로 변환시켜 주는 동공 위치 검출부와; 사용자가 발생하는 소리를 감지하는 마이크와; 상기 마이크를 통하여 입력되는 사용자가 비강(鼻腔)으로 발생시키는 소리를 디지털 신호로 변환시켜 오디오 데이터를 출력하는 사운드 처리부와; 상기 사운드 처리부를 통하여 입력되는 오디오 데이터를 입력받아 미리 설정된 피크 신호를 감지하는 피크 감지부와; 사용자가 캘리브레이션 모드를 선택하면 컴퓨터 디스플레이 내에 커서를 주사하여 사용자의 동공이 이를 추적하도록 한 후에 동공의 위치 변화를 상기 촬영 소자로 촬영하여 주사되는 커서의 위치에 따른 동공의 위치를 좌표로 변환하여 동공의 위치별로 커서의 좌표를 설정하고, 데이터 선택을 위한 클릭 동작을 위하여 사용자가 발생하는 소리를 상기 마이크 및 사운드 처리부를 통하여 입력받아 상기피크 감지부를 통하여 설정된 클릭 데이터를 설정하고, 사용자가 트레킹 모드를 선택하면 상기 촬영 소자를 이용하여 사용자의 동공을 촬영하여 동공의 위치 변화를 추적하면서 동공의 위치별로 설정된 커서 좌표를 인출하여 컴퓨터 디스플레이 상의 해당 위치에 커서를 표시해 주고, 사용자가 소리를 발생하여 컴퓨터 디스플레이 상의 어느 한 데이터를 선택하면 해당 데이터에 연결된 프로그램을 실행시켜 주는 제어부를 포함하는 것을 특징으로 하는 동공 추적 카메라를 이용한 좌표 입력 시스템을 제공한다.In order to achieve the above object, the present invention includes a photographing element for photographing the pupil of either eye of the user; A frame grabber for converting an image photographed by the photographing element into a frame signal and outputting image data; A pupil position detector for analyzing image data input through the frame grabber to detect a change in the position of the pupil and converting the pupil position into coordinates; A microphone for detecting a sound generated by the user; A sound processor for converting a sound generated by the user through the microphone into the nasal cavity and converting the sound into a digital signal to output audio data; A peak detector configured to receive audio data input through the sound processor and detect a preset peak signal; When the user selects the calibration mode, the cursor is scanned in the computer display to allow the user's pupil to track it, and then the pupil's position is photographed by the photographing device to convert the pupil's position according to the position of the scanned cursor into coordinates. Set the coordinates of the cursor for each position of the user, input the sound generated by the user through the microphone and the sound processor for the click operation for data selection, and set the click data set through the peak detector, and the user selects the tracking mode. When selected, the user's pupil is photographed using the photographing element to track the change in the position of the pupil, and the cursor coordinates set for each pupil position are retrieved to display the cursor at the corresponding position on the computer display, and the user generates a sound to display the computer. One Day on Pinterest Selecting provides a coordinate input system using a pupil tracking camera comprises a control unit that by executing the program associated with the data.

본 발명은 상기 촬영 소자 및 마이크를 사용자에게 착용시켜 주는 착용대를 더 포함하며, 상기 촬영 소자는 CCD 소자로 이루어진다.The present invention further includes a wearing table which wears the photographing device and the microphone to the user, and the photographing device includes a CCD device.

상기 착용대는 사용자의 어느 한 쪽 눈에 밀착되어, 상기 촬영 소자가 장착되는 마운트와; 상기 마운트에 대칭되는 위치인 사용자의 다른 한 쪽 눈앞에 설치되는 수용부와; 상기 마운트와 수용부를 연결시켜 주는 브리지와; 상기 마이크가 어느 한 쪽에 설치되고, 그 일단이 상기 브리지에 연결되어 사용자의 코에 걸쳐지는 한 쌍의 코걸이와; 상기 마운트 및 수용부를 사용자에게 고정시켜 주는 고정대를 포함하여 이루어진다.The wear table is in close contact with either eye of the user, the mount to which the photographing element is mounted; A receiving portion installed in front of the other eye of the user in a position symmetrical with the mount; A bridge connecting the mount and the receiving portion; A pair of nose rings installed at either side of the microphone, one end of which is connected to the bridge and spans the user's nose; It includes a fixing for fixing the mount and the receiving portion to the user.

상기 수용부는 사용자의 시력에 맞는 도수로 이루어진 렌즈가 장착되거나, 표시 내용이 표시되는 소형 디스플레이가 장착된다. 그리고, 상기 마이크는 사용자의 코에 밀착되어 비강에서 발생되는 소리를 입력받는다.The accommodating part may be equipped with a lens made of a frequency suitable for a user's vision, or a small display for displaying display contents. Then, the microphone is in close contact with the user's nose receives the sound generated in the nasal cavity.

그리고, 본 발명은 동공의 위치 변화를 이용하여 컴퓨터 디스플레이 상에서 커서를 이동시키는 방법에 있어서, (a) 양 쪽 눈을 사용하는 컴퓨터 사용자의 어느한 쪽 눈의 동공을 촬영하는 단계; (b) 컴퓨터 디스플레이 상에서 동공의 이동 거리를 캘리브레이션하기 위한 캘리브레이션 모드와 동공의 이동을 이용하여 좌표 데이터 입력을 하기 위한 트레킹 모드 중에서 어느 한 모드를 선택하는 단계; (c 1) 캘리브레이션 모드를 선택하면, 컴퓨터 디스플레이 내에 커서를 주사하여 사용자의 동공이 이를 추적하도록 하고, 동공의 위치 변화를 촬영하는 단계; (c 2) 주사되는 커서의 위치에 따른 동공의 위치를 좌표로 변환하여 동공의 위치별로 커서의 좌표를 설정하는 단계와; (c 3) 컴퓨터 디스플레이 상에서 특정 위치의 좌표에 표시된 데이터를 선택하기 위한 클릭 동작을 설정하기 위하여, 사용자가 소리를 발생하여 클릭 데이터로 설정하는 단계; (d 1) 트레킹 모드를 선택하면, 동공을 촬영하여 동공의 위치 변화를 추적하는 단계; (d 2) 촬영된 동공의 위치별로 상기 캘리브레이션 단계에서 설정된 동공의 위치별 커서 좌표를 인출하는 단계; (d 3) 동공 위치별로 인출된 커서 좌표를 이용하여 컴퓨터 디스플레이 상의 해당 위치에 커서를 위치시켜 주는 단계; (d 4) 컴퓨터 디스플레이 상에서 커서가 위치한 곳을 상기 캘리브레이션 단계에서 설정한 소리를 이용하여 클릭하면 해당 이벤트를 실행시키는 단계를 포함하는 것을 특징으로 하는 동공 추적 카메라를 이용한 좌표 입력 방법을 아울러 제공한다.In addition, the present invention provides a method of moving a cursor on a computer display using a change in the position of the pupil, the method comprising: (a) photographing a pupil of one eye of a computer user using both eyes; (b) selecting one of a calibration mode for calibrating the moving distance of the pupil on a computer display and a tracking mode for inputting coordinate data using the movement of the pupil; (c 1) selecting a calibration mode, scanning the cursor in the computer display to allow the user's pupil to track it and photographing the change in the pupil's position; (c 2) setting the coordinates of the cursor for each position of the pupil by converting the position of the pupil according to the position of the scanned cursor into coordinates; (c 3) a user generating a sound and setting it as click data to set a click operation for selecting data displayed at coordinates of a specific position on a computer display; (d 1) selecting a trekking mode, photographing the pupil to track a change in the position of the pupil; (d 2) extracting cursor coordinates for each position of the pupil set in the calibration step for each position of the photographed pupil; (d 3) positioning the cursor at a corresponding position on the computer display by using the cursor coordinates extracted for each pupil position; (d 4) It provides a coordinate input method using a pupil tracking camera, comprising the step of executing a corresponding event when the cursor is located on the computer display using the sound set in the calibration step.

상기 컴퓨터 디스플레이 상에 표시되는 커서의 해상도는 상기 촬영 소자의 프레임 레이트에 비례하고, 상기 클릭 데이터는 사용자의 비강에서 발생되는 소리를 이용한다.The resolution of the cursor displayed on the computer display is proportional to the frame rate of the imaging device, and the click data utilizes sound generated in the nasal cavity of the user.

상기한 바와 같이 본 발명에서는 사용자의 왼쪽 눈을 소형 카메라로 완전히차단하며 1∼2cm에서 정면 근접 촬영을 하여 종래의 시점추적장치에 비해 극히 정밀한 동공 운동 관찰을 통해 오차의 수준을 대폭 낮추어 주며, 비강에서 발생하는 소리를 이용하여 디스플레이 상의 어느 한 데이터를 간편하게 선택할 수 있다.As described above, in the present invention, the user's left eye is completely blocked by a small camera, and the front side is photographed at 1 to 2 cm to significantly reduce the level of error through observation of the pupil movement extremely precisely compared to the conventional viewpoint tracking device. You can easily select any data on the display using the sound generated by.

(실시예)(Example)

이하에 상기한 본 발명을 바람직한 실시예가 도시된 첨부 도면을 참고하여 더욱 상세하게 설명한다.Hereinafter, with reference to the accompanying drawings showing a preferred embodiment of the present invention described above in more detail.

첨부한 도면, 도 1은 본 발명에 따른 동공 추적 카메라를 이용한 좌표 입력 시스템의 구성을 설명하기 위한 블록도, 도 2는 본 발명에서 동공 추적 카메라를 나타낸 평면도, 도 3은 본 발명에서 동공 추적 카메라의 실제예를 나타낸 사진, 도 4는 본 발명에 따른 동공 추적 카메라를 이용한 좌표 입력 방법을 설명하기 위한 순서도, 도 5는 본 발명에서 시점 추적 원리를 설명도이다.1 is a block diagram illustrating a configuration of a coordinate input system using a pupil tracking camera according to the present invention, FIG. 2 is a plan view showing a pupil tracking camera in the present invention, and FIG. 3 is a pupil tracking camera according to the present invention. 4 is a flowchart illustrating a coordinate input method using a pupil tracking camera according to the present invention, and FIG. 5 is a view illustrating a viewpoint tracking principle in the present invention.

본 발명은 컴퓨터 사용자의 동공을 근접 촬영하여 사용자가 디스플레이의 어느 한 곳을 응시하고 있는가를 실시간으로 유추하여 좌표 데이터를 추출하는 것에 관한 것이다.The present invention relates to extracting coordinate data by inferring in real time where a user is staring at a display by photographing a pupil of a computer user.

예를 들면, 도 5에서 보는 바와 같이, 디스플레이(40)의 a 지점(도 5의 (B))을 응시할 때 사용자 눈(5)의 동공 중심이 1(도 5의 (A))에 위치하고, b, d, c를 응시할 때, 사용자 동공의 위치가 각각 2, 4, 3의 위치로 변화한다는 사실이 사용 과정 초기에 실시되는 캘리브레이션 과정에서 설정되면, 사용자의 동공이 5에 위치할 때에는 그가 디스플레이(40)의 e 지점을 응시하고 있다는 것을 비율 계산을 통해 유추할 수 있다.For example, as shown in FIG. 5, when staring at point a (FIG. 5B) of the display 40, the pupil center of the user's eye 5 is located at 1 (FIG. 5A), When staring at b, d, and c, the fact that the position of the user's pupil changes to the positions 2, 4, and 3, respectively, is set during the calibration process at the beginning of the course of use, and when the user's pupil is at 5, he displays We can infer that we are staring at point e of 40 through the ratio calculation.

본 발명에서 시점 추적 알고리즘은 비율 계산 방정식을 사용하는 것을 변형한 것으로, 도 6에서 보는 바와 같이, 1차적으로 디스플레이(40)의 가로 및 세로를 각각 3등분하여 생기는 16개의 교차점을 이용하여 먼저 캘리브레이션한다. 즉, 각 교차점에 해당하는 동공 중심의 위치를 설정하는 것이다.In the present invention, the viewpoint tracking algorithm is a modification of using a ratio calculation equation, and as shown in FIG. 6, the first calibration is performed by using 16 intersection points generated by firstly dividing the width and length of the display 40 into three equal parts. do. That is, the position of the pupil center corresponding to each intersection point is set.

그리고, 1차적으로 분할된 9개의 셀을 다시 각각 16×16으로 분할하여 디스플레이(40) 전체를 48×48로 분할하여 총 2304개의 셀 중에서 어느 셀에 시점이 놓이는지를 캘리브레이션 과정에서 측정된 동공 좌표의 위치를 근거로 유추한다.In addition, the first divided nine cells are further divided into 16 × 16 segments, and the entire display 40 is divided into 48 × 48 segments, and the pupil coordinates measured during the calibration process are determined in which cell among the 2304 cells. Inferred based on the position of.

즉, 동공 좌표도 48×48로 나뉘어지고 디스플레이(40)도 48×48로 나뉘어져 각각의 셀이 1 : 1로 매칭되는 것이다.That is, the pupil coordinates are also divided into 48 × 48 and the display 40 is also divided into 48 × 48 so that each cell matches 1: 1.

본 발명은 사용자의 왼쪽 눈의 1∼2cm 전방에 CCD 소자(31)를 위치시켜서 정면 근접 촬영을 하는 방식을 취한다(도 2 참조). 이는 사용자의 왼쪽 눈과 오른 쪽 눈이 어느 한 지점을 응시할 때에 동시에 같은 비율로 움직인다는 생리적 특징을 이용한 것이다.According to the present invention, the front side photographing is performed by placing the CCD element 31 in front of the user's left eye 1 to 2 cm (see Fig. 2). This uses the physiological feature that the user's left and right eyes move at the same rate at the same time as they stare at any point.

그리고, 본 발명은 CCD 소자(30)를 동공의 1∼2cm 거리에 위치시켜 동공을 근접 촬영하는 기법을 사용함으로써, 원거리에서 그것도 정면이 아닌 사각에서 동공의 움직임을 촬영하는 종래의 시점 추적 장치에 비해 극히 정밀한 추적을 가능케 한다.In addition, the present invention uses a technique of positioning the CCD element 30 at a distance of 1 to 2 cm of the pupil and using the technique of photographing the pupil in close proximity, thereby providing a conventional viewpoint tracking apparatus for capturing the movement of the pupil at a distance rather than at the front. This allows for extremely precise tracking.

본 발명은 상기와 같은 원리를 이용하여 동공의 위치를 파악하여 디스플레이(40) 상의 커서를 이동시켜 주기 위하여 다음과 같은 구성으로 이루어진다.The present invention has the following configuration to move the cursor on the display 40 by grasping the position of the pupil using the principle described above.

본 발명은 도 1에 나타낸 바와 같이, 사용자의 어느 한 쪽 눈의 동공을 촬영하는 CCD 소자(31), 상기 CCD 소자(31)에 의하여 촬영된 영상을 프레임(frame) 신호로 변환하여 영상 데이터를 출력하는 프레임 그래버(32, frame grabber), 상기 프레임 그래버(32)를 통하여 입력되는 영상 데이터를 분석하여 동공의 위치 변화를 검출하여 좌표로 변환시켜 주는 동공 위치 검출부(14), 사용자가 발생하는 소리를 감지하는 마이크(20), 상기 마이크(20)를 통하여 입력되는 사용자가 발생하는 소리를 디지털 신호로 변환시켜 오디오 데이터를 출력하는 사운드 처리부(22), 상기 사운드 처리부(22)를 통하여 입력되는 오디오 데이터를 입력받아 미리 설정된 피크 신호를 감지하는 피크 감지부(12), 사용자가 캘리브레이션 모드를 선택하면 컴퓨터 디스플레이(40) 내에 커서를 주사하여 사용자의 동공이 이를 추적하도록 한 후에 동공의 위치 변화를 상기 CCD 소자(31)로 촬영하여 주사되는 커서의 위치에 따른 동공의 위치를 좌표로 변환하여 동공의 위치별로 커서의 좌표를 설정하고, 데이터 선택을 위한 클릭 동작을 위하여 사용자가 발생하는 소리를 상기 마이크(20) 및 사운드 처리부(22)를 통하여 입력받아 상기 피크 감지부(12)를 통하여 설정된 클릭 데이터를 설정하고, 사용자가 트레킹 모드를 선택하면 상기 CCD 소자(31)를 이용하여 사용자의 동공을 촬영하여 동공의 위치 변화를 추적하면서 동공의 위치별로 설정된 커서 좌표를 인출하여 비디오 카드(42)를 통해 컴퓨터 디스플레이(40) 상의 해당 위치에 커서를 표시해 주고, 사용자가 소리를 발생하여 컴퓨터 디스플레이(40) 상의 어느 한 데이터를 선택하면 해당 데이터에 연결된 프로그램을 실행시켜 주는 제어부(10)로 이루어진다.As shown in FIG. 1, the present invention converts an image photographed by the CCD element 31 for capturing the pupil of one eye of the user, and an image photographed by the CCD element 31 into a frame signal to convert the image data. An output frame grabber 32, a pupil position detector 14 for detecting a change in the position of the pupil and converting it into coordinates by analyzing image data input through the frame grabber 32, and a sound generated by a user The microphone 20 for detecting the sound, the sound processor 22 for outputting audio data by converting the sound generated by the user input through the microphone 20 to a digital signal, the audio input through the sound processor 22 Peak detection unit 12 that receives data and detects a preset peak signal. When the user selects a calibration mode, the cursor is scanned in the computer display 40. After allowing the pupil of the user to track this, the position of the pupil is photographed by the CCD device 31 to convert the position of the pupil according to the position of the cursor to be scanned into coordinates, and the coordinates of the cursor are set for each pupil position. For the click operation for selection, the sound generated by the user is input through the microphone 20 and the sound processor 22 to set the click data set through the peak detector 12, and the user selects a trekking mode. Then, by capturing the pupil of the user using the CCD device 31 to track the change of the position of the pupil, the cursor coordinates set for each pupil position are extracted and the cursor is positioned at the corresponding position on the computer display 40 through the video card 42. When a user selects any data on the computer display 40 by generating a sound, a program connected to the data is displayed. It consists of a control unit 10 for executing.

본 발명은 상기 CCD 소자(31) 및 마이크(20)를 사용자의 안면에 착용시켜 주기 위하여 안경(또는 고글)과 같은 구조를 가지는 착용대(30)를 더 포함하여 구성되는데, 상기 착용대는 도 2 및 도 3에 나타낸 바와 같이, 사용자의 어느 한 쪽 눈에 밀착되어, 상기 CCD 소자(31)가 장착되는 마운트(33)와, 사용자의 다른 한 쪽 눈에 설치되는 렌즈(34)와, 상기 마운트(33)와 렌즈(34)를 연결시켜 주는 브리지(35)와, 상기 마이크(20)가 어느 한 쪽에 설치되고, 그 일단이 상기 브리지(35)에 연결되어 사용자의 코에 걸쳐지는 한 쌍의 코걸이(36)와, 상기 마운트(33) 및 렌즈(34)를 사용자에게 고정시켜 주는 고정 밴드(37)와, 상기 CCD 소자(31)에서 출력되는 영상 데이터와 상기 마이크(20)에서 출력되는 오디오 신호를 전달해 주는 케이블(38)로 이루어진다.The present invention further comprises a wear table 30 having a structure such as glasses (or goggles) to wear the CCD element 31 and the microphone 20 on the face of the user, the wear table is shown in FIG. 3, the mount 33 in close contact with one eye of the user, on which the CCD element 31 is mounted, the lens 34 mounted on the other eye of the user, and the mount. A bridge 35 connecting the lens 34 and the lens 34, and the microphone 20 is installed on either side, one end of which is connected to the bridge 35, and a pair of the user's nose Nose ring 36, fixed band 37 for fixing the mount 33 and the lens 34 to the user, the image data output from the CCD element 31 and the audio output from the microphone 20 It is composed of a cable 38 for transmitting a signal.

여기서, 상기 렌즈(34)는 상기 착용대(30)를 사용하는 사용자의 시력에 맞는 도수로 이루어진 렌즈로 이루어져야 한다.Here, the lens 34 should be made of a lens made of the frequency according to the eyesight of the user using the wearing table 30.

그리고, 상기 마이크(20)는 상기 설명과 같이 코걸이(36)에 장착되어 있기 때문에 사용자의 코에 밀착되며, 따라서 비강(鼻腔)에서 발생되는 소리를 다른 소리(잡음)의 삽입 없이 입력받을 수 있다.In addition, since the microphone 20 is mounted on the nose ring 36 as described above, the microphone 20 is in close contact with the user's nose, so that the sound generated in the nasal cavity can be input without inserting another sound (noise). .

상기 고정 밴드(37)는 본 발명의 실시예에서는 밴드 타입을 예로 들어 설명하였으나, 도 7에서와 같이 일반 안경다리와 같은 구조를 가질 수도 있다.In the embodiment of the present invention, the fixing band 37 has been described using a band type as an example. However, the fixing band 37 may have a structure similar to that of a general eyeglass leg.

상기 마운트(33)에 장착되는 CCD 소자(31)는 사용자의 동공으로부터 최근접 거리에 설치되는데, 동공과 CCD 소자(31)간의 상대적인 위치 변화를 최소한으로 억제하기 위하여 상기 CCD 소자(31)를 이용하여 사용자의 동공을 촬영할 수 있는 최근접 거리를 유지하도록 한다.The CCD element 31 mounted on the mount 33 is installed at the nearest distance from the pupil of the user. The CCD element 31 is used to minimize the relative positional change between the pupil and the CCD element 31. To maintain the closest distance to photograph the pupil of the user.

상기 설명에서는 상기 동공 위치 검출부(14), 피크 감지부(12)를 상기 제어부(10)에 대하여 별도의 구성 요소로 설명하였으나, 기존의 마우스 드라이버와 같이 컴퓨터의 CPU인 상기 제어부(10)에 의하여 수행되는 별도의 프로그램으로 구현될 수 있다.In the above description, the pupil position detecting unit 14 and the peak detecting unit 12 are described as separate components with respect to the control unit 10. However, the control unit 10, which is a CPU of a computer like a conventional mouse driver, may be used. It may be implemented as a separate program to be executed.

상기와 같이 구성된 본 발명에 따른 동공 추적 카메라를 이용한 좌표 입력 시스템을 컴퓨터의 좌표 입력 장치로 이용하기 위해서는 도 4에 나타낸 바와 같이 캘리브레이션 과정을 먼저 수행한 후에 트레킹 모드로 이용할 수 있다.In order to use the coordinate input system using the pupil tracking camera according to the present invention configured as described above as a coordinate input device of a computer, as shown in FIG. 4, a calibration process may be performed first and then used in a tracking mode.

캘리브레이션 모드를 수행하기 위해서는 사용자가 착용대(30)를 착용하고, CCD 소자(31)를 이용하여 사용자의 동공을 촬영하는 과정에서(S 1), 사용자가 캘리브레이션 모드를 선택한다(S 2).In order to perform the calibration mode, the user wears the wear table 30, and in the process of photographing the pupil of the user using the CCD device 31 (S 1), the user selects the calibration mode (S 2).

상기 캘리브레이션 모드의 선택(S 2)은 상기 제어부(10)에 의하여 동작하는 프로그램을 통하여 상기 디스플레이(40)에 선택 디스플레이를 표시하여 캘리브레이션 모드와 트레킹 모드를 선택하도록 한다.The selection of the calibration mode (S 2) displays a selection display on the display 40 through a program operated by the controller 10 to select a calibration mode and a tracking mode.

사용자가 캘리브레이션 모드를 선택하면, 제어부(10)는 디스플레이(40)에 커서를 표시하고, 이 커서를 일정 속도로 상하 좌우로 이동시켜 준다(S 10).When the user selects the calibration mode, the controller 10 displays a cursor on the display 40 and moves the cursor up, down, left, and right at a constant speed (S 10).

사용자는 시점을 변화시켜서 디스플레이(40)에 표시되는 커서를 추적하고, 동시에 CCD 소자(31)를 통하여 위치가 변화되는 동공이 촬영된다(S 11).The user changes the viewpoint to track the cursor displayed on the display 40, and at the same time, the pupil whose position is changed through the CCD element 31 is captured (S 11).

따라서, 동공 위치 검출부(14)를 통하여 디스플레이(40)에 표시된 커서의 위치에 대하여 동공의 좌표 데이터가 생성된다(S 12).Therefore, the coordinate data of the pupil is generated with respect to the position of the cursor displayed on the display 40 through the pupil position detector 14 (S12).

이렇게 생성된 동공의 위치에 따른 커서의 좌표 데이터는 다음에 설명하는 트레킹 모드에서 좌표 데이터로 이용된다.The coordinate data of the cursor according to the position of the pupil thus generated is used as the coordinate data in the tracking mode described below.

그리고, 클릭 동작을 위한 클릭 데이터를 설정하기 위하여 사용자는 비강(鼻腔)을 이용하여 소리를 발생하고, 이 비강 소리를 상기 마이크(20)로 입력시킨다(S 13).In order to set the click data for the click operation, the user generates a sound using the nasal cavity and inputs the nasal sound into the microphone 20 (S 13).

여기서, 상기 마이크(20)는 착용대(30)의 코걸이(36)에 설치되어 사용자의 코에 밀착되어 있기 때문에 작은 소리로 발생되는 비강 소리를 명확하게 입력받을 수 있다.Here, since the microphone 20 is installed on the nose ring 36 of the wear table 30 and is closely attached to the user's nose, the microphone 20 may clearly receive a nasal sound generated as a small sound.

사용자는 자신의 비강을 통하여 발생할 수 있는 소리 중에서 가장 일반적으로 발생시킬 수 있는 소리를 선택하여 클릭 데이터로 설정하여 이용할 수 있다(S 14).The user can select and use the most commonly generated sound among the sounds that can be generated through his nasal passages as click data (S14).

상기와 같은 과정을 통하여 좌표 설정과 클릭 데이터 설정을 위한 캘리브레이션 과정을 완료한다(S 15).Through the above process, the calibration process for setting the coordinates and setting the click data is completed (S15).

상기와 같은 캘리브레이션 과정은 사용자가 컴퓨터를 사용할 때마다 새로 실행되어야 한다. 착용대(30)를 착용할 때에 동공에 대하여 CCD 소자(31)의 미세한 위치 변화가 발생하고, 비강에서 발생되는 소리도 신체 조건에 따라서 변화되는 경우가 있기 때문이다.The calibration process must be newly executed every time the user uses the computer. This is because a slight change in the position of the CCD element 31 occurs with respect to the pupil when the wearing table 30 is worn, and the sound generated in the nasal cavity may also change depending on the physical condition.

상기와 같이 캘리브레이션 과정이 완료되면 컴퓨터를 사용하기 위하여 제어부(10)에 의하여 실행되는 프로그램에 따라서 화면이 표시되는 디스플레이(40)를 사용자가 우측 눈으로 렌즈(34)를 통하여 바라보면, 좌측 눈도 우측 눈에 순응하여같은 속도 및 각도로 동공이 움직이기 때문에 현재 바라보는 디스플레이(40) 상의 시점에 커서가 놓인다.When the calibration process is completed as described above, when the user looks through the lens 34 with the right eye, the display 40 displaying the screen according to the program executed by the controller 10 to use the computer, the left eye Because the pupil moves at the same speed and angle in compliance with the right eye, the cursor is placed at the point on the display 40 currently viewed.

다시 말하면, CCD 소자(31)로 동공을 촬영하면서(20), 동공 위치 검출부(14)를 통하여 동공의 위치를 추적한다(S 21).In other words, while photographing the pupil with the CCD element 31 (20), the pupil position is tracked through the pupil position detector 14 (S21).

상기 동공 위치 검출부(14)에 의하여 동공의 위치가 파악되면, 제어부(10)는 현재 동공의 위치에 대응되는 좌표를 상기 캘리브레이션 과정에서 설정된 좌표를 이용하여 표시 좌표로 변환한다(S 22). 그리고, 표시 좌표로 변환된 해당 위치에 커서를 위치시킨다(S 23).When the pupil position is determined by the pupil position detector 14, the controller 10 converts coordinates corresponding to the position of the current pupil into display coordinates using the coordinates set in the calibration process (S22). Then, the cursor is positioned at the corresponding position converted to the display coordinates (S 23).

상기 과정에서 디스플레이(40)에 표시되는 커서의 표시 주기는 상기 프레임 그래버(32)에서 발생되는 프레임의 프레임 레이트(frame rate)에 의존한다.The display period of the cursor displayed on the display 40 in the above process depends on the frame rate of the frame generated by the frame grabber 32.

다시 말하면, 동공의 위치 변화는 CCD 소자(31) 및 프레임 그래버(32)에 의하여 생성되는 영상을 입력받는 동공 위치 검출부(14)에 의하여 검출되기 때문에 커서의 표시 주기는 프레임 그래버(32)의 프레임 레이트보다 낮으며, 프레임 그래버(32)의 프레임 레이트가 30fps(frame per second)이면 커서의 최대 표시 주기는 초당 30번 이하로 표시된다.In other words, since the change in the position of the pupil is detected by the pupil position detector 14 which receives the image generated by the CCD element 31 and the frame grabber 32, the display period of the cursor is the frame of the frame grabber 32. If the frame rate of the frame grabber 32 is lower than 30 fps (frame per second), the maximum display period of the cursor is displayed at 30 times or less per second.

상기와 같이 커서가 사용자의 동공 위치 변화에 따라 디스플레이(40)에 표시되면서, 사용자가 디스플레이(40)의 특정 위치에 위치한 아이콘(링크)이나 데이터를 보면서 비강음을 발생하면(S 24), 마이크(20)를 통하여 클릭 데이터가 입력되어 해당 데이터에 연결된 다른 프로그램이 실행된다(S 25).As described above, when the cursor is displayed on the display 40 according to a change in the pupil position of the user, the user generates a nasal sound while viewing an icon (link) or data located at a specific position of the display 40 (S 24). Click data is input through 20 to execute another program connected to the data (S 25).

상기와 같이 이루어진 본 발명은 기존의 대표적인 좌표 데이터 입력 장치인마우스를 대체할 수 있는 입력 수단으로 이용될 수 있으며, 이는 손을 쓸 수 없는 장애인들에게 컴퓨터를 사용할 수 있도록 해주는 결과를 가져온다.The present invention made as described above can be used as an input means that can replace the mouse, a typical representative coordinate data input device, which results in the use of a computer for the handicapped people.

또한, 일반인들도 컴퓨터 게임, 작업 등의 상황에서 별도의 입력 수단으로 본 발명을 이용하여 효율성을 높일 수 있다.In addition, the general public can increase efficiency by using the present invention as a separate input means in the situation of computer games, work, and the like.

한편, 상기 실시예 설명에서는 착용대(30)의 렌즈(34) 부분을 통하여 데스크 타입의 디스플레이(40)를 보고, 이 때의 동공 이동을 CCD 소자(31)로 추적하여 좌표 데이터를 생성하였으나, 본 발명의 다른 실시예서는 도 7에 나타낸 바와 같이, 착용대(50)의 한 쪽에 CCD 소자(52)가 장착되고, 다른 한 쪽에는 소형 디스플레이(54)가 설치되어 있는 구조를 가진다.Meanwhile, in the above embodiment, the desk type display 40 is viewed through the lens 34 portion of the wear table 30, and the coordinate movement is generated by tracking the pupil movement at this time with the CCD element 31. In another embodiment of the present invention, as shown in FIG. 7, the CCD element 52 is mounted on one side of the wearing table 50, and the small display 54 is provided on the other side.

이와 같은 CCD 소자(52)와 소형 디스플레이(54)를 일체로 구성하면, 사용자의 머리가 움직여도, 사용자의 눈과 소형 디스플레이간의 상대적 위치가 항상 일정하게 유지되기 때문에, 사용자가 캘리브레이션 이후 머리를 다소 움직여도 추적의 정확성이 훼손되지 않는 장점이 있다.When the CCD device 52 and the small display 54 are integrally formed, the relative position between the user's eyes and the small display is always kept constant even when the user's head moves, so that the user moves the head slightly after calibration. The advantage is that the accuracy of the trace is not compromised.

상기 소형 디스플레이(54)는 소형 CRT 디스플레이를 이용하거나 LCD 패널을 이용할 수 있으나, 바람직하게는 상대적으로 가벼운 LCD 패널을 이용하는 것이 유리하다.The small display 54 may use a small CRT display or an LCD panel, but it is advantageous to use a relatively light LCD panel.

상기한 바와 같이 이루어진 본 발명은 사용자의 한 쪽 눈의 1∼2cm 전방에서 CCD 소자를 이용하여 정면 근접 촬영을 함으로써 좌표 데이터의 오차 수준을 대폭 낮추어 좌표 입력 수단으로 원활하게 이용할 수 있다.According to the present invention made as described above, by taking a front close-up photograph using a CCD element 1 to 2 cm in front of one eye of the user, the error level of the coordinate data can be significantly lowered, and thus it can be smoothly used as a coordinate input means.

그리고, 사용자의 비강에서 발생하는 소리를 이용하여 디스플레이 상의 어느 한 데이터를 선택할 수 있는 클릭 데이터로 이용할 수 있다.The sound generated in the nasal cavity of the user may be used as click data for selecting any data on the display.

이상에서는 본 발명을 특정의 바람직한 실시예를 예로 들어 도시하고 설명하였으나, 본 발명은 상기한 실시예에 한정되지 아니하며 본 발명의 정신을 벗어나지 않는 범위 내에서 당해 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 다양한 변경과 수정이 가능할 것이다.In the above, the present invention has been illustrated and described with reference to specific preferred embodiments, but the present invention is not limited to the above-described embodiments and the general knowledge in the technical field to which the present invention pertains without departing from the spirit of the present invention. Various changes and modifications will be made by those who possess.

Claims (11)

사용자의 어느 한 쪽 눈의 동공을 촬영하는 촬영 소자와;A photographing element for photographing the pupil of either eye of the user; 상기 촬영 소자에 의하여 촬영된 영상을 프레임 신호로 변환하여 영상 데이터를 출력하는 프레임 그래버와;A frame grabber for converting an image photographed by the photographing element into a frame signal and outputting image data; 상기 프레임 그래버를 통하여 입력되는 영상 데이터를 분석하여 동공의 위치 변화를 검출하여 좌표로 변환시켜 주는 동공 위치 검출부와;A pupil position detector for analyzing image data input through the frame grabber to detect a change in the position of the pupil and converting the pupil position into coordinates; 사용자가 발생하는 소리를 감지하는 오디오 센서와;An audio sensor detecting a sound generated by a user; 상기 오디오 센서를 통하여 입력되는 사용자가 발생하는 소리를 디지털 신호로 변환시켜 오디오 데이터를 출력하는 사운드 처리부와;A sound processor for converting a sound generated by a user input through the audio sensor into a digital signal and outputting audio data; 상기 사운드 처리부를 통하여 입력되는 오디오 데이터를 입력받아 미리 설정된 피크 신호를 감지하는 피크 감지부와;A peak detector configured to receive audio data input through the sound processor and detect a preset peak signal; 사용자가 캘리브레이션 모드를 선택하면 컴퓨터 디스플레이 내에 커서를 주사하여 사용자의 동공이 이를 추적하도록 한 후에 동공의 위치 변화를 상기 촬영 소자로 촬영하여 주사되는 커서의 위치에 따른 동공의 위치를 좌표로 변환하여 동공의 위치별로 커서의 좌표를 설정하고, 데이터 선택을 위한 클릭 동작을 위하여 사용자가 발생하는 소리를 상기 오디오 센서 및 사운드 처리부를 통하여 입력받아 상기 피크 감지부를 통하여 설정된 클릭 데이터를 설정하고, 사용자가 트레킹 모드를 선택하면 상기 촬영 소자를 이용하여 사용자의 동공을 촬영하여 동공의 위치 변화를 추적하면서 동공의 위치별로 설정된 커서 좌표를 인출하여 컴퓨터 디스플레이상의 해당 위치에 커서를 표시해 주고, 사용자가 소리를 발생하여 컴퓨터 디스플레이 상의 어느 한 데이터를 선택하면 해당 데이터에 연결된 프로그램을 실행시켜 주는 제어부를 포함하는 것을 특징으로 하는 동공 추적 카메라를 이용한 좌표 입력 시스템.When the user selects the calibration mode, the cursor is scanned in the computer display to allow the user's pupil to track it, and then the pupil's position is photographed by the photographing device to convert the pupil's position according to the position of the scanned cursor into coordinates. Set the coordinates of the cursor for each position of the user, receive the sound generated by the user through the audio sensor and the sound processor for the click operation for data selection, and set the click data set through the peak detector, and the user If you select and capture the user's pupil using the photographing element to track the change in the position of the pupil, retrieve the cursor coordinates set for each pupil position to display the cursor at the corresponding position on the computer display, the user generates a sound Any on display Selecting data coordinate input system using a pupil tracking camera comprises a control unit that by executing the program associated with the data. 제 1항에 있어서, 상기 촬영 소자는 CCD 소자로 이루어지는 것을 특징으로 하는 동공 추적 카메라를 이용한 좌표 입력 시스템.The coordinate input system using a pupil tracking camera according to claim 1, wherein the photographing element comprises a CCD element. 제 1항에 있어서, 상기 촬영 소자 및 오디오 센서를 사용자에게 착용시켜 주는 착용대를 더 포함하는 것을 특징으로 하는 동공 추적 카메라를 이용한 좌표 입력 시스템.The coordinate input system using a pupil tracking camera according to claim 1, further comprising a wearing table which wears the photographing element and the audio sensor to a user. 제 3항에 있어서, 상기 착용대는 사용자의 어느 한 쪽 눈에 밀착되어 상기 촬영 소자가 장착되는 마운트와; 상기 마운트에 대칭되는 위치인 사용자의 다른 한 쪽 눈앞에 설치되는 수용부와; 상기 마운트와 수용부를 연결시켜 주는 브리지와; 상기 오디오 센서가 어느 한 쪽에 설치되고, 그 일단이 상기 브리지에 연결되어 사용자의 코에 걸쳐지는 한 쌍의 코걸이와; 상기 마운트 및 수용부를 사용자에게 고정시켜 주는 고정대를 포함하여 이루어지는 것을 특징으로 하는 동공 추적 카메라를 이용한 좌표 입력 시스템.The mount of claim 3, wherein the wear stand is mounted to the eye of either user to mount the photographing device thereon; A receiving portion installed in front of the other eye of the user in a position symmetrical with the mount; A bridge connecting the mount and the receiving portion; A pair of nose rings installed at either side of the audio sensor, one end of which is connected to the bridge and spans the user's nose; Coordinate input system using a pupil tracking camera characterized in that it comprises a fixing for fixing the mount and the receiving portion to the user. 제 4항에 있어서, 상기 수용부는 사용자의 시력에 맞는 도수를 가지는 렌즈를 더 포함하는 것을 특징으로 하는 동공 추적 카메라를 이용한 좌표 입력 시스템.The coordinate input system using the pupil tracking camera of claim 4, wherein the accommodation unit further comprises a lens having a frequency corresponding to a user's vision. 제 4항에 있어서, 상기 수용부는 상기 디스플레이에 표시되는 동일한 내용이 표시되는 소형 디스플레이를 더 포함하는 것을 특징으로 하는 동공 추적 카메라를 이용한 좌표 입력 시스템.The coordinate input system using the pupil tracking camera of claim 4, wherein the accommodation unit further includes a small display displaying the same contents displayed on the display. 제 1항에 있어서, 상기 오디오 센서는 사용자의 코에 밀착되어 비강에서 발생되는 소리를 입력받는 센서인 것을 특징으로 하는 동공 추적 카메라를 이용한 좌표 입력 시스템.The coordinate input system using the pupil tracking camera of claim 1, wherein the audio sensor is a sensor that is in close contact with a user's nose and receives a sound generated from the nasal cavity. 제 1항에 있어서, 상기 동공 위치 검출부와 상기 피크 감지부는 상기 제어부에 의하여 구동되는 프로그램으로 구성되는 것을 특징으로 하는 동공 추적 카메라를 이용한 좌표 입력 시스템.The coordinate input system using a pupil tracking camera according to claim 1, wherein the pupil position detector and the peak detector are configured by a program driven by the controller. 동공의 위치 변화를 이용하여 컴퓨터 디스플레이 상에서 커서를 이동시키는 방법에 있어서,In a method of moving a cursor on a computer display using a change in the position of a pupil, (a) 양 쪽 눈을 사용하는 컴퓨터 사용자의 어느 한 쪽 눈의 동공을 촬영하는 단계;(a) photographing the pupils of either eye of a computer user using both eyes; (b) 컴퓨터 디스플레이 상에서 동공의 이동 거리를 캘리브레이션하기 위한캘리브레이션 모드와 동공의 이동을 이용하여 좌표 데이터 입력을 하기 위한 트레킹 모드 중에서 어느 한 모드를 선택하는 단계;(b) selecting one of a calibration mode for calibrating a moving distance of the pupil on a computer display and a tracking mode for inputting coordinate data using the movement of the pupil; (c 1) 캘리브레이션 모드를 선택하면, 컴퓨터 디스플레이 내에 커서를 주사하여 사용자의 동공이 이를 추적하도록 하고, 동공의 위치 변화를 촬영하는 단계;(c 1) selecting a calibration mode, scanning the cursor in the computer display to allow the user's pupil to track it and photographing the change in the pupil's position; (c 2) 주사되는 커서의 위치에 따른 동공의 위치를 좌표로 변환하여 동공의 위치별로 커서의 좌표를 설정하는 단계와;(c 2) setting the coordinates of the cursor for each position of the pupil by converting the position of the pupil according to the position of the scanned cursor into coordinates; (c 3) 컴퓨터 디스플레이 상에서 특정 위치의 좌표에 표시된 데이터를 선택하기 위한 클릭 동작을 설정하기 위하여, 사용자가 소리를 발생하여 클릭 데이터로 설정하는 단계;(c 3) a user generating a sound and setting it as click data to set a click operation for selecting data displayed at coordinates of a specific position on a computer display; (d 1) 트레킹 모드를 선택하면, 동공을 촬영하여 동공의 위치 변화를 추적하는 단계;(d 1) selecting a trekking mode, photographing the pupil to track a change in the position of the pupil; (d 2) 촬영된 동공의 위치별로 상기 캘리브레이션 단계에서 설정된 동공의 위치별 커서 좌표를 인출하는 단계;(d 2) extracting cursor coordinates for each position of the pupil set in the calibration step for each position of the photographed pupil; (d 3) 동공 위치별로 인출된 커서 좌표를 이용하여 컴퓨터 디스플레이 상의 해당 위치에 커서를 위치시켜 주는 단계;(d 3) positioning the cursor at a corresponding position on the computer display by using the cursor coordinates extracted for each pupil position; (d 4) 컴퓨터 디스플레이 상에서 커서가 위치한 곳을 상기 캘리브레이션 단계에서 설정한 소리를 이용하여 클릭하면 해당 이벤트를 실행시키는 단계로 이동하는 단계를 포함하는 것을 특징으로 하는 동공 추적 카메라를 이용한 좌표 입력 방법.and (d 4) moving the cursor position on the computer display to the step of executing a corresponding event when the cursor is clicked using the sound set in the calibration step. 제 9항에 있어서, 상기 컴퓨터 디스플레이 상에 표시되는 커서의 해상도는 상기 카메라의 프레임 레이트에 비례하는 것을 특징으로 하는 동공 추적 카메라를 이용한 좌표 입력 방법.10. The method of claim 9, wherein the resolution of the cursor displayed on the computer display is proportional to the frame rate of the camera. 제 9항에 있어서, 상기 클릭 데이터는 사용자의 비강에서 발생되는 소리를 이용하는 것을 특징으로 하는 동공 추적 카메라를 이용한 좌표 입력 방법.10. The method of claim 9, wherein the click data uses sound generated in the nasal cavity of the user.
KR1020010055676A 2001-09-11 2001-09-11 Position Data Input System Using Eye Tracking Camera And Method Thereof KR20030022537A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020010055676A KR20030022537A (en) 2001-09-11 2001-09-11 Position Data Input System Using Eye Tracking Camera And Method Thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020010055676A KR20030022537A (en) 2001-09-11 2001-09-11 Position Data Input System Using Eye Tracking Camera And Method Thereof

Publications (1)

Publication Number Publication Date
KR20030022537A true KR20030022537A (en) 2003-03-17

Family

ID=27723385

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020010055676A KR20030022537A (en) 2001-09-11 2001-09-11 Position Data Input System Using Eye Tracking Camera And Method Thereof

Country Status (1)

Country Link
KR (1) KR20030022537A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101270558B1 (en) * 2012-10-22 2013-06-07 김선욱 Portable terminal possible control-working to iris recognition and a method for excuting the system

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06242883A (en) * 1993-02-19 1994-09-02 Fujitsu General Ltd Inputting device
JPH1039995A (en) * 1996-07-19 1998-02-13 Nec Corp Line-of-sight/voice input device
US5751260A (en) * 1992-01-10 1998-05-12 The United States Of America As Represented By The Secretary Of The Navy Sensory integrated data interface
JPH10161801A (en) * 1996-11-27 1998-06-19 Sony Corp Input device
JPH10260773A (en) * 1997-03-19 1998-09-29 Nippon Telegr & Teleph Corp <Ntt> Information input method and device therefor
US6215471B1 (en) * 1998-04-28 2001-04-10 Deluca Michael Joseph Vision pointer method and apparatus
JP2001154794A (en) * 1999-11-29 2001-06-08 Nec Fielding Ltd Pointing device with click function by blink
KR20010053762A (en) * 1999-12-01 2001-07-02 이계철 Apparatus for pointing at two dimensional monitor by tracing of eye's movement

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5751260A (en) * 1992-01-10 1998-05-12 The United States Of America As Represented By The Secretary Of The Navy Sensory integrated data interface
JPH06242883A (en) * 1993-02-19 1994-09-02 Fujitsu General Ltd Inputting device
JPH1039995A (en) * 1996-07-19 1998-02-13 Nec Corp Line-of-sight/voice input device
JPH10161801A (en) * 1996-11-27 1998-06-19 Sony Corp Input device
JPH10260773A (en) * 1997-03-19 1998-09-29 Nippon Telegr & Teleph Corp <Ntt> Information input method and device therefor
US6215471B1 (en) * 1998-04-28 2001-04-10 Deluca Michael Joseph Vision pointer method and apparatus
JP2001154794A (en) * 1999-11-29 2001-06-08 Nec Fielding Ltd Pointing device with click function by blink
KR20010053762A (en) * 1999-12-01 2001-07-02 이계철 Apparatus for pointing at two dimensional monitor by tracing of eye's movement

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101270558B1 (en) * 2012-10-22 2013-06-07 김선욱 Portable terminal possible control-working to iris recognition and a method for excuting the system

Similar Documents

Publication Publication Date Title
US20220061660A1 (en) Method for Determining at Least One Parameter of Two Eyes by Setting Data Rates and Optical Measuring Device
US10019634B2 (en) Method and apparatus for an eye tracking wearable computer
US20190235624A1 (en) Systems and methods for predictive visual rendering
JP3673834B2 (en) Gaze input communication method using eye movement
JP2006293786A (en) Market research apparatus having visual line input unit
JP3272906B2 (en) Gaze direction detecting method and apparatus and man-machine interface apparatus including the same
JP2006277192A (en) Image display system
TW201721228A (en) Eye gaze responsive virtual reality headset
KR101613091B1 (en) Device and method for tracking gaze
JPH07255669A (en) Eye condition detector and indicator
KR101467529B1 (en) Wearable system for providing information
JPH0651901A (en) Communication equipment for glance recognition
CN110140166A (en) For providing the system for exempting to manually enter to computer
US11450113B1 (en) Method and apparatus for a wearable computer
JP2000250699A (en) Visual line input device
WO2019021601A1 (en) Information processing device, information processing method, and program
US11281893B2 (en) Method and device for modifying the affective visual information in the field of vision of an user
JP2017191546A (en) Medical use head-mounted display, program of medical use head-mounted display, and control method of medical use head-mounted display
JP2015149552A (en) Wearable electronic apparatus
JPH1091325A (en) Gaze detection system
JPH0449943A (en) Eye ball motion analyzer
KR100520050B1 (en) Head mounted computer interfacing device and method using eye-gaze direction
JPH11237581A (en) Head-mount display device
KR20030022537A (en) Position Data Input System Using Eye Tracking Camera And Method Thereof
JP2011186007A (en) Display control device and information display device

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
NORF Unpaid initial registration fee