KR20030022538A - Input Method of Data Using Position Data Input System by Eye Tracking Camera - Google Patents

Input Method of Data Using Position Data Input System by Eye Tracking Camera Download PDF

Info

Publication number
KR20030022538A
KR20030022538A KR1020010055677A KR20010055677A KR20030022538A KR 20030022538 A KR20030022538 A KR 20030022538A KR 1020010055677 A KR1020010055677 A KR 1020010055677A KR 20010055677 A KR20010055677 A KR 20010055677A KR 20030022538 A KR20030022538 A KR 20030022538A
Authority
KR
South Korea
Prior art keywords
key
data
user
viewpoint
input
Prior art date
Application number
KR1020010055677A
Other languages
Korean (ko)
Inventor
김태용
Original Assignee
김태용
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 김태용 filed Critical 김태용
Priority to KR1020010055677A priority Critical patent/KR20030022538A/en
Publication of KR20030022538A publication Critical patent/KR20030022538A/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0233Character input methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output

Abstract

PURPOSE: A method for inputting data using a viewpoint chasing coordinate input system is provided to display a keyboard layout having a plurality of keys corresponded to input data and to input desired data in a computer. CONSTITUTION: A cursor is displayed on a computer display and a position variation of a pupil of an eye is photographed using a CCD(Charge Coupled Device) element while chasing the pupil of a user(S10). A cursor coordinate is substituted for a position of the pupil from an image photographed using the CCD element, and new coordinates are created according to positions of the pupil(S11). A sound being generated in a nasal cavity is set as click data using a microphone(S12). The user requests to display a keyboard layout for inputting data(S13). A control unit of the computer displays a keyboard layout(S14). If the user watches the displayed layout and fixes a viewpoint on a key to be inputted using a viewpoint chasing unit(S15), a viewpoint-fixed position is converted into the coordinate(S16). A cursor is displayed on the corresponding coordinate(S17). The cursor is moved on the keyboard layout, the user fixes a viewpoint on a wanted key, and the nasal cavity sound is generated through the sound click unit. Thus, a corresponding key is selected(S18). The control unit extracts data corresponded to a selected key, and displays data adapted to a text display unit, or processes a corresponding function(S19). If a key is inputted, the corresponding key is displayed on the text display unit as an echo(S20).

Description

시점 추적 좌표 입력 시스템을 이용한 데이터 입력 방법{Input Method of Data Using Position Data Input System by Eye Tracking Camera}{Input Method of Data Using Position Data Input System by Eye Tracking Camera}

본 발명은 시점 추적 좌표 입력 시스템을 이용한 데이터 입력 방법에 관한 것으로, 보다 상세하게는 사용자의 동공 위치를 추적하여 생성된 좌표를 이용하여 컴퓨터에 데이터를 입력하기 위한 키보드 기능을 가지는 시점 추적 좌표 입력 시스템을 이용한 데이터 입력 방법에 관한 것이다.The present invention relates to a data input method using a viewpoint tracking coordinate input system, and more particularly, to a viewpoint tracking coordinate input system having a keyboard function for inputting data into a computer using coordinates generated by tracking a pupil location of a user. It relates to a data input method using.

일반적으로, 컴퓨터를 이용할 때에 디스플레이 상에서 좌표 데이터를 입력하는 기존의 마우스는 한 쪽 손을 이용하여 입력되는 좌표의 위치를 선택하여 클릭하도록 되어 있다.In general, a conventional mouse for inputting coordinate data on a display when using a computer is to select and click the position of the input coordinate using one hand.

따라서, 손을 이용할 수 없는 장애인의 경우나, 다른 이유로 인하여 손을 이용할 수 없는 경우에는 다른 방법을 통하여 좌표 데이터를 입력해야 한다.Therefore, in case of a handicapped person who cannot use his hand or when his hand cannot be used for other reasons, the coordinate data must be input through another method.

한편, 인체 중에서 양쪽 눈을 통하여 어느 한 지점을 응시하면 양쪽 눈은 동일한 각도 및 속도로 움직인다.On the other hand, if you stare at any point of the human body through both eyes, both eyes move at the same angle and speed.

따라서, 2개의 눈 중에서 어느 한 쪽 눈을 통하여 어느 한 지점을 응시하고, 다른 한 쪽 눈의 동공의 움직임을 추적하면 어느 한 쪽 눈이 응시하고 있는 지점을 추적할 수 있는 것이다.Therefore, by staring at a point through one of the two eyes and tracking the movement of the pupil of the other eye, it is possible to track the point at which one eye is staring.

한편, 컴퓨터에 데이터를 입력하기 위해서 사용하는 종래의 키보드(key board)는 문자 숫자 등과 같은 아스키 문자를 입력할 수 있는 다수의 문자 키, 상기 문자 키에 대한 보조적인 기능과 컴퓨터의 동작을 제어하기 위한 다수의 기능키 등으로 구성되는 다수의 키가 배열되어 있고, 상기 키를 온시켰을 때에 발생되는 신호를 컴퓨터에 입력시킴으로써 데이터를 입력하도록 되어 있다.On the other hand, the conventional keyboard (key board) used for inputting data to the computer is a number of character keys that can enter ASCII characters, such as alphanumeric characters, auxiliary functions for the character keys and to control the operation of the computer A plurality of keys comprising a plurality of function keys and the like are arranged, and data is input by inputting a signal generated when the key is turned on to a computer.

따라서, 키보드를 이용하여 데이터를 입력하기 위해서는 키의 신호를 발생시키기 위해 반드시 키들을 눌러 주어야 한다.Therefore, in order to input data using the keyboard, the keys must be pressed to generate a signal of the key.

그런데, 키보드는 키보드의 종류에 따라서 101키, 103/106키 등으로 매우 많은 수의 키들로 조합되어 있기 때문에 양손을 원활하게 사용할 수 있는 정상적인 사람들에게 유리하게 되어 있다.However, since the keyboard is composed of a very large number of keys, such as 101 keys and 103/106 keys, depending on the type of keyboard, it is advantageous for normal people who can use both hands smoothly.

그러므로, 양손을 자유롭게 사용할 수 없는 조건에 처한 사람들은 키보드 사용이 원활하지 못하기 때문에 경우에 따라서는 발가락을 사용하거나 입에 스틱을 물고 사용하는 경우가 많다.Therefore, those who are in a condition where both hands cannot be freely used are often not used because the keyboard is not smooth.

또한, 경우에 따라서는 스피치-투-텍스트(speech-to-text) 기능을 이용하여 말을 문자로 변환시켜 주는 방법으로 데이터를 입력하는 경우도 있으나 이 기능은 아직 완전한 기능을 제공하고 있지 못하기 때문에 데이터 입력 방법으로 적절한 수단이 되지 못하고 있는 실정이다.Also, in some cases, data is input by converting words into characters using speech-to-text, but this function does not yet provide full functionality. Therefore, the data input method is not a proper means.

따라서, 본 발명은 이러한 종래 기술의 문제점을 감안하여 안출된 것으로, 그 목적은 컴퓨터의 디스플레이에 입력될 데이터에 대응되는 다수의 키들로 조합되어 있는 키보드 레이아웃을 표시하고 시점 추적 장치를 이용하여 원하는 데이터를 컴퓨터에 입력할 수 있는 시점 추적 좌표 입력 시스템을 이용한 데이터 입력 방법을 제공하는데 있다.Accordingly, the present invention has been made in view of the problems of the prior art, and an object thereof is to display a keyboard layout composed of a plurality of keys corresponding to data to be input to a display of a computer, and to display desired data using a viewpoint tracking device. The present invention provides a data input method using a viewpoint tracking coordinate input system capable of inputting into a computer.

도 1은 본 발명에 따른 시점 추적 좌표 입력 시스템의 구성을 설명하기 위한 블록도.1 is a block diagram illustrating a configuration of a viewpoint tracking coordinate input system according to the present invention.

도 2는 본 발명에 따른 시점 추적 좌표 입력 시스템에서 착용대의 구조를 설명하기 위한 평면도.Figure 2 is a plan view for explaining the structure of the wear stand in the viewpoint tracking coordinate input system according to the present invention.

도 3은 본 발명에 따른 시점 추적 좌표 입력 시스템에서 착용대의 구조를 설명하기 위한 사진.Figure 3 is a photograph for explaining the structure of the wearing table in the viewpoint tracking coordinate input system according to the present invention.

도 4는 본 발명에 따른 시점 추적 좌표 입력 시스템에서 착용대의 다른 구조를 설명하기 위한 사진.Figure 4 is a photograph for explaining another structure of the wear table in the viewpoint tracking coordinate input system according to the present invention.

도 5는 본 발명에 따른 시점 추적 좌표 입력 시스템을 이용한 데이터 입력 방법을 설명하기 위한 순서도.5 is a flowchart illustrating a data input method using a viewpoint tracking coordinate input system according to the present invention.

도 6은 본 발명에 따른 시점 추적 좌표 입력 시스템을 이용한 데이터 입력 방법에서 키보드 레이아웃의 실시예를 설명하기 위한 예시도.6 is an exemplary view for explaining an embodiment of a keyboard layout in a data input method using a viewpoint tracking coordinate input system according to the present invention.

도 7은 도 6에 나타낸 키보드 레이아웃의 키들을 종류별로 설명하기 위한 설명도.FIG. 7 is an explanatory diagram for explaining the types of keys of the keyboard layout shown in FIG. 6 for each type; FIG.

* 도면의 주요 부분에 대한 부호 설명 *Explanation of symbols on the main parts of the drawings

10 : 제어부15 : 디스플레이10 control unit 15 display

20 : 사운드 클릭부21 : 마이크20: sound click unit 21: microphone

30 : 시점 추적부31 : CCD 소자30: viewpoint tracking unit 31: CCD element

35 : 케이블40 : 착용대35 cable 40 wear band

42 : 마운트43 : 렌즈42: mount 43: lens

44 : 브리지45 : 코걸이44: bridge 45: nose ring

46 : 고정 밴드46: fixed band

상기한 목적을 달성하기 위하여, 본 발명은 디스플레이를 바라보는 사용자의 동공을 촬영하여 시점을 추적하여 디스플레이 상에서 좌표를 생성하는 시점 추적 장치와 사용자가 발생하는 소리를 인식하여 클릭 데이터를 생성하는 클릭부를 구비한 컴퓨터를 이용하여 데이터를 입력하는 방법에 있어서, (a) 사용자별로 시점 설정과 클릭 데이터 설정을 위한 캘리브레이션을 하기 위하여, (a1) 컴퓨터 디스플레이에 커서를 이동 표시하고 사용자의 동공이 추적하는 동안에 동공의 위치 변화를 촬영하는 단계; (a2) 이동 표시되는 커서의 좌표에 동공의 위치 좌표를 대응시켜서 동공의 위치에 대한 좌표를 생성하는 단계; (a3) 사용자가 발생시키는 소리를 데이터 선택을 위한 클릭 데이터로 설정하는 단계; (b) 사용자가 컴퓨터에게 키보드 레이아웃을 요청하는 단계; (c) 디스플레이에 키보드 레이아웃을 표시하는 단계; (d) 시점 추적 장치를 이용하여 사용자의 시점을 추적하고, 추적된 시점을 좌표로 변환하여 디스플레이에 커서로 표시하는 단계; (e) 사용자가 키보드 레이아웃 상에서선택한 키에 맞는 데이터로 변환하는 단계를 포함하는 것을 특징으로 하는 시점 추적 좌표 입력 시스템을 이용한 데이터 입력 방법을 제공한다.In order to achieve the above object, the present invention captures a pupil of the user looking at the display to track the viewpoint to generate coordinates on the display and the click unit for recognizing the sound generated by the user to generate the click data A method of inputting data by using a computer, comprising: (a) calibrating for setting a viewpoint and clicking data for each user, while (a1) moving and displaying a cursor on a computer display and tracking the pupil of the user. Photographing the change in the position of the pupil; (a2) generating coordinates for the position of the pupil by matching the position coordinates of the pupil with the coordinates of the cursor displayed by movement; (a3) setting a sound generated by a user as click data for data selection; (b) a user requesting a keyboard layout from a computer; (c) displaying the keyboard layout on the display; (d) tracking the user's viewpoint using the viewpoint tracking device, converting the tracked viewpoint into coordinates, and displaying the coordinates on a display by a cursor; (e) providing a data input method using a viewpoint tracking coordinate input system, comprising converting the data into data corresponding to a key selected by a user on a keyboard layout.

본 발명은 상기 (e) 단계에서 선택된 키를 디스플레이에 에코 표시하여 사용자가 선택한 키를 확인시켜 주는 단계를 더 포함하여 이루어진다.The present invention further comprises the step of confirming the key selected by the user by echo-displaying the key selected in the step (e) on the display.

상기 (c) 단계에서 표시되는 키보드 레이아웃은 음운을 입력하기 위한 다수의 문자키와, 숫자를 입력하기 위한 다수의 숫자키와, 상기 문자키 또는 숫자키의 입력을 위한 다수의 보조 기능키와, 컴퓨터의 동작을 제어하기 위한 다수의 기능키를 포함하여 이루어진다.The keyboard layout displayed in step (c) includes a plurality of character keys for inputting phonology, a plurality of numeric keys for inputting numbers, a plurality of auxiliary function keys for inputting the character keys or numeric keys, It includes a plurality of function keys for controlling the operation of the computer.

상기 키보드 레이아웃은 한글 자음을 입력하기 위하여 'ㄱ', 'ㄴ', 'ㄷ', 'ㄹ', 'ㅁ', 'ㅂ', 'ㅅ', 'ㅇ', 'ㅈ'과, 상기 'ㄱ', 'ㄷ', 'ㅂ', 'ㅇ', 'ㅈ'의 소리를 격음화시켜 각각 'ㅋ', 'ㅌ', 'ㅍ', 'ㅎ', '??'의 소리를 입력시킬 수 있는 격음화 키와; 한글 모음을 조성 입력할 수 있는 'ㆍ(천)', 'ㅡ(지)', 'ㅣ(인)' 키와; 빈칸을 입력해 주는 스페이스 키, 리턴 기능 및 입력 완료 기능을 가지는 엔터 키, 커서를 후진시켜 주는 백스페이스 키, 커서를 상하좌우로 이동시켜 주는 상하좌우 키와, 저장 기능을 가지는 저장 키, 입력된 데이터를 삭제하는 삭제 키, 단문 메시지를 보낼 수 있는 기능을 가지는 'SMS' 키, 입력된 텍스트 내용을 말로 변환시켜 주는 기능(Text-To-Speech)을 가지는 'TTS' 키, 인터넷 도메인을 호출하는 기능을 가지는 'WWW' 키, 번호 입력을 가능하게 해 주는 'No.' 키와; 입력된 메시지가 에코(ECHO) 표시되어 사용자가 입력한 내용을 확인할 수 있는 텍스트 표시부, 메시지를 수신하는 상대방의 주소가 표시되는 수신자 표시부가 형성되어 이루어진다.The keyboard layout is a 'b', 'b', 'c', 'ㄹ', 'ㅁ', 'ㅂ', 'ㅅ', 'ㅇ', 'ㅈ' and '' The sound of ',' ㄷ ',' ㅂ ',' ㅇ 'and' ㅈ 'can be sounded to input the sound of' ㅋ ',' ㅌ ',' ㄷ ',' ㅎ 'and' ?? 'respectively. A vowel key; '· (천)', 'ㅡ (지)', 'ㅣ (인)' keys for forming and inputting Korean vowels; Space key to input blank space, Enter key with return function and input completion function, Backspace key to move cursor back, Up, down, left and right keys to move cursor up, down, left and right, Save key with save function, Input Delete key to delete data, 'SMS' key to send short message, 'TTS' key to convert input text contents into words, and to call Internet domain 'WWW' key with function, 'No.' to enable number input Key; An input message is echoed, and a text display unit for confirming the user input contents and a receiver display unit for displaying the address of the other party receiving the message are formed.

상기한 바와 같이 본 발명은 키보드를 사용하기 어려운 상황에 처한 사용자에게 데이터 입력을 원활하게 해 준다.As described above, the present invention facilitates data input to a user who is in a difficult situation using a keyboard.

(실시예)(Example)

이하에 상기한 본 발명을 바람직한 실시예가 도시된 첨부 도면을 참고하여 더욱 상세하게 설명한다.Hereinafter, with reference to the accompanying drawings showing a preferred embodiment of the present invention described above in more detail.

첨부한 도면, 도 1은 본 발명에 따른 시점 추적 좌표 입력 시스템의 구성을 설명하기 위한 블록도, 도 2는 본 발명에 따른 시점 추적 좌표 입력 시스템에서 착용대의 구조를 설명하기 위한 평면도, 도 3은 본 발명에 따른 시점 추적 좌표 입력 시스템에서 착용대의 구조를 설명하기 위한 사진, 도 4는 본 발명에 따른 시점 추적 좌표 입력 시스템에서 착용대의 다른 구조를 설명하기 위한 사진, 도 5는 본 발명에 따른 시점 추적 좌표 입력 시스템을 이용한 데이터 입력 방법을 설명하기 위한 순서도, 도 6은 본 발명에 따른 시점 추적 좌표 입력 시스템을 이용한 데이터 입력 방법에서 키보드 레이아웃의 실시예를 설명하기 위한 예시도, 도 7은 도 6에 나타낸 키보드 레이아웃의 키들을 종류별로 설명하기 위한 설명도이다.1 is a block diagram for explaining the configuration of the viewpoint tracking coordinate input system according to the present invention, Figure 2 is a plan view for explaining the structure of the wear stand in the viewpoint tracking coordinate input system according to the present invention, Figure 3 Photo for explaining the structure of the wear table in the viewpoint tracking coordinate input system according to the present invention, Figure 4 is a photograph for explaining another structure of the wear table in the viewpoint tracking coordinate input system according to the present invention, Figure 5 is a view in accordance with the present invention 6 is a flowchart illustrating a data input method using a tracking coordinate input system, FIG. 6 is an exemplary diagram for explaining an embodiment of a keyboard layout in a data input method using a viewpoint tracking coordinate input system according to the present invention, and FIG. It is explanatory drawing for demonstrating the keys of the keyboard layout shown by type for each kind.

본 발명은 사용자의 왼쪽 눈의 1∼2cm 전방에 CCD 소자(31)를 위치시켜서 정면 근접 촬영을 하는 방식을 취한다(도 2 참조). 이는 사용자의 왼쪽 눈과 오른 쪽 눈이 어느 한 지점을 응시할 때에 동시에 같은 비율로 움직인다는 생리적 특징을 이용한 것이다.According to the present invention, the front side photographing is performed by placing the CCD element 31 in front of the user's left eye 1 to 2 cm (see Fig. 2). This uses the physiological feature that the user's left and right eyes move at the same rate at the same time as they stare at any point.

그리고, 본 발명과 같이 CCD 소자(31)를 동공의 1∼2cm 위치에서 동공을 근접 촬영하는 기법은 원거리에서 동공의 움직임을 촬영하는 종래의 시점 추적 장치에 비해 극히 정밀한 동공 운동 관찰을 통해 오차의 수준을 대폭 낮춘다는 사실이다. 즉, 종래와 같이 정면이 아닌 측면각에서, 그것도 먼 거리에서 동공을 촬영하면, 유추의 정확도가 상당히 떨어진다.And, as in the present invention, the technique of capturing the pupil at the position of 1-2 cm of the pupil of the CCD element 31 closes the error by observing the pupil movement extremely precisely compared to the conventional viewpoint tracking apparatus which photographs the pupil movement at a long distance. It is a fact that the level is greatly lowered. In other words, when the pupil is photographed at a distant distance from the side angle rather than the front as in the prior art, the accuracy of the analogy is considerably reduced.

본 발명은 상기와 같은 원리를 이용하여 동공의 위치를 파악하여 디스플레이(15) 상에 데이터를 입력할 수 있는 가상 키보드를 표시하고, 이를 이용하여 데이터를 입력할 수 있다.According to the present invention, the position of the pupil may be determined to display a virtual keyboard capable of inputting data on the display 15, and input data using the same principle.

본 발명은 이를 위하여, 도 1에 나타낸 바와 같이, 시점에 따라 그 위치가 변화하는 동공을 촬영하여 시점을 추적하는 시점 추적부(30)와, 사용자의 비강(鼻腔)에서 발생되는 소리를 데이터 선택을 위한 클릭 데이터로 변환시켜 주는 사운드 클릭부(20)와, 상기 시점 추적부(30)와 사운드 클릭부(20)를 좌표 데이터 입력 장치로 사용하는 제어부(10) 및 디스플레이(15)를 포함하는 컴퓨터로 구성되는 시스템을 이용한다.To this end, as shown in FIG. 1, the present invention selects data from a viewpoint tracker 30 that tracks a viewpoint by capturing a pupil whose position changes according to a viewpoint, and a sound generated from a user's nasal cavity. Sound control unit 20 for converting the click data for the control unit 10 and the display unit 15 using the viewpoint tracking unit 30 and the sound click unit 20 as a coordinate data input device Use a computer system.

상기 시점 추적부(30)는 사용자의 왼쪽 눈의 동공을 촬영하는 CCD 소자(31), 상기 CCD 소자(31)에 의하여 촬영된 영상을 프레임(frame) 신호로 변환하여 영상 데이터를 출력하는 프레임 그래버(frame grabber, 도면에 미 도시함)와 같은 하드웨어적인 구성 요소와 상기 제어부(10) 즉, 컴퓨터의 CPU에서 구동되는 프로그램으로 구성되어, 상기 프레임 그래버에서 출력된 영상 데이터를 분석하여 프레임별로 동공의 위치를 파악한다.The viewpoint tracking unit 30 is a CCD device 31 for capturing a pupil of the user's left eye, and a frame grabber for converting an image captured by the CCD device 31 into a frame signal and outputting image data. It consists of a hardware component such as a frame grabber (not shown in the drawing) and a program driven by the controller 10, that is, a computer CPU, and analyzes the image data output from the frame grabber to analyze the pupil of each pupil. Know your location.

그리고, 상기 사운드 클릭부(20)는 사용자의 비강 외부에 밀착되어 비강에서 발생되는 소리를 감지하는 마이크(21)와, 상기 마이크(21)를 통하여 입력되는 아날로그 신호를 디지털 신호로 변환시켜 주는 사운드 처리부(도면에 미 도시함)와, 상기 제어부(10)에서 구동되는 프로그램으로 구성되어, 상기 사운드 카드를 통하여 입력되는 소리를 이용하여 클릭 데이터를 생성한다.In addition, the sound clicker 20 is in close contact with the outside of the nasal cavity of the user to detect the sound generated in the nasal cavity, and the sound to convert the analog signal input through the microphone 21 into a digital signal It is composed of a processing unit (not shown in the figure) and a program driven by the control unit 10 to generate click data using a sound input through the sound card.

특히, 클릭 데이터로 이용하기 위해서는 상기 마이크(21)를 통하여 입력되는 소리가 주변 소음과 대별되는 특별한 소리이어야 한다.In particular, in order to use the click data, the sound input through the microphone 21 should be a special sound that is distinguished from the ambient noise.

다시 말하면, 인체에서 발생할 수 있는 대부분의 소리는 입을 통하여 발생되며, 소리를 클릭 데이터로 이용하기 위해서 좁은 주파수 대역을 가지는 특정 주파수 대의 소리를 이용해야 한다. 그리고, 이 특정 주파수 대의 소리를 클릭 데이터로 설정하고 이용해야만 클릭 동작에서의 오차를 줄일 수 있다.In other words, most of the sounds that can occur in the human body are generated through the mouth, and in order to use the sound as click data, sounds of a specific frequency band having a narrow frequency band must be used. In addition, the error in the click operation can be reduced only by setting and using the sound of this specific frequency band as the click data.

따라서, 400∼1600Hz 사이의 주파수 분포를 가지는 입에서 발생되는 소리를 이용하는 것보다 비강에서 발생되는 좁은 주파수대의 소리를 이용하는 것이 클릭 동작에서의 오차를 줄일 수 있다.Therefore, using a sound in a narrow frequency band generated in the nasal cavity may reduce the error in the click operation, rather than using a sound generated in the mouth having a frequency distribution between 400 and 1600 Hz.

이를 위하여 본 발명에서는 상기 마이크(21)를 사용자의 코(비강이 위치한 부분의 외부)에 밀착시키고, 코에 밀착되어 있기 때문에 비강(鼻腔)에서 발생되는 소리를 다른 소리(잡음)의 삽입 없이 입력받을 수 있는 장점이 있다.To this end, in the present invention, the microphone 21 is in close contact with the user's nose (outside the portion where the nasal cavity is located), and because it is in close contact with the nose, the sound generated from the nasal cavity is input without inserting other sounds (noise). There is an advantage to receive.

그리고, 본 발명에서 상기와 같이 CCD 소자(31)와 마이크(21)를 사용자가 착용할 수 있도록 도 2 및 도 3에 나타낸 바와 같은 구조를 가지는 착용대(40)를 이용한다.In the present invention, a wear table 40 having a structure as shown in FIGS. 2 and 3 is used to allow the user to wear the CCD element 31 and the microphone 21 as described above.

상기 착용대(40)는 사용자의 어느 한 쪽 눈에 밀착되어, 상기 CCD 소자(31)가 장착되는 마운트(42)와, 사용자의 다른 한 쪽 눈 위치에 형성되어 렌즈(34) 등이 수용되는 수용부(41)와, 상기 마운트(33)와 수용부(41)를 연결시켜 주는 브리지(44)와, 상기 마이크(21)가 어느 한 쪽에 설치되고, 그 일단이 상기 브리지(44)에 연결되어 사용자의 코에 걸쳐지는 한 쌍의 코걸이(45)와, 상기 마운트(33) 및 수용부(41)를 사용자에게 고정시켜 주는 고정 밴드(46)와, 상기 CCD 소자(31)에서 출력되는 영상 데이터와 상기 마이크(20)에서 출력되는 오디오 신호를 전달해 주는 케이블(35)로 이루어진다.The wear table 40 is in close contact with one eye of the user, and the mount 42 on which the CCD element 31 is mounted, and the lens 34, etc., are formed at the other eye position of the user. A receiving portion 41, a bridge 44 connecting the mount 33 and the receiving portion 41, and the microphone 21 are provided on either side thereof, and one end thereof is connected to the bridge 44. And a pair of nose rings 45 covering the user's nose, a fixing band 46 for fixing the mount 33 and the receiving portion 41 to the user, and an image output from the CCD element 31. It is composed of a cable 35 for transmitting data and the audio signal output from the microphone (20).

여기서, 상기 수용부(41)에 수용되는 렌즈(43)는 상기 착용대(40)를 사용하는 사용자의 시력에 맞는 도수로 이루어진 렌즈로 이루어져야 한다.Here, the lens 43 accommodated in the accommodation portion 41 should be made of a lens made of the frequency according to the eyesight of the user using the wearing table 40.

상기 고정 밴드(37)는 본 발명의 실시예에서는 밴드 타입을 예로 들어 설명하였으나, 도 4에서 보는 바와 같이 일반 안경다리와 같은 구조를 가질 수도 있다.In the embodiment of the present invention, the fixing band 37 has been described using a band type as an example. However, as shown in FIG.

그리고, 상기 마운트(33)에 장착되는 CCD 소자(31)는 사용자의 동공으로부터 최근접 거리에 설치되는데, 동공과 CCD 소자(31)간의 상대적인 위치 변화를 최소한으로 억제하기 위하여 상기 CCD 소자(31)를 이용하여 사용자의 동공을 촬영할 수 있는 최근접 거리를 유지하도록 한다.In addition, the CCD element 31 mounted on the mount 33 is installed at a closest distance from the pupil of the user. In order to minimize the relative positional change between the pupil and the CCD element 31, the CCD element 31 is minimized. Use to maintain the nearest distance to shoot the user's pupils.

한편, 본 발명은 상기 도 2 및 도 3에 나타낸 바와 같은 착용대 외에도 도 4에 나타낸 바와 같이 착용대(50)에 CCD 소자(51)와 소형 디스플레이(54)가 함께 장착되어 상기 디스플레이(15)에 표시되는 내용과 동일한 내용이 표시된다.Meanwhile, in the present invention, in addition to the wear table as shown in FIGS. 2 and 3, the CCD 15 and the small display 54 are mounted together on the wear table 50 as shown in FIG. The same contents as displayed in are displayed.

이렇게 하면, 사용자의 시선과 소형 디스플레이(54)간의 상대적 위치 변화가 발생하지 않기 때문에 시점 추적에 따른 좌표 데이터가 보다 정확해지는 이점이 있다.In this case, since the relative positional change between the user's gaze and the small display 54 does not occur, the coordinate data according to the viewpoint tracking is more accurate.

상기와 같이 구성된 시점 추적 좌표 입력 시스템을 이용하여 컴퓨터에 데이터를 입력하기 위한 가상 키보드는 다음과 같이 이루어진다.A virtual keyboard for inputting data into a computer using the viewpoint tracking coordinate input system configured as described above is performed as follows.

본 발명은 실제 키보드를 이용하지 않고 가상 키보드를 이용하여 데이터를 입력하기 위한 것이므로, 도 6에 나타낸 바와 같은 키보드 레이아웃(50)을 디자인해야 한다.Since the present invention is for inputting data using a virtual keyboard without using an actual keyboard, a keyboard layout 50 as shown in FIG. 6 should be designed.

본 발명의 실시예에서는 한글 자음의 경우에는 'ㄱ(62)', 'ㄴ(69)', 'ㄷ(61)', 'ㄹ(68)', 'ㅁ(67)', 'ㅂ(63)', 'ㅅ(66)', 'ㅇ(64)', 'ㅈ(60)'과, 상기 'ㄱ(62)', 'ㄷ(61)', 'ㅂ(63)', 'ㅇ(64)', 'ㅈ(60)'의 소리를 격음화시켜 각각 'ㅋ', 'ㅌ', 'ㅍ', 'ㅎ', '??'의 소리를 입력시킬 수 있는 격음화 키 즉, '∼(65)'으로 이루어진다.In the embodiment of the present invention, in the case of Hangul consonants' ㄱ (62) ',' ㄴ (69) ',' c (61) ',' ㄹ (68) ',' ㅁ (67) ',' ㅂ (63) ) ',' ㅅ (66) ',' ㅇ (64) ',' ㅈ (60) ', and' ㄱ (62) ',' c (61) ',' ㅂ (63) ',' ㅇ ( 64) ',' ㅈ (60) 'to sound the sound of' ㅋ ',' ㅌ ',' ㄷ ',' ㅎ 'and' ?? ', respectively. 65) '.

또한, 한글 모음의 경우에는 'ㆍ(천, 70)', 'ㅡ(지, 71)', 'ㅣ(인, 72)'으로 이루어진 3개의 키를 이용하여 'ㅏ', 'ㅑ', 'ㅓ', 'ㅕ', 'ㅗ', 'ㅛ', 'ㅜ', 'ㅠ', 'ㅡ', 'ㅣ' 등과 같은 모음 입력이 가능하게 하였다.Also, in the case of Hangul vowels, 'ㅏ', 'ㅑ', '' using three keys consisting of '· (cheon, 70)', 'ㅡ (지, 71)', 'ㅣ (인, 72)' Vowel input such as 'ㅓ', 'ㅕ', 'ㅗ', 'ㅛ', 'TT', 'ㅠ', 'ㅡ', 'ㅣ', etc. were made possible.

그리고, 빈칸을 입력해 주는 '스페이스(SPACE, 73)', 리턴 기능 및 입력 완료 기능을 가지는 'ENTER(75)', 커서를 후진시켜 주는 '◀(백스페이스, 74)', 커서를 상하좌우로 이동시켜 주는 '△(76)', '▽(77)', '◁(78)', '▷(79)' 등과 같은 키가 배치되며, 저장 기능을 가지는 '저장(51)', 입력된 데이터를 삭제하는 '삭제(52)', 단문 메시지를 보낼 수 있는 기능을 가지는 'SMS(54)', 입력된 텍스트 내용을 말로 변환시켜 주는 기능(Text-To-Speech)을 가지는 'TTS(55)', 인터넷 도메인을 호출하는 기능을 가지는 'WWW(56)', 번호 입력을 가능하게 해 주는'No.(76)' 등의 키가 부가적으로 배치된다.And the space (SPACE, 73) to input the blank, 'ENTER (75)' having a return function and the input completion function, '◀ (backspace, 74)' to reverse the cursor, the cursor up, down, left, right △ (76) ',' ▽ (77) ',' ◁ (78) ',' ▷ (79) ', etc. are placed to move to' Save (51) ', which has a storage function. 'Delete (52)' to delete the old data, 'SMS (54)' having the function to send a short message, 'TTS (Text-To-Speech) having the function to convert the input text content into words 55) ',' WWW 56 'having a function of calling the Internet domain, and' No. 76 'which enables the input of a number are additionally arranged.

또한, 입력된 메시지가 에코(ECHO) 표시되어 사용자가 입력한 내용을 확인할 수 있는 텍스트 표시부(58), 메시지를 수신하는 상대방의 주소가 표시되는 'To:(57)' 등이 데이터 표시 영역으로 형성된다.In addition, a text display unit 58 in which the input message is echoed to confirm the contents input by the user, and 'To: 57', in which the address of the receiving party is displayed, are displayed as data display areas. Is formed.

상기와 같이 이루어지는 본 발명에 따른 키보드 레이아웃(50)은 최소한의 키를 이용하여 모든 데이터를 입력할 수 있도록 하였기 때문에, 디스플레이(15)에 표시되는 키들의 표시 영역을 최대한 크게 표시할 수 있고, 따라서 시점 추적을 통한 좌표 데이터를 이용하여 원하는 키를 입력하는데 따른 오류를 줄일 수 있다.Since the keyboard layout 50 according to the present invention made as described above allows all data to be input using the minimum keys, the display area of the keys displayed on the display 15 can be displayed as large as possible. By using the coordinate data through the viewpoint tracking, an error of inputting a desired key can be reduced.

또한, 데이터 입력의 오류를 줄이기 위하여 마우스 롤오버 기능 즉, 사용자가 시점을 어느 임의의 키에 고정시켰을 때에 선택된 키의 색이 모양이 주변의 다른 키에 대하여 다른 색이나 모양으로 변경되게 함으로써, 사용자가 키를 클릭하기 전에 어떤 키가 입력될 것인지에 대한 확신을 준다.In addition, in order to reduce an error in data input, when the user fixes the viewpoint to any key, the color of the selected key is changed to a different color or shape with respect to other keys nearby. Before you click on a key, you are assured of which key will be entered.

그리고, 상기와 같이 이루어지는 키보드 레이아웃(50)은 각각의 키들이 해당 기능을 수행하기 위해서는 각 키의 기능에 맞는 해당 프로그램이 연결되어 실행되어야 한다.In addition, in order to perform the corresponding functions of the respective keys, the keyboard layout 50 formed as described above has to be connected and executed with a corresponding program corresponding to the function of each key.

본 발명의 실시예 화면에서는 한글을 예로 들어 표시했지만, 영문이나 기타 다른 국가들의 언어 체계도 한글과 비슷하게 배열하여 이용할 수 있다.In the exemplary embodiment of the present invention, although Hangul is displayed as an example, language systems of English or other countries may be arranged and used similarly to Hangul.

상기와 같은 배열을 가지는 키보드 레이아웃과 시점 추적 좌표 입력 시스템을 이용하여 컴퓨터에 데이터를 입력하는 과정은 도 5에 나타낸 바와 같이, 사용자별로 상기 시점 추적부(30) 및 사운드 클릭부(20) 등으로 구성되는 시점 추적 좌표입력 시스템의 시점 설정과 클릭 데이터 설정을 위한 캘리브레이션을 하기 위하여, 컴퓨터 디스플레이(15)에 커서를 이동 표시하고 사용자의 동공이 추적하는 동안에 동공의 위치 변화를 상기 CCD 소자(31)를 이용하여 촬영한다(S 10).As shown in FIG. 5, the process of inputting data into the computer using the keyboard layout having the above arrangement and the viewpoint tracking coordinate input system is performed by the viewpoint tracker 30 and the sound clicker 20 for each user. In order to calibrate for the viewpoint setting and the click data setting of the viewpoint tracking coordinate input system, the CCD display 31 moves and displays the cursor on the computer display 15 and changes the position of the pupil while the pupil of the user is tracked. Shooting using (S 10).

CCD 소자(31)를 이용하여 촬영된 영상으로부터 동공의 위치에 당시의 커서 좌표를 대입하여 동공 위치별로 좌표를 생성한다(S 11).Coordinates are generated for each pupil position by substituting the cursor coordinates at the time from the image photographed using the CCD element 31 at the pupil position (S 11).

그리고, 마이크(21)를 이용하여 비강에서 발생되는 소리를 클릭 데이터로 설정한다(S 12).Then, the sound generated in the nasal cavity is set as click data using the microphone 21 (S 12).

상기 S 10∼S 12 단계를 통하여 동공 위치에 따른 좌표 설정과 클릭을 위한 소리를 등록하는 과정을 통하여 캘리브레이션 과정을 수행한다.Through the steps S 10 to S 12, a calibration process is performed by registering coordinates according to the pupil position and registering a sound for clicking.

상기와 같이 캘리브레이션 과정이 완료되면, 사용자는 컴퓨터에게 데이터 입력을 위한 도 6 및 도 7과 같은 키보드 레이아웃을 표시해 주기를 요청한다(S 13).When the calibration process is completed as described above, the user requests the computer to display the keyboard layout shown in FIGS. 6 and 7 for data input (S 13).

따라서, 컴퓨터의 제어부(10)는 디스플레이(15)에 키보드 레이아웃을 표시하여(S 14), 사용자가 실제 키보드를 이용하여 데이터를 입력하는 것과 유사하게 한다.Accordingly, the controller 10 of the computer displays the keyboard layout on the display 15 (S 14), which is similar to the user inputting data using the actual keyboard.

사용자는 디스플레이(15)에 표시된 키보드 레이아웃을 보면서 입력하고자 하는 키에 시점 추적부(30)를 이용하여 시점을 고정시키면(S 15), 시점이 고정된 위치가 좌표로 변환된다(S 16).When the user fixes the viewpoint using the viewpoint tracker 30 to a key to be input while looking at the keyboard layout displayed on the display 15 (S 15), the position at which the viewpoint is fixed is converted into coordinates (S 16).

시점이 좌표로 변환되면, 해당 좌표에 커서가 표시된다(S 17).If the viewpoint is converted to coordinates, a cursor is displayed on the coordinates (S 17).

상기 S 15∼S17 단계를 통하여 커서를 키보드 레이아웃(50) 상에서 커서를 이동시키면서 사용자는 원하는 키에 시점을 고정시키고, 사운드 클릭부(20)를 통하여 비강 소리를 발생시키면 해당 키가 선택된다(S 18).While moving the cursor on the keyboard layout 50 through the steps S15 to S17, the user fixes a viewpoint to a desired key and generates a nasal sound through the sound clicker 20 to select the corresponding key (S). 18).

제어부는 선택된 키에 대응되는 데이터를 인출하여 그에 맞는 데이터를 상기 텍스트 표시부(58)에 표시하거나, 해당 기능을 처리한다(S 19).The controller fetches data corresponding to the selected key and displays the corresponding data on the text display unit 58 or processes the corresponding function (S19).

이 때, 사용자가 선택한 키가 올바르게 입력되었는지를 사용자에게 알려주기 위하여 키가 선택되면 바로 해당 키를 상기 텍스트 표시부(58)에 에코 표시해 준다(S 20).At this time, if a key is selected to inform the user whether the key selected by the user is correctly input, the corresponding key is echoed on the text display unit 58 (S20).

상기 에코 표시는 해당 키에 대응하는 데이터 입력이나 기능 수행 전에 단순하게 올바른 입력을 위한 확인 과정이다.The echo display simply confirms correct input before inputting data or performing a function corresponding to the corresponding key.

상기한 바와 같이 이루어진 본 발명은 동공 위치를 추적하여 좌표 데이터를 입력할 수 있는 시점 추적 좌표 입력 시스템을 이용하여 실제 키보드와 유사하게 데이터를 입력할 수 있기 때문에 실제 키보드를 사용하기 힘든 상황에 처한 사용자가 데이터를 원활하게 입력할 수 있게 해 주는 효과를 제공한다.According to the present invention made as described above, a user who is in a situation where it is difficult to use a real keyboard because data can be input similarly to a real keyboard using a viewpoint tracking coordinate input system that can input coordinate data by tracking a pupil position. Provides the effect of smooth data entry.

이상에서는 본 발명을 특정의 바람직한 실시예를 예로 들어 도시하고 설명하였으나, 본 발명은 상기한 실시예에 한정되지 아니하며 본 발명의 정신을 벗어나지 않는 범위 내에서 당해 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 다양한 변경과 수정이 가능할 것이다.In the above, the present invention has been illustrated and described with reference to specific preferred embodiments, but the present invention is not limited to the above-described embodiments and the general knowledge in the technical field to which the present invention pertains without departing from the spirit of the present invention. Various changes and modifications will be made by those who possess.

Claims (5)

디스플레이를 바라보는 사용자의 동공을 촬영하여 시점을 추적하여 디스플레이 상에서 좌표를 생성하는 시점 추적 장치와 사용자가 발생하는 소리를 인식하여 클릭 데이터를 생성하는 클릭부를 구비한 컴퓨터를 이용하여 데이터를 입력하는 방법에 있어서,A method of inputting data using a computer having a viewpoint tracking device that generates coordinates on a display by tracking a viewpoint by photographing a pupil of a user looking at a display and a click unit that generates click data by recognizing a sound generated by the user. To (a) 사용자별로 시점 설정과 클릭 데이터 설정을 위한 캘리브레이션을 하기 위하여,(a) In order to calibrate for user setting of viewpoint and click data, (a1) 컴퓨터 디스플레이에 커서를 이동 표시하고 사용자의 동공이 추적하는 동안에 동공의 위치 변화를 촬영하는 단계;(a1) moving and displaying the cursor on a computer display and capturing a change in the position of the pupil while the pupil of the user is being tracked; (a2) 이동 표시되는 커서의 좌표에 동공의 위치 좌표를 대응시켜서 동공의 위치에 대한 좌표를 생성하는 단계;(a2) generating coordinates for the position of the pupil by matching the position coordinates of the pupil with the coordinates of the cursor displayed by movement; (a3) 사용자가 발생시키는 소리를 데이터 선택을 위한 클릭 데이터로 설정하는 단계;(a3) setting a sound generated by a user as click data for data selection; (b) 사용자가 컴퓨터에게 키보드 레이아웃을 요청하는 단계;(b) a user requesting a keyboard layout from a computer; (c) 디스플레이에 키보드 레이아웃을 표시하는 단계;(c) displaying the keyboard layout on the display; (d) 시점 추적 장치를 이용하여 사용자의 시점을 추적하고, 추적된 시점을 좌표로 변환하여 디스플레이에 커서로 표시하는 단계;(d) tracking the user's viewpoint using the viewpoint tracking device, converting the tracked viewpoint into coordinates, and displaying the coordinates on a display by a cursor; (e) 사용자가 키보드 레이아웃 상에서 선택한 키에 맞는 데이터로 변환하는 단계를 포함하는 것을 특징으로 하는 시점 추적 좌표 입력 시스템을 이용한 데이터입력 방법.and (e) converting the data into data corresponding to a key selected by the user on the keyboard layout. 제 1항에 있어서, 상기 (c) 단계에서 표시되는 키보드 레이아웃은 음운을 입력하기 위한 다수의 문자키와, 숫자를 입력하기 위한 다수의 숫자키와, 상기 문자키 또는 숫자키의 입력을 위한 다수의 보조 기능키와, 컴퓨터의 동작을 제어하기 위한 다수의 기능키를 포함하는 것을 특징으로 하는 시점 추적 좌표 입력 시스템을 이용한 데이터 입력 방법.The keyboard layout of claim 1, wherein the keyboard layout displayed in step (c) includes a plurality of character keys for inputting phonology, a plurality of number keys for inputting numbers, and a number of inputs for the character keys or number keys. And a plurality of function keys for controlling the operation of the computer. 제 1항에 있어서, 상기 (e) 단계에서 선택된 키를 디스플레이에 에코 표시하여 사용자가 선택한 키를 확인시켜 주는 단계를 더 포함하여 이루어지는 것을 특징으로 하는 시점 추적 좌표 입력 시스템을 이용한 데이터 입력 방법.The data input method according to claim 1, further comprising the step of echo-displaying the key selected in the step (e) on the display to confirm the key selected by the user. 제 1항에 있어서, 상기 (e) 단계에서 사용자가 입력할 키에 시점을 고정시키면 해당 키의 색 또는 모양이 주변의 다른 키와 다르게 표시되는 것을 특징으로 하는 시점 추적 좌표 입력 시스템을 이용한 데이터 입력 방법.The data input using the viewpoint tracking coordinate input system according to claim 1, wherein if the viewpoint is fixed to a key to be input by the user in step (e), the color or shape of the corresponding key is displayed differently from other surrounding keys. Way. 제 1항에 있어서, 상기 키보드 레이아웃은 한글 자음을 입력하기 위하여 'ㄱ', 'ㄴ', 'ㄷ', 'ㄹ', 'ㅁ', 'ㅂ', 'ㅅ', 'ㅇ', 'ㅈ'과, 상기 'ㄱ', 'ㄷ', 'ㅂ', 'ㅇ', 'ㅈ'의 소리를 격음화시켜 각각 'ㅋ', 'ㅌ', 'ㅍ', 'ㅎ', '??' 의 소리를 입력시킬 수 있는 격음화 키와;The keyboard layout of claim 1, wherein the keyboard layout includes 'a', 'b', 'c', 'ㄹ', 'ㅁ', 'ㅂ', 'ㅅ', 'ㅇ', 'ㅈ' 'And, the sound of' ㄱ ',' ㄷ ',' ㅂ ',' ㅇ ',' ㅈ 'is pronounced so that' ㅋ ',' ㅌ ',' ㄷ ',' ㅎ ',' ?? ' A vowel key for inputting a sound; 한글 모음을 조성 입력할 수 있는 'ㆍ(천)', 'ㅡ(지)', 'ㅣ(인)' 키와;'· (천)', 'ㅡ (지)', 'ㅣ (인)' keys for forming and inputting Korean vowels; 빈칸을 입력해 주는 스페이스 키, 리턴 기능 및 입력 완료 기능을 가지는 엔터 키, 커서를 후진시켜 주는 백스페이스 키, 커서를 상하좌우로 이동시켜 주는 상하좌우 키와, 저장 기능을 가지는 저장 키, 입력된 데이터를 삭제하는 삭제 키, 단문 메시지를 보낼 수 있는 기능을 가지는 SMS 키, 입력된 텍스트 내용을 말로 변환시켜 주는 기능(Text-To-Speech)을 가지는 TTS 키, 인터넷 도메인을 호출하는 기능을 가지는 WWW 키, 번호 입력을 가능하게 해 주는 No 키와;Space key to input blank space, Enter key with return function and input completion function, Backspace key to move cursor back, Up, down, left and right keys to move cursor up, down, left and right, Save key with save function, Input WWW with delete key to delete data, SMS key with ability to send short messages, TTS key with text-to-speech, and Internet domain call A No key for enabling key and number input; 입력된 메시지가 에코(ECHO) 표시되어 사용자가 입력한 내용을 확인할 수 있는 텍스트 표시부, 메시지를 수신하는 상대방의 주소가 표시되는 수신자 표시부가 형성되어 이루어지는 것을 특징으로 하는 시점 추적 좌표 입력 시스템을 이용한 데이터 입력 방법.Data using the viewpoint tracking coordinate input system, characterized in that the input message is echoed to form a text display unit for confirming the user input, and a receiver display unit for displaying the address of the other party receiving the message. Input method.
KR1020010055677A 2001-09-11 2001-09-11 Input Method of Data Using Position Data Input System by Eye Tracking Camera KR20030022538A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020010055677A KR20030022538A (en) 2001-09-11 2001-09-11 Input Method of Data Using Position Data Input System by Eye Tracking Camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020010055677A KR20030022538A (en) 2001-09-11 2001-09-11 Input Method of Data Using Position Data Input System by Eye Tracking Camera

Publications (1)

Publication Number Publication Date
KR20030022538A true KR20030022538A (en) 2003-03-17

Family

ID=27723386

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020010055677A KR20030022538A (en) 2001-09-11 2001-09-11 Input Method of Data Using Position Data Input System by Eye Tracking Camera

Country Status (1)

Country Link
KR (1) KR20030022538A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101410667B1 (en) * 2007-04-09 2014-06-24 삼성전자주식회사 Terminal and method for input character using look and pick thereof
KR101499044B1 (en) * 2013-10-07 2015-03-11 홍익대학교 산학협력단 Wearable computer obtaining text based on gesture and voice of user and method of obtaining the text
CN107122046A (en) * 2017-04-18 2017-09-01 湘潭大学 A kind of wearable amyotrophic lateral sclerosis servicing unit and its implementation based on eye control technology

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1039995A (en) * 1996-07-19 1998-02-13 Nec Corp Line-of-sight/voice input device
US5751260A (en) * 1992-01-10 1998-05-12 The United States Of America As Represented By The Secretary Of The Navy Sensory integrated data interface
JPH10161801A (en) * 1996-11-27 1998-06-19 Sony Corp Input device
JPH10260773A (en) * 1997-03-19 1998-09-29 Nippon Telegr & Teleph Corp <Ntt> Information input method and device therefor
US6215471B1 (en) * 1998-04-28 2001-04-10 Deluca Michael Joseph Vision pointer method and apparatus

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5751260A (en) * 1992-01-10 1998-05-12 The United States Of America As Represented By The Secretary Of The Navy Sensory integrated data interface
JPH1039995A (en) * 1996-07-19 1998-02-13 Nec Corp Line-of-sight/voice input device
JPH10161801A (en) * 1996-11-27 1998-06-19 Sony Corp Input device
JPH10260773A (en) * 1997-03-19 1998-09-29 Nippon Telegr & Teleph Corp <Ntt> Information input method and device therefor
US6215471B1 (en) * 1998-04-28 2001-04-10 Deluca Michael Joseph Vision pointer method and apparatus

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101410667B1 (en) * 2007-04-09 2014-06-24 삼성전자주식회사 Terminal and method for input character using look and pick thereof
KR101499044B1 (en) * 2013-10-07 2015-03-11 홍익대학교 산학협력단 Wearable computer obtaining text based on gesture and voice of user and method of obtaining the text
CN107122046A (en) * 2017-04-18 2017-09-01 湘潭大学 A kind of wearable amyotrophic lateral sclerosis servicing unit and its implementation based on eye control technology

Similar Documents

Publication Publication Date Title
US11410392B2 (en) Information display in augmented reality systems
CN108351685B (en) System and method for biomechanically based eye signals for interacting with real and virtual objects
US6975991B2 (en) Wearable display system with indicators of speakers
KR101777807B1 (en) Sign language translator, system and method
Csapó et al. A survey of assistive technologies and applications for blind users on mobile platforms: a review and foundation for research
JP2021073589A (en) System and method for enabling communication through eye feedback
CN114341779A (en) System, method, and interface for performing input based on neuromuscular control
JP4537901B2 (en) Gaze measurement device, gaze measurement program, and gaze calibration data generation program
WO1999021122A1 (en) Voice-output reading system with gesture-based navigation
US20220326766A1 (en) Object selection based on eye tracking in wearable device
JP3272906B2 (en) Gaze direction detecting method and apparatus and man-machine interface apparatus including the same
WO2016006920A1 (en) System and method for processing information using wearable device
JP2019185230A (en) Conversation processing device and conversation processing system and conversation processing method and program
JP2019061590A (en) Information processing apparatus, information processing system, and program
Hyrskykari Eyes in attentive interfaces: Experiences from creating iDict, a gaze-aware reading aid
JP2007272534A (en) Apparatus, method and program for complementing ellipsis of word
CN110378318B (en) Character recognition method and device, computer equipment and storage medium
JP2006262980A (en) Information terminal and virtual pet display method
KR20030022538A (en) Input Method of Data Using Position Data Input System by Eye Tracking Camera
Czuszynski et al. Septic safe interactions with smart glasses in health care
Carmigniani Augmented reality methods and algorithms for hearing augmentation
US20220277672A1 (en) Display device, display method, and program
KR20220058306A (en) System and Method for Providing Location-based Content using Motion Base and Tracker in Immersive VR Experience Space
JP2009169464A (en) Character input method
Bilal et al. Design a Real-Time Eye Tracker

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application