KR102083372B1 - System for alternative computer access using eye-tracking and voice recognition and operating method having the same - Google Patents

System for alternative computer access using eye-tracking and voice recognition and operating method having the same Download PDF

Info

Publication number
KR102083372B1
KR102083372B1 KR1020170118574A KR20170118574A KR102083372B1 KR 102083372 B1 KR102083372 B1 KR 102083372B1 KR 1020170118574 A KR1020170118574 A KR 1020170118574A KR 20170118574 A KR20170118574 A KR 20170118574A KR 102083372 B1 KR102083372 B1 KR 102083372B1
Authority
KR
South Korea
Prior art keywords
gaze point
eye
mouse cursor
user
mouse
Prior art date
Application number
KR1020170118574A
Other languages
Korean (ko)
Other versions
KR20190030928A (en
Inventor
곽성은
김이삭
심드보라
이승환
황성수
Original Assignee
한동대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한동대학교 산학협력단 filed Critical 한동대학교 산학협력단
Priority to KR1020170118574A priority Critical patent/KR102083372B1/en
Publication of KR20190030928A publication Critical patent/KR20190030928A/en
Application granted granted Critical
Publication of KR102083372B1 publication Critical patent/KR102083372B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0334Foot operated pointing devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback

Abstract

본 발명은 아이트래킹 및 음성인식을 활용한 컴퓨터 대체접근 시스템 및 이의 동작 방법에 관한 것이다.
본 발명은 사용자의 안구의 움직임의 추적하여 화면상에 마우스커서를 이동하는 사용자단말기와, 사용자로부터 입력된 신호를 상기 사용자단말기에 송신하는 외부입력기기를 포함하고, 상기 사용자단말기는, 상기 사용자단말기의 전면에 배치되어 사용자의 눈동자 영상을 촬영하는 카메라부와, 상기 눈동자 영상으로부터 외곽선 검출을 통해 안구를 인식하여 응시점좌표를 획득하는 안구인식부와, 인식된 안구로부터 응시점 좌표를 획득하고 응시점 필터링을 수행하는 응시점처리부와, 응시점 필터링을 수행한 결과에 따라 마우스 커서를 이동시키고, 현재의 응시점 좌표와 이전의 응시점 좌표와 비교하여 소정의 거리의 차이가 이상일 때 마우스커서를 이동시키는 마우스커서이동부를 포함한다.
The present invention relates to a computer alternative access system using eye tracking and speech recognition and a method of operating the same.
The present invention includes a user terminal for moving the mouse cursor on the screen by tracking the movement of the eyeball of the user, and an external input device for transmitting a signal input from the user to the user terminal, the user terminal, the user terminal A camera unit for photographing the pupil image of the user, an eye recognition unit for acquiring gaze coordinates by recognizing the eye through the edge detection from the pupil image, and obtaining gaze point coordinates from the recognized eye The gaze point processor that performs point filtering and the mouse cursor move according to the result of the gaze point filtering, and when the distance between the current gaze point coordinates and the previous gaze point coordinates is greater than a predetermined distance, the mouse cursor is moved. It includes a mouse cursor moving unit for moving.

Description

아이트래킹 및 음성인식을 활용한 컴퓨터 대체접근 시스템 및 동작 방법{SYSTEM FOR ALTERNATIVE COMPUTER ACCESS USING EYE-TRACKING AND VOICE RECOGNITION AND OPERATING METHOD HAVING THE SAME}SYSTEM FOR ALTERNATIVE COMPUTER ACCESS USING EYE-TRACKING AND VOICE RECOGNITION AND OPERATING METHOD HAVING THE SAME}

본 발명은 아이트래킹 및 음성인식을 활용한 컴퓨터 대체접근 시스템에 관한 것으로, 특히 아이트래킹을 통해 마우스커서를 이동하고, 음성인식과 외부장치를 이용하여 입력 신호를 전달하는 지체장애인을 위한 컴퓨터 대체접근 시스템에 관한 것이다. The present invention relates to a computer alternative access system using eye tracking and voice recognition, and more particularly, a computer alternative approach for a physically handicapped person who moves a mouse cursor through eye tracking and transmits an input signal using voice recognition and an external device. It is about the system.

컴퓨터 대체접근 보조기기는 지체장애인이 컴퓨터를 보다 쉽게 사용하도록 도와주는 보조기기이다. 최근 정보통신기술의 발달로 지체장애인의 사회활동 참여에 대한 욕구가 높아져 그 필요성이 증대되고 있다. Computer-accessible assistive devices are assistive devices that help people with disabilities use computers more easily. Recently, with the development of information and communication technology, the need for participation of socially disabled people is increasing.

한편, 이러한 기기들은 대부분 발, 머리 등을 이용하여 컴퓨터에 접근할 수 있도록 하는데, 지체장애인의 특성상 발, 머리 등을 이용하여 마우스를 컨트롤하는 것은 쉽지 않으며 속도와 정확도면에서 한계가 있다. 이러한 문제를 개선하기 위해 눈을 깜빡이거나 일정시간 같은 지점을 바라보는 것을 인식하여 마우스 접근하는 아이트래킹 기술이 제안되고 있으나 인식율이 떨어지고 사용하기 불편한 문제가 있다. 종래기술로는 한국등록특허 제10-1501165호(눈동자 추적을 이용한 안구 마우스)가 있으나, 적외선 카메라에서 획득한 컬러 영상 데이터를 계조 변환하고 외곽선 검출을 통해 안구를 인식하는 내용을 개시하고 있을 뿐이다.On the other hand, most of these devices provide access to the computer using the foot, head, etc. Due to the characteristics of the physically handicapped, it is not easy to control the mouse using the foot, head, etc., and there are limitations in speed and accuracy. In order to improve such a problem, eye tracking technology for approaching a mouse by recognizing blinking eyes or looking at a point like a certain time has been proposed, but there is a problem that the recognition rate is low and it is inconvenient to use. Prior arts include Korean Patent No. 10-1501165 (Eye Mouse Using Eye Tracking), but it merely discloses contents of gradation conversion of color image data acquired from an infrared camera and eye recognition through edge detection.

본 발명이 해결하고자 하는 과제는 상기의 문제점을 해결하기 위해 안출된 것으로 지체장애인이 컴퓨터를 보다 쉽게 사용 가능하도록 구현된 아이트래킹 및 음성인식을 활용한 컴퓨터 대체접근 시스템을 제공하는 데 있다.The problem to be solved by the present invention is to provide a computer alternative access system utilizing eye tracking and speech recognition implemented to solve the above problems to make it easier for people with disabilities to use a computer.

상기한 목적을 달성하기 위한 본 발명은 사용자의 안구의 움직임의 추적하여 화면상에 마우스커서를 이동하는 사용자단말기와, 사용자로부터 입력된 신호를 상기 사용자단말기에 송신하는 외부입력기기를 포함하고, 상기 사용자단말기는, 상기 사용자단말기의 전면에 배치되어 사용자의 눈동자 영상을 촬영하는 카메라부와, 상기 눈동자 영상으로부터 외곽선 검출을 통해 안구를 인식하여 응시점좌표를 획득하는 안구인식부와, 인식된 안구로부터 응시점 좌표를 획득하고 응시점 필터링을 수행하는 응시점처리부와, 응시점 필터링을 수행한 결과에 따라 마우스 커서를 이동시키고, 현재의 응시점 좌표와 이전의 응시점 좌표와 비교하여 소정의 거리의 차이가 이상일 때 마우스커서를 이동시키는 마우스커서 이동부를 포함한다.The present invention for achieving the above object includes a user terminal for moving the mouse cursor on the screen by tracking the movement of the eyeball of the user, and an external input device for transmitting a signal input from the user to the user terminal, The user terminal is disposed in front of the user terminal, the camera unit for capturing the eye image of the user, the eye recognition unit for acquiring gaze coordinates by recognizing the eye through the detection of the outline from the eye image, and from the recognized eye A gaze point processing unit which acquires gaze point coordinates and performs gaze point filtering, and moves the mouse cursor according to the gaze point filtering result, and compares the present gaze point coordinates with previous gaze point coordinates to determine a predetermined distance. It includes a mouse cursor moving unit for moving the mouse cursor when the difference is abnormal.

위와 같은 과제해결수단을 통하여 본 발명은 아이트래킹을 통해 마우스커서를 이동하고, 음성인식과 외부장치를 이용하여 입력 신호를 전달하여 지체장애인이 보다 쉽게 컴퓨터를 사용할 수 있다.The present invention through the above problem solving means moves the mouse cursor through the eye tracking, and transfer the input signal by using the voice recognition and external devices can be easily disabled people using the computer.

또한, 응시점 필터링을 수행하여 마우스 떨림을 방지하고, 후킹 기술을 통해 외부입력버튼을 선택하면 마우스 왼쪽 클릭이 작동하도록 하여 신속하고 간편하게 조작할 수 있다. In addition, gaze-point filtering is performed to prevent mouse shaking, and when an external input button is selected through a hooking technology, left-clicking of the mouse operates to operate quickly and easily.

도 1은 본 발명의 일실시예에 따른 아이트래킹 및 음성인식을 활용한 컴퓨터 대체접근 시스템의 구성도이다.
도 2는 본 발명의 본 발명의 일실시예에 따른 아이트래킹 및 음성인식을 활용한 컴퓨터 대체접근 시스템의 동작방법이다.
도 3 내지 도 7은 본 발명의 일실시예에 따른 아이트래킹 및 음성인식을 활용한 컴퓨터 대체접근 시스템의 동작예이다.
도 8 내지 도 9는 본 발명의 일실시예에 따른 아이트래킹 및 음성인식을 활용한 컴퓨터 대체접근 시스템과 종래기술과의 비교예이다.
1 is a block diagram of a computer alternative access system using eye tracking and voice recognition according to an embodiment of the present invention.
2 is an operation method of a computer alternative access system using eye tracking and voice recognition according to an embodiment of the present invention.
3 to 7 are examples of the operation of the computer alternative access system using eye tracking and voice recognition according to an embodiment of the present invention.
8 to 9 are comparative examples of a computer alternative access system using eye tracking and voice recognition according to an embodiment of the present invention and the prior art.

본 명세서에 개시되어 있는 본 발명의 개념에 따른 실시 예들에 대해서 특정한 구조적 또는 기능적 설명은 단지 본 발명의 개념에 따른 실시 예들을 설명하기 위한 목적으로 예시된 것으로서, 본 발명의 개념에 따른 실시 예들은 다양한 형태들로 실시될 수 있으며 본 명세서에 설명된 실시 예들에 한정되지 않는다.Specific structural or functional descriptions of the embodiments according to the inventive concept disclosed herein are provided only for the purpose of describing the embodiments according to the inventive concept. It may be embodied in various forms and is not limited to the embodiments described herein.

본 발명의 개념에 따른 실시 예들은 다양한 변경들을 가할 수 있고 여러 가지 형태들을 가질 수 있으므로 실시 예들을 도면에 예시하고 본 명세서에서 상세하게 설명하고자 한다. 그러나 이는 본 발명의 개념에 따른 실시 예들을 특정한 개시 형태들에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물, 또는 대체물을 포함한다.Embodiments according to the inventive concept may be variously modified and have various forms, so embodiments are illustrated in the drawings and described in detail herein. However, this is not intended to limit the embodiments in accordance with the concept of the present invention to the specific forms disclosed, it includes all changes, equivalents, or substitutes included in the spirit and scope of the present invention.

본 명세서에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로서, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 본 명세서에 기재된 특징, 숫자, 단계, 동작, 구성 요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성 요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is for the purpose of describing particular example embodiments only and is not intended to be limiting of the invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In this specification, terms such as "comprise" or "have" are intended to indicate that there is a feature, number, step, action, component, part, or combination thereof described herein, but one or more other features. It is to be understood that the present invention does not exclude the possibility of the presence or the addition of numbers, steps, operations, components, parts, or combinations thereof.

이하, 본 명세서에 첨부된 도면들을 참조하여 본 발명의 실시 예들을 상세히 설명한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일실시예에 따른 아이트래킹 및 음성인식을 활용한 컴퓨터 대체접근 시스템의 구성도이다.1 is a block diagram of a computer alternative access system using eye tracking and voice recognition according to an embodiment of the present invention.

도 1을 참조하면, 컴퓨터 대체접근 시스템(10)은 사용자단말기(100)와 외부입력장치(200)로 구성된다. Referring to FIG. 1, the computer alternative access system 10 includes a user terminal 100 and an external input device 200.

사용자단말기(100)는 카메라부(110), 안구인식부(120), 응시점처리부(130), 마우스커서이동부(140), 제어부(150), 표시부(160), 텍스트입력부(170), 음성입력부(180), 통신부(190)를 포함한다. 본 발명의 명세서에서의 사용자단말기(100)는 컴퓨팅 장치로서, 스마트폰, 태블릿PC처럼 운영체제 소프트웨어와 다양한 애플리케이션 소프트웨어에 의해 정해진 프로세서를 실행할 수 있고, 휴대가 용이하여 이동중에도 쉽게 활용할 수 있는 모바일 컴퓨팅 디바이스이나 이에 대해 한정하는 것은 아니며, 데스크탑PC, 랩탑PC도 적용가능하다. The user terminal 100 includes a camera unit 110, an eyeball recognition unit 120, a gaze point processing unit 130, a mouse cursor moving unit 140, a control unit 150, a display unit 160, a text input unit 170, and a voice. The input unit 180 and the communication unit 190 are included. The user terminal 100 in the specification of the present invention is a computing device, such as a smart phone, tablet PC can run a processor determined by the operating system software and various application software, a mobile computing device that is easy to carry and can be easily used on the go However, the present invention is not limited thereto, and a desktop PC and a laptop PC can also be applied.

카메라부(110)는 사용자단말기(100)의 전면에 배치되어 사용자의 눈동자 영상을 촬영한다. 카메라부(110)는 눈동자의 움직임을 감지하여 위치를 추적할 수 있고, 비디오 분석방식, 콘택트렌즈방식, 센서부착방식 중 적어도 하나를 사용한다. 상기 비디오 분석방식은 실시간 카메라 이미지의 분석을 통해 동공의 움직임을 검출하고, 각막에 반사된 고정 위치를 기준으로 시선의 방향을 계산한다. 상기 콘택트렌즈방식은 거울 내장 콘택트렌즈의 반사된 빛이나, 코일 내장 콘택트렌즈의 자기장을 이용한다. 상기 센서 부착 방식은 눈 주위에 센서를 부착하여 눈의 움직임에 따른 전기장을 이용하며, 눈을 감고 있는 경우에도 눈의 움직임 검출이 가능하다.The camera unit 110 is disposed in front of the user terminal 100 to photograph the pupil image of the user. The camera unit 110 may track the position by detecting the movement of the pupil, and uses at least one of a video analysis method, a contact lens method, and a sensor attachment method. The video analysis method detects pupil movement through analysis of a real-time camera image and calculates the direction of the eye based on a fixed position reflected by the cornea. The contact lens method uses reflected light of a mirror-embedded contact lens or a magnetic field of a coil-embedded contact lens. The sensor attachment method uses an electric field according to the movement of the eyes by attaching the sensor around the eyes, and the movement of the eyes can be detected even when the eyes are closed.

안구인식부(120)는 카메라부(110)에서 촬영한 눈동자 영상으로부터 외곽선 검출을 통해 사용자의 안구를 인식할 수 있으며, 이를 통해 안구가 응시하는 좌표를 획득할 수 있다.The eye recognition unit 120 may recognize the eyeball of the user through the detection of the outline from the pupil image photographed by the camera unit 110, thereby obtaining the coordinates gaze at the eyeball.

응시점처리부(130)는 인식된 안구로부터 응시점 좌표를 획득하고 응시점 필터링을 수행한다. 응시점처리부(130)는 응시점 필터링 과정을 통해 응시점의 떨림으로 인한 마우스 커서의 흔들림을 최소화할 수 있다. 상기 응시점 필터링은 현재의 응시점과 이전의 응시점을 비교하여 그 거리의 차이가 50pixel 이상일 때만 현재의 응시점으로 마우스 커서를 이동시키고 만일 50pixel 이하일 경우에는 마우스 커서를 이동시키지 않는다. The gaze point processor 130 obtains gaze point coordinates from the recognized eye and performs gaze point filtering. The gaze point processor 130 may minimize the shaking of the mouse cursor due to the gaze of the gaze point through the gaze point filtering process. The gaze-point filtering compares the current gaze point and the previous gaze point and moves the mouse cursor to the current gaze point only when the distance difference is 50 pixels or more, and does not move the mouse cursor if it is 50 pixels or less.

마우스커서이동부(140)는 안구인식부(120)로부터 응시점의 좌표를 얻은 후 필터링을 거친 후에 마우스 커서를 이동시킨다. 마우스 커서의 위치가 응시점의 위치와 다른 경우, 사용자는 응시점 보정을 통하여 마우스 커서와 응시점의 위치를 일치시킬 수 있다. 예컨대, 마우스 좌표의 위치가 응시점의 위치보다 오른쪽에 위치한다면, 사용자는 기설정된 특정키를 누른다. 이 때 특정키의 메시지를 후킹하여 마우스 커서의 위치를 5pixel씩 왼쪽으로 이동시킬 수 있다. The mouse cursor moving unit 140 obtains the coordinates of the gaze point from the eye recognition unit 120 and then moves the mouse cursor after filtering. When the position of the mouse cursor is different from the position of the gaze point, the user may match the position of the mouse cursor and the gaze point through gaze point correction. For example, if the position of the mouse coordinate is located to the right of the position of the gaze point, the user presses a predetermined specific key. At this time, you can hook the message of a specific key and move the position of the mouse cursor to the left by 5 pixels.

제어부(150)는 소프트웨어의 실행에 관련한 프로세스의 처리를 제어하며, 상용자단말기(100)의 각 구성의 동작을 제어한다. 제어부(150)는 소프트웨어뿐 아니라 월드 와이드 웹을 통해 웹 브라우저를 이용하여 실행에 관련한 프로세스의 처리를 제어할 수 있다. The controller 150 controls the processing of the process related to the execution of the software, and controls the operation of each component of the commercial terminal 100. The controller 150 may control processing of processes related to execution using a web browser through the world wide web as well as software.

표시부(160)는 소프트웨어 GUI 상에 마우스커서의 이동을 표시할 수 있고, 다양한 컨텐츠를 제공할 수 있다.The display unit 160 may display the movement of the mouse cursor on the software GUI and provide various contents.

텍스트입력부(170)는 입력수단에 의해 실행되는 입력 이벤트를 수신한다. 텍스트입력부(170)는 화상키보드로 구현되며 안구인식부(120)로부터 수신된 좌표에 기초하여 자음 및 모음 조합의 텍스트를 입력할 수 있다. 또한, 외부입력장치(200)로부터 수신된 입력신호에 의해 텍스트 조합을 생성할 수 있다. The text input unit 170 receives an input event executed by the input means. The text input unit 170 may be implemented as an image keyboard and may input text of a consonant and vowel combination based on the coordinates received from the eye recognition unit 120. In addition, the text combination may be generated by the input signal received from the external input device 200.

음성입력부(180)는 음성인식을 통해 수신된 사용자의 음성에 기초하여 텍스트로 변환할 수 있다. POST 메소드를 통해 API Server에 flac형태의 음성파일을전송한다. 그후 GET 메소드를 통해 음성을 Json형태의 데이터로 전달받는다. 마지막으로 Json형식의 데이터에서 필요한 텍스트만 추출한 후 사용한다. 마이크를 통하여 소리를 녹음하기 위해 Window API를사용한다. 그후 wav파일의 형식을 맞추고 flac 파일로 변환하기 위하여 NAudio 라이브러리, CUETool 라이브러리를 사용한다. 마지막으로 API Server를 통해 전달받은 Json 형태의 문자를 파싱하기 위하여 Newtonsoft 라이브러리를 사용하여 음성인식을 기능을 구현할 수 있다.The voice input unit 180 may convert the text to text based on the voice of the user received through voice recognition. Send flac type voice file to API Server through POST method. After that, voice is delivered as Json type data through GET method. Finally, extract only necessary text from Json format data. Use the Window API to record sound through the microphone. Then use the NAudio library and the CUETool library to format wav files and convert them to flac files. Finally, in order to parse the Json-type texts delivered through API Server, Newtonsoft library can be used to implement speech recognition.

통신부(190)는 외부입력장치(200)와 데이터를 주고 받는 역할을 하는 통신 모듈이다. 외부입력장치(200)의 통신부로부터 입력신호를 수신할 수 있다.The communication unit 190 is a communication module that plays a role of exchanging data with the external input device 200. The input signal may be received from the communication unit of the external input device 200.

외부입력장치(200)는 지체장애인이 조작하기 쉽도록 페달/풋스위치(foot switch)로 구현될 수 있고, 마우스 클릭 기능을 수행한다. 유무선 통신을 통해 사용자단말기(100)에 입력신호를 송신할 수 있다. 즉, 마우스클릭은 외부입력장치를 누름으로 발생한다. 이러한 작동은 후킹(Hooking) 기술을 통해 이루어진다. 후킹이란 어떤 이벤트가 발생하여 생겨난 메시지를 가로채는 기술이다. 예를 들어, 'a'키를 눌렀을 때 이에 대한 메시지를 후킹하면, 'a'를 입력하는 대신 다른 Action을 발생시킨다. 이와 같은 방식으로, 외부버튼을 누르면 해당메시지를 후킹하여, 마우스왼쪽버튼 Down이벤트를 발생시킨다. 또한, 외부버튼을 떼면 해당메시지를 후킹하여 마우스 왼쪽 버튼 Up이벤트를 발생 시켜 마우스 클릭이 작동한다.The external input device 200 may be implemented as a pedal / foot switch to facilitate a physically handicapped person, and performs a mouse click function. An input signal may be transmitted to the user terminal 100 through wired or wireless communication. That is, the mouse click is generated by pressing the external input device. This operation is accomplished through a hooking technique. Hooking is a technique for intercepting a message that is generated by an event. For example, if you hook a message about pressing the 'a' key, instead of typing 'a', you'll trigger another Action. In this way, when the external button is pressed, the corresponding message is hooked to generate the left mouse button Down event. In addition, when the external button is released, the mouse is operated by hooking the corresponding message to generate the left mouse button Up event.

도 2는 본 발명의 본 발명의 일실시예에 따른 아이트래킹 및 음성인식을 활용한 컴퓨터 대체접근 시스템의 동작방법이다.2 is an operation method of a computer alternative access system using eye tracking and voice recognition according to an embodiment of the present invention.

도 2를 참조하면, 컴퓨터 대체접근 시스템(10)은 먼저 사용자단말기(100)의 카메라부(110)가 사용자의 안구 영상을 촬영하고, 안구를 인식한다(S210). 사용자단말기(100)의 안구인식부(120)가 안구가 응시하는 응시점을 추출하고(S220), 응시점처리부가 응시점을 필터링한다(S230). 마우스커서이동부(140)가 응시점 좌표에 기초하여 마우스 커서를 이동하거나 텍스트를 입력한다. 외부입력장치(200)로부터 사용자의 입력신호를 수신하면 마우스클릭과 같은 동작을 실행한다.Referring to FIG. 2, in the alternative computer access system 10, the camera unit 110 of the user terminal 100 first photographs an eyeball image of a user and recognizes an eyeball (S210). The eye recognition unit 120 of the user terminal 100 extracts a gaze point at which the eye gazes (S220), and the gaze point processing unit filters the gaze point (S230). The mouse cursor moving unit 140 moves the mouse cursor or inputs text based on the gaze point coordinates. When the user receives an input signal from the external input device 200, an operation such as a mouse click is executed.

도 3 내지 도 7은 본 발명의 일실시예에 따른 아이트래킹 및 음성인식을 활용한 컴퓨터 대체접근 시스템의 동작예이다.3 to 7 are examples of operations of a computer alternative access system using eye tracking and voice recognition according to an embodiment of the present invention.

도 3은 본 발명의 사용자단말기(100)의 표시부에 제공되는 소프트웨어의 첫실행화면이다. 소프트웨어를 처음 시작하게 되면 메인화면(310)과 마우스, 키보드, 인터넷 등의 버튼을 가진 메인 툴바(320)가 기본으로 로딩되며, 여기서 인터넷 버튼을 통해 인터넷을 실행하면 로그인, 검색 등을 버튼으로 가진 '인터넷 툴바'가 실행 된다.3 is a first execution screen of software provided in a display unit of the user terminal 100 of the present invention. When the software is started for the first time, the main toolbar 320 having a main screen 310 and a mouse, keyboard, and the Internet button is loaded by default. When the Internet is executed through the Internet button, login, search, etc. 'Internet Toolbar' is launched.

도 4는 마우스 버튼을 선택했을 때의 화면을 나타낸 것으로, 메인툴바 안의 마우스를 클릭하면 오른쪽 사진과 같이 또 다른 창(310b)이 나타난다. 외부버튼을 한 번 누르면 기본적으로 왼쪽 클릭이 실행되고, 그 외의 클릭은 오른쪽 사진의 기능들을 클릭함으로써 실행될 수 있다. 오른쪽 클릭, 더블 클릭, 드래그 기능(320b)들은 클릭 시 한 번만 실행되고 그 다음번에 실행되는 클릭은 디폴트인 왼쪽 클릭으로 되돌아간다.4 shows a screen when a mouse button is selected. Another window 310b appears as shown in the right picture when the mouse is clicked in the main toolbar. Pressing the external button once performs a left click by default, and any other click can be done by clicking the functions in the right picture. The right click, double click and drag functions 320b are executed only once when clicked and the next clicked execution returns to the default left click.

도 5는 인터넷 버튼을 선택했을 때의 화면을 나타낸 것으로, 메인툴바(320d) 안의 인터넷 버튼을 누르면 다음과 같이 인터넷 창이 자동으로 켜지고 왼쪽에는 인터넷 툴바(320c)가 별도로 켜지게 된다.5 shows a screen when the Internet button is selected. When the Internet button in the main toolbar 320d is pressed, the Internet window is automatically turned on as shown below, and the Internet toolbar 320c is turned on on the left side separately.

도 6은 키보드 버튼을 선택했을 때의 화면을 나타낸 것으로, 메인툴바 안의 키보드 버튼(340a)을 클릭하면 키보드가 전체 화면으로 켜지며 한글, 영어, 특수문자로 구성되어 있다. 키보드를 사용하는 방법은 총 두가지로 첫번째는 입력하고 싶은 철자 하나하나를 눈으로 응시하고 외부버튼을 누름으로써 글자를 입력하는 방법이다. 두번째는 키보드의 음성인식을 이용한 방법이다. 마이크 버튼을 누르면 붉은색으로 변하고, 텍스트를 마이크로 말하고 다시 버튼을 클릭하면 본래의 색인 초록색으로 변하게 된다. 그리고 음성으로 입력된 텍스트가 화면상에 나타나게 된다.6 shows a screen when a keyboard button is selected. When the keyboard button 340a in the main toolbar is clicked, the keyboard is turned on in the full screen and is composed of Korean, English, and special characters. There are two ways to use the keyboard. The first is to stare at each letter you want to enter and press the external button to enter letters. The second method is to use the voice recognition of the keyboard. Pressing the microphone button turns red, speaking the text into the microphone and clicking the button again changes the original color to green. The text input by the voice is displayed on the screen.

도 7은 키보드 버튼을 선택했을 때의 Gaze Keeper를 설명하는 것으로, 화상키보드를 통한 문자 입력 시 사용자는 눈을 통해 버튼을 누름과 동시에 현재 문자열이 잘 작성되고 있는지 확인하여야 한다. 따라서 사용자는 입력부(353a)와 출력부(351aa)를 번갈아 보아야 하는데 이와 같은 번거로움을 최소화하기 위해 입력부에서도 입력중인 문자를 어절 단위로 출력시킨다.7 illustrates a Gaze Keeper when a keyboard button is selected. When a character is input through the image keyboard, the user should check whether the current string is well written while pressing the button through his eyes. Therefore, the user has to alternate between the input unit 353a and the output unit 351aa. In order to minimize the inconvenience, the input unit also outputs the characters being input in word units.

도 8 내지 도 9는 본 발명의 일실시예에 따른 아이트래킹 및 음성인식을 활용한 컴퓨터 대체접근 시스템과 종래기술과의 비교예이다.8 to 9 are comparative examples of a computer alternative access system using eye tracking and voice recognition according to an embodiment of the present invention and the prior art.

종래기술과의 비교를 위해 피실험자들은 다음과 같이 네 가지 유형으로 구분한다. 신체제약이 없고 일반 키보드 및 마우스를 통해 컴퓨터를 사용하는 피실험자1과, 손과 팔의 움직임은 자유로우나 손가락 사용에 제약이 있고 터치스크린 모니터를 통해 컴퓨터를 사용하는 피실험자2와, 손과 팔 사용의 제약이 있으며 마우스 스틱을 통해 컴퓨터를 사용하는 피실험자3과, 손과 팔 및 시선과 고개 고정의 제약이 있으며 적합한 대체기기가 없어 일반키보드 및 마우스를 통해 컴퓨터를 사용하는 피실험자4로 나눈다.For comparison with the prior art, subjects are divided into four types as follows. Subject 1 without physical constraints and using a computer via a normal keyboard and mouse, hands and arm movements are free but limited in using fingers, and Subject 2 using a computer via a touch screen monitor, and hand and arm use. It is divided into subject 3 who uses computer through mouse stick, and subject 4 who uses computer through general keyboard and mouse because there is restriction of hand, arm, eye and head fixation.

도 8(a)는 피실험자1의 실험 수행결과이고, 도 8(b)는 피실험자2의 실험 수행결과이고, 도 9(a)는 피실험자3의 실험 수행결과이고, 도9(b)는 피실험자4의 실험수행결과이다.8 (a) is the test result of the test subject 1, FIG. 8 (b) is the test result of the test subject 2, FIG. 9 (a) is the test result of the test subject 3, Figure 9 (b) is the test subject 4 Is the result of experiment.

실험1은 포털사이트 로그인 완료 시간으로, 피실험자1과 피실험자2의경우, 기존의 컴퓨터 접근 방식을 통한 포털사이트 로그인 속도가 제안하는 시스템보다 각각 4.42(초), 2.91(초) 빠르다. 피실험자3의 경우, 제안하는 시스템을 통한 포털사이트 로그인 속도가 대체 기기보다 13.22(초) 빠르다. 피실험자4의 경우, 대체 기기를 통한 포털사이트 로그인 속도가 제안하는 시스템보다 31.29(초) 빠르다.Experiment 1 is the portal site login completion time. In case of Subject 1 and Subject 2, the portal site login speed is 4.42 (sec) and 2.91 (sec) faster than the proposed system. In Test Subject 3, the portal site login speed through the proposed system is 13.22 seconds faster than the alternative device. In Test Subject 4, the portal site login speed through the alternate device was 31.29 seconds faster than the proposed system.

실험2는 포털사이트 검색 속도으로, 피실험자1의 경우, 기존의 컴퓨터 접근 방식을 통한 포털사이트 검색 속도가 제안하는 시스템보다 6.9(초) 빠르다. 피실험자2의 경우, 기존의 컴퓨터 접근 방식과 제안하는 시스템을 통한 포털사이트 검색속도가 비슷하며 0.24(초) 차이가 난다. 피실험자3의 경우, 제안하는 시스템을 통한 네이버 포털사이트 검색 속도가 대체 기기보다 8.99(초) 빠르다. 피실험자4의 경우, 발음이 매우 어눌하여 음성 인식이 제대로 작동하지 않으므로 제안하는 시스템을 통한 포털사이트 검색 실험을 하지 못하였다.Experiment 2 is the search speed of portal site, and in case of test subject 1, the search speed of portal site through the conventional computer approach is 6.9 (sec) faster than the proposed system. In case of Subject 2, the search speed of the portal site through the proposed computer approach and the proposed system is similar, with a difference of 0.24 seconds. In case of Subject 3, the search speed of Naver portal site through the proposed system is 8.99 (seconds) faster than the alternative device. In case of test subject 4, the pronunciation of speech was so great that the speech recognition did not work properly.

실험3은 동영상 사이트 검색 속도로서, 피실험자1의 경우, 기존의 컴퓨터 접근 방식과 제안하는 시스템을 통한 동영상 사이트 검색 속도가 비슷하며 0.86(초) 차이가 난다. 피실험자2의 경우, 제안하는 시스템을 통한 동영상 사이트 검색 속도가 대체 기기보다 3.94(초) 빠르다. 피실험자3의 경우, 제안하는 시스템을 통한 동영상 사이트 검색 속도가 대체 기기보다 15.23(초) 빠르다. 피실험자4의 경우, 발Experiment 3 is the video site search speed. In case of test subject 1, the video site search speed is similar to that of the conventional computer approach and the proposed system, and the difference is 0.86 (seconds). In case of Subject 2, the video site search speed through the proposed system is 3.94 seconds faster than the alternative device. In Test Subject 3, the video site search speed through the proposed system is 15.23 seconds faster than the alternative device. For test subject 4, the foot

음이 매우 어눌하여 음성 인식이 제대로 작동하지 않으므로, 제안하는 시스템을 통한 동영상 사이트 검색 실험을 하지 못하였다.Since the speech was so confused that speech recognition did not work properly, we could not experiment the video site search through the proposed system.

신체제약이 없는 피실험자1의 경우 기존의 컴퓨터 접근방식과 제안하는 시스템으로 각각 세 차례의 실험을 수행하여 도 8(a)와 같은 결과를 나타냈다. 모든 실험에서 기존의 컴퓨터 접근 방식이 제안하는 시스템보다 적은 시간이 소요되었다. 이러한 결과를 토대로 피실험자1은 컴퓨터를 기존의 컴퓨터 접근 방식으로 사용하는 것이 적절하다고 판단할 수 있다.In case of test subject 1 without physical constraints, three experiments were performed using the conventional computer approach and the proposed system, respectively. In all experiments, the conventional computer approach took less time than the proposed system. Based on these results, Subject 1 can determine that it is appropriate to use a computer in the conventional computer approach.

손과 팔의 움직임은 자유로우나 손가락 사용에 제약이 있는 피실험자2는 기존의 컴퓨터 접근 방식과 제안하는 시스템으로 각각 세 차례의 실험을 수행하여 도 8(b)와 같은 결과를 나타냈다. 실험1에서는 기존의 컴퓨터 접근 방식이 제안하는 시스템보다 빠르지만 실험2, 3에서는 제안하는 시스템이 기존의 컴퓨터 접근 방식보다 비슷하거나 빠른 수치를 나타내었다. 이는 실험2, 3에서 제안하는 시스템의 음성인식을 통한 검색어 입력 속도가 기존의 컴퓨터 접근 방식을 통한 검색어 입력 속도보다 빠르기 때문인 것으로 보인다. 이에 따라 피실험자2의 경우 마우스 조작 속도는 기존의 컴퓨터 접근 방식이 더 빠르나 검색어 입력 속도는 제안하는 시스템이 더 빠름을 알 수 있다.Hand and arm movements were free, but subject 2, who had limitations in using fingers, performed three experiments with the conventional computer approach and the proposed system, respectively. In Experiment 1, the conventional computer approach is faster than the proposed system, but in Experiments 2 and 3, the proposed system is similar or faster than the conventional computer approach. This seems to be because the search word input speed through the voice recognition of the system proposed in Experiments 2 and 3 is faster than the search word input speed through the conventional computer approach. Accordingly, in case of Test Subject 2, the mouse operation speed is faster than that of the conventional computer approach, but the proposed system is faster than the search word input speed.

손과 팔 사용의 제약이 있는 피실험자3은 기존의 컴퓨터접근 방식과 제안하는 시스템으로 각각 세 차례의 실험은 수행하여 도 9(a)와 같은 결과를 나타냈다. 모든 실험에서 제안하는 시스템이 기존의 컴퓨터 접근 방식보다 적은 시간이 소요되었다. 이러한 결과를 토대로 피실험자3은 컴퓨터를 제안하는 시스템으로 사용하는 것이 적절하다고 판단할 수 있다.Subject 3, who had limitations in using the hand and arm, performed three experiments with the conventional computer access method and the proposed system, respectively, and showed the result as shown in FIG. 9 (a). In all experiments, the proposed system took less time than the conventional computer approach. Based on these results, Subject 3 can determine that it is appropriate to use a computer as a proposed system.

손과 팔 및 시선과 고개 고정의 제약이 있는 피실험자4는 기존의 컴퓨터 접근 방식과 제안하는 시스템으로 각각 세차례의 실험은 수행하여 도 9(b)와 같은 결과를 나타냈다. 실험1에서는 제안하는 시스템이 기존의 컴퓨터 접근 방식보다많은 시간 소요되었으며 실험2, 3에서는 제안하는 시스템을 통한 측정이 불가능하였다. 이를 비추어볼 때, 피실험자4에게 제안하는 시스템을 통한 컴퓨터 사용은 적합하지 않은 것으로 판단된다. 위와 같은 실험 결과를 종합하여 보았을 때, 제안하는 시스템은 피실험자3에게 적합한 컴퓨터 대체접근 시스템임을 알 수 있다. Subject 4, whose hands, arms, eyes, and heads were constrained, performed three experiments with the conventional computer approach and the proposed system, respectively. In Experiment 1, the proposed system takes more time than the conventional computer approach. In Experiments 2 and 3, the proposed system cannot be measured. In light of this, it is judged that computer use through the system proposed to Subject 4 is not suitable. Based on the above experimental results, it can be seen that the proposed system is a computer alternative access system suitable for the subject 3.

본 발명은 도면에 도시된 실시 예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시 예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 등록청구범위의 기술적 사상에 의해 정해져야 할 것이다.Although the present invention has been described with reference to the embodiments shown in the drawings, this is merely exemplary, and those skilled in the art will understand that various modifications and equivalent other embodiments are possible therefrom. Therefore, the true technical protection scope of the present invention will be defined by the technical spirit of the appended claims.

10; 컴퓨터 대체접근 시스템 100; 사용자단말기
110; 카메라부 120; 안구인식부
130; 응시점처리부 140; 마우스커서 이동부
150; 제어부 160; 표시부
170; 텍스트입력부 180; 음성입력부
190; 통신부 200; 입력장치
10; Computer alternative access system 100; User terminal
110; A camera unit 120; Eye Recognition Department
130; Gaze point processing unit 140; Mouse cursor moving part
150; A controller 160; Display
170; Text input unit 180; Voice input section
190; Communication unit 200; Input device

Claims (4)

아이트래킹 및 음성인식을 활용한 컴퓨터 대체접근 시스템에 있어서,
사용자의 안구의 움직임의 추적하여 화면상에 마우스커서를 이동하는 사용자단말기와, 사용자로부터 입력된 신호를 상기 사용자단말기에 송신하는 외부입력장치를 포함하고,
상기 사용자단말기는,
상기 사용자단말기의 전면에 배치되어 사용자의 눈동자 영상을 촬영하는 카메라부;
상기 눈동자 영상으로부터 외곽선 검출을 통해 안구를 인식하여 응시점좌표를 획득하는 안구인식부;
인식된 안구로부터 응시점 좌표를 획득하고 응시점 필터링을 수행하는 응시점처리부; 및
응시점 필터링을 수행한 결과에 따라 마우스 커서를 이동시키고, 현재의 응시점 좌표와 이전의 응시점 좌표와 비교하여 소정의 거리의 차이가 이상일 때 마우스커서를 이동시키는 마우스커서이동부;를 포함하고,
상기 마우스커서이동부는 마우스 커서의 위치가 응시점 좌표보다 오른쪽에 위치하면 사용자로부터 기설정된 특정키를 입력받고, 특정키의 메시지를 후킹하여 마우스 커서의 위치를 5pixel씩 왼쪽으로 이동시키고,
상기 외부입력장치는 지체장애인이 조작하기 쉽도록 페달/풋스위치(foot switch)로 구현되고, 외부입력장치를 누르면 해당메시지를 후킹하여 마우스왼쪽버튼 Down이벤트를 발생시키고, 외부입력장치를 떼면 해당메시지를 후킹하여 마우스왼쪽버튼 UP이벤트를 발생시켜 마우스 클릭이 작동하는 아이트래킹 및 음성인식을 활용한 컴퓨터 대체접근 시스템.
In computer alternative access system using eye tracking and voice recognition,
A user terminal for tracking the movement of the eyeball of the user and moving the mouse cursor on the screen, and an external input device for transmitting a signal input from the user to the user terminal,
The user terminal,
A camera unit disposed at the front of the user terminal to photograph an eye image of the user;
An eye recognition unit configured to acquire eye gaze coordinates by recognizing the eye by detecting an outline from the eye image;
A gaze point processing unit which obtains gaze point coordinates from the recognized eye and performs gaze point filtering; And
And a mouse cursor moving unit for moving a mouse cursor according to a result of performing gaze point filtering, and moving the mouse cursor when a predetermined distance difference is greater than a current gaze point coordinate and a previous gaze point coordinate.
The mouse cursor moving unit receives a preset specific key from the user when the position of the mouse cursor is located to the right of the gaze point coordinates, hooks a message of the specific key, and moves the position of the mouse cursor by 5 pixels to the left,
The external input device is implemented as a pedal / foot switch to facilitate a physically handicapped person, and when the external input device is pressed, a corresponding message is hooked to generate a left mouse button Down event, and when the external input device is released, the corresponding message is released. A computer alternative access system that utilizes eye tracking and voice recognition that mouse clicks are triggered by generating a left mouse button UP event by hooking the mouse.
제1항에 있어서,
상기 응시점 필터링은 현재의 응시점과 이전의 응시점을 비교하여 그 거리의 차이가 50pixel 이상일 때만 현재의 응시점으로 마우스 커서를 이동시키고, 50pixel 이하일 경우에는 마우스 커서를 이동시키지 않는 아이트래킹 및 음성인식을 활용한 컴퓨터 대체접근 시스템.
The method of claim 1,
The gaze-point filtering compares the current gaze point and the previous gaze point and moves the mouse cursor to the current gaze point only when the distance difference is 50 pixels or more, and when it is 50 pixels or less, eye tracking and voice that do not move the mouse cursor. Computer Alternative Approach System Using Recognition.
삭제delete 아이트래킹 및 음성인식을 활용한 컴퓨터 대체접근 시스템의 동작방법에 있어서,
(a) 카메라부가 사용자의 안구 영상을 촬영하여 안구를 인식하는 단계;
(b) 상기 눈동자 영상으로부터 외곽선 검출을 통해 안구를 인식하여 응시점좌표를 획득하고, 획득한 응시점을 응시점 필터링을 수행하는 단계
(c) 응시점 좌표에 기초하여 마우스 커서가 이동하거나 텍스트가 입력되는 단계;
(d) 외부입력장치로부터 수신된 입력신호에 기초하여 동작을 실행하는 단계를 포함하고,
상기 (c)단계는 마우스 커서의 위치가 응시점 좌표보다 오른쪽에 위치하면 사용자로부터 기설정된 특정키를 입력받고, 특정키의 메시지를 후킹하여 마우스 커서의 위치를 5pixel씩 왼쪽으로 이동시키고,
상기 외부입력장치는 지체장애인이 조작하기 쉽도록 페달/풋스위치(foot switch)로 구현되고, 외부입력장치를 누르면 해당메시지를 후킹하여 마우스왼쪽버튼 Down이벤트를 발생시키고, 외부입력장치를 떼면 해당메시지를 후킹하여 마우스왼쪽버튼 UP이벤트를 발생시켜 마우스 클릭이 작동하는 아이트래킹 및 음성인식을 활용한 컴퓨터 대체접근 시스템의 동작방법.
In the operation method of computer alternative access system using eye tracking and voice recognition,
(a) a camera unit photographing an eyeball image of a user to recognize eyeballs;
(b) acquiring gaze point coordinates by recognizing the eye through the detection of an outline from the pupil image, and performing gaze point filtering on the obtained gaze point
(c) moving the mouse cursor or inputting text based on the gaze point coordinates;
(d) executing an operation based on an input signal received from an external input device,
In the step (c), if the position of the mouse cursor is located to the right of the gaze point coordinate, the user inputs a predetermined specific key from the user, hooks a message of the specific key, and moves the position of the mouse cursor to the left by 5 pixels.
The external input device is implemented as a pedal / foot switch to facilitate a physically handicapped person, and when the external input device is pressed, a corresponding message is hooked to generate a left mouse button Down event, and when the external input device is released, the corresponding message is released. Operation method of computer alternative access system using eye tracking and voice recognition that mouse click is operated by hooking and generating UP event of left mouse button.
KR1020170118574A 2017-09-15 2017-09-15 System for alternative computer access using eye-tracking and voice recognition and operating method having the same KR102083372B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170118574A KR102083372B1 (en) 2017-09-15 2017-09-15 System for alternative computer access using eye-tracking and voice recognition and operating method having the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170118574A KR102083372B1 (en) 2017-09-15 2017-09-15 System for alternative computer access using eye-tracking and voice recognition and operating method having the same

Publications (2)

Publication Number Publication Date
KR20190030928A KR20190030928A (en) 2019-03-25
KR102083372B1 true KR102083372B1 (en) 2020-03-02

Family

ID=65907699

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170118574A KR102083372B1 (en) 2017-09-15 2017-09-15 System for alternative computer access using eye-tracking and voice recognition and operating method having the same

Country Status (1)

Country Link
KR (1) KR102083372B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110007826A (en) * 2019-04-12 2019-07-12 深圳市语芯维电子有限公司 The mobile method and apparatus of voice control cursor

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100891558B1 (en) * 2009-01-08 2009-04-03 (주)티미스솔루션즈 Operating method of mouse
KR101270558B1 (en) * 2012-10-22 2013-06-07 김선욱 Portable terminal possible control-working to iris recognition and a method for excuting the system

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102133018B1 (en) * 2013-08-28 2020-07-10 삼성전자주식회사 Method and its apparatus for controlling a mouse cursor using eye recognition

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100891558B1 (en) * 2009-01-08 2009-04-03 (주)티미스솔루션즈 Operating method of mouse
KR101270558B1 (en) * 2012-10-22 2013-06-07 김선욱 Portable terminal possible control-working to iris recognition and a method for excuting the system

Also Published As

Publication number Publication date
KR20190030928A (en) 2019-03-25

Similar Documents

Publication Publication Date Title
Królak et al. Eye-blink detection system for human–computer interaction
US20150309569A1 (en) User interface control using gaze tracking
US20150062006A1 (en) Feature tracking for device input
TW200945174A (en) Vision based pointing device emulation
KR102092931B1 (en) Method for eye-tracking and user terminal for executing the same
JPH10260773A (en) Information input method and device therefor
Joshi et al. American sign language translation using edge detection and cross correlation
US20180095539A1 (en) Automated e-tran application
Mistry et al. An approach to sign language translation using the intel realsense camera
Jalaliniya et al. Eyegrip: Detecting targets in a series of uni-directional moving objects using optokinetic nystagmus eye movements
Niu et al. Tongue-able interfaces: Prototyping and evaluating camera based tongue gesture input system
Sivasangari et al. Eyeball based cursor movement control
KR102083372B1 (en) System for alternative computer access using eye-tracking and voice recognition and operating method having the same
KR20140132906A (en) Device and method for mobile tooltip using eye detecting
Bharath Controlling mouse and virtual keyboard using eye-tracking by computer vision
CN108628454B (en) Visual interaction method and system based on virtual human
Armanini et al. Eye tracking as an accessible assistive tool
Montanini et al. Low complexity head tracking on portable android devices for real time message composition
Elleuch et al. Unwearable multi-modal gestures recognition system for interaction with mobile devices in unexpected situations
Jamaludin et al. Dynamic hand gesture to text using leap motion
KR101629758B1 (en) Method and program with the unlock system of wearable glass device
Anwar et al. Real Time Eye Blink Detection Method for Android Device Controlling
Bilal et al. Design a Real-Time Eye Tracker
US11922731B1 (en) Liveness detection
Kalyanakumar et al. Facial Movement and Voice Recognition Based Mouse Cursor Control

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant