KR20050077190A - Device and method of computer interface using sensor and artificial intelligence module - Google Patents

Device and method of computer interface using sensor and artificial intelligence module Download PDF

Info

Publication number
KR20050077190A
KR20050077190A KR1020040005136A KR20040005136A KR20050077190A KR 20050077190 A KR20050077190 A KR 20050077190A KR 1020040005136 A KR1020040005136 A KR 1020040005136A KR 20040005136 A KR20040005136 A KR 20040005136A KR 20050077190 A KR20050077190 A KR 20050077190A
Authority
KR
South Korea
Prior art keywords
signal
click
unit
sensor
mouse
Prior art date
Application number
KR1020040005136A
Other languages
Korean (ko)
Other versions
KR100660184B1 (en
Inventor
엄광문
Original Assignee
학교법인 건국대학교
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 학교법인 건국대학교 filed Critical 학교법인 건국대학교
Priority to KR1020040005136A priority Critical patent/KR100660184B1/en
Publication of KR20050077190A publication Critical patent/KR20050077190A/en
Application granted granted Critical
Publication of KR100660184B1 publication Critical patent/KR100660184B1/en

Links

Classifications

    • EFIXED CONSTRUCTIONS
    • E04BUILDING
    • E04DROOF COVERINGS; SKY-LIGHTS; GUTTERS; ROOF-WORKING TOOLS
    • E04D3/00Roof covering by making use of flat or curved slabs or stiff sheets
    • E04D3/36Connecting; Fastening
    • E04D3/361Connecting; Fastening by specially-profiled marginal portions of the slabs or sheets
    • E04D3/362Connecting; Fastening by specially-profiled marginal portions of the slabs or sheets by locking the edge of one slab or sheet within the profiled marginal portion of the adjacent slab or sheet, e.g. using separate connecting elements
    • EFIXED CONSTRUCTIONS
    • E04BUILDING
    • E04DROOF COVERINGS; SKY-LIGHTS; GUTTERS; ROOF-WORKING TOOLS
    • E04D3/00Roof covering by making use of flat or curved slabs or stiff sheets
    • E04D3/36Connecting; Fastening
    • E04D3/3605Connecting; Fastening of roof covering supported directly by the roof structure
    • E04D3/3606Connecting; Fastening of roof covering supported directly by the roof structure the fastening means being screws or nails
    • EFIXED CONSTRUCTIONS
    • E04BUILDING
    • E04DROOF COVERINGS; SKY-LIGHTS; GUTTERS; ROOF-WORKING TOOLS
    • E04D3/00Roof covering by making use of flat or curved slabs or stiff sheets
    • E04D3/36Connecting; Fastening
    • E04D3/361Connecting; Fastening by specially-profiled marginal portions of the slabs or sheets
    • E04D3/363Connecting; Fastening by specially-profiled marginal portions of the slabs or sheets with snap action

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Architecture (AREA)
  • Civil Engineering (AREA)
  • Structural Engineering (AREA)
  • Position Input By Displaying (AREA)

Abstract

본 발명은 컴퓨터 인터페이스 장치에 관한 것으로, 보다 구체적으로는 센서와 인공인공지능모듈을 결합하여 장애인이 컴퓨터를 이용할 수 있도록 하는 장애인을 위한 컴퓨터 인터페이스 장치에 특징이 있다.The present invention relates to a computer interface device, and more particularly, to a computer interface device for a disabled person who combines a sensor and an artificial intelligence module to enable a disabled person to use a computer.

특히, 본 발명은 한가지 센서만을 사용하여 장애인의 머리 움직임을 검출하고 스스로 학습 가능한 인공지능모듈을 이용하여 컴퓨터 마우스의 이동과 클릭을 제어할 수 있는 장치를 제공하는 것을 목적으로 한다. In particular, it is an object of the present invention to provide a device that can detect the movement of the head of the disabled using only one sensor and to control the movement and click of the computer mouse using an artificial intelligence module capable of learning by itself.

이러한 목적 달성을 위해 본 발명은 센서부(200), 마이크로 컴퓨터부(100), 주컴퓨터부(600)로 이루어진 컴퓨터 인터페이스 장치에 있어서, 상기 센서부(200)는 센서(210)를 이용하여 머리의 움직임 정보를 측정하고 필터 출력의 조기안정화를 위한 커패시터 방전용 스위칭회로가 포함된 필터링회로(220)를 이용하여 신호처리한 후 상기 마이크로 컴퓨터부(100)로 전달하고, 상기 주컴퓨터부(600)는 상기 마이크로 컴퓨터부(100)에서 변환된 디지털 신호를 입력 받아 클릭신호를 선택하여 인공지능모듈(900)이 클릭신호를 검출할 수 있도록 학습시키기 위한 오프라인 학습부(700)와 마우스의 커서의 위치제어를 실시간으로 수행하기 위고 동시에 클릭신호를 제어하기 위한 실시간 마우스 제어부(800)를 구비하여 윈도우즈상에 마우스 위치 및 클릭을 동시에 표시하는 것을 특징으로 한다. In order to achieve the above object, the present invention provides a computer interface device including a sensor unit 200, a microcomputer unit 100, and a main computer unit 600, wherein the sensor unit 200 uses a sensor 210. Measure the motion information and process the signal using the filtering circuit 220 including the capacitor discharge switching circuit for early stabilization of the filter output, and then transfer the signal to the microcomputer unit 100 and transmit the signal to the main computer unit 600. ) Selects a click signal by receiving the digital signal converted by the microcomputer unit 100 and selects a click signal so that the AI module 900 learns to detect the click signal. Simultaneous display of mouse position and click on Windows with a real-time mouse control unit 800 for simultaneously performing position control and controlling a click signal. It is characterized by.

또한 이러한 장치를 이용하는 방법은 센서를 이용하여 머리의 움직임을 정보를 측정하고 필터 출력의 조기안정화를 위한 커패시터 강제방전용 스위칭회로가 포함된 필터링회로를 이용하여 움직임 신호를 발생시키는 단계(S200), 상기 움직임 신호인 아날로그 신호를 디지털 신호로 변환하기 위한 A/D 컨버터, 상기 A/D컨버터와 통신 모듈을 제어하기 위한 마이크로프로세서와 상기 주 컴퓨터부와 통신하기 위한 통신모듈을 구비한 마이크로 컴퓨터부를 통하여 변환된 디지털 신호를 주컴퓨터부로 전달하는 단계(S600), 상기 마이크로 컴퓨터부로 부터의 디지털신호를 입력받아(S710) 클릭신호를 선택하고(S720) 선택된 신호를 이용하여 사용자별 클릭신호를 검출할 수 있도록 인공지능모듈을 학습시키기 위한 단계(S730)를 포함하는 오프라인 학습단계(S700), 상기 마이크로 컴퓨터부로 부터의 실시간 디지털신호를 입력받아(S810) 마우스 커서의 위치를 제어하고(S820) 동시에 클릭신호를 제어하는 단계(S830, S840)를 포함하는 실시간 마우스 제어단계(S800)와 상기 실시간 마우스 제어단계에서 출력되는 마우스 위치제어신호 및 클릭신호를 이용하여 동시에 윈도우즈상에 표시하는 단계로 이루어진 것을 특징으로 한다.In addition, the method using such a device measures the movement of the head information using a sensor and generating a motion signal using a filtering circuit including a switching circuit for the capacitor forced discharge for early stabilization of the filter output (S200), An A / D converter for converting the analog signal, which is the motion signal, into a digital signal, a microprocessor unit having a microprocessor for controlling the A / D converter and a communication module and a communication module for communicating with the main computer unit Transmitting the converted digital signal to the main computer unit (S600), receiving a digital signal from the microcomputer unit (S710), selecting a click signal (S720), and detecting a user click signal using the selected signal. Offline learning step (S700), including the step (S730) for learning the artificial intelligence module so that The real-time mouse control step (S800) and the real-time mouse, including the step of receiving the real-time digital signal from the microcomputer unit (S810) and controlling the position of the mouse cursor (S820) and simultaneously controlling the click signal (S830, S840) Characterized in that the step of displaying on the window at the same time using the mouse position control signal and the click signal output in the control step.

본 발명에 따르면 센서(예를 들면, 자이로스코프 등)와 인공지능모듈을 결합하는 것에 의해 기존의 인터페이스(HCI)와 같이 미리 지정된 마우스 조작 패턴을 사용자가 습득하도록 강요하기 보다는, 각 사용자별 클릭 패턴을 시스템이 스스로 학습하여 사용자 친화적인 인터페이스를 제공할 수 있는 효과가 있다.According to the present invention, by combining a sensor (for example, a gyroscope, etc.) and an artificial intelligence module, a user click pattern for each user, rather than forcing the user to acquire a predetermined mouse operation pattern like an existing interface (HCI) The effect is that the system can learn by itself and provide a user-friendly interface.

Description

센서와 인공지능모듈을 이용한 컴퓨터 인터페이스 장치 및 방법{Device and Method of Computer Interface using sensor and Artificial Intelligence Module}Device and method of computer interface using sensor and artificial intelligence module

본 발명은 컴퓨터 인터페이스 장치에 관한 것으로, 보다 구체적으로는 센서와 인공지능모듈을 결합하여 장애인이 컴퓨터를 이용할 수 있도록 하는 장애인을 위한 컴퓨터 인터페이스 장치에 특징이 있다.The present invention relates to a computer interface device, and more particularly, to a computer interface device for a disabled person who combines a sensor and an artificial intelligence module to enable a disabled person to use a computer.

마비환자의 HCI(Human Computer Interface)와 관련된 종래기술로는 센서를 이용한 방법과 생체전위를 이용한 방법이 사용되어 왔다. As a related art related to the human computer interface (HCI) of paralyzed patients, a method using a sensor and a method using a biopotential have been used.

먼저 센서를 이용한 방법으로는 첫째, 고감도 자기(Magnetic)센서를 이용한 장애자의 문자입력 시스템을 들 수 있다. 이 방법은 자기 수신기를 머리에 장착하여 이 움직임으로 모니터에 그려진 키보드를 스캔하면서 문자를 입력하는 방식을 채택하고 있다. 이 방법에서 사용한 공간추적장치에 사용되는 센서 중의 하나인 Polhemus사의 FASTRAK 센서는 고감도 센서로서 사용하기에 편리하지만, 상당히 고가이고 송신기와 수신기 모두 유선이어야 하며 휴대가 불가능해서 실용화가 어려운 문제점이 있다. 또한 자기(磁氣)의 송신기와 수신기를 사용하고 있으므로, 요즘과 같이 전자파의 외란(Disturbance)이 급증하고 있는 상황에서는 오동작의 가능성이 높아 실용적이지 못한 문제점을 안고 있다. First, a method using a sensor may include a character input system of a handicapped person using a high sensitivity magnetic sensor. This method employs a magnetic receiver mounted on the head to input characters while scanning the keyboard drawn on the monitor with this movement. Polhemus FASTRAK sensor, which is one of the sensors used in the space tracking device used in this method, is convenient to use as a high sensitivity sensor, but it is very expensive, and both the transmitter and the receiver should be wired and not portable, which makes it difficult to use. In addition, since a magnetic transmitter and a receiver are used, there is a high possibility of malfunction in a situation in which disturbance of electromagnetic waves is increasing rapidly.

둘째로, 경사센서 (Ttilt sensor)를 사용하여 마우스의 상하 좌우 움직임을 구현하고, 볼(Cheek)의 부풀림을 볼 옆에 장착한 터치 스위치로 검출하여 클릭(Single click), 더블클릭(Double click), 드래그(Drag)를 구현한 방법이 있다. 이 방법에서는 두 가지 센서를 사용하므로 센서 및 신호처리부의 부피가 크고 터치 스위치를 조작하기 위해 볼을 부풀리는 동작이 미관상 좋지 못하다는 문제가 있다. Secondly, the tilt sensor is used to realize the up and down and left and right movements of the mouse, and the swelling of the cheek is detected by a touch switch mounted next to the ball. There is a way to implement Drag. In this method, since two sensors are used, there is a problem that the volume of the sensor and the signal processing unit is large and inflating the ball to manipulate the touch switch is not good.

셋째로, 자이로스코프와 적외선 센서를 사용하여 마우스를 구현하고자 하는 방법도 있으나, 여기서 자이로스코프는 마우스의 상하, 좌우의 움직임만을 제어하고, 클릭은 눈의 의도적인 깜박임을 적외선 센서로 검출하여 동작시키고 있다. 그러나 적외선 송수신기는 안구근육의 수축에 대한 피부형상 변화를 검출해야 하므로 그 부착위치에 따라 신호가 달라지는 문제점이 있고, 눈의 깜박임 자체와 이를 검출하는 센서는 미관 상의 문제를 가진다.Third, there is a method to implement a mouse using a gyroscope and an infrared sensor, but the gyroscope controls only the movement of the mouse up, down, left and right, and clicks to detect and intentionally blink an eye by using an infrared sensor. have. However, since the infrared transceiver needs to detect a change in skin shape with respect to the contraction of the eye muscles, the signal varies according to the attachment position, and the blinking of the eye itself and the sensor detecting the same have aesthetic problems.

다음으로 생체전위를 이용한 HCI로는 뇌파를 디지털로 측정 EEG(ElectroEncephaloGraph)하여 실시간으로 보여주는 바이오 피드백장치와 안구동작으로 유발된 생체전위 변화(EOG)를 전기생리학적 방법으로 검출, 변조해 컴퓨터 제어신호로 이용한 방법이 있다. Next, using HCI using biopotential, EEG (ElectroEncephaloGraph) digitally measures EEG and detects and modulates biopotential change (EOG) caused by eye movement by electrophysiological method. There is a method used.

우선, EEG를 측정하여 뇌로부터 직접 인간의 사고에 기초한 제어명령 혹은 감정을 측정해 내려는 접근방식이 있으나, 전극을 부착하는데 노력과 시간이 소요되고 정확도에 한계가 있으며, 머리를 움직일 수 있는 환자에게 있어서는 큰 이점이 없다고 볼 수 있다. First, there is an approach to measure EEG and control commands or emotions based on human thoughts directly from the brain, but it takes time and effort to attach electrodes, has limited accuracy, and can move the head to patients. There is no big advantage.

생체전위를 이용한 또 다른 접근으로서 안구전위 (EOG)로부터 안구의 움직임을 검출하여 인터페이스 수단으로 이용하려는 시도를 들 수 있다. 즉, 안구의 움직임에 수반되는 안구전도를 측정하여 안구의 움직임 및 깜빡임을 추정하고, 이로부터 인터페이스를 구현하려는 것이다. 이 방법은 착탈에 있어서의 편리성과 경제성, 미관 등에 있어 뛰어나다고 볼 수 있으나, 눈이 쉽게 피로하다는 문제점이 있다.Another approach using biopotential is an attempt to detect eye movement from an eye potential (EOG) and use it as an interface means. In other words, by measuring the eye conduction accompanying the movement of the eye to estimate the movement and flicker of the eye, to implement the interface from it. This method can be said to be excellent in the convenience and economical, aesthetics, etc. in detachable, but there is a problem that the eyes are easily tired.

따라서 본 발명은 상기와 같은 문제점을 해결하기 위한 것으로, 본 발명에서는 한가지 센서만을 사용하여 장애인의 머리 움직임 정보를 바탕으로 하여, 컴퓨터의 마우스의 이동과 클릭을 동시에 제어할 수 있는 사용자 친화적 컴퓨터 인터페이스 장치 및 방법을 제공하는 것을 목적으로 한다.Therefore, the present invention is to solve the above problems, in the present invention based on the head movement information of the disabled using only one sensor, a user-friendly computer interface device that can simultaneously control the movement and click of the mouse of the computer And to provide a method.

본 발명의 또 다른 목적은 인공지능모듈을 이용하여 각 사용자의 클릭패턴을 시스템 스스로 학습하여 인식하도록 함으로써, 사용자 친화적 컴퓨터 인터페이스 장치 및 방법을 제공하는 것이다. It is still another object of the present invention to provide a user-friendly computer interface device and method by allowing a system to learn and recognize a click pattern of each user by using an artificial intelligence module.

상기의 목적을 달성하기 위한 본 발명에 따른 컴퓨터 인터페이스 장치는, 센서부(200), 마이크로 컴퓨터부(100), 주컴퓨터부(600)로 이루어진 컴퓨터 인터페이스 장치에 있어서, 상기 센서부(200)는 센서(210)를 이용하여 머리의 움직임 정보를 측정하고 필터 출력의 조기안정화를 위한 커패시터 방전용 스위칭회로가 포함된 필터링회로(220)를 이용하여 신호처리한 후 상기 마이크로 컴퓨터부(100)로 전달하고, 상기 주컴퓨터부(600)는 상기 마이크로 컴퓨터부(100)에서 변환된 디지털 신호를 입력 받아 클릭신호를 선택하여 인공지능모듈(900)이 클릭신호를 검출할 수 있도록 학습시키기 위한 오프라인 학습부(700)와 마우스의 커서의 위치제어를 실시간으로 수행하기 위고 동시에 클릭신호를 제어하기 위한 실시간 마우스 제어부(800)를 구비하여 윈도우즈상에 마우스 위치 및 클릭을 동시에 표시하는 것을 특징으로 한다. Computer interface device according to the present invention for achieving the above object, in the computer interface device consisting of a sensor unit 200, a micro computer unit 100, a main computer unit 600, the sensor unit 200 is Measures the motion information of the head using the sensor 210, and processes the signal using the filtering circuit 220 including a capacitor discharge switching circuit for early stabilization of the filter output and then transfers the signal to the microcomputer 100 The main computer unit 600 receives the digital signal converted by the microcomputer unit 100 and selects a click signal so that the AI module 900 learns to detect the click signal. And a real-time mouse control unit 800 for controlling the click signal at the same time to perform the position control of the cursor of the mouse in real time. It is characterized by displaying the switch and the click at the same time.

또한 이러한 장치를 이용하는 방법은 센서를 이용하여 머리의 움직임을 정보를 측정하고 필터 출력의 조기안정화를 위한 커패시터 강제방전용 스위칭회로가 포함된 필터링회로를 이용하여 움직임 신호를 발생시키는 단계(S200), 상기 움직임 신호인 아날로그 신호를 디지털 신호로 변환하기 위한 A/D 컨버터, 상기 A/D컨버터와 통신 모듈을 제어하기 위한 마이크로프로세서와 상기 주 컴퓨터부와 통신하기 위한 통신모듈을 구비한 마이크로 컴퓨터부를 통하여 변환된 디지털 신호를 주컴퓨터부로 전달하는 단계(S600), 상기 마이크로 컴퓨터부로부터의 디지털신호를 입력받아(S710) 클릭신호를 선택하고(S720) 선택된 신호를 이용하여 사용자별 클릭신호를 검출할 수 있도록 인공지능모듈을 학습시키기 위한 단계(S730)를 포함하는 오프라인 학습단계(S700), 상기 마이크로 컴퓨터부로부터의 실시간 디지털신호를 입력받아(S810) 마우스 커서의 위치를 제어하고(S820) 동시에 클릭신호를 제어하는 단계(S830, S840)를 포함하는 실시간 마우스 제어단계(S800)와 상기 실시간 마우스 제어단계에서 출력되는 마우스 위치 제어신호 및 클릭신호를 이용하여 동시에 윈도우즈상에 표시하는 단계로 이루어진 것을 특징으로 한다.In addition, the method using such a device measures the movement of the head information using a sensor and generating a motion signal using a filtering circuit including a switching circuit for the capacitor forced discharge for early stabilization of the filter output (S200), Through an A / D converter for converting the analog signal, which is the motion signal, into a digital signal, a microprocessor for controlling the A / D converter and a communication module, and a microcomputer unit having a communication module for communicating with the main computer unit. Transmitting the converted digital signal to the main computer unit (S600), receiving a digital signal from the microcomputer unit (S710), selecting a click signal (S720), and detecting a user click signal using the selected signal. Offline learning step (S700), including the step (S730) for learning the artificial intelligence module so that, The real-time mouse control step (S800) and the real-time mouse, including the step of receiving the real-time digital signal from the microcomputer unit (S810) and controlling the position of the mouse cursor (S820) and simultaneously controlling the click signal (S830, S840) Characterized in that the step of displaying on the window at the same time using the mouse position control signal and the click signal output in the control step.

이하, 도면을 참조하여 본 발명을 보다 구체적으로 설명한다.Hereinafter, the present invention will be described in more detail with reference to the drawings.

도 1은 본 발명에 따른 전체 시스템을 나타낸 블록도이다1 is a block diagram showing an overall system according to the present invention.

도 1에 도시된 바와 같이 본 발명의 전체 구성과 신호의 흐름을 설명하면 다음과 같다. 머리 움직임을 간편하게 측정할 수 있는 센서부(200)를 이용하여 머리의 2자유도의 각속도를 측정하고, 측정된 각속도 신호를 마이크로 컴퓨터부(100)의 A/D 컨버터(Analog to Digital Converter)(400)를 거쳐 아날로그 신호를 디지털신호로 변환하고 변환된 출력신호를 통신모듈(500)을 통해 주 컴퓨터부(600)의 통신모듈로 전송하면, 주 컴퓨터부의 실시간 마우스 제어부(800)를 통해 이를 마우스의 움직임과 클릭에 해당하는 신호로 변환하여 윈도우즈에 넘겨주는 방식으로 인터페이스를 구현한다. 이때 클릭에 해당하는 신호는 오프라인 학습부(700)를 이용하여 사용자별 클릭패턴이 학습된 인공지능모듈(900)을 이용하여 머리의 끄덕임 동작을 검출하는 것으로 구현한다. 이런 신호를 윈도우즈에 넘겨주면, 윈도우즈는 마치 마우스가 움직이는 것처럼 환자의 머리동작을 인식하고, 인터넷 검색기(Internet Browser)를 비롯한 컴퓨터의 모든 조작이 가능하게 된다. Referring to the overall configuration and signal flow of the present invention as shown in Figure 1 as follows. The angular velocity of two degrees of freedom of the head is measured using the sensor unit 200 that can easily measure the head movement, and the measured angular velocity signal is an A / D converter (Analog to Digital Converter) 400 of the microcomputer unit 100. After converting the analog signal into a digital signal and transmitting the converted output signal to the communication module of the main computer unit 600 through the communication module 500, through the real-time mouse control unit 800 of the main computer unit of the mouse The interface is implemented by converting it into signals corresponding to movements and clicks and handing them to Windows. At this time, the signal corresponding to the click is implemented by detecting the nodding motion of the head using the artificial intelligence module 900 learned by the user click pattern using the offline learning unit 700. Passing these signals to Windows, Windows recognizes the patient's head movements as if the mouse is moving, and allows all manipulations of the computer, including the Internet Browser.

마이크로 컴퓨터부(100)를 보다 구체적으로 설명하면, 마이크로 컴퓨터부(100)는 A/D 컨버터(400)와 통신모듈(500), 그리고 이 통신모듈들을 제어하는 마이크로프로세서(300)로 구성된다. 센서부터 입력되는 아날로그 신호인 0V에서 +5V까지의 전압을 100Hz로 샘플링하여, 마이크로프로세서(300)가 인식할 수 있는 디지털 신호로 변환한다. 통신 시에는 2개 센서로부터 발생하는 2채널(Channel)의 신호를 시분할(TDM: Time Division Multiplexing)방식을 이용하여 전송한다. 주컴퓨터부와 마이크로컴퓨터부 간의 통신을 위한 통신모듈은 유선 또는 무선일 수 있다.The microcomputer unit 100 will be described in more detail. The microcomputer unit 100 includes an A / D converter 400, a communication module 500, and a microprocessor 300 for controlling the communication modules. The voltage from 0V to + 5V, which is an analog signal input from the sensor, is sampled at 100 Hz and converted into a digital signal that can be recognized by the microprocessor 300. In communication, two channel signals generated from two sensors are transmitted using a time division multiplexing (TDM) method. The communication module for communication between the main computer unit and the microcomputer unit may be wired or wireless.

도 2는 센서부를 나타내는 회로도이다.2 is a circuit diagram illustrating a sensor unit.

본 발명의 하드웨어구현을 위한 인터페이스 장치는 우선 마비환자의 머리 움직임을 측정하기 위해서 센서가 필요하며, 센서(210)로 사용되는 것은 바람직하게는 미관 , 성능 및 가격을 고려하여 세라믹 자이로(Ceramic Gyro) 센서를 사용하는 것이 좋다. The interface device for implementing the hardware of the present invention first needs a sensor to measure the head movements of the paralyzed patient, and it is preferably used as the sensor 210 in consideration of aesthetics, performance and price Ceramic Gyro (Ceramic Gyro) It is recommended to use a sensor.

센서의 부착은 작은 크기와 중량의 장점을 살려서 실제 제품개발 시에는 안경 또는 모자 등의 악세서리에 부착하여 탈착이 용이하고, 미관상의 문제점을 최소화 할 수 있다. 센서는 수평, 수직의 2축 방향으로 장착하여 각각 머리의 상하, 좌우 움직임을 검출하도록 하였다. Attaching the sensor takes advantage of the small size and weight, so in the development of the actual product attached to the accessories such as glasses or hats, easy to remove and minimize the aesthetic problems. The sensors were mounted in two horizontal and vertical directions to detect the vertical movement of the head.

센서부(200)의 필터링회로는 온도변화 등에 의한 드리프트(Drift)와 오프셋(Offset) 을 배제하기 위해 센서의 출력신호를 고역통과필터에 통과시킨 후, 고주파 잡음의 제거를 수행하는 저역통과필터에 통과시킨다. 머리의 움직임에 의한 센서(210)의 신호가 주로 낮은 주파수 대역에 위치하고 있으므로 고역통과필터의 차단주파수를 아주 낮게 설정하지 않으면 허상신호(Artifact)가 나타나기 때문이다. 이러한 허상신호는 마우스 커서의 조작을 매우 어렵게 한다. 이로 인해 고역통과필터의 시정수가 매우 커져서 전원 인가시 필터출력이 정상상태로 안정되는데 걸리는 시간이 매우 길어지는 문제가 발생하므로 도 2에 도시된 바와 같이 고역통과필터에 스위치와 작은 저항을 연결하고 전원 인가 직후에 이 스위치를 단락 시켜 커패시터를 방전시켜서 해결한다. 방전시키는 스위치 동작은 수동작으로 할 수 있으나 바람직하게는 마이크로 컴퓨터부의 마이크로프로세서의 타이밍 신호에 의해 제어될 수도 있다. The filtering circuit of the sensor unit 200 passes the output signal of the sensor through the high pass filter to eliminate drift and offset due to temperature changes, and then removes the high frequency noise. Pass it through. This is because the signal of the sensor 210 due to the movement of the head is mainly located in a low frequency band, and thus, when the cutoff frequency of the high pass filter is not set very low, an artifact signal appears. This virtual signal makes the operation of the mouse cursor very difficult. As a result, the time constant of the high pass filter becomes very large, which causes a problem in that it takes a long time for the filter output to stabilize to a normal state when the power is applied. Therefore, as shown in FIG. Shortly after application, short this switch to discharge the capacitor. The switch operation for discharging may be a manual operation, but may preferably be controlled by a timing signal of a microprocessor of the microcomputer unit.

도 3은 본 발명에 따른 방법적인 처리과정을 전체적으로 나타낸 블럭도이다.3 is a block diagram showing an overall method of processing according to the present invention.

상기의 구성으로 이루어진 장치를 이용하는 방법은 센서를 이용하여 머리의 움직임을 정보를 측정하고 필터 출력의 조기안정화를 위한 커패시터 강제방전용 스위칭회로가 포함된 필터링회로를 이용하여 움직임 신호를 발생시키는 단계(S200), 상기 움직임 신호인 아날로그 신호를 디지털 신호로 변환하기 위한 A/D 컨버터, 상기 A/D컨버터와 통신 모듈을 제어하기 위한 마이크로프로세서와 상기 주 컴퓨터부와 통신하기 위한 통신모듈을 구비한 마이크로 컴퓨터부를 통하여 변환된 디지털 신호를 주컴퓨터부로 전달하는 단계(S600), 상기 마이크로 컴퓨터부로부터의 디지털신호를 입력받아(S710) 클릭신호를 선택하고(S720) 선택된 신호를 이용하여 사용자별 클릭신호를 검출할 수 있도록 인공지능모듈을 학습시키기 위한 단계(S730)를 포함하는 오프라인 학습단계(S700), 상기 마이크로 컴퓨터부로부터의 실시간 디지털신호를 입력받아(S810) 마우스 커서의 위치를 제어하고(S820) 동시에 클릭신호를 제어하는 단계(S830, S840)를 포함하는 실시간 마우스 제어단계(S800)와 상기 실시간 마우스 제어단계에서 출력되는 마우스 위치제어신호 및 클릭신호를 이용하여 동시에 윈도우즈상에 표시하는 단계를 통하여 머리의 움직임에 따른 마우스의 위치 및 클릭을 윈도우즈상에서 나타내게 된다.The method using the device having the above configuration comprises measuring the movement of the head using a sensor and generating a motion signal using a filtering circuit including a switching circuit for a capacitor forced discharge for early stabilization of the filter output ( S200), an A / D converter for converting the analog signal which is the motion signal into a digital signal, a microprocessor having a microprocessor for controlling the A / D converter and a communication module and a communication module for communicating with the main computer unit In step S600, the digital signal converted through the computer unit is transferred to the main computer unit. The digital signal from the microcomputer unit is received (S710), the click signal is selected (S720), and the click signal for each user is selected using the selected signal. Offline learning comprising the step (S730) for learning the artificial intelligence module to be detected Real-time mouse control step comprising the step (S700), receiving the real-time digital signal from the microcomputer unit (S810) to control the position of the mouse cursor (S820) and simultaneously control the click signal (S830, S840) S800) and the mouse position control signal and the click signal output in the real-time mouse control step to display on the window at the same time through the mouse position and click according to the movement of the head on the window.

도4는 클릭신호를 검출하고 실시간으로 마우스 위치 및 클릭을 구현하기 위한 오프라인 학습단계와 실시간 마우스 제어단계의 관계를 보다 상세히 나타낸 블럭도이다.4 is a block diagram illustrating in more detail the relationship between an offline learning step and a real time mouse control step for detecting a click signal and realizing mouse position and click in real time.

우선, 오프라인 학습단계(S700)에서는 통신모듈을 통해 들어온 디지털 신호에서 클릭에 해당되는 신호를 선택하여(S720) 인공지능모듈을 학습시킨다(S730). 실시간 마우스 제어단계(S800)에서는 통신모듈을 통해서 들어오는(S810) 실시간 디지털 신호로 마우스 커서의 상하, 좌우 움직임을 구현하고(S820), 또한 이 중 상하의 신호를 인공지능모듈에 입력하여 클릭신호를 검출한다(S830, S840). 위의 과정을 통해 검출된 클릭 신호와 상기 실시간 마우스 커서의 상하, 좌우에 해당하는 신호가 원도우즈 상의 표시단계를 거쳐 윈도우즈 상에 표시된다. First, in the offline learning step (S700) to select a signal corresponding to the click from the digital signal entered through the communication module (S720) to train the artificial intelligence module (S730). In the real-time mouse control step (S800) to implement the up and down, left and right movements of the mouse cursor with a real-time digital signal coming through the communication module (S810) (S820), and also inputs the upper and lower signals to the artificial intelligence module to detect the click signal (S830, S840). The click signal detected through the above process and the signals corresponding to the up, down, left and right of the real-time mouse cursor are displayed on the window through the display step on the window.

도 5는 본 발명에 따른 오프라인 학습단계에서 사용된 인공지능모듈의 일례로서 3층 퍼셉트론(3-Layer Perceptron)을 나타내는 구성도이다. 5 is a block diagram illustrating a 3-layer perceptron as an example of an artificial intelligence module used in an offline learning step according to the present invention.

머리의 움직임 동작 중 피 실험자의 의도적인 끄덕임에 해당되는 입력 패턴 3개와 자유로이 움직였을 때의 입력 패턴을 선택하여, 전자의 경우에는 클릭을 교사출력신호로 설정하고 후자의 경우에는 비클릭을 교사출력신호로 설정한다. 각각의 입력 패턴 벡터 는 수학식 1과 같이 시간지연 데이터로 구성한다. y(n)값을 신경망에 입력할 때 입력값이 커서 신경망이 포화하거나 뉴런간의 가중치(Weight)가 지나치게 작아지는 것을 방지하기 위해, 수학식 1과 같이 오프셋 제거 및 스케일링을 행한다. 또한, 신경망의 출력으로 클릭이 발생한 경우에, 클릭의 발생위치는 클릭으로 인식된 당시의 커서위치가 아니라, 클릭의 패턴이 시작된 커서위치로 하여, 클릭을 원했던 시작위치에서 클릭한 것으로 인식된다.Three input patterns corresponding to the intentional nod of the subject and the input patterns when freely moved during the movement of the head are selected. In the former case, click is set as the teacher output signal, and in the latter case, the non-click is the teacher output signal. Set to. Each input pattern vector Is composed of time delay data as shown in equation (1). When the y (n) value is input to the neural network, offset removal and scaling is performed as in Equation 1 to prevent the neural network from saturation or the weight between neurons being too small. In addition, when a click occurs by the output of the neural network, the click generation position is recognized as the click position at which the click is desired, not as the cursor position at the time of recognition as the click, but as the cursor position where the click pattern started.

px, py: 커서(픽셀)의 x 와 y 위치p x , p y : the x and y position of the cursor (pixels)

wx, wy: 가중치 인자들w x , w y : weighting factors

x(n), y(n): x 와 y 방향의 각속도x (n), y (n): angular velocity in the x and y directions

마우스 커서의 위치제어는 클릭의 인식과 동시에 병렬로 진행된다. 수학식 2와 같이, 주컴퓨터부의 통신모듈로 들어온 머리의 움직임(각속도)신호에 해당하는 디지털 신호 x(n), y(n)에서 센서출력의 오프셋을 뺀 후 수치적분하여 마우스의 픽셀단위 위치 (px, py)로 변환한다. 따라서, 각속도가 증가하면 마우스커서의 움직임의 속도도 그에 따라 증가한다. 적분의 가중치(wx, wy)는 실험적으로 결정한다. 또한, 센서 신호에 포함되어 있는 작은 크기의 잡음에 반응하여 마우스 커서가 떨리는 현상을 방지하기 위해, 일정 범위에 포함되는 신호를 잡음으로 간주하여 수치적분에서 배제하였다.The position control of the mouse cursor proceeds in parallel with the recognition of the click. As shown in Equation 2, the pixel unit position of the mouse is obtained by subtracting the sensor output offset from the digital signals x (n) and y (n) corresponding to the head movement (angular velocity) signals entering the communication module of the main computer unit. Convert to (p x , p y ). Therefore, as the angular velocity increases, the speed of the movement of the mouse cursor also increases accordingly. The weight of the integration (w x , w y ) is determined experimentally. In addition, in order to prevent the mouse cursor from shaking in response to the small amount of noise included in the sensor signal, the signal included in a certain range was considered as noise and excluded from the numerical integration.

이상에서 설명한 것은 본 발명에 따른 하나의 실시예에 불과한 것으로, 본 발명은 상기한 실시예에 한정되지 않고, 이하의 특허청구범위에서 청구하는 바와 같이 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 분야에서 통상의 지식을 가진 자라면 누구든지 다양한 변경 실시가 가능한 범위까지 본 발명의 기술적 정신이 있다고 할 것이다.What has been described above is only one embodiment according to the present invention, and the present invention is not limited to the above-described embodiment, and as claimed in the following claims, the present invention belongs without departing from the gist of the present invention. Anyone skilled in the art will have the technical spirit of the present invention to the extent that various modifications can be made.

본 발명은 인공지능모듈을 결합하여 기존의 HCI와 같이 미리 지정된 마우스 조작 패턴을 사용자가 습득하도록 강요하기 보다는, 각 사용자별 클릭 패턴을 시스템이 스스로 학습하여 사용자 친화적인 인터페이스를 제공할 수 있는 효과가 있다.According to the present invention, rather than forcing the user to acquire a predetermined mouse operation pattern like the existing HCI by combining the artificial intelligence module, the system can learn a user's click pattern by itself and provide a user-friendly interface. have.

본 발명의 또 다른 효과로는 하나의 센서만을 이용하여 마우스 인터페이스를 구현함으로써 크기, 착용, 미관상의 문제점을 해결하여 실용화할 수 있는 효과가 있다.As another effect of the present invention, by implementing a mouse interface using only one sensor, there is an effect that can be practical to solve the size, wearing, aesthetic problems.

본 발명의 또 다른 효과로는 안구의 움직임 및 깜박임을 이용하는 방법과는 달리 머리의 움직임만으로 마우스의 위치 및 클릭의 구현이 가능하게 하므로 장시간 사용 시에도 눈에 피로를 주지 않는 효과가 있다.Another effect of the present invention, unlike the method of using eye movements and flickering, since the position and click of the mouse can be implemented only by the movement of the head, there is an effect that does not cause eye fatigue even when used for a long time.

따라서 본 시스템은 장애인에게 사회와 의사소통 할 수 있는 새로운 인터페이스 장치를 제공하는 효과가 있다.Therefore, this system is effective in providing the disabled with a new interface device that can communicate with society.

도 1은 본 발명에 따른 전체 시스템을 나타낸 블록도.1 is a block diagram illustrating an overall system according to the present invention.

도 2는 포함한 센서부를 나타내는 회로도.2 is a circuit diagram showing a sensor unit included;

도 3은 본 발명에 따른 방법적인 처리과정을 전체적으로 나타낸 흐름도.3 is a flow diagram generally illustrating the method processing according to the present invention.

도 4는 클릭신호를 검출하고 실시간으로 마우스 위치 및 클릭을 구현하기 위한 오프라인 학습단계와 실시간 마우스 제어단계의 관계를 나타낸 흐름도.4 is a flowchart illustrating a relationship between an offline learning step and a real time mouse control step for detecting a click signal and realizing mouse position and click in real time.

도 5는 본 발명에 따른 오프라인 학습단계에서 사용된 인공지능모듈의 일례로서 3층 퍼셉트론(3-Layer Perceptron)을 나타내는 구성도.Figure 5 is a block diagram showing a three-layer perceptron (3-Layer Perceptron) as an example of the artificial intelligence module used in the offline learning step according to the present invention.

<주요도면에 대한 부호의 설명><Description of Symbols for Main Drawings>

100 :마이크로 컴퓨터부 200 :센서부 100: micro computer unit 200: sensor unit

300 :마이크로프로세서 400 :A/D컨버터300: microprocessor 400: A / D converter

500 :통신모듈 600 :주컴퓨터부500: communication module 600: main computer

700 :오프라인 학습부 800 :실시간 마우스 제어부700: offline learning unit 800: real-time mouse control unit

900 :인공지능모듈900: artificial intelligence module

210 :센서 220 :필터링회로210: sensor 220: filtering circuit

Claims (8)

센서부(200), 마이크로 컴퓨터부(100), 주컴퓨터부(600)로 이루어진 컴퓨터 인터페이스 장치에 있어서,In the computer interface device consisting of the sensor unit 200, the microcomputer unit 100, the main computer unit 600, 상기 센서부(200)는 센서(210)를 이용하여 머리의 움직임 정보를 측정하고 필터 출력의 조기 안정화를 위한 커패시터 방전용 스위칭회로가 포함된 필터링회로(220)를 이용하여 신호처리한 후 상기 마이크로 컴퓨터부(100)로 전달하고, The sensor unit 200 measures the head movement information using the sensor 210 and performs signal processing using a filtering circuit 220 including a capacitor discharge switching circuit for early stabilization of the filter output. Transfer to the computer unit 100, 상기 주컴퓨터부(600)는 상기 마이크로 컴퓨터부(100)에서 변환된 디지털 신호를 입력 받아 클릭신호를 선택하여 인공지능모듈(900)이 클릭신호를 검출할 수 있도록 학습시키기 위한 오프라인 학습부(700)와 마우스 커서의 위치제어를 실시간으로 수행하고 동시에 클릭신호를 검출하여 클릭신호를 제어하기 위한 실시간 마우스 제어부(800)를 구비하여 윈도우즈상에 마우스 위치 및 클릭을 동시에 표시하는 것을 특징으로 하는 컴퓨터 인터페이스 장치.The main computer unit 600 receives the digital signal converted by the microcomputer unit 100 and selects a click signal so that the AI module 900 learns to detect the click signal. And a real-time mouse control unit 800 for controlling the click signal by simultaneously detecting the position of the mouse cursor and controlling the click signal at the same time. Device. 제 1 항에 있어서, 상기 센서부의 필터링 회로는 필터출력의 조기안정화를 위한 커패시터 강제 방전용 스위칭 회로가 상기 마이크로 컴퓨터부의 마이크로 프로세서의 타이밍 신호에 의해 제어되는 것을 특징으로 하는 컴퓨터 인터페이스 장치.The computer interface device according to claim 1, wherein the filtering circuit of the sensor unit is controlled by a timing signal of a microprocessor of the microcomputer unit, for which a capacitor forced discharge switching circuit for early stabilization of a filter output is controlled. 센서부(200), 마이크로 컴퓨터부(100), 주컴퓨터부(600)로 이루어진 컴퓨터 인터페이스 장치를 이용한 컴퓨터 인터페이스 방법에 있어서,In the computer interface method using a computer interface device consisting of a sensor unit 200, a microcomputer unit 100, the main computer unit 600, 센서를 이용하여 머리의 움직임을 정보를 측정하고 필터출력의 조기 안정화를 위한 커패시터 강제방전용 스위칭회로가 포함된 필터링회로를 이용하여 움직임 신호를 발생시키는 단계(S200),Measuring movement of the head using a sensor and generating a movement signal using a filtering circuit including a switching circuit for discharging a capacitor for early stabilization of the filter output (S200); 상기 움직임 신호인 아날로그 신호를 디지털 신호로 변환하기 위한 A/D 컨버터, 상기 A/D컨버터와 통신 모듈을 제어하기 위한 마이크로 프로세서와 상기 주컴퓨터부와 통신하기 위한 통신모듈을 구비한 마이크로 컴퓨터부를 통하여 변환된 디지털 신호를 주컴퓨터부로 전달하는 단계(S600),Through an A / D converter for converting the analog signal, which is the motion signal, into a digital signal, a microprocessor for controlling the A / D converter and a communication module, and a microcomputer unit having a communication module for communicating with the main computer unit. Transmitting the converted digital signal to the main computer unit (S600), 상기 마이크로 컴퓨터부로부터의 디지털신호를 입력받아(S710) 클릭신호를 선택하고(S720) 선택된 신호를 이용하여 사용자별 클릭신호를 검출할 수 있도록 인공지능모듈을 학습시키기 위한 단계(S730)를 포함하는 오프라인 학습단계(S700),And receiving a digital signal from the microcomputer unit (S710), selecting a click signal (S720), and learning an artificial intelligence module to detect a click signal for each user using the selected signal (S730). Offline learning step (S700), 상기 마이크로 컴퓨터부로부터의 실시간 디지털신호를 입력받아(S810) 마우스 커서의 위치를 제어하고(S820) 동시에 클릭신호를 검출하는 단계(S830, S840)를 포함하는 실시간 마우스 제어단계(S800)와Receiving a real-time digital signal from the microcomputer unit (S810) and controlling the position of the mouse cursor (S820) and simultaneously detecting a click signal (S830 and S840); 상기 실시간 마우스 제어단계에서 출력되는 마우스 위치제어신호 및 클릭신호를 윈도우즈상에 표시하는 단계로 이루어진 것을 특징으로 하는 컴퓨터 인터페이스 방법.And displaying a mouse position control signal and a click signal output in the real time mouse control step on a window. 제 3항 에 있어서, 상기 오프라인 학습단계의 클릭신호 선택단계는 의도적인 끄덕임에 해당하는 입력패턴과 자유로이 움직였을 때의 입력 패턴을 선택하여, 의도적인 끄덕임의 경우 클릭을 교사출력신호로 설정하고 자유로이 움직임의 경우 비클릭을 교사출력신호로 설정된 입력 패턴벡터를 이용한 것을 특징으로 하는 컴퓨터 인터페이스 방법.4. The method of claim 3, wherein the click signal selection step of the offline learning step selects an input pattern corresponding to an intentional nod and an input pattern when freely moved, and sets clicks as teacher output signals in case of intentional nods and moves freely. In the case of the computer interface method characterized in that the non-click using the input pattern vector set as the teacher output signal. 제 3항 또는 4항에 있어서, 상기 오프라인 학습단계의 클릭신호 선택단계는 각각의 입력 패턴벡터가 시간지연 데이터로 구성되는 입력 패턴벡터를 이용한 것을 특징으로 하는 컴퓨터 인터페이스 방법.5. The computer interface method according to claim 3 or 4, wherein the click signal selection step of the offline learning step uses an input pattern vector in which each input pattern vector consists of time delay data. 제 3항 , 제 4항 및 제 5항 중 어느 한 항에 있어서, 상기 오프라인 학습단계의 클릭부분 선택단계는 입력 패턴벡터의 오프셋 조절 및 스케일링을 행하는 것을 특징으로 하는 컴퓨터 인터페이스 방법.6. The computer interface method according to any one of claims 3, 4 and 5, wherein the click portion selection step of the offline learning step performs offset adjustment and scaling of an input pattern vector. 제 3항에 있어서, 상기 실시간 마우스 제어단계는 센서의 잡음신호에 반응하여 마우스 커서가 떨리는 현상을 방지하기 위해, 신호의 잡음범위를 설정하고 이 범위에 포함되는 신호를 잡음으로 판단하여 제거하는 방법을 이용한 것을 특징으로 하는 컴퓨터 인터페이스 방법.The method of claim 3, wherein the real-time mouse control step sets a noise range of the signal and removes the signal included in the range as noise in order to prevent the mouse cursor from shaking in response to the noise signal of the sensor. Computer interface method characterized in that using. 제 3항에 있어서, 상기 인공지능모듈의 출력으로 클릭이 발생한 경우에, 클릭의 발생위치는 클릭으로 인식된 당시의 커서 위치가 아니라, 클릭의 패턴이 시작된 커서 위치로 하여, 클릭을 원했던 시작위치에서 클릭한 것으로 인식되도록 하는 방법을 특징으로 하는 컴퓨터 인터페이스 방법.The start position according to claim 3, wherein when a click occurs as an output of the artificial intelligence module, a click generation position is not a cursor position at the time recognized as a click, but a cursor position at which a pattern of a click starts, and a start position where a click is desired. Computer interface method, characterized in that it is recognized as being clicked on.
KR1020040005136A 2004-01-27 2004-01-27 Device and Method of Computer Interface using sensor and Artificial Intelligence Module KR100660184B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020040005136A KR100660184B1 (en) 2004-01-27 2004-01-27 Device and Method of Computer Interface using sensor and Artificial Intelligence Module

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020040005136A KR100660184B1 (en) 2004-01-27 2004-01-27 Device and Method of Computer Interface using sensor and Artificial Intelligence Module

Publications (2)

Publication Number Publication Date
KR20050077190A true KR20050077190A (en) 2005-08-01
KR100660184B1 KR100660184B1 (en) 2006-12-20

Family

ID=37264757

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020040005136A KR100660184B1 (en) 2004-01-27 2004-01-27 Device and Method of Computer Interface using sensor and Artificial Intelligence Module

Country Status (1)

Country Link
KR (1) KR100660184B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200023660A (en) * 2018-08-13 2020-03-06 인천대학교 산학협력단 Electronic device for controlling performance of at least one processor when providing inference service through deep learning model and operating method thereof

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200023660A (en) * 2018-08-13 2020-03-06 인천대학교 산학협력단 Electronic device for controlling performance of at least one processor when providing inference service through deep learning model and operating method thereof

Also Published As

Publication number Publication date
KR100660184B1 (en) 2006-12-20

Similar Documents

Publication Publication Date Title
US10970936B2 (en) Use of neuromuscular signals to provide enhanced interactions with physical objects in an augmented reality environment
CN109804331B (en) Detecting and using body tissue electrical signals
US20200097081A1 (en) Neuromuscular control of an augmented reality system
US11567573B2 (en) Neuromuscular text entry, writing and drawing in augmented reality systems
CN212112406U (en) Driving device based on user EOG signal and head gesture
US20030046254A1 (en) Apparatus for controlling electrical device using bio-signal and method thereof
Stanford Biosignals offer potential for direct interfaces and health monitoring
Taher et al. EEG control of an electric wheelchair for disabled persons
JP2006318450A (en) Control system
CN113035000A (en) Virtual reality training system for central integrated rehabilitation therapy technology
KR100660184B1 (en) Device and Method of Computer Interface using sensor and Artificial Intelligence Module
CN102467230A (en) Method and system for operating and controlling vernier by human body
Surdilovic et al. Convenient intelligent cursor control web systems for Internet users with severe motor-impairments
KR100310036B1 (en) Method for estimating an vertical motion of eye and remote controlling apparatus of electronic device using it
Shao et al. Design of intentional eye-blink signal acquisition and control system based on pressure sensor
JPH0738848B2 (en) Eye tracer
TW591481B (en) Vision-driving control system and control method thereof
Voicu et al. Advanced monitoring & sensing of mobility impaired individuals
Zhang et al. WristMouse: Wearable mouse controller based on pressure sensors
Shi et al. i-GSI: A Fast and Reliable Grasp-type Switching Interface based on Augmented Reality and Eye-tracking
Shir Mind-reading system-a cutting-edge technology
Takahashi et al. Remarks on EOG and EMG gesture recognition in hands-free manipulation system
Kocejko et al. Using wearable device for biomedical signal acquisition and processing
Rao et al. Trolley Remote Control System Using Eye Motion Tracking
CN118070903A (en) Non-invasive body machine interaction interface and user intention reasoning method

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
J121 Written withdrawal of request for trial
J201 Request for trial against refusal decision
E90F Notification of reason for final refusal
B701 Decision to grant
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20091210

Year of fee payment: 4

LAPS Lapse due to unpaid annual fee