KR20210019704A - Wheelchair apparatus for movement and expression of user based on eye movement - Google Patents

Wheelchair apparatus for movement and expression of user based on eye movement Download PDF

Info

Publication number
KR20210019704A
KR20210019704A KR1020190098645A KR20190098645A KR20210019704A KR 20210019704 A KR20210019704 A KR 20210019704A KR 1020190098645 A KR1020190098645 A KR 1020190098645A KR 20190098645 A KR20190098645 A KR 20190098645A KR 20210019704 A KR20210019704 A KR 20210019704A
Authority
KR
South Korea
Prior art keywords
user
movement
eyeball
controller
expression
Prior art date
Application number
KR1020190098645A
Other languages
Korean (ko)
Inventor
김준석
이지훈
최종찬
Original Assignee
김준석
최종찬
이지훈
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 김준석, 최종찬, 이지훈 filed Critical 김준석
Priority to KR1020190098645A priority Critical patent/KR20210019704A/en
Publication of KR20210019704A publication Critical patent/KR20210019704A/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61GTRANSPORT, PERSONAL CONVEYANCES, OR ACCOMMODATION SPECIALLY ADAPTED FOR PATIENTS OR DISABLED PERSONS; OPERATING TABLES OR CHAIRS; CHAIRS FOR DENTISTRY; FUNERAL DEVICES
    • A61G5/00Chairs or personal conveyances specially adapted for patients or disabled persons, e.g. wheelchairs
    • A61G5/02Chairs or personal conveyances specially adapted for patients or disabled persons, e.g. wheelchairs propelled by the patient or disabled person
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61GTRANSPORT, PERSONAL CONVEYANCES, OR ACCOMMODATION SPECIALLY ADAPTED FOR PATIENTS OR DISABLED PERSONS; OPERATING TABLES OR CHAIRS; CHAIRS FOR DENTISTRY; FUNERAL DEVICES
    • A61G5/00Chairs or personal conveyances specially adapted for patients or disabled persons, e.g. wheelchairs
    • A61G5/04Chairs or personal conveyances specially adapted for patients or disabled persons, e.g. wheelchairs motor-driven
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61GTRANSPORT, PERSONAL CONVEYANCES, OR ACCOMMODATION SPECIALLY ADAPTED FOR PATIENTS OR DISABLED PERSONS; OPERATING TABLES OR CHAIRS; CHAIRS FOR DENTISTRY; FUNERAL DEVICES
    • A61G5/00Chairs or personal conveyances specially adapted for patients or disabled persons, e.g. wheelchairs
    • A61G5/10Parts, details or accessories
    • A61G5/1005Wheelchairs having brakes
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/18Status alarms
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61GTRANSPORT, PERSONAL CONVEYANCES, OR ACCOMMODATION SPECIALLY ADAPTED FOR PATIENTS OR DISABLED PERSONS; OPERATING TABLES OR CHAIRS; CHAIRS FOR DENTISTRY; FUNERAL DEVICES
    • A61G2203/00General characteristics of devices
    • A61G2203/10General characteristics of devices characterised by specific control means, e.g. for adjustment or steering
    • A61G2203/18General characteristics of devices characterised by specific control means, e.g. for adjustment or steering by patient's head, eyes, facial muscles or voice
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61GTRANSPORT, PERSONAL CONVEYANCES, OR ACCOMMODATION SPECIALLY ADAPTED FOR PATIENTS OR DISABLED PERSONS; OPERATING TABLES OR CHAIRS; CHAIRS FOR DENTISTRY; FUNERAL DEVICES
    • A61G2203/00General characteristics of devices
    • A61G2203/10General characteristics of devices characterised by specific control means, e.g. for adjustment or steering
    • A61G2203/20Displays or monitors
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61GTRANSPORT, PERSONAL CONVEYANCES, OR ACCOMMODATION SPECIALLY ADAPTED FOR PATIENTS OR DISABLED PERSONS; OPERATING TABLES OR CHAIRS; CHAIRS FOR DENTISTRY; FUNERAL DEVICES
    • A61G2203/00General characteristics of devices
    • A61G2203/30General characteristics of devices characterised by sensor means
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S297/00Chairs and seats
    • Y10S297/04Wheelchair

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Disclosed is a wheelchair device for movement and expression of a user based on eyeball movement. According to one embodiment of the present invention, the wheelchair device includes: a sensor for sensing whether the user sits; a camera for photographing an eyeball image of a user′s eyeball in response to sitting of the user; a driving unit including a plurality of wheels and a motor for movement; a monitor for outputting a screen; and a control unit for controlling the driving unit based on the eyeball image or controlling the monitor to output the user′s expression.

Description

안구 움직임 기반 사용자의 이동 및 의사표현을 위한 휠체어 장치{WHEELCHAIR APPARATUS FOR MOVEMENT AND EXPRESSION OF USER BASED ON EYE MOVEMENT}Wheelchair device for movement and expression of intention based on eye movement {WHEELCHAIR APPARATUS FOR MOVEMENT AND EXPRESSION OF USER BASED ON EYE MOVEMENT}

아래 실시예들은 안구 움직임 기반 사용자의 이동 및 의사표현을 위한 휠체어 장치에 관한 것이다.The following embodiments relate to a wheelchair device for movement and expression of a user's intention based on eye movement.

휠체어는 거동이 불편한 환자, 장애인 및 노약자 등이 실내외를 이동하기 위한 보조 수단으로 사용된다. 휠체어는 사용자가 손으로 바퀴를 직접 잡고 회전시켜 구동하는 수동 휠체어와 모터의 회전력으로 바퀴를 굴려 이동하는 전동 휠체어로 구분된다.Wheelchairs are used as auxiliary means for moving indoors and outdoors for patients with disabilities, the disabled, and the elderly. Wheelchairs are divided into manual wheelchairs that are driven by a user's hand holding and rotating the wheels and electric wheelchairs that are moved by rolling the wheels with the rotational force of a motor.

전동 휠체어는 모터와 같은 구동장치를 포함하여 구성되는 휠체어이다. 전동 휠체어는 별도의 구동장치가 있기 때문에 수동 휠체어와 달리 거동이 불편한 사용자라도 간단한 조작으로 이동할 수 있다는 장점이 있다.The electric wheelchair is a wheelchair comprising a driving device such as a motor. Since the electric wheelchair has a separate driving device, unlike a manual wheelchair, even a user with discomfort can move with a simple operation.

하지만, 흔히 루게릭병이라 불리는 근위축성 측색 경화증(amyotrophic lateral sclerosis, ALS) 환자의 경우, 전동 휠체어를 사용하더라도 보호자의 도움 없이는 이동하기 어렵다.However, in the case of patients with amyotrophic lateral sclerosis (ALS), commonly referred to as Lou Gehrig's disease, it is difficult to move without the help of a guardian even when using an electric wheelchair.

실시예들은 사용자의 안구 움직임에 기초하여 휠체어 제어 및 사용자의 의사표현을 출력함으로써, 루게릭병 환자와 같이 신체 거동이 극히 힘든 사용자의 경우라도 사용자의 안구 움직임 만으로 이동 및 의사표현을 가능하게 할 수 있다.The embodiments may control a wheelchair based on the user's eye movements and output the user's expression of intention, so that even a user with extremely difficult body movements, such as a patient with Lou Gehrig's disease, can move and express intentions only with the user's eye movements. .

일 실시예에 따른 휠체어 장치는, 사용자의 착석 여부를 센싱하는 센서와, 상기 사용자의 착석에 응답하여 상기 사용자의 안구에 대한 안구 이미지를 촬영하는 카메라와, 이동을 위한 복수의 바퀴 및 모터를 포함하는 구동부와, 화면을 출력하는 모니터와, 상기 안구 이미지에 기초하여 상기 구동부를 제어하거나 또는 상기 사용자의 의사표현을 출력하기 위해 상기 모니터를 제어하는 제어부를 포함한다.A wheelchair device according to an embodiment includes a sensor for sensing whether the user is seated, a camera for photographing an eyeball image of the user's eye in response to the user's seating, and a plurality of wheels and motors for movement And a driving unit for controlling the driving unit, a monitor for outputting a screen, and a control unit for controlling the driving unit based on the eyeball image or for controlling the monitor to output the user's expression of intention.

상기 제어부는, 상기 사용자의 착석에 응답하여 상기 구동부를 제어하기 위한 이동 모드 또는 상기 사용자의 의사표현을 출력하기 위한 입력 모드에 대한 선택 화면을 상기 모니터를 통해 상기 사용자에게 제공하고, 상기 선택 화면에 대한 상기 안구의 동공 영역에 대한 제1 움직임으로 상기 이동 모드가 선택된 경우, 상기 안구의 동공 영역에 대한 제2 움직임에 응답하여 상기 구동부를 제어하고, 상기 동공 영역의 움직임으로 상기 입력 모드가 선택된 경우, 상기 안구의 동공 영역에 대한 제2 움직임에 응답하여 상기 모니터를 제어할 수 있다.The control unit provides a selection screen for a movement mode for controlling the driving unit or an input mode for outputting the user's expression of intention to the user through the monitor in response to the user's seating, and the selection screen When the movement mode is selected as the first movement of the pupil region of the eyeball, the driving unit is controlled in response to the second movement of the pupil region of the eyeball, and the input mode is selected as the movement of the pupil region , It is possible to control the monitor in response to a second movement of the pupil region of the eyeball.

상기 제어부는, 상기 입력 모드가 선택된 경우, 상기 사용자의 의사표현을 입력할 수 있는 키보드 및 상기 사용자가 입력했던 의사표현들을 사용 빈도에 따라 제공하는 단축 버튼을 제공하고, 상기 안구의 동공 영역에 대한 제2 움직임에 따라 상기 키보드 및 상기 단축 버튼 중에서 적어도 하나로부터 입력된 상기 사용자의 의사표현을 상기 모니터를 통해 출력할 수 있다.When the input mode is selected, the control unit provides a keyboard for inputting the user's expression of intention and a shortcut button for providing the user's expression of intention according to the frequency of use, and the pupil region of the eyeball According to the second movement, the user's expression of intention input from at least one of the keyboard and the shortcut button may be output through the monitor.

상기 센서는, 상기 휠체어 장치의 수평 지면으로부터의 경사각을 센싱하고, 상기 제어부는, 상기 경사각이 임계 경사각 이상인 경우 상기 구동부가 정지하도록 제어하고, 비상 신호를 출력하고, 상기 사용자의 보호자에게 비상 메시지를 전송할 수 있다.The sensor senses an inclination angle from the horizontal ground of the wheelchair device, and the controller controls the driving unit to stop when the inclination angle is greater than or equal to a critical inclination angle, outputs an emergency signal, and sends an emergency message to the guardian of the user. Can be transmitted.

상기 제어부는, 상기 사용자의 호출기로부터 호출 메시지를 수신한 경우 상기 호출기의 위치로 이동하기 위해 상기 구동부를 제어할 수 있다.The control unit may control the driving unit to move to the position of the pager when a call message is received from the pager of the user.

도 1은 일 실시예에 따른 휠체어 장치를 나타낸 도면이다.
도 2는 도 1에 도시된 제어부의 동작을 설명하기 위한 흐름도이다.
도 3은 휠체어 장치가 구현된 일 예를 도시한 도면이다.
도 4는 도 1에 도시된 카메라가 안경에 구현된 일 예를 나타낸다.
도 5 내지 도 8은 제어부가 안구 이미지를 처리하는 동작을 설명하기 위한 도면이다.
도 9 내지 도 11은 제어부가 사용자에게 이동 모드 및 입력 모드를 제공하는 일 예를 설명하기 위한 도면이다.
1 is a view showing a wheelchair device according to an embodiment.
FIG. 2 is a flowchart illustrating an operation of the controller illustrated in FIG. 1.
3 is a diagram illustrating an example in which a wheelchair device is implemented.
4 shows an example in which the camera shown in FIG. 1 is implemented in glasses.
5 to 8 are diagrams for explaining an operation of a controller to process an eyeball image.
9 to 11 are diagrams for explaining an example in which a controller provides a moving mode and an input mode to a user.

이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 그러나, 실시예들에는 다양한 변경이 가해질 수 있어서 특허출원의 권리 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 실시예들에 대한 모든 변경, 균등물 내지 대체물이 권리 범위에 포함되는 것으로 이해되어야 한다.Hereinafter, exemplary embodiments will be described in detail with reference to the accompanying drawings. However, since various changes may be made to the embodiments, the scope of the rights of the patent application is not limited or limited by these embodiments. It should be understood that all changes, equivalents, or substitutes to the embodiments are included in the scope of the rights.

실시예에서 사용한 용어는 단지 설명을 목적으로 사용된 것으로, 한정하려는 의도로 해석되어서는 안된다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in the examples are used for illustrative purposes only and should not be interpreted as limiting. Singular expressions include plural expressions unless the context clearly indicates otherwise. In the present specification, terms such as "comprise" or "have" are intended to designate the presence of features, numbers, steps, actions, components, parts, or combinations thereof described in the specification, but one or more other features. It is to be understood that the presence or addition of elements or numbers, steps, actions, components, parts, or combinations thereof, does not preclude in advance.

제1 또는 제2등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 구성요소들은 용어들에 의해서 한정되어서는 안 된다. 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만, 예를 들어 실시예의 개념에 따른 권리 범위로부터 이탈되지 않은 채, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.Terms such as first or second may be used to describe various components, but the components should not be limited by terms. The terms are only for the purpose of distinguishing one component from other components, for example, without departing from the scope of rights according to the concept of the embodiment, the first component may be named as the second component, and similarly The second component may also be referred to as a first component.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which the embodiment belongs. Terms as defined in a commonly used dictionary should be interpreted as having a meaning consistent with the meaning in the context of the related technology, and should not be interpreted as an ideal or excessively formal meaning unless explicitly defined in this application. Does not.

또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 실시예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.In addition, in the description with reference to the accompanying drawings, the same reference numerals are assigned to the same components regardless of the reference numerals, and redundant descriptions thereof will be omitted. In describing the embodiments, when it is determined that a detailed description of related known technologies may unnecessarily obscure the subject matter of the embodiments, the detailed description thereof will be omitted.

도 1은 일 실시예에 따른 휠체어 장치를 나타낸 도면이다.1 is a view showing a wheelchair device according to an embodiment.

휠체어 장치(10)는 센서(100), 카메라(200), 제어부(300), 모니터(400), 및 구동부(500)를 포함한다.The wheelchair device 10 includes a sensor 100, a camera 200, a control unit 300, a monitor 400, and a driving unit 500.

휠체어 장치(10)는 사용자의 안구 움직임에 기초하여 휠체어 제어 및 사용자의 의사표현을 출력함으로써, 루게릭병 환자와 같이 신체 거동이 극히 힘든 사용자의 경우라도 보호자의 도움 없이 이동 및 의사표현을 가능하게 할 수 있다The wheelchair device 10 controls the wheelchair and outputs the user's expression of intention based on the user's eye movement, so that even a user with extremely difficult physical movements, such as a Lou Gehrig's disease patient, can move and express his or her intention without the help of a guardian. Can

센서(100)는 사용자의 착석 여부를 센싱할 수 있다. 예를 들어, 센서(100)는 적외선 센서 및/또는 압력 센서를 포함할 수 있다.The sensor 100 may sense whether the user is seated. For example, the sensor 100 may include an infrared sensor and/or a pressure sensor.

센서(100)는 휠체어 장치(10)의 수평 지면으로부터의 경사각을 센싱할 수 있다. 예를 들어, 센서(100)는 가속도 및 자이로 센서를 포함할 수 있다.The sensor 100 may sense the angle of inclination of the wheelchair device 10 from the horizontal ground. For example, the sensor 100 may include an acceleration and a gyro sensor.

센서(100)는 휠체어 장치(10)의 근접 거리에 존재하는 장애물을 센싱할 수 있다. 예를 들어, 센서(100)는 초음파 센서를 포함할 수 있다.The sensor 100 may sense an obstacle existing in a proximity distance of the wheelchair device 10. For example, the sensor 100 may include an ultrasonic sensor.

센서(100)는 센싱한 신호를 제어부(300)로 전송할 수 있다.The sensor 100 may transmit the sensed signal to the controller 300.

카메라(200)는 사용자의 안구 이미지를 촬영할 수 있다. 예를 들어, 카메라(200)는 사용자의 휠체어 장치(10)에 착석에 응답하여 사용자의 안구에 대한 안구 이미지를 지속적으로 촬영할 수 있다. 카메라(200)는 제어부(300)로부터 촬영 시작 신호를 수신한 경우 사용자의 안구 이미지를 촬영할 수 있다. 하지만, 카메라(200)가 반드시 제어부(300)로부터 촬영 시작 신호를 수신하여야 사용자의 안구 이미지를 촬영할 수 있는 것은 아님에 유의한다.The camera 200 may capture a user's eyeball image. For example, the camera 200 may continuously capture an eyeball image of the user's eye in response to a seating on the user's wheelchair device 10. The camera 200 may capture a user's eyeball image when receiving a shooting start signal from the controller 300. However, it should be noted that the camera 200 does not necessarily receive a photographing start signal from the control unit 300 to capture a user's eye image.

카메라(200)는 센서(100), 제어부(300), 모니터(400), 및 구동부(500)로부터 단독으로 구현될 수 있다. 예를 들어, 카메라(200)는 사용자의 안경 등에 단독으로 구현될 수 있다. 카메라(200)가 단독으로 구현되는 경우, 카메라(200)는 제어부(300)와 무선으로 통신할 수 있다.The camera 200 may be implemented independently from the sensor 100, the control unit 300, the monitor 400, and the driving unit 500. For example, the camera 200 may be implemented solely on the user's glasses or the like. When the camera 200 is implemented alone, the camera 200 may wirelessly communicate with the controller 300.

카메라(200)는 촬영한 안구 이미지를 제어부(300)로 전송할 수 있다.The camera 200 may transmit the photographed eyeball image to the controller 300.

제어부(300)는 안구 이미지에 기초하여 구동부(500)를 제어하거나 또는 사용자의 의사표현을 출력하기 위해 모니터(400)를 제어할 수 있다.The controller 300 may control the driving unit 500 based on the eyeball image or the monitor 400 to output the user's expression of intention.

제어부(300)는 센서(100)로부터 수신한 신호에 기초하여 사용자가 휠체어에 착석했는지 여부를 판단할 수 있다. 제어부(300)는 사용자가 휠체어에 착석했다고 판단한 경우 카메라(200)로 촬영 시작 신호를 전송할 수 있다.The controller 300 may determine whether the user is seated in a wheelchair based on a signal received from the sensor 100. When it is determined that the user is seated in a wheelchair, the controller 300 may transmit a photographing start signal to the camera 200.

제어부(300)는 카메라(200)로부터 안구 이미지를 수신할 수 있다. 제어부(300)는 안구 이미지에서 동공 영역의 움직임을 추출할 수 있다. 예를 들어, 제어부(300)는 카메라(200)로부터 지속적으로 수신하는 복수의 안구 이미지들로부터 동공 영역의 움직임을 추출할 수 있다.The controller 300 may receive an eyeball image from the camera 200. The controller 300 may extract the movement of the pupil region from the eyeball image. For example, the controller 300 may extract the movement of the pupil region from a plurality of eyeball images continuously received from the camera 200.

제어부(300)는 사용자의 착석에 응답하여 구동부(500)를 제어하기 위한 이동 모드 또는 사용자의 의사표현을 출력하기 위한 입력 모드에 대한 선택 화면을 모니터(400)를 통해 사용자에게 제공할 수 있다. 제어부(300)는 선택 화면에 대한 안구의 동공 영역에 대한 제1 움직임으로 사용자가 원하는 모드를 입력 받을 수 있다. 예를 들어, 사용자는 모니터(400)에 나타난 이동 모드 및 입력 모드 선택 버튼에 대하여, 선택하고 싶은 모드 영역에 시선을 응시하거나 눈을 깜빡이는 제스쳐 등을 통해 원하는 모드를 선택할 수 있다.In response to the user's seating, the controller 300 may provide a selection screen for a movement mode for controlling the driving unit 500 or an input mode for outputting a user's expression of intention to the user through the monitor 400. The controller 300 may receive a mode desired by the user through the first movement of the pupil region of the eyeball on the selection screen. For example, the user may select a desired mode through a gesture of gazing at a desired mode area or blinking an eye with respect to a movement mode and an input mode selection button displayed on the monitor 400.

제어부(300)는 동공 영역의 움직임으로 이동 모드가 선택된 경우 안구의 동공 영역에 대한 제2 움직임에 응답하여 구동부(500)를 제어할 수 있다. 제어부(300)는 동공 영역의 움직임으로 입력 모드가 선택된 경우 동공 영역의 움직임에 응답하여 모니터(400)를 제어할 수 있다.When the movement mode is selected as the movement of the pupil region, the controller 300 may control the driving unit 500 in response to the second movement of the pupil region of the eye. When the input mode is selected for the movement of the pupil region, the controller 300 may control the monitor 400 in response to the movement of the pupil region.

제어부(300)는 입력 모드가 선택된 경우, 모니터(400)상에 사용자의 의사표현을 입력할 수 있는 키보드 및 사용자가 입력했던 의사표현들을 사용 빈도에 따라 제공하는 단축 버튼을 제공할 수 있다. 예를 들어, 제어부(300)는 사용자가 자주 입력한 단어, 문구, 이모티콘 등을 저장할 수 있다. 제어부(300)는 저장된 단어, 문구, 이모티콘 등을 사용 빈도에 따라 단축 버튼으로 제공할 수 있다.When the input mode is selected, the controller 300 may provide a keyboard for inputting the user's expression of intention on the monitor 400 and a shortcut button for providing the user's expression of intention according to the frequency of use. For example, the controller 300 may store words, phrases, emoticons, and the like that the user frequently inputs. The controller 300 may provide stored words, phrases, emoticons, and the like as a shortcut button according to the frequency of use.

제어부(300)는 안구의 동공 영역에 대한 제2 움직임에 따라 키보드 및 단축 버튼 중에서 적어도 하나로부터 입력된 사용자의 의사표현을 모니터(400)를 통해 출력할 수 있다. 예를 들어, 제어부(300)는 사용자의 의사표현을 모니터(400)를 통해 텍스트, 이모티콘, 텍스트를 음성 변환한 소리 등으로 출력할 수 있다.The controller 300 may output a user's expression of intention input from at least one of a keyboard and a shortcut button through the monitor 400 according to the second movement of the pupil region of the eyeball. For example, the control unit 300 may output a user's expression of intention through the monitor 400 as text, an emoticon, a voice-transformed sound, or the like.

제어부(300)는 센서(100)로부터 일정 시간동안 사용자의 착석 여부가 센싱되지 않은 경우 카메라(200), 제어부(300), 모니터(400), 구동부(500)를 슬립 모드(sleep mode)로 전환할 수 있다. 슬립 모드는 저전력 모드를 의미할 수 있다. 슬립 모드는 제어부(300)의 상시 전원만을 사용하고 그 외의 모든 전원을 차단하는 모드일 수 있다. 즉, 제어부(300)는 슬립 모드인 경우 구동부(500)를 제어하기 위한 전원(예를 들어, 제어부(300)가 모터 드라이버를 포함하는 경우 모터 드라이버의 전원) 또한 차단하여 전력을 절약할 수 있다.The control unit 300 switches the camera 200, the control unit 300, the monitor 400, and the driving unit 500 to a sleep mode when the user's seating status is not sensed by the sensor 100 for a certain period of time. can do. The sleep mode may mean a low power mode. The sleep mode may be a mode in which only the constant power of the controller 300 is used and all other power is cut off. That is, when the controller 300 is in the sleep mode, power for controlling the driving unit 500 (eg, power of the motor driver when the controller 300 includes a motor driver) may also be cut off to save power. .

제어부(300)는 센서(100)로부터 수신한 신호에 기초하여 휠체어 장치(10)의 수평 지면으로부터의 경사각을 계산할 수 있다. 제어부(300)는 경사각이 임계 경사각 이상인 경우 구동부(500)가 정지하도록 제어할 수 있다. 제어부(300)는 경사각이 임계 경사각 이상인 경우 비상 신호를 출력할 수 있다. 예를 들어, 제어부(300)는 비상 신호를 제어부(300)에 포함된 스피커, LED 등을 이용하여 소리 및/또는 빛을 출력할 수 있다. 제어부(300)는 비상 신호를 모니터(400)에 포함된 스피커 및 화면 등을 이용하여 출력할 수 있다.The controller 300 may calculate an inclination angle of the wheelchair device 10 from the horizontal ground based on a signal received from the sensor 100. The controller 300 may control the driving unit 500 to stop when the inclination angle is greater than or equal to the critical inclination angle. The controller 300 may output an emergency signal when the inclination angle is greater than or equal to the critical inclination angle. For example, the control unit 300 may output sound and/or light by using a speaker or LED included in the control unit 300 for an emergency signal. The controller 300 may output an emergency signal using a speaker and a screen included in the monitor 400.

제어부(300)는 경사각이 임계 경사각 이상인 경우 사용자의 보호자에게 비상 메시지를 전송할 수 있다. 제어부(300)는 경사각이 임계 경사각 이상인 경우 사용자의 보호자에게 전화 연결을 수행할 수 있다. 사용자의 보호자는 거동이 극히 불편한 사용자를 보조/간병하는자 및 미리 연락처가 저장되어 있는 자 모두를 의미할 수 잇다.The controller 300 may transmit an emergency message to a guardian of the user when the inclination angle is greater than or equal to the critical inclination angle. When the inclination angle is greater than or equal to the critical inclination angle, the controller 300 may perform a telephone connection to the guardian of the user. The user's guardian may refer to both a person who assists/carers a user with extremely inconvenient mobility and a person whose contact information is stored in advance.

제어부(300)는 센서(100)로부터 수신한 신호에 기초하여 장애물이 임계 거리 이하로 가까워지는 경우 구동부(500)가 정지하도록 제어할 수 있다.The control unit 300 may control the driving unit 500 to stop when an obstacle approaches a threshold distance or less based on a signal received from the sensor 100.

제어부(300)는 사용자의 호출기(미도시)로부터 호출 메시지를 수신할 수 있다. 제어부(300)는 호출 메시지에 포함된 호출기(미도시)의 위치로 이동하기 위해 구동부(500)를 제어할 수 있다.The controller 300 may receive a call message from a pager (not shown) of the user. The controller 300 may control the driving unit 500 to move to a position of a pager (not shown) included in the call message.

제어부(300)는 보호자의 원격 조작기(미도시)로부터 원격 조작 신호를 수신할 수 있다. 제어부(300)는 원격 조작 신호에 따라 보호자가 조작하는 대로 구동부(500)를 제어할 수 있는 보호자 제어 모드를 제공할 수 있다. 보호자 제어 모드로 인해 보호자는 휠체어 장치(10)를 원격으로 조종하여 간편히 이동시킬 수 있다.The controller 300 may receive a remote manipulation signal from a remote manipulation device (not shown) of a parent. The controller 300 may provide a parental control mode capable of controlling the driving unit 500 as the parental controls operate according to a remote manipulation signal. Due to the parental control mode, the guardian can easily move the wheelchair device 10 by remotely controlling it.

제어부(300)는 통신 가능한 다른 장치(예를 들어 조명 기구, 에어컨, TV) 등을 제어할 수 있는 IoT(Internet Of Things) 제어 모드를 제공할 수 있다. 사용자는 IoT 제어 모드를 통해 병실 또는 자신의 집에 있는 IoT 기기를 제어할 수 있다.The controller 300 may provide an Internet Of Things (IoT) control mode capable of controlling other devices capable of communication (eg, lighting equipment, air conditioners, TVs), and the like. Users can control IoT devices in a hospital room or their home through the IoT control mode.

모니터(400)는 제어부(300)로부터 수신한 신호에 따라 화면, 소리 등을 출력할 수 있다. 즉, 모니터(400)는 스피커를 포함할 수 있다.The monitor 400 may output a screen, a sound, etc. according to a signal received from the controller 300. That is, the monitor 400 may include a speaker.

구동부(500)는 이동을 위한 복수의 바퀴 및 모터를 포함할 수 있다. 예를 들어, 모터는 'BMGC90B300B' 모델로 구현될 수 있다. 구동부(500)는 제어부(300)의 제어에 따라 모터를 구동하여 이동 및 정지할 수 있다. 구동부(500)는 정지를 위한 브레이크를 더 포함할 수 있다.The driving unit 500 may include a plurality of wheels and motors for movement. For example, the motor may be implemented as a'BMGC90B300B' model. The driving unit 500 may move and stop by driving a motor under the control of the control unit 300. The driving unit 500 may further include a brake for stopping.

도 2는 도 1에 도시된 제어부의 동작을 설명하기 위한 흐름도이다.FIG. 2 is a flowchart illustrating an operation of the controller illustrated in FIG. 1.

제어부(300)는 센서(100)로부터 수신한 신호에 기초하여 사용자가 휠체어에 착석했는지 여부를 판단할 수 있다(210).The controller 300 may determine whether the user is seated in a wheelchair based on a signal received from the sensor 100 (210 ).

제어부(300)는 사용자가 휠체어에 착석했다고 판단하면 카메라(200)에 촬영 시작 신호를 전송할 수 있다. 카메라(200)는 촬영 시작 신호에 응답하여 사용자의 안구 이미지를 촬영할 수 있다. 카메라(200)는 사용자의 안구 이미지를 제어부(300)로 전송할 수 있다. 제어부(300)는 안구 이미지에서 동공 영역의 움직임을 추출할 수 있다(220).When it is determined that the user is seated in a wheelchair, the controller 300 may transmit a photographing start signal to the camera 200. The camera 200 may capture a user's eyeball image in response to a shooting start signal. The camera 200 may transmit the user's eyeball image to the controller 300. The controller 300 may extract the movement of the pupil region from the eyeball image (220).

제어부(300)는 사용자의 착석에 응답하여 이동 모드 또는 입력 모드에 대한 선택 화면을 제공할 수 있다(230).The controller 300 may provide a selection screen for a movement mode or an input mode in response to the user's seating (230).

제어부(300)는 선택 화면에 대한 안구의 동공 영역에 대한 제1 움직임으로 이동 모드가 선택된 경우, 안구의 동공 영역에 대한 제2 움직임에 응답하여 구동부(500)를 제어할 수 있다(240). 제어부(300)는 사용자가 이동 모드를 종료할 경우 다시 이동 모드 또는 입력 모드 선택 화면을 제공할 수 있다(250).When the movement mode is selected as the first movement of the pupil region of the eyeball on the selection screen, the controller 300 may control the driving unit 500 in response to the second movement of the pupil region of the eyeball (240). When the user ends the movement mode, the controller 300 may provide a movement mode or an input mode selection screen again (250).

제어부(300)는 선택 화면에 대한 안구의 동공 영역에 대한 제1 움직임으로 입력 모드가 선택된 경우, 안구의 동공 영역에 대한 제2 움직임에 응답하여 모니터(400)를 제어할 수 있다(260). 제어부(300)는 사용자가 입력 모드를 종료할 경우 다시 이동 모드 또는 입력 모드 선택 화면을 제공할 수 있다(270).When the input mode is selected as the first movement of the pupil region of the eyeball on the selection screen, the controller 300 may control the monitor 400 in response to the second movement of the pupil region of the eyeball (260 ). When the user ends the input mode, the controller 300 may provide a moving mode or an input mode selection screen again (270).

도 3은 휠체어 장치가 구현된 일 예를 도시한 도면이고, 도 4는 도 1에 도시된 카메라가 안경에 구현된 일 예를 나타낸다.FIG. 3 is a diagram illustrating an example in which a wheelchair device is implemented, and FIG. 4 illustrates an example in which the camera shown in FIG. 1 is implemented in glasses.

도 3 및 도 4에 도시된 바와 같이, 휠체어 장치(10)는 센서(100), 제어부(300), 모니터(400), 및 구동부(500)와 독립적으로 카메라(200)가 구현될 수 있다. 예를 들어, 카메라(200)는 사용자의 안경에 구현될 수 있다. 카메라(200)가 사용자의 안경에 구현되는 경우 카메라(200)는 제어부(300)와 무선 통신을 수행할 수 있다.As shown in FIGS. 3 and 4, the wheelchair device 10 may implement the camera 200 independently of the sensor 100, the control unit 300, the monitor 400, and the driving unit 500. For example, the camera 200 may be implemented on the user's glasses. When the camera 200 is implemented in the user's glasses, the camera 200 may perform wireless communication with the controller 300.

예를 들어, 카메라(200)는 노이즈 차단 필터가 제거될 수 있다. 카메라(200)는 적외선 차단 필터 역할을 하는 감광 필름이 부착될 수 있다. 카메라(200)는 어두운 환경에서도 사용자의 안구 이미지를 촬영하기 위하여 적외선 LED (InfraRed Light Emitting Diode)를 포함할 수 있다.For example, the camera 200 may have a noise cut filter removed. The camera 200 may be attached with a photosensitive film serving as an infrared cut filter. The camera 200 may include an infrared LED (InfraRed Light Emitting Diode) to capture a user's eyeball image even in a dark environment.

도 5 내지 도 8은 제어부가 안구 이미지를 처리하는 동작을 설명하기 위한 도면이다.5 to 8 are diagrams for explaining an operation of a controller to process an eyeball image.

제어부(300)는 안구 이미지를 수신할 수 있다(510). 제어부(300)는 안구 이미지에서 동공 영역의 픽셀을 추출할 수 있다(520). 제어부(300)가 동공 영역의 픽셀을 추출하는 일 예는 도 6과 같을 수 있다.The controller 300 may receive an eyeball image (510). The controller 300 may extract pixels of the pupil region from the eyeball image (520). An example in which the control unit 300 extracts a pixel of the pupil region may be as shown in FIG. 6.

제어부(300)는 추출된 픽셀을 RGB(Red Green Blue) to HSV(Heu Saturation Value) 영상 변환할 수 있다(530). 제어부(300)는 추출된 HSV 범위를 이용하여 영상을 이진화할 수 있다(540). 제어부(300)가 이진화한 영상의 일 예는 도 7과 같을 수 있다.The controller 300 may convert the extracted pixels into a red green blue (RGB) image to a Heu Saturation Value (HSV) image (530). The controller 300 may binarize the image using the extracted HSV range (540). An example of the image binarized by the controller 300 may be as shown in FIG. 7.

제어부(300)는 동공 영역의 좌표 값을 이용하여 테두리를 형성하고 동공 영역을 라벨링(810)할 수 있다(550).The controller 300 may form a border using the coordinate value of the pupil region and label the pupil region (550).

도 9 내지 도 11은 제어부가 사용자에게 이동 모드 및 입력 모드를 제공하는 일 예를 설명하기 위한 도면이다.9 to 11 are diagrams for explaining an example in which a controller provides a moving mode and an input mode to a user.

도 9는 제어부(300)가 제공하는 이동 모드(930)의 일 예를 설명하기 위한 도면이다. 예를 들어, 제어부(300)는 라벨링된 동공 영역(910)의 움직임에 따라 모니터(400) 화면 상에도 커서(950)를 표시할 수 있다.9 is a diagram illustrating an example of a movement mode 930 provided by the controller 300. For example, the controller 300 may also display the cursor 950 on the screen of the monitor 400 according to the movement of the labeled pupil region 910.

제어부(300)는 라벨링된 동공 영역(910)의 움직임에 응답하여 구동부(500)를 제어할 수 있다. 예를 들어, 제어부(300)는 커서(950)가 왼쪽으로 이동을 명령하는 left 버튼(970) 상에 머물거나 left 버튼(970) 상에서 눈 깜빡임 등의 제스쳐 등이 있는 경우 구동부(500)를 제어하여 휠체어 장치(10)를 왼쪽 방향으로 이동시킬 수 있다.The controller 300 may control the driver 500 in response to the movement of the labeled pupil region 910. For example, the control unit 300 controls the driving unit 500 when the cursor 950 stays on the left button 970 commanding the movement to the left or when there is a gesture such as blinking of an eye on the left button 970 Thus, the wheelchair device 10 can be moved to the left.

도 10 및 도 11은 제어부(300)가 제공하는 입력 모드(1030)의 일 예를 설명하기 위한 도면이다.10 and 11 are diagrams for explaining an example of an input mode 1030 provided by the controller 300.

제어부(300)는 라벨링된 동공 영역(1010)의 움직임에 따라 모니터(400) 화면 상에도 커서(1050)를 표시할 수 있다.The controller 300 may also display the cursor 1050 on the screen of the monitor 400 according to the movement of the labeled pupil region 1010.

제어부(300)는 라벨링된 동공 영역(1010)의 움직임에 응답하여 모니터(400)를 제어할 수 있다. 예를 들어, 제어부(300)는 커서(1050)가 Hello 버튼(1070) 상에 머물거나 Hello 버튼(1070) 상에서 눈 깜빡임 등의 제스쳐(1110) 등이 있는 경우 사용자의 의사표현이 입력(1150)된 것으로 판단할 수 있다.The controller 300 may control the monitor 400 in response to the movement of the labeled pupil region 1010. For example, when the cursor 1050 stays on the Hello button 1070 or there is a gesture 1110 such as blinking an eye on the Hello button 1070, the user's expression of intention is input (1150). It can be judged that it has become.

제어부(300)는 입력된 의사표현(1150)을 모니터(400)를 제어하여 “Hello”라는 텍스트를 모니터(400) 화면상에 표시할 수 있다.The controller 300 may control the monitor 400 for the input intention expression 1150 to display the text “Hello” on the screen of the monitor 400.

도 10 및 도 11에서는 제어부(300)가 모니터(400)를 통해 출력하는 의사표현이 단순히 텍스트로만 설명이 되었지만, 제어부(300)는 사용자의 입력에 따라 이모티콘, 텍스트를 음성으로 변환한 소리 등의 다른 의사표현 또한 출력할 수 있음에 유의한다.In FIGS. 10 and 11, the expression of the intention that the controller 300 outputs through the monitor 400 is described simply as text, but the controller 300 uses an emoticon, a sound converted from text to speech, etc. Note that other expressions of opinion can also be printed.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the embodiment, or may be known and usable to those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. -A hardware device specially configured to store and execute program instructions such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of the program instructions include not only machine language codes such as those produced by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware device described above may be configured to operate as one or more software modules to perform the operation of the embodiment, and vice versa.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of these, configuring the processing unit to behave as desired or processed independently or collectively. You can command the device. Software and/or data may be interpreted by a processing device or to provide instructions or data to a processing device, of any type of machine, component, physical device, virtual equipment, computer storage medium or device. , Or may be permanently or temporarily embodyed in a transmitted signal wave. The software may be distributed over networked computer systems and stored or executed in a distributed manner. Software and data may be stored on one or more computer-readable recording media.

이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described by the limited drawings, a person of ordinary skill in the art can apply various technical modifications and variations based on the above. For example, the described techniques are performed in a different order from the described method, and/or components such as a system, structure, device, circuit, etc. described are combined or combined in a form different from the described method, or other components Alternatively, even if substituted or substituted by an equivalent, an appropriate result can be achieved.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 청구범위의 범위에 속한다.Therefore, other implementations, other embodiments and claims and equivalents fall within the scope of the following claims.

Claims (5)

사용자의 착석 여부를 센싱하는 센서;
상기 사용자의 착석에 응답하여 상기 사용자의 안구에 대한 안구 이미지를 촬영하는 카메라;
이동을 위한 복수의 바퀴 및 모터를 포함하는 구동부;
화면을 출력하는 모니터; 및
상기 안구 이미지에 기초하여 상기 구동부를 제어하거나 또는 상기 사용자의 의사표현을 출력하기 위해 상기 모니터를 제어하는 제어부
를 포함하는 휠체어 장치.
A sensor for sensing whether a user is seated;
A camera for taking an eyeball image of the user's eye in response to the user's seating;
A driving unit including a plurality of wheels and motors for movement;
A monitor that outputs a screen; And
A control unit that controls the driving unit based on the eyeball image or controls the monitor to output the user's expression of intention
Wheelchair device comprising a.
제1항에 있어서,
상기 제어부는,
상기 사용자의 착석에 응답하여 상기 구동부를 제어하기 위한 이동 모드 또는 상기 사용자의 의사표현을 출력하기 위한 입력 모드에 대한 선택 화면을 상기 모니터를 통해 상기 사용자에게 제공하고,상기 선택 화면에 대한 상기 안구의 동공 영역에 대한 제1 움직임으로 상기 이동 모드가 선택된 경우, 상기 안구의 동공 영역에 대한 제2 움직임에 응답하여 상기 구동부를 제어하고,
상기 선택 화면에 대한 상기 안구의 동공 영역에 대한 제1 움직임으로 상기 입력 모드가 선택된 경우, 상기 안구의 동공 영역에 대한 제2 움직임에 응답하여 상기 모니터를 제어하는
휠체어 장치.
The method of claim 1,
The control unit,
In response to the user's seating, a selection screen for a movement mode for controlling the driving unit or an input mode for outputting the user's expression is provided to the user through the monitor, and the eyeball for the selection screen When the movement mode is selected as the first movement for the pupil region, controlling the driving unit in response to the second movement for the pupil region of the eyeball,
When the input mode is selected as the first motion for the pupil region of the eyeball for the selection screen, controlling the monitor in response to the second motion for the pupil region of the eyeball
Wheelchair device.
제2항에 있어서,
상기 제어부는,
상기 입력 모드가 선택된 경우, 상기 사용자의 의사표현을 입력할 수 있는 키보드 및 상기 사용자가 입력했던 의사표현들을 사용 빈도에 따라 제공하는 단축 버튼을 제공하고,
상기 안구의 동공 영역에 대한 제2 움직임에 따라 상기 키보드 및 상기 단축 버튼 중에서 적어도 하나로부터 입력된 상기 사용자의 의사표현을 상기 모니터를 통해 출력하는
휠체어 장치.
The method of claim 2,
The control unit,
When the input mode is selected, a keyboard for inputting the user's expression of intention and a shortcut button that provides the user's expression of intention according to the frequency of use are provided,
Outputting the expression of the user's intention inputted from at least one of the keyboard and the shortcut button through the monitor according to the second movement of the pupil region of the eyeball
Wheelchair device.
제1항에 있어서,
상기 센서는,
상기 휠체어 장치의 수평 지면으로부터의 경사각을 센싱하고,
상기 제어부는,
상기 경사각이 임계 경사각 이상인 경우 상기 구동부가 정지하도록 제어하고, 비상 신호를 출력하고, 상기 사용자의 보호자에게 비상 메시지를 전송하는
휠체어 장치.
The method of claim 1,
The sensor,
Sensing the inclination angle from the horizontal ground of the wheelchair device,
The control unit,
When the inclination angle is greater than or equal to a critical inclination angle, controlling the driving unit to stop, outputting an emergency signal, and transmitting an emergency message to the guardian of the user.
Wheelchair device.
제1항에 있어서,
상기 제어부는,
상기 사용자의 호출기로부터 호출 메시지를 수신한 경우 상기 호출기의 위치로 이동하기 위해 상기 구동부를 제어하는
휠체어 장치.
The method of claim 1,
The control unit,
When receiving a paging message from the pager of the user, controlling the driving unit to move to the position of the pager
Wheelchair device.
KR1020190098645A 2019-08-13 2019-08-13 Wheelchair apparatus for movement and expression of user based on eye movement KR20210019704A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190098645A KR20210019704A (en) 2019-08-13 2019-08-13 Wheelchair apparatus for movement and expression of user based on eye movement

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190098645A KR20210019704A (en) 2019-08-13 2019-08-13 Wheelchair apparatus for movement and expression of user based on eye movement

Publications (1)

Publication Number Publication Date
KR20210019704A true KR20210019704A (en) 2021-02-23

Family

ID=74688124

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190098645A KR20210019704A (en) 2019-08-13 2019-08-13 Wheelchair apparatus for movement and expression of user based on eye movement

Country Status (1)

Country Link
KR (1) KR20210019704A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IT202100027698A1 (en) * 2021-10-28 2023-04-28 Le Mille E Una Notte Soc Cooperativa Sociale SELF-DRIVING WHEELCHAIR WITH MULTIMEDIA AIDS, FACILITATED COMMUNICATION AND INTEGRATED GYROSCOPIC ORIENTATION HEADPHONES

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IT202100027698A1 (en) * 2021-10-28 2023-04-28 Le Mille E Una Notte Soc Cooperativa Sociale SELF-DRIVING WHEELCHAIR WITH MULTIMEDIA AIDS, FACILITATED COMMUNICATION AND INTEGRATED GYROSCOPIC ORIENTATION HEADPHONES

Similar Documents

Publication Publication Date Title
JP7153096B2 (en) System and method enabling communication by eye feedback
Wanluk et al. Smart wheelchair based on eye tracking
TWI535432B (en) Rehabilitation device with pace pattern projecting function and seat structure and control method thereof
WO2017149868A1 (en) Information processing device, information processing method, and program
KR102104896B1 (en) robot cleaner and caring method of human using the same
WO2010110411A1 (en) Device for input via head motions
JP2019530479A (en) Mobility aid control method, apparatus and system
CN111052044B (en) Information processing apparatus, information processing method, and program
JPH07248823A (en) Personal robot device
US20190019512A1 (en) Information processing device, method of information processing, and program
JP2009045692A (en) Communication robot and its operating method
JP2007216363A (en) Communication robot
CN109241900B (en) Wearable device control method and device, storage medium and wearable device
KR20160097894A (en) System for user oriented autonomous shopping cart by non-contacting user interface, and method for controlling autonomous shopping cart using the same
Dalsaniya et al. Smart phone based wheelchair navigation and home automation for disabled
US9465981B2 (en) System and method for communication
KR20210019704A (en) Wheelchair apparatus for movement and expression of user based on eye movement
Chacón-Quesada et al. Augmented reality controlled smart wheelchair using dynamic signifiers for affordance representation
WO2019215983A1 (en) Information processing system, information processing method, and recording medium
Kalpana et al. An intelligent voice-recognition wheelchair system for disabled persons
Pinheiro et al. The wheelie—a facial expression controlled wheelchair using 3D technology
Delmas et al. SpheriCol: A driving assistance system for power wheelchairs based on spherical vision and range measurements
JP2009183538A (en) Wheelchair with autonomous traveling ability
TWM517882U (en) Intelligent mobile nursing device
Chee et al. Eye Tracking Electronic Wheelchair for physically challenged person

Legal Events

Date Code Title Description
E601 Decision to refuse application