KR20210016752A - 중증 환자를 위한 영문 입력자판 - Google Patents

중증 환자를 위한 영문 입력자판 Download PDF

Info

Publication number
KR20210016752A
KR20210016752A KR1020190094912A KR20190094912A KR20210016752A KR 20210016752 A KR20210016752 A KR 20210016752A KR 1020190094912 A KR1020190094912 A KR 1020190094912A KR 20190094912 A KR20190094912 A KR 20190094912A KR 20210016752 A KR20210016752 A KR 20210016752A
Authority
KR
South Korea
Prior art keywords
display window
character
patient
clock
detailed
Prior art date
Application number
KR1020190094912A
Other languages
English (en)
Inventor
윤현진
Original Assignee
윤현진
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 윤현진 filed Critical 윤현진
Priority to KR1020190094912A priority Critical patent/KR20210016752A/ko
Priority to US16/984,355 priority patent/US20210042029A1/en
Publication of KR20210016752A publication Critical patent/KR20210016752A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/163Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state by tracking eye movement, gaze, or pupil change
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/7475User input or interface means, e.g. keyboard, pointing device, joystick
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F4/00Methods or devices enabling patients or disabled persons to operate an apparatus or a device not forming part of the body 
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/0202Constructional details or processes of manufacture of the input device
    • G06F3/0219Special purpose keyboards
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0233Character input methods
    • G06F3/0236Character input methods using selection techniques to select from displayed items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B1/00Manually or mechanically operated educational appliances using elements forming, or bearing, symbols, signs, pictures, or the like which are arranged or adapted to be arranged in one or more particular ways
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B21/00Teaching, or communicating with, the blind, deaf or mute
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H80/00ICT specially adapted for facilitating communication between medical practitioners or patients, e.g. for collaborative diagnosis, therapy or health monitoring

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • Business, Economics & Management (AREA)
  • Veterinary Medicine (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Educational Technology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Pathology (AREA)
  • Educational Administration (AREA)
  • Surgery (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Vascular Medicine (AREA)
  • Primary Health Care (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Epidemiology (AREA)
  • Child & Adolescent Psychology (AREA)
  • General Business, Economics & Management (AREA)
  • Social Psychology (AREA)
  • Psychology (AREA)
  • Psychiatry (AREA)
  • Hospice & Palliative Care (AREA)
  • Developmental Disabilities (AREA)
  • User Interface Of Digital Computer (AREA)
  • Input From Keyboards Or The Like (AREA)

Abstract

본 발명에 따른 중증 환자를 위한 영문 입력자판은 모든 알파벳과 숫자들이 여러 개의 분할 표시창에 소정의 개수로 분할되어 배치된 통합 글자판, 상기 분할 표시창에 포함된 알파벳 또는 숫자가 배치된 세부 글자판을 포함하여 구성될 수 있다. 환자는 눈동자의 움직임을 통해서 제시되는 영문 입력자판에서 의도하는 정보가 나타난 창을 선택하고, 보호자는 선택된 알파벳들을 결합하여 환자와 의사소통할 수 있다.

Description

중증 환자를 위한 영문 입력자판{English input keyboard for critically ill patients}
본 발명은 중증 환자를 위한 영문 입력자판에 관한 것으로서, 보다 상세하게는 루게릭 병과 같이 정신활동은 가능하나 신체를 거의 움직일 수 없지만 눈동자의 움직임이 가능한 환자가 사용할 수 있는 영문 입력자판에 관한 것이다.
일반적으로 의사소통 장애인을 위한 보완 대체 의사소통은 주로 발달장애 아동을 대상으로 한 기술이 많으며, 특히 운동 능력에 제한이 없는 발달장애 아동을 대상으로 한 제품이 주를 이루고 있다. 그러나, 근위축성측삭경화증(Amyotrophic Lateral Sclerosis: ALS), 케네디병(Kennedy Disease: KD), 진행성 연수마비(Progressive Bulbar Palsy: PBP)과 같은 운동신경질환이 있는 성인환자들은 점차 운동 능력에 제한이 생기고, 언어를 사용한 의사소통이 매우 어려운 상황에 이르게 된다.
이들의 신체의 대부분은 점차 운동능력을 상실하고 최종적으로는 눈 응시 혹은 눈움직임만이 가능한 상태가 되며, 이로 인해 말을 통한 의사소통은 거의 불가능한 상황이 된다. 결국 이들에게는 눈 응시 및 눈움직임이 외부와의 소통을 위한 유일한 신호가 되지만, 종래 이들의 특수한 상황을 고려한 보완 대체 의사소통 관련 제품은 개발이 많이 되어 있지 않은 상황이다.
근래에는 사용자가 기기를 통해 의사를 표현할 수 있도록 하는 두뇌-컴퓨터 인터페이스(Brain-Computer Interface)와 같은 기술이 개발되고 있다. 이는, 뇌의 활동과정에서 나오는 뇌파를 실시간으로 분석하여 사용자의 의도를 파악하여 키보드를 입력하게 하거나 특정 기기를 동작하게 하는 등 상용화에 성공한 사례가 점차 증가하는 추세에 있다.
그러나, 이러한 BCI 시스템은 비교적 고가이기에 일반 사용자가 접하기에 다소 부담스러운 점이 있으며, BCI 시스템을 사용한다 하여도 간단한 의사소통을 위해서 항상 머리에 뇌파를 분석하는 장치를 쓰고 있어야 하는 번거로운 문제가 발생할 수도 있다. 이에, 일반 사용자가 손쉽게 사용할 수 있는 중증 환자와의 의사소통 제품이 개발될 필요성이 높아지고 있다.
본 발명은 근위축성측삭경화증(Amyotrophic Lateral Sclerosis: ALS), 케네디병(Kennedy Disease: KD), 진행성 연수마비(Progressive Bulbar Palsy: PBP)과 같이 신체의 대부분을 움직일 수 없는 운동신경질환을 앓고 있는 중증 환자와의 의사소통이 보다 쉽게 이루어질 수 있는 매개 수단을 제공함에 그 목적이 있다.
본 발명은 중증 환자의 사고 언어가 영어인 경우 보호자와 좀 더 빠르고 편리하게 의사소통할 수 있는 영문 입력자판을 제공함에 그 목적이 있다.
본 발명의 실시예에 따른 중증 환자를 위한 영문 입력자판은 영문에 사용되는 모든 알파벳과 아라비아 숫자들이 여러 개의 분할 표시창에 소정의 개수로 분할되어 배치된 통합 글자판과, 상기 분할 표시창에 포함된 알파벳과 숫자들이 각각 한 개씩 세부 글자판에 배치된 세부 글자판을 포함하고, 상기 분할 표시창은 상기 통합 글자판 내부에서 소정의 각도를 이루면서 배치되며, 상기 세부 글자판에는 상기 분할 표시창에 포함되어 있는 알파벳 또는 숫자를 포함한 복수개의 섹터가 소정의 각도를 이루면서 배열되고, 상기 분할 표시창과 섹터는 상기 통합 글자판과 세부 글자판 내부에서 동일한 개수와 동일한 위치를 가지도록 형성되며, 환자의 대화상대는 환자에게 상기 통합 글자판을 제시하여 환자의 눈동자가 응시하는 방향에 해당되는 통합 글자판 내의 분할 표시창을 인식하고, 상기 분할 표시창 내의 정보를 포함하는 세부 글자판을 환자에게 제시하여 환자의 눈동자가 응시하는 방향에 해당되는 섹터의 알파벳 또는 숫자를 입력하는 일련의 과정을 반복하여 단어 또는 문장을 생성함으로써 환자와의 의사 소통이 이루어지도록 한다.
여기서, 상기 통합 글자판은 환자의 대화상대에 의해 환자가 선택한 알파벳 또는 숫자의 입력이 수행되는 문자 입력창을 더 포함할 수 있다.
그리고, 상기 분할 표시창의 내부에는 6개의 알파벳 또는 6개의 숫자 또는 알파벳과 숫자의 합이 6개로 조합되며, 상기 분할 표시창은 상기 통합 글자판의 중심을 기준으로 12시 방향에 위치한 제1 분할 표시창, 10시 방향에 위치한 제2 분할 표시창, 2시 방향에 위치한 제3 분할 표시창, 8시 방향에 위치한 제4 분할 표시창, 4시 방향에 위치한 제5 분할 표시창, 6시 방향에 위치한 제6 분할 표시창을 포함한다.
이 때, 상기 제1 분할 표시창에 포함된 문자 정보가 6개의 방향으로 하나씩 배치되는 제1 세부 글자판, 상기 제2 분할 표시창에 포함된 문자 정보가 6개의 방향으로 하나씩 배치되는 제2 세부 글자판, 상기 제3 분할 표시창에 포함된 문자 정보가 6개의 방향으로 하나씩 배치되는 제3 세부 글자판, 상기 제4 분할 표시창에 포함된 문자 정보가 6개의 방향으로 하나씩 배치되는 제4 세부 글자판, 상기 제5 분할 표시창에 포함된 문자 정보가 6개의 방향으로 하나씩 배치되는 제5 세부 글자판, 상기 제6 분할 표시창에 포함된 문자 정보가 6개의 방향으로 하나씩 배치되는 제6 세부 글자판을 포함할 수 있다.
이 때, 상기 제1 세부 글자판 내지 제6 세부 글자판은, 중심을 기준으로 12시 방향에 위치하며 하나의 문자를 포함한 제1 섹터, 10시 방향에 위치하며 하나의 문자를 포함한 제2 섹터, 2시 방향에 위치하며 하나의 문자를 포함한 제3 섹터, 8시 방향에 위치하며 하나의 문자를 포함한 제4 섹터, 4시 방향에 위치하며 하나의 문자를 포함한 제5 섹터 및 6시 방향에 위치하며 하나의 문자를 포함한 제6 섹터를 포함할 수 있다.
본 발명의 실시예에 따른 중증 환자를 위한 영문 입력자판은 신체움직임 중에서 눈의 움직임이 가능한 환자에 대해서 사용할 수 있으며, 환자는 고가의 장비를 사용하지 않고도 눈을 응시하여 원하는 바를 빠르고 정확하게 표현할 수 있다.
본 발명의 영문 입력자판은 휴대가 가능한 스마트폰 또는 패드에서 화면으로 보여지는 상태로 제공될 수 있으며, 각각의 화면이 여러개의 영문 입력자판으로 제공될 수도 있기 때문에 환자에게 적합한 방식을 선택하여 의사표현이 가능하며, 환자가 이동중인 경우에도 의사표현이 가능한 장점이 있다.
본 발명의 영문 입력자판은 사용자의 신체적 능력에 따라 자발적 사용 또는 대화 상대자의 보조에 의한 사용이 가능하고, 인지능력이 정상 수준에 해당하며 문해력이 있는 환자에게 적용 가능하다.
도 1은 본 발명의 실시예에 따른 중증 환자를 위한 영문 입력자판에서 통합 화면을 나타낸 도면
도 2는 본 발명의 실시예에 따른 중증 환자를 위한 영문 입력자판에서 세부 화면을 나타낸 도면
도 3은 본 발명의 실시예에 따른 중증 환자를 위한 영문 입력자판에서 문자를 입력하는 과정을 나타낸 도면
이하 첨부된 도면들을 참조하여 본 실시예에 대하여 상세하게 설명하지만, 본 실시예에 의해 제한되거나 한정되는 것은 아니다. 본 발명을 설명함에 있어서, 공지된 기능 혹은 구성에 의해 구체적인 설명은 본 발명의 요지를 명료하게 하기 위해 생략될 수 있다.
본 발명은 신체 움직임 중에서 유일하게 눈의 응시만이 가능한 퇴행성 의사소통 장애 환자가 사용할 수 있는 영문 입력자판으로, 스마트폰 또는 패드에 설치된 어플리케이션으로 제공될 수도 있고, 복수개의 문자판 세트로 제공될 수도 있으며 이하에서는 스마트폰과 같은 전자기기의 화면에서 본 영문 입력자판을 사용함을 예로 들어 설명한다. 또한, 본 발명의 영문 입력자판은 영문 알파벳을 기초로 한 타이핑 방법에 기초하고 있다.
도 1은 본 발명의 실시예에 따른 중증 환자를 위한 영문 입력자판에서 통합 글자판을 나타낸 도면이다. 도 1을 참조하면, 통합 글자판(100)은 영문을 구성하는 모든 알파벳과 모든 아라비아 숫자를 포함하며 환자에게 처음 보여지는 영문 입력자판일 수 있다.
상기 통합 글자판(100)은 복수개의 분할 표시창(110, 120, 130, 140, 150), 재시작창(160) 및 문자 입력창(170)을 포함할 수 있다. 상기 분할 표시창(110, 120, 130, 140, 150)과 상기 재시작창(160)은 환자가 눈동자의 응시를 통해 선택되는 창이며, 상기 문자 입력창(170)은 환자의 대화상대(보호자)에 의해 입력되는 창일 수 있다.
상기 분할 표시창(110, 120, 130, 140, 150)들은 상기 통합 글자판(100)의 중심을 기준으로 기설정된 각도에 따라 배치될 수 있다. 영문을 구성하는 총 26개의 알파벳과 10개의 아라비아 숫자가 소정의 개수만큼 분할되어 각각의 분할 표시창에 표시될 수 있다.
실시예는 상기 각각의 분할 표시창(110, 120, 130, 140, 150)이 최대 6개의 알파벳과 숫자를 포함하도록 배치하였으며, 알파벳과 숫자의 총합은 36이므로 통합 글자판(100)에는 총 6개의 분할 표시창이 형성될 수 있다.
상기 분할 표시창(110, 120, 130, 140, 150)은 통합 글자판(100)의 중심을 기준으로 12시 방향에 위치한 제1 분할 표시창(110), 10시 방향에 위치한 제2 분할 표시창(120), 2시 방향에 위치한 제3 분할 표시창(130), 8시 방향에 위치한 제4 분할 표시창(140), 4시 방향에 위치한 제5 분할 표시창(150), 6시 방향에 위치한 제6 분할 표시창(160)을 포함할 수 있다. 실시예에서는 환자의 눈의 응시가 6방향으로 구분되도록 6개로 이루어진 각각의 분할 표시창이 소정의 거리만큼 이격되며 중심을 기준으로 소정의 각도를 갖도록 배치하였다.
문자 입력부(170)는 환자의 대화상대(보호자)가 입력을 수행하는 영역으로, 환자가 선택한 문자를 입력하여 단어를 완성할 수 있다.
도 1에서는 편의상 알파벳과 숫자의 읽는 순서대로 정렬하여 각각의 분할 표시창에 표시되도록 하였으나, 26개의 영문과 10개의 숫자는 각 분할 표시창에 랜덤하게 섞여 있어도 무방하다. 보호자는 환자의 선택 빈도가 높은 알파벳이나 숫자를 파악하여, 알파벳과 숫자를 환자의 눈 응시로 인한 판독이 쉽도록 임의적으로 배치할 수 있다.
도 2는 본 발명의 실시예에 따른 중증 환자를 위한 영문 입력자판에서 세부 글자판을 나타낸 도면이다. 도 2를 참조하면, 세부 글자판은 도 1에서 환자에 의해 선택되는 분할 표시창에 의해 선택될 수 있는 영문 입력자판이다.
도 1에서 제1 분할 표시창(110)은 (A, B, C, 1, 2, 3)의 알파벳과 숫자를 포함하고 있으며, 상기 제1 분할 표시창(110)이 선택되는 경우에는 상기 제1 분할 표시창(110)의 세부 정보를 포함하는 제1 세부 글자판(111)이 환자에게 제시될 수 있다.
상기 제1 세부 글자판(111)은, 상기 제1 세부 글자판(111)의 중심을 기준으로 12시 방향에 위치한 제1 섹터(112), 10시 방향에 위치한 제2 섹터(113), 2시 방향에 위치한 제3 섹터(114), 8시 방향에 위치한 제4 섹터(115), 4시 방향에 위치한 제5 섹터(116) 및 6시 방향에 위치한 제6 섹터(117)를 포함할 수 있다.
제1 세부 글자판(111)은 (A, B, C, 1, 2, 3)의 알파벳과 숫자를 포함하고 있으므로, 제1 섹터(112)는 'A', 제2 섹터(113)는 'B', 제3 섹터(114)는 'C', 제4 섹터(115)는 '1', 제5 섹터(116)는 '2', 제2 섹터(117)는 '3'의 정보를 포함할 수 있다.
마찬가지로, 세부 글자판은 제2 분할 표시창(120)에 포함된 문자 정보(D, E, F, 4, 5, 6)를 포함한 제2 세부 글자판(121), 제3 분할 표시판(130)에 포함된 문자 정보(G, H, I, 7, 8, 9)를 포함한 제3 세부 글자판(131), 제4 분할 표시창(140)에 포함된 문자 정보(J, K, L, M, N, O)를 포함한 제4 세부 글자판(141), 제5 분할 표시창(150)에 포함된 문자 정보(P, Q, R, S, T, U)를 포함한 제5 세부 글자판(151), 제6 분할 표시창(160에 포함된 문자 정보(V, W, X, Y, Z, 0)을 포함한 제6 세부 글자판(161)을 포함할 수 있다.
상기 제2 세부 글자판(121) 내지 제6 세부 글자판(161)은 제1 세부 글자판(111)과 동일하게, 중심을 기준으로 12시 방향에 위치한 제1 섹터(122, 132, 142, 152, 162), 10시 방향에 위치한 제2 섹터(123, 133, 143, 153, 163), 2시 방향에 위치한 제3 섹터(124, 134, 144, 154, 164), 8시 방향에 위치한 제4 섹터(125, 135, 145, 155, 165), 4시 방향에 위치한 제5 섹터(126, 136, 146, 156, 166), 6시 방향에 위치한 제6 섹터(127, 137, 147, 157, 167)를 포함할 수 있다.
제6분할 표시창 “0”은 숫자 0과 안쪽의
Figure pat00001
은 숫자“0” 또는 마침표 “
Figure pat00002
”의 의미로 사용될 수 있다.
실시예에서는 알파벳 또는 숫자가 포함된 분할 표시창을 6개로 배치하였기 때문에, 이에 대응되는 세부 글자판 또한 6개가 마련될 수 있다.
도 3은 본 발명의 실시예에 따른 중증 환자를 위한 영문 입력자판에서 문자를 입력하는 과정을 나타낸 도면으로, 영문 입력자판을 사용하여 하나의 글자를 입력하는 과정을 보여주고 있다.
우선, 환자의 대화상대(보호자)는 환자와의 의사소통을 위해 환자가 영문 입력자판을 볼 수 있는 위치로 최초 영문 입력자판인 통합 글자판(100)을 제시한다. 환자는 의도한 단어를 표현하기 위해 눈동자를 움직여 의도한 단어의 초성에 해당하는 영문 또는 숫자가 포함되어 있는 통합 글자판(100) 내부의 분할 표시창을 응시한다. 이 때, 보호자는 환자의 눈동자 움직임을 관찰하여 환자가 응시하고 있다고 판단되는 분할 표시창을 인식한다.
“LIKE”라는 글자를 입력하는 것으로 예를 들어 설명하면, 환자는 'L'이 포함된 8시 방향의 제4 분할 표시창(140)을 응시할 것이며, 보호자는 해당 제4 분할 표시창(140)의 세부 정보를 포함한 제4 세부 글자판(141)을 환자에게 제시한다. 환자는 다시 제4 세부 글자판(141)에서 'L'이 위치한 2시 방향의 제3 섹터(144)를 응시할 것이며, 보호자는 환자의 눈동자 움직임을 보고 문자 입력부(127)에 'L'을 기입한다. 상술한 바와 같은 과정을 거쳐 하나의 알파벳에 대한 입력과정이 수행될 수 있다.
이어서, 다시 환자에게 전체 글자판(100)이 제시될 수 있다. 환자는 눈동자를 움직여 통합 글자판(100)에 배치된 여러 개의 분할 표시창 중에서 2시 방향의 제3 분할 표시창(130)을 응시할 것이다. 환자가 제3 분할 표시창(130)을 응시하였다고 판단되면, 보호자는 제3 분할 표시창(130)의 문자 정보를 포함한 제3 세부 글자판(131)을 환자에게 제시한다. 환자는 다시 제3 세부 글자판(131)에서 'I'가 위치한 제3 섹터(134)를 응시할 것이며, 보호자는 환자의 눈동자 움직임을 보고 문자 입력부(138)에 'I' 를 기입하며, 이전에 기입된 'L'과 결합하여 'LI'가 기입될 수 있다. 이러한 과정을 'K'와 'E'에 대해 동일하게 반복함으로써 'LIKE'란 단어가 완성될 수 있다.
상술한 바와 같이, 본 발명의 영문 입력자판은 키보드의 입력방식에 기초하여 환자가 원하는 문자를 환자의 의도에 따라 보호자가 반응하여 순차적으로 선택하고, 선택된 문자를 보호자가 입력함으로써 환자가 의도하는 단어가 완성될 수 있으며, 이에 환자와 보호자 간의 빠른 의사소통이 이루어질 수 있다.
실시예는 영문 알파벳과 아라비아 숫자의 총합이 36개인 것을 고려하여, 환자의 눈동자 응시 방향을 보다 잘 인식할 수 있도록 영문 입력자판의 중심을 기준으로 6방향에 선택할 수 있는 창이 배치되도록 하였다. 즉, 통합 글자판과 이에 연동되는 세부 글자판 내부의 배치된 창의 개수가 동일하기 때문에, 환자는 눈동자의 움직임을 2가지의 글자판에서 동일하게 유지할 수 있다. 이에 보호자는 환자의 눈동자의 위치를 파악하기 쉽고, 환자가 의도하는 문자가 더욱 정확하게 선택될 수 있다.
실시예는 보호자가 환자에게 영문 입력자판을 제시하고 환자에 의해 선택된 영문 또는 숫자창을 보호자가 인식하여 해당되는 영문 입력자판을 다시 환자에게 제시하는 방식이 사용되며, 환자에게 제시되는 영문 입력자판은 종이의 형태로 제작될 수도 있으며 내구성을 위해 가벼운 플라스틱 재질로 제작될 수도 있다.
또한, 본 발명은 스마트 폰 또는 패드에 설치된 어플리케이션의 형태로 제공될 수 있다. 이 경우에는, 디스플레이의 형식으로 환자에게 통합 화면이 제시되며, 환자는 화면에서 의도하고자 하는 알파벳 또는 숫자가 포함된 분할 표시창을 응시할 수 있으며, 보호자는 환자의 눈동자의 위치를 파악하여 해당되는 분할 표시창을 터칭한다. 분할 표시창에는 해당되는 세부 글자판이 미리 저장되어 있어, 선택된 세부 글자판이 포함하는 알파벳 또는 숫자가 화면의 중앙을 기준으로 기설정된 각도로 화면상에 배치될 수 있다. 환자가 눈동자의 움직임을 통해 의도하는 영문 또는 숫자를 응시하면, 환자의 대화상대가 해당되는 알파벳 또는 숫자를 터치함에 따라 화면의 하단 또는 특정 영역에 해당 문자가 나타난다. 스마트폰 어플리케이션을 사용하는 경우에는 환자가 응시하는 방향을 내장된 카메라로 인식하여, 통합 글자판과 세부 글자판을 통해 환자가 의도하는 문자가 디스플레이되도록 할 수 있다.
이후의 과정은 앞서 설명한 바와 동일하게 진행될 수 있으며, 보호자는 환자가 선택하는 영문, 숫자를 조합하여 환자의 의도를 단어 또는 문장으로 표현함으로써 환자와의 의사소통을 원활하게 수행할 수 있다.
이상에서 본 발명에 대하여 그 바람직한 실시예를 중심으로 설명하였으나 이는 단지 예시일 뿐 본 발명을 한정하는 것은 아니며, 본 발명이 속하는 분야의 통상의 지식을 가진 자라면 본 발명의 본질적인 특성을 벗어나지 않는 범위에서 이상에 예시되지 않은 여러 가지의 변형과 응용이 가능함을 알 수 있을 것이다. 예를 들어 본 발명의 실시예에 구체적으로 나타난 각 구성 요소는 변형하여 실시할 수 있는 것이다. 그리고 이러한 변형과 응용에 관계된 차이점들은 첨부된 청구 범위에서 규정하는 본 발명의 범위에 포함되는 것으로 해석되어야 할 것이다.

Claims (5)

  1. 영문에 사용되는 모든 알파벳과 아라비아 숫자들이 여러 개의 분할 표시창에 소정의 개수로 분할되어 배치된 통합 글자판과,
    상기 분할 표시창에 포함된 알파벳과 숫자들이 각각 한 개씩 세부 글자판에 배치된 세부 글자판을 포함하고,
    상기 분할 표시창은 상기 통합 글자판 내부에서 소정의 각도를 이루면서 배치되며, 상기 세부 글자판에는 상기 분할 표시창에 포함되어 있는 알파벳 또는 숫자를 포함한 복수개의 섹터가 소정의 각도를 이루면서 배열되고, 상기 분할 표시창과 섹터는 상기 통합 글자판과 세부 글자판 내부에서 동일한 개수와 동일한 위치를 가지도록 형성되며,
    환자의 대화상대는 환자에게 상기 통합 글자판을 제시하여 환자의 눈동자가 응시하는 방향에 해당되는 통합 글자판 내의 분할 표시창을 인식하고, 상기 분할 표시창 내의 정보를 포함하는 세부 글자판을 환자에게 제시하여 환자의 눈동자가 응시하는 방향에 해당되는 섹터의 알파벳 또는 숫자를 입력하는 일련의 과정을 반복하여 단어 또는 문장을 생성함으로써 환자와의 의사 소통이 이루어지도록 하는 중증 환자를 위한 영문 입력자판.
  2. 제 1항에 있어서,
    상기 통합 글자판은 환자의 대화상대에 의해 환자가 선택한 알파벳 또는 숫자의 입력이 수행되는 문자 입력창을 더 포함하는 중증 환자를 위한 영문 입력자판.
  3. 제 1항에 있어서,
    상기 분할 표시창의 내부에는 6개의 알파벳 또는 6개의 숫자 또는 알파벳과 숫자의 합이 6개로 조합되며,
    상기 분할 표시창은 상기 통합 글자판의 중심을 기준으로 12시 방향에 위치한 제1 분할 표시창, 10시 방향에 위치한 제2 분할 표시창, 2시 방향에 위치한 제3 분할 표시창, 8시 방향에 위치한 제4 분할 표시창, 4시 방향에 위치한 제5 분할 표시창, 6시 방향에 위치한 제6 분할 표시창을 포함하는 중증 환자를 위한 영문 입력자판.
  4. 제 3항에 있어서,
    상기 제1 분할 표시창에 포함된 문자 정보가 6개의 방향으로 하나씩 배치되는 제1 세부 글자판, 상기 제2 분할 표시창에 포함된 문자 정보가 6개의 방향으로 하나씩 배치되는 제2 세부 글자판, 상기 제3 분할 표시창에 포함된 문자 정보가 6개의 방향으로 하나씩 배치되는 제3 세부 글자판, 상기 제4 분할 표시창에 포함된 문자 정보가 6개의 방향으로 하나씩 배치되는 제4 세부 글자판, 상기 제5 분할 표시창에 포함된 문자 정보가 6개의 방향으로 하나씩 배치되는 제5 세부 글자판, 상기 제6 분할 표시창에 포함된 문자 정보가 6개의 방향으로 하나씩 배치되는 제6 세부 글자판을 포함하는 중증 환자를 위한 영문 입력자판.
  5. 제 4항에 있어서,
    상기 제1 세부 글자판 내지 제6 세부 글자판은, 중심을 기준으로 12시 방향에 위치하며 하나의 문자를 포함한 제1 섹터, 10시 방향에 위치하며 하나의 문자를 포함한 제2 섹터, 2시 방향에 위치하며 하나의 문자를 포함한 제3 섹터, 8시 방향에 위치하며 하나의 문자를 포함한 제4 섹터, 4시 방향에 위치하며 하나의 문자를 포함한 제5 섹터 및 6시 방향에 위치하며 하나의 문자를 포함한 제6 섹터를 포함하는 중증 환자를 위한 영문 입력자판.
KR1020190094912A 2019-08-05 2019-08-05 중증 환자를 위한 영문 입력자판 KR20210016752A (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020190094912A KR20210016752A (ko) 2019-08-05 2019-08-05 중증 환자를 위한 영문 입력자판
US16/984,355 US20210042029A1 (en) 2019-08-05 2020-08-04 English input keyboard for severe patient

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190094912A KR20210016752A (ko) 2019-08-05 2019-08-05 중증 환자를 위한 영문 입력자판

Publications (1)

Publication Number Publication Date
KR20210016752A true KR20210016752A (ko) 2021-02-17

Family

ID=74499338

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190094912A KR20210016752A (ko) 2019-08-05 2019-08-05 중증 환자를 위한 영문 입력자판

Country Status (2)

Country Link
US (1) US20210042029A1 (ko)
KR (1) KR20210016752A (ko)

Family Cites Families (58)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6903723B1 (en) * 1995-03-27 2005-06-07 Donald K. Forest Data entry method and apparatus
US7293231B1 (en) * 1999-03-18 2007-11-06 British Columbia Ltd. Data entry for personal computing devices
US7750891B2 (en) * 2003-04-09 2010-07-06 Tegic Communications, Inc. Selective input system based on tracking of motion parameters of an input device
US7286115B2 (en) * 2000-05-26 2007-10-23 Tegic Communications, Inc. Directional input system with automatic correction
US7821503B2 (en) * 2003-04-09 2010-10-26 Tegic Communications, Inc. Touch screen and graphical user interface
US7014099B2 (en) * 2001-12-31 2006-03-21 Hewlett-Packard Development Company, L.P. Data entry device
US7199786B2 (en) * 2002-11-29 2007-04-03 Daniel Suraqui Reduced keyboards system using unistroke input and having automatic disambiguating and a recognition method using said system
US8459885B2 (en) * 2005-10-15 2013-06-11 Byung Kon Min Clock face keyboard
CN101004649A (zh) * 2006-01-18 2007-07-25 鸿富锦精密工业(深圳)有限公司 带字符输入轮的电子装置
CN101075164B (zh) * 2006-05-19 2010-05-26 鸿富锦精密工业(深圳)有限公司 利用转轮进行字符输入的电子装置
CN101075163A (zh) * 2006-05-19 2007-11-21 鸿富锦精密工业(深圳)有限公司 利用转轮输入字符的手持装置
US20100289750A1 (en) * 2006-08-04 2010-11-18 Hyung Gi Kim Touch Type Character Input Device
JP5285863B2 (ja) * 2007-03-06 2013-09-11 任天堂株式会社 情報選択装置、情報選択プログラム、ゲーム装置およびゲームプログラム
WO2008106729A1 (en) * 2007-03-07 2008-09-12 Kannuu Pty Ltd Method system and apparatus for entering text on a computing device
US8456425B2 (en) * 2008-01-30 2013-06-04 International Business Machines Corporation Self-adapting keypad
US20110029869A1 (en) * 2008-02-29 2011-02-03 Mclennan Hamish Method and system responsive to intentional movement of a device
CN101667092A (zh) * 2008-05-15 2010-03-10 杭州惠道科技有限公司 实时预测用户输入的人机界面
US20100117966A1 (en) * 2008-11-11 2010-05-13 Burrell Iv James W Keyboard control means
US8671357B2 (en) * 2008-11-25 2014-03-11 Jeffrey R. Spetalnick Methods and systems for improved data input, compression, recognition, correction, and translation through frequency-based language analysis
US9195317B2 (en) * 2009-02-05 2015-11-24 Opentv, Inc. System and method for generating a user interface for text and item selection
WO2010110550A1 (en) * 2009-03-23 2010-09-30 Core Logic Inc. Apparatus and method for providing virtual keyboard
KR20110018075A (ko) * 2009-08-17 2011-02-23 삼성전자주식회사 휴대용 단말기에서 터치스크린을 이용한 문자 입력 방법 및 장치
US8947355B1 (en) * 2010-03-25 2015-02-03 Amazon Technologies, Inc. Motion-based character selection
US8593375B2 (en) * 2010-07-23 2013-11-26 Gregory A Maltz Eye gaze user interface and method
JP2012032872A (ja) * 2010-07-28 2012-02-16 Funai Electric Co Ltd 文字入力装置
DE102010036906A1 (de) * 2010-08-06 2012-02-09 Tavendo Gmbh Konfigurierbares Pie-Menü
US9122318B2 (en) * 2010-09-15 2015-09-01 Jeffrey R. Spetalnick Methods of and systems for reducing keyboard data entry errors
US20120081294A1 (en) * 2010-09-28 2012-04-05 Quang Sy Dinh Apparatus and method for providing keyboard functionality, via a limited number of input regions, to a separate digital device
US20120162086A1 (en) * 2010-12-27 2012-06-28 Samsung Electronics Co., Ltd. Character input method and apparatus of terminal
US9477322B2 (en) * 2011-01-27 2016-10-25 Michelle Denise Noris Communication and academic achievement assistive device, system, and method
US8704789B2 (en) * 2011-02-11 2014-04-22 Sony Corporation Information input apparatus
US8723798B2 (en) * 2011-10-21 2014-05-13 Matthew T. Vernacchia Systems and methods for obtaining user command from gaze direction
US8710986B2 (en) * 2012-01-19 2014-04-29 Utechzone Co., Ltd. Gaze tracking password input method and device utilizing the same
KR101323281B1 (ko) * 2012-04-06 2013-10-29 고려대학교 산학협력단 입력 장치 및 문자 입력 방법
US9547375B2 (en) * 2012-10-10 2017-01-17 Microsoft Technology Licensing, Llc Split virtual keyboard on a mobile computing device
US9304683B2 (en) * 2012-10-10 2016-04-05 Microsoft Technology Licensing, Llc Arced or slanted soft input panels
CN103970278B (zh) * 2013-01-25 2017-02-08 胡竞韬 一种圆形触感键盘的输入方法及装置
US9268485B2 (en) * 2013-04-30 2016-02-23 Microth, Inc. Lattice keyboards with related devices
US20140380223A1 (en) * 2013-06-20 2014-12-25 Lsi Corporation User interface comprising radial layout soft keypad
US20150089431A1 (en) * 2013-09-24 2015-03-26 Xiaomi Inc. Method and terminal for displaying virtual keyboard and storage medium
US10691332B2 (en) * 2014-02-28 2020-06-23 Samsung Electronics Company, Ltd. Text input on an interactive display
US10564714B2 (en) * 2014-05-09 2020-02-18 Google Llc Systems and methods for biomechanically-based eye signals for interacting with real and virtual objects
KR102227290B1 (ko) * 2014-06-18 2021-03-15 엘지전자 주식회사 이동단말기 및 그 제어방법
CN106716396A (zh) * 2014-07-15 2017-05-24 艾玛尔·Y·塞维尔公司 基于符号的书面语言的字符的输入
CN104506951B (zh) * 2014-12-08 2018-09-04 青岛海信电器股份有限公司 一种文字输入方法、装置及智能终端
US20160202903A1 (en) * 2015-01-12 2016-07-14 Howard Gutowitz Human-Computer Interface for Graph Navigation
FR3034539B1 (fr) * 2015-04-02 2017-03-24 Eric Didier Jean Claude Provost Procede de selection d'element parmi un groupe d'elements affichables sur une petite surface de saisie
US20170031461A1 (en) * 2015-06-03 2017-02-02 Infosys Limited Dynamic input device for providing an input and method thereof
KR101671838B1 (ko) * 2015-06-17 2016-11-03 주식회사 비주얼캠프 시선 추적을 이용한 입력 장치
US9898192B1 (en) * 2015-11-30 2018-02-20 Ryan James Eveson Method for entering text using circular touch screen dials
WO2017160249A1 (en) * 2016-03-18 2017-09-21 Anadolu Universitesi Method and system for realizing character input by means of eye movement
US10747334B2 (en) * 2016-04-20 2020-08-18 Avi Elazari Reduced keyboard disambiguating system and method thereof
KR101744124B1 (ko) * 2016-08-26 2017-06-07 이진우 문자 출력 영역에서 입력과 출력의 듀얼 기능을 하는 문자 인식 장치 및 그 방법
US20180239422A1 (en) * 2017-02-17 2018-08-23 International Business Machines Corporation Tracking eye movements with a smart device
FR3070852B1 (fr) * 2017-09-08 2019-09-20 Centre National De La Recherche Scientifique Decodage de l'attention visuelle d'un individu a partir de signaux electroencephalographiques
KR102389185B1 (ko) * 2017-10-17 2022-04-21 삼성전자주식회사 컨텐츠의 적어도 일부를 통해 표시된 입력 인터페이스를 이용하여 기능을 실행하기 위한 전자 장치 및 방법
KR102237659B1 (ko) * 2019-02-21 2021-04-08 한국과학기술원 입력 방법 및 이를 수행하는 장치들
US11210431B2 (en) * 2019-06-07 2021-12-28 Dell Products L.P. Securely entering sensitive information using a touch screen device

Also Published As

Publication number Publication date
US20210042029A1 (en) 2021-02-11

Similar Documents

Publication Publication Date Title
Koch Fager et al. New and emerging access technologies for adults with complex communication needs and severe motor impairments: State of the science
Rezeika et al. Brain–computer interface spellers: A review
Flewitt et al. Touching the virtual, touching the real: iPads and enabling literacy for students experiencing disability
US20110063231A1 (en) Method and Device for Data Input
Myrden et al. Trends in communicative access solutions for children with cerebral palsy
Claypoole et al. Keeping in touch: Tactile interface design for older users
Yusril E-accessibility analysis in user experience for people with disabilities
Porta A study on text entry methods based on eye gestures
Caporusso et al. Enabling touch-based communication in wearable devices for people with sensory and multisensory impairments
Singh et al. HELF (Haptic Encoded Language Framework): a digital script for deaf-blind and visually impaired
US9542099B1 (en) Touch-sensitive rectangular panel and control method thereof
Blignaut Development of a gaze-controlled support system for a person in an advanced stage of multiple sclerosis: a case study
KR102018003B1 (ko) 중증 환자를 위한 문자 입력자판
Cecotti et al. A multiscript gaze-based assistive virtual keyboard
KR20210016752A (ko) 중증 환자를 위한 영문 입력자판
Schnelle-Walka et al. Automotive multimodal human-machine interface
KR20210025258A (ko) 중증 환자를 위한 일문 입력자판
DV et al. Eye gaze controlled adaptive virtual keyboard for users with SSMI
Sevcik et al. AAC: More than three decades of growth and development
Cholewa et al. Precise eye-tracking technology in medical communicator prototype
KR102065532B1 (ko) 한글 입력용 안구인식 키보드
Jabeen et al. Improving Mobile Device interaction for Parkinson's Disease Patients via PD-Helper.
Jabeen et al. C-SAK: Chinese Scanning Ambiguous Keyboard for Parkinson's Disease Patients
Dafer EMPWRD: Enhanced Modular Platform for People with Rigid Disabilities
Guerreiro User-Sensitive Mobile Interfaces: Accounting for Individual Differences amongst the Blind

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E601 Decision to refuse application