KR100248391B1 - A system and methodology of communication for the deaf and the blind - Google Patents
A system and methodology of communication for the deaf and the blind Download PDFInfo
- Publication number
- KR100248391B1 KR100248391B1 KR1019980014704A KR19980014704A KR100248391B1 KR 100248391 B1 KR100248391 B1 KR 100248391B1 KR 1019980014704 A KR1019980014704 A KR 1019980014704A KR 19980014704 A KR19980014704 A KR 19980014704A KR 100248391 B1 KR100248391 B1 KR 100248391B1
- Authority
- KR
- South Korea
- Prior art keywords
- sign language
- input
- message
- motion
- visually impaired
- Prior art date
Links
Classifications
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B21/00—Teaching, or communicating with, the blind, deaf or mute
- G09B21/04—Devices for conversing with the deaf-blind
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/014—Hand-worn input/output arrangements, e.g. data gloves
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/02—Input arrangements using manually operated switches, e.g. using keyboards or dials
- G06F3/023—Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
- Business, Economics & Management (AREA)
- Educational Administration (AREA)
- Educational Technology (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
본 발명은 시각 장애인의 대화 수단인 시각 장애자용 키보드 및 브레일리(Braille)를 이용한 입·출력시스템과 청각 장애인의 대화 수단인 수화에 사용되는 팔에 부착시킨 위치 및 방향센서(41)(42)와 손에 부착시킨 관절 센서를 컴퓨터에 설치하여 의사 전달 시스템을 구성하므로 시각 장애인과 청각 장애인의 상호간에 의사를 전달할 수 있는 시각 장애인과 청각 장애인의 의사 전달을 위한 시스템 및 방법에 관한 것이다.The present invention is a position and direction sensor (41) (42) attached to the input and output system using a keyboard and braille for the visually impaired conversation means and the arm used for sign language, a conversation means for the hearing impaired The present invention relates to a system and method for communication between the visually impaired and the hearing impaired that can communicate with the visually impaired and the hearing impaired.
Description
본 발명은 시각 장애인과 청각 장애인의 의사 전달을 위한 시스템 및 방법에 관한 것으로, 더 상세하게는 시각 장애인의 대화 수단인 시각장애자용 키보드 및 브레일리(Braille)를 이용한 입·출력시스템과 청각 장애인의 대화 수단인 수화에 사용되는 팔에 부착시킨 위치 및 방향센서와 손에 부착시킨 관절 센서를 컴퓨터에 설치하여 의사 전달 시스템을 구성하므로 시각 장애인과 청각 장애인의 상호간에 의사를 전달할 수 있도록 구성된 것이다.The present invention relates to a system and method for communication between the visually impaired and the hearing impaired, and more particularly, to an input / output system and a hearing impaired system using a keyboard and a braille for the visually impaired. The position and direction sensor attached to the arm used for the sign language, which is a communication means, and the joint sensor attached to the hand are installed on the computer to form a communication system, so that the visually impaired and the hearing impaired can communicate with each other.
일반적으로 장애인을 위해 일반인들과의 상호 대화를 위한 장치들이 개발되고 있으나, 장애인들간의 상호 대화를 위한 장치는 개발되지 않고 있다. 특히, 시각 장애인들과 청각 장애인들간의 상호대화는 장애 특성상 불가능한 문제점이 있었다.In general, devices for mutual communication with the general public have been developed for the disabled, but devices for mutual communication between the disabled have not been developed. In particular, the mutual interaction between the visually impaired and the hearing impaired was impossible due to the characteristics of the disability.
본 발명의 목적은 시각 장애인과 청각 장애인에게 의사 전달 시스템을 이용하여 시각 장애인들과 청각 장애인들이 상호 의사를 전달 할 수 있도록 하는 시각 장애인과 청각 장애인의 의사 전달을 위한 시스템 및 방법을 제공하는데 있다.An object of the present invention is to provide a system and method for communication between the visually impaired and the hearing impaired to enable the visually impaired and the hearing impaired to communicate with each other.
상기 목적을 달성하기 위해 본 발명은 시각 장애인의 대화 수단인 시각장애자용 키보드 및 브레일리(Braille)를 이용한 입·출력시스템과 청각 장애인의 대화 수단인 수화에 사용되는 손과 팔에 부착시킨 위치 및 방향센서와 관절 센서를 컴퓨터에 설치하여 의사 전달 시스템을 구성하므로 시각 장애인과 청각 장애인의 상호간에 의사를 전달할 수 있도록 구성된 것이다.In order to achieve the above object, the present invention provides an input / output system using a visually impaired keyboard and a braille, and a hand and arm attached to a hand and arm used for sign language as a means of dialogue for the visually impaired. By installing a direction sensor and a joint sensor on a computer to construct a communication system, it is configured to communicate a communication between the visually impaired and the hearing impaired.
도 1 은 본 발명의 시각 장애인과 청각 장애인의 의사 전달을 위한 시스템을 나타낸 구성도1 is a block diagram showing a system for communication between the visually impaired and hearing impaired of the present invention
도 2 는 시각 장애인이 청각 장애인에게 의사를 전달하는 과정을 나타낸 구성도2 is a block diagram showing a process for the visually impaired to communicate the hearing to the hearing impaired
도 3 은 시각 장애인이 청각 장애인에게 의사를 전달하는 구조를 나타낸 구성도3 is a block diagram illustrating a structure in which a visually impaired person communicates to a hearing impaired person;
도 4 는 청각 장애인이 시각 장애인에게 의사를 전달하는 과정을 나타낸 구성도4 is a block diagram showing a process for the hearing impaired to communicate to the visually impaired
도 5 는 청각 장애인이 시각 장애인에게 의사를 전달하는 구조를 나타낸 구성도5 is a block diagram showing a structure in which the hearing impaired to communicate to the visually impaired
도 6 은 본 발명의 시각 장애인과 청각 장애인의 의사 전달을 위한 방법을 나타낸 흐름도6 is a flowchart illustrating a method for communication between the visually impaired and the hearing impaired according to the present invention.
* 도면의 주요 부분에 대한 부호의 설명 *Explanation of symbols on the main parts of the drawings
10 : 입력부 11 : 입력 키보드 20 : 제어부10 input unit 11 input keyboard 20 control unit
21 : 수화 모션 데이터 베이스21: Sign Language Motion Database
22 : 수화 인식 데이터 베이스22: Sign language recognition database
30 : 출력부 40 : 수화자30: output unit 40: receiver
41,42 : 위치 및 방향센서41,42: Position and direction sensor
50 : 출력부50: output unit
본 발명은 도 1 에 도시된 바와 같이, 상기 목적을 달성하기 위한 수단으로서 시각 장애인과 청각 장애인의 의사 전달을 위한 시스템은As shown in FIG. 1, the present invention provides a system for communication between the visually impaired and the hearing impaired as a means for achieving the above object.
시각 장애인의 의사전달 수단인 시각장애자용 입력 키보드(11)로 구성된 입력부(10)와,An input unit 10 including an input keyboard 11 for the visually impaired, which is a communication means for the visually impaired,
상기 입력부(10)의 키 입력 문자 코드를 단어로 변화시켜, 변환된 단어를 수화 모션 테이터 베이스(21)를 이용하여 청각 장애인에게 전달하고자 하는 수화 메시지를 검색하는 제어부(20)와,A control unit 20 for changing a key input character code of the input unit 10 into a word and searching for a sign language message to be transmitted to the hearing impaired person using the sign language motion data base 21;
제어부(20)에서 검색된 메시지를 청각 장애인이 인식할 수 있도록 3차원 그래픽을 이용한 수화 애니메인션으로 출력되는 출력부(30)와,An output unit 30 that is output as a sign language animation using 3D graphics so that a hearing impaired person can recognize a message retrieved from the control unit 20,
상기, 전달된 메시지를 청각 장애인이 인식하여 청각 장애인의 의사 전달 수단인 손과 팔을 통해 메시지를 전달함에 있어, 상기 팔에 위치 및 방향센서(41)(42)와 손에 관절 센서를 부착한 수화자(40)와,When the hearing impaired person recognizes the delivered message and delivers the message through the hands and arms which are the communication means of the hearing impaired person, the position and direction sensors 41 and 42 are attached to the arm and the joint sensor is attached to the hand. The receiver 40,
수화자(40)를 통해 입력받은 팔의 위치 및 방향을 가지고 수화 인식 데이터 베이스(22)를 이용하여 시각 장애인에게 전달하고자 하는 메시지로 변환하는 제어부(20)와,A control unit 20 for converting a message to a visually impaired person using a sign language recognition database 22 with the position and direction of an arm received through the talker 40;
제어부(20)에서 변환된 메시지를 시각 장애인이 인식할 수 있도록 브레일리로 출력하는 출력부(50)로 구성한다.The control unit 20 is configured as an output unit 50 for outputting the converted message to the blind so that the visually impaired.
상기한 목적을 달성하기 위한 방법으로서, 도 2 및 도 3 에 도시된 바와 같이, 본 발명의 시각 장애인이 청각 장애인에게 의사를 전달하는 과정을 설명하면,As a method for achieving the above object, as illustrated in FIGS. 2 and 3, when the visually impaired person of the present invention describes a process for communicating a doctor to the hearing impaired,
시각 장애인이 시각장애자용 입력 키보드(11)로 메시지를 입력하면 문자코드로 데이터 통신의 표준인 RS-232C 포트를 통해 컴퓨터인 제어부(20)로 입력되면 수화의 모션으로 변환되어 수화 모션 데이터 베이스(21)를 통하여 3 차원 그래픽으로 수화의 모션을 모니터에 디스플레이 하게 된다.When the visually impaired person inputs a message using the input keyboard 11 for the visually impaired, the character code is input to the control unit 20 which is a computer through the RS-232C port, which is a standard for data communication, and is converted into a sign language motion database ( 21) displays the motion of sign language on the monitor in 3D graphics.
또한, 도 4 및 도 5 에 도시된 바와 같이, 본 발명의 청각 장애인이 시각 장애인에게 의사를 전달하는 과정을 설명하면, 청각 장애인의 수화에 사용되는 팔에 각각 2 개씩의 위치 및 방향센서(41)(42)를 장착함과 동시에 손에 18개의 관절센서를 장착하여 수화로 의사를 전달함으로서, 각각의 위치 및 방향센서(41)(42)는 수화자(40)의 손과 팔의 위치를 컴퓨터인 제어부(20)로 전달하고, 제어부(20)에서는 입력받은 손과 팔의 위치 및 방향을 가지고 수화 인식 데이터 베이스(22)를 통하여 의사전달 메시지를 검색하여 데이터 통신 표준인 RS-232C포트를 통하여 의사전달 내용을 브레일리로 출력하므로 시각 장애인에게 청각 장애인의 의사를 전달할 수 있게 되므로 시각 장애인과 청각 장애인의 상호 의사 전달시 불가능한 시각 장애인과 청각 장애인간의 상호 대화를 가능하게 할 수 있게 된다.In addition, as shown in Figures 4 and 5, when the hearing impaired person of the present invention describes the process of communicating to the visually impaired, two position and direction sensors 41 each on the arm used for sign language of the hearing impaired 41 By mounting the 42 and at the same time by mounting 18 joint sensors in the hand to communicate the sign language, each position and direction sensor 41, 42 is the position of the hand and arm of the receiver 40 The control unit 20 transmits a communication message to the control unit 20 which is a computer, and retrieves a communication message through the sign language recognition database 22 with the position and the direction of the received hand and arm. Since the communication contents are output to Brayley, it is possible to communicate the hearing impaired to the visually impaired. Therefore, mutual communication between the visually impaired and the hearing impaired is impossible when the visually impaired and the hearing impaired communicate. It will be possible.
상기한 목적을 달성하기 위한 수단으로서, 본 발명의 의사 전달을 위한 방법은 도 6에 도시된 바와 같이,As a means for achieving the above object, the method for communication of the present invention is shown in Figure 6,
시각 장애인의 시각장애자용 키보드에서 키 입력 및 청각 장애인의 수화로 의사전달 메시지가 입력되는 단계(100)와,In step 100, a communication message is input by key input and a sign language of a deaf person in the visually impaired keyboard for the visually impaired.
브레일리 키의 입력여부를 판단하는 단계(110)와,Determining whether a braille key is input (110);
만약, 브레일리 키가 입력되면 키 입력을 단어로 변환하는 단계(111)와,If the Bray key is input, the step 111 of converting the key input into a word and
수화 모션 데이터 베이스(21)를 통해 키 입력된 단어를 검색하는 단계(112)와,Searching 112 for a keyed word through the sign language motion database 21,
상기, 키 입력된 단어가 수화 모션 데이터 베이스(21)에 존재 여부를 판단하는 단계(113)와,Determining (113) whether the key-input word is present in a sign language motion database (21);
수화 모션 데이터 베이스(21)에 존재하게 되면 3 차원 그래픽을 이용하여 수화를 디스플레이 하고, 존재하지 않게 되면, 재시도 메시지를 브레일리 출력 장치로 출력하는 단계(114)와,Displaying the sign language using the three-dimensional graphics if present in the sign language motion database 21, and outputting a retry message to the braille output device if it does not exist;
상기, 브레일리 키의 입력여부를 판단하는 단계에서 키가 입력되지 않으면 수화의 움직임 여부를 판단하는 단계(120)와,If the key is not input in the step of determining whether the braille key is input, determining whether the sign language is moved (120);
수화의 움직임이 없으면 초기 단계로 돌아가고, 움직임이 있으면 수화 인식 데이터 베이스를 통해 수화의 모션을 검색하는 단계(121)와,If there is no motion of the sign language, returning to the initial stage, and if there is motion, searching for the motion of the sign language through a sign language recognition database (121);
상기 수화의 모션이 수화 인식 데이터 베이스에 존재 여부를 판단하는 단계(122)와,Determining whether a motion of the sign language exists in a sign language recognition database (122);
수화의 모션이 수화 인식 데이터 베이스(22)에 존재하게 되면 인식된 단어를 점자로 변화하고 브레일리 출력기로 출력하고, 존재하기 않게 되면, 재시도 메시지를 3 차원 그래픽을 이용하여 수화로 디스플레이 하는 단계(123)로 구성하여 상호 의사전달을 제어하므로 시각 장애인과 청각 장애인의 상호간에 의사를 전달할 수 있도록 하는 시각 장애인과 청각 장애인의 의사 전달을 위한 시스템 및 방법을 제공하는 장점이 있다.If the motion of the sign language is present in the sign language recognition database 22, convert the recognized word into Braille and output it to the Bray writer, and if it does not exist, displaying the retry message in sign language using 3D graphics. It is configured to (123) to control mutual communication has the advantage of providing a system and method for communication between the visually impaired and hearing impaired to communicate between the visually impaired and hearing impaired.
이상에서 설명한 바와 같이 본 발명은 시각 장애인과 청각 장애인의 의사 전달을 위한 시스템 및 방법에 관한 것으로, 더 상세하게는 시각 장애인의 대화 수단인 시각장애자용 키보드 및 브레일리(Braille)를 이용한 입·출력시스템과 청각 장애인의 대화 수단인 수화에 사용되는 팔에 부착시킨 위치 및 방향센서를 컴퓨터에 설치하여 의사 전달 시스템을 구성하므로 시각 장애인과 청각 장애인의 상호간에 의사를 전달할 수 있는 효과가 있다.As described above, the present invention relates to a system and method for communication between the visually impaired and the hearing impaired. More specifically, the input and output using the keyboard and the braille for the visually impaired, which are means of communication of the visually impaired, are described. The system and the position and direction sensor attached to the arm used for sign language, a means of communication for the hearing impaired, are installed in the computer to form a communication system, which has the effect of communicating the communication between the visually impaired and the hearing impaired.
Claims (2)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1019980014704A KR100248391B1 (en) | 1998-04-24 | 1998-04-24 | A system and methodology of communication for the deaf and the blind |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1019980014704A KR100248391B1 (en) | 1998-04-24 | 1998-04-24 | A system and methodology of communication for the deaf and the blind |
Publications (2)
Publication Number | Publication Date |
---|---|
KR19990081035A KR19990081035A (en) | 1999-11-15 |
KR100248391B1 true KR100248391B1 (en) | 2000-03-15 |
Family
ID=19536666
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1019980014704A KR100248391B1 (en) | 1998-04-24 | 1998-04-24 | A system and methodology of communication for the deaf and the blind |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR100248391B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20030006570A (en) * | 2001-07-13 | 2003-01-23 | 엘지전자 주식회사 | Transmission apparatus and method for the finger language |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20020011451A (en) * | 2002-01-19 | 2002-02-08 | 이종철 | Sign language translator |
WO2017065324A1 (en) * | 2015-10-13 | 2017-04-20 | 주식회사 네오펙트 | Sign language education system, method and program |
-
1998
- 1998-04-24 KR KR1019980014704A patent/KR100248391B1/en not_active IP Right Cessation
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20030006570A (en) * | 2001-07-13 | 2003-01-23 | 엘지전자 주식회사 | Transmission apparatus and method for the finger language |
Also Published As
Publication number | Publication date |
---|---|
KR19990081035A (en) | 1999-11-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6083270A (en) | Devices and methods for interfacing human users with electronic devices | |
KR970049729A (en) | Client-server system | |
US20030218638A1 (en) | Mobile multimodal user interface combining 3D graphics, location-sensitive speech interaction and tracking technologies | |
WO2004051451A3 (en) | Graphic user interface having touch detectability | |
KR20190121102A (en) | Vehicle including communication system for disabled person and control method of communication system for disabled person | |
US20030208356A1 (en) | Computer network including a computer system transmitting screen image information and corresponding speech information to another computer system | |
Monti et al. | On improving GlovePi: Towards a many-to-many communication among deaf-blind users | |
KR100248391B1 (en) | A system and methodology of communication for the deaf and the blind | |
Petrucci et al. | WebSound: a generic Web sonification tool, and its application to an auditory Web browser for blind and visually impaired users | |
KR20090032635A (en) | Mobile communication terminal for sight disabled and method of transmitting short message using the terminal | |
Kranthi et al. | A two-way communication system with Morse code medium for people with multiple disabilities | |
KR20050032296A (en) | Finger language recognition method and apparatus | |
Nandyal et al. | Raspberrypi based assistive communication system for deaf, dumb and blind person | |
JP2000134301A (en) | Speech communication system | |
KR100235194B1 (en) | Recognition system | |
Nagpal et al. | Helping hand device for speech impaired people | |
Flachberger et al. | Compose Autonomy!-An Adaptable User Interface for Assistive Technology Systems | |
JPH08314687A (en) | Terminal system for handicapped person | |
JPH0463044A (en) | Telephone system | |
Petrucci et al. | WebSound: a generic Web sonification tool allowing HCI researchers to dynamically create new access modalities | |
JPH113369A (en) | Barrier free distributed virtual reality system | |
Dohi et al. | Visual Software Agent: A realistic face-to-face style interface connected with WWW/Netscape | |
KR20210141054A (en) | Tactile information input/output interfdace and apparatus | |
Tadahiro et al. | A study of tactile impressions from vibration stimuli- Various status transmission method based on vibration for deaf/blind and visually impaired persons | |
Komala et al. | Design of Multi Model Interface to Establish Communication Among Differently Abled People Using IOT |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20121129 Year of fee payment: 14 |
|
FPAY | Annual fee payment |
Payment date: 20131128 Year of fee payment: 15 |
|
FPAY | Annual fee payment |
Payment date: 20141217 Year of fee payment: 16 |
|
FPAY | Annual fee payment |
Payment date: 20151209 Year of fee payment: 17 |
|
LAPS | Lapse due to unpaid annual fee |